diff --git a/locales/ar/common.json b/locales/ar/common.json index b0cf6df23958..d7b55c35f878 100644 --- a/locales/ar/common.json +++ b/locales/ar/common.json @@ -195,8 +195,8 @@ }, "tab": { "chat": "الدردشة", + "discover": "اكتشاف", "files": "ملفات", - "market": "الاكتشاف", "me": "أنا", "setting": "الإعدادات" }, diff --git a/locales/ar/discover.json b/locales/ar/discover.json new file mode 100644 index 000000000000..a3ab309e5978 --- /dev/null +++ b/locales/ar/discover.json @@ -0,0 +1,204 @@ +{ + "assistants": { + "addAgent": "إضافة مساعد", + "addAgentAndConverse": "إضافة مساعد والدردشة", + "addAgentSuccess": "تمت الإضافة بنجاح", + "conversation": { + "l1": "مرحبًا، أنا **{{name}}**، يمكنك أن تسألني أي سؤال وسأبذل قصارى جهدي للإجابة ~", + "l2": "إليك مقدمة عن قدراتي: ", + "l3": "لنبدأ المحادثة!" + }, + "description": "مقدمة المساعد", + "detail": "تفاصيل", + "list": "قائمة المساعدين", + "more": "المزيد", + "plugins": "دمج الإضافات", + "recentSubmits": "آخر التحديثات", + "suggestions": "اقتراحات ذات صلة", + "systemRole": "إعدادات المساعد", + "try": "جرب" + }, + "back": "عودة إلى الاكتشاف", + "category": { + "assistant": { + "academic": "أكاديمي", + "all": "الكل", + "career": "مهنة", + "copywriting": "كتابة نصوص", + "design": "تصميم", + "education": "تعليم", + "emotions": "عواطف", + "entertainment": "ترفيه", + "games": "ألعاب", + "general": "عام", + "life": "حياة", + "marketing": "تسويق", + "office": "مكتب", + "programming": "برمجة", + "translation": "ترجمة" + }, + "plugin": { + "all": "الكل", + "gaming-entertainment": "ألعاب وترفيه", + "life-style": "أسلوب حياة", + "media-generate": "توليد الوسائط", + "science-education": "علوم وتعليم", + "social": "وسائل التواصل الاجتماعي", + "stocks-finance": "أسواق مالية", + "tools": "أدوات عملية", + "web-search": "بحث على الويب" + } + }, + "cleanFilter": "مسح الفلتر", + "create": "إنشاء", + "createGuide": { + "func1": { + "desc1": "ادخل إلى صفحة إعداد المساعد الذي ترغب في تقديمه من خلال الإعدادات في الزاوية العليا اليمنى من نافذة المحادثة;", + "desc2": "انقر على زر التقديم إلى سوق المساعدين في الزاوية العليا اليمنى.", + "tag": "الطريقة الأولى", + "title": "تقديم عبر LobeChat" + }, + "func2": { + "button": "اذهب إلى مستودع مساعدي Github", + "desc": "إذا كنت ترغب في إضافة مساعد إلى الفهرس، يرجى استخدام agent-template.json أو agent-template-full.json لإنشاء إدخال في دليل الإضافات، كتابة وصف قصير ووضع علامات مناسبة، ثم إنشاء طلب سحب.", + "tag": "الطريقة الثانية", + "title": "تقديم عبر Github" + } + }, + "dislike": "لا يعجبني", + "filter": "تصفية", + "filterBy": { + "authorRange": { + "everyone": "جميع المؤلفين", + "followed": "المؤلفون المتابعون", + "title": "نطاق المؤلفين" + }, + "contentLength": "أقل طول للسياق", + "maxToken": { + "title": "تعيين الحد الأقصى للطول (Token)", + "unlimited": "غير محدود" + }, + "other": { + "functionCall": "دعم استدعاء الوظائف", + "title": "أخرى", + "vision": "دعم التعرف البصري", + "withKnowledge": "مع قاعدة المعرفة", + "withTool": "مع الإضافات" + }, + "pricing": "أسعار النموذج", + "timePeriod": { + "all": "كل الوقت", + "day": "آخر 24 ساعة", + "month": "آخر 30 يومًا", + "title": "نطاق الوقت", + "week": "آخر 7 أيام", + "year": "آخر سنة" + } + }, + "home": { + "featuredAssistants": "مساعدون مميزون", + "featuredModels": "نماذج مميزة", + "featuredProviders": "مزودو نماذج مميزون", + "featuredTools": "إضافات مميزة", + "more": "اكتشف المزيد" + }, + "like": "أحب", + "models": { + "chat": "بدء المحادثة", + "contentLength": "أقصى طول للسياق", + "free": "مجاني", + "guide": "دليل الإعداد", + "list": "قائمة النماذج", + "more": "المزيد", + "parameterList": { + "defaultValue": "القيمة الافتراضية", + "docs": "عرض الوثائق", + "frequency_penalty": { + "desc": "تقوم هذه الإعدادات بتعديل تكرار استخدام النموذج لكلمات معينة ظهرت بالفعل في المدخلات. القيم الأعلى تقلل من احتمال تكرار هذه الكلمات، بينما القيم السلبية تعزز استخدامها. عقوبة الكلمات لا تزداد مع زيادة عدد مرات الظهور. القيم السلبية ستشجع على تكرار الكلمات.", + "title": "عقوبة التكرار" + }, + "max_tokens": { + "desc": "تحدد هذه الإعدادات الحد الأقصى لطول النص الذي يمكن أن ينتجه النموذج في رد واحد. يسمح تعيين قيمة أعلى للنموذج بإنتاج ردود أطول، بينما تحدد القيمة المنخفضة طول الردود، مما يجعلها أكثر اختصارًا. يمكن أن يساعد ضبط هذه القيمة بشكل معقول وفقًا لمختلف سيناريوهات الاستخدام في تحقيق الطول والتفاصيل المتوقعة للرد.", + "title": "حد الرد الواحد" + }, + "presence_penalty": { + "desc": "تهدف هذه الإعدادات إلى التحكم في تكرار استخدام الكلمات بناءً على تكرار ظهورها في المدخلات. تحاول تقليل استخدام الكلمات التي ظهرت كثيرًا في المدخلات، حيث يتناسب تكرار استخدامها مع تكرار ظهورها. عقوبة الكلمات تزداد مع عدد مرات الظهور. القيم السلبية ستشجع على تكرار الكلمات.", + "title": "جدة الموضوع" + }, + "range": "نطاق", + "temperature": { + "desc": "تؤثر هذه الإعدادات على تنوع استجابة النموذج. القيم المنخفضة تؤدي إلى استجابات أكثر توقعًا ونمطية، بينما القيم الأعلى تشجع على استجابات أكثر تنوعًا وغير شائعة. عندما تكون القيمة 0، يعطي النموذج نفس الاستجابة دائمًا لنفس المدخل.", + "title": "عشوائية" + }, + "title": "معلمات النموذج", + "top_p": { + "desc": "تحدد هذه الإعدادات اختيار النموذج للكلمات ذات الاحتمالية الأعلى فقط: اختيار الكلمات التي تصل احتمالاتها التراكمية إلى P. القيم المنخفضة تجعل استجابات النموذج أكثر توقعًا، بينما الإعداد الافتراضي يسمح للنموذج بالاختيار من جميع نطاق الكلمات.", + "title": "عينات النواة" + }, + "type": "نوع" + }, + "providerInfo": { + "apiTooltip": "يدعم LobeChat استخدام مفتاح API مخصص لهذا المزود.", + "input": "سعر الإدخال", + "inputTooltip": "تكلفة لكل مليون Token", + "latency": "زمن الاستجابة", + "latencyTooltip": "متوسط زمن استجابة المزود لإرسال أول Token", + "maxOutput": "أقصى طول للإخراج", + "maxOutputTooltip": "عدد Tokens الأقصى الذي يمكن أن ينتجه هذا النقطة", + "officialTooltip": "خدمة رسمية من LobeHub", + "output": "سعر الإخراج", + "outputTooltip": "تكلفة لكل مليون Token", + "streamCancellationTooltip": "يدعم هذا المزود ميزة إلغاء التدفق.", + "throughput": "معدل النقل", + "throughputTooltip": "متوسط عدد Tokens المنقولة في الطلبات المتدفقة في الثانية" + }, + "suggestions": "نماذج ذات صلة", + "supportedProviders": "مزودو الخدمة المدعومون لهذا النموذج" + }, + "plugins": { + "community": "إضافات المجتمع", + "install": "تثبيت الإضافة", + "installed": "تم التثبيت", + "list": "قائمة الإضافات", + "meta": { + "description": "وصف", + "parameter": "معامل", + "title": "معامل الأداة", + "type": "نوع" + }, + "more": "المزيد", + "official": "إضافات رسمية", + "recentSubmits": "آخر التحديثات", + "suggestions": "اقتراحات ذات صلة" + }, + "providers": { + "config": "تكوين مزود الخدمة", + "list": "قائمة مزودي النماذج", + "modelCount": "{{count}} نموذج", + "modelSite": "وثائق النموذج", + "more": "المزيد", + "officialSite": "الموقع الرسمي", + "showAllModels": "عرض جميع النماذج", + "suggestions": "مزودو الخدمة ذوو الصلة", + "supportedModels": "النماذج المدعومة" + }, + "search": { + "placeholder": "ابحث عن اسم أو كلمة مفتاحية...", + "result": "{{count}} نتيجة بحث حول {{keyword}}", + "searching": "جارٍ البحث..." + }, + "sort": { + "mostLiked": "الأكثر إعجابًا", + "mostUsed": "الأكثر استخدامًا", + "newest": "الأحدث", + "oldest": "الأقدم", + "recommended": "موصى به" + }, + "tab": { + "assistants": "المساعدون", + "home": "الصفحة الرئيسية", + "models": "النماذج", + "plugins": "الإضافات", + "providers": "مزودو النماذج" + } +} diff --git a/locales/ar/metadata.json b/locales/ar/metadata.json index db3277721324..034b748717a8 100644 --- a/locales/ar/metadata.json +++ b/locales/ar/metadata.json @@ -3,9 +3,26 @@ "description": "{{appName}} يقدم لك أفضل تجربة لاستخدام ChatGPT وClaude وGemini وOLLaMA WebUI", "title": "{{appName}}: أداة الذكاء الاصطناعي الشخصية، امنح نفسك دماغًا أكثر ذكاءً" }, - "market": { - "description": "إنشاء المحتوى، الكتابة، الأسئلة والأجوبة، توليد الصور، توليد الفيديو، توليد الصوت، الوكلاء الذكيون، سير العمل الآلي، خصص مساعد الذكاء الاصطناعي الخاص بك", - "title": "سوق المساعدين" + "discover": { + "assistants": { + "description": "إنشاء المحتوى، الكتابة، الأسئلة والأجوبة، توليد الصور، توليد الفيديو، توليد الصوت، الوكلاء الذكيون، سير العمل الآلي، تخصيص مساعد الذكاء الاصطناعي / GPTs / OLLaMA الخاص بك", + "title": "مساعدات الذكاء الاصطناعي" + }, + "description": "إنشاء المحتوى، الكتابة، الأسئلة والأجوبة، توليد الصور، توليد الفيديو، توليد الصوت، الوكلاء الذكيون، سير العمل الآلي، تطبيقات الذكاء الاصطناعي المخصصة، تخصيص منصة تطبيقات الذكاء الاصطناعي الخاصة بك", + "models": { + "description": "استكشاف نماذج الذكاء الاصطناعي الرائجة OpenAI / GPT / Claude 3 / Gemini / Ollama / Azure / DeepSeek", + "title": "نماذج الذكاء الاصطناعي" + }, + "plugins": { + "description": "استكشف توليد الرسوم البيانية، والأبحاث الأكاديمية، وتوليد الصور، وتوليد الفيديو، وتوليد الصوت، وأتمتة سير العمل، ودمج قدرات إضافية غنية لمساعدتك.", + "title": "إضافات الذكاء الاصطناعي" + }, + "providers": { + "description": "استكشاف مزودي النماذج الرائجة OpenAI / Qwen / Ollama / Anthropic / DeepSeek / Google Gemini / OpenRouter", + "title": "مزودو خدمات نماذج الذكاء الاصطناعي" + }, + "search": "بحث", + "title": "اكتشاف" }, "plugins": { "description": "البحث، توليد الرسوم البيانية، الأكاديميات، توليد الصور، توليد الفيديو، توليد الصوت، سير العمل الآلي، خصص قدرات ToolCall الخاصة بـ ChatGPT / Claude", diff --git a/locales/ar/models.json b/locales/ar/models.json new file mode 100644 index 000000000000..252f9474383d --- /dev/null +++ b/locales/ar/models.json @@ -0,0 +1,845 @@ +{ + "01-ai/Yi-1.5-34B-Chat-16K": { + "description": "Yi-1.5 34B، يقدم أداءً ممتازًا في التطبيقات الصناعية بفضل مجموعة التدريب الغنية." + }, + "01-ai/Yi-1.5-6B-Chat": { + "description": "Yi-1.5 هو الإصدار المطور من سلسلة Yi، ويتميز بتدريب مسبق عالي الجودة وبيانات تعديل غنية." + }, + "01-ai/Yi-1.5-9B-Chat-16K": { + "description": "Yi-1.5 9B يدعم 16K توكن، ويوفر قدرة توليد لغوية فعالة وسلسة." + }, + "360gpt-pro": { + "description": "360GPT Pro كعضو مهم في سلسلة نماذج 360 AI، يلبي احتياجات معالجة النصوص المتنوعة بفعالية، ويدعم فهم النصوص الطويلة والحوار المتعدد الجولات." + }, + "360gpt-turbo": { + "description": "يوفر 360GPT Turbo قدرات حسابية وحوارية قوية، ويتميز بفهم دلالي ممتاز وكفاءة في التوليد، مما يجعله الحل المثالي للمؤسسات والمطورين كمساعد ذكي." + }, + "360gpt-turbo-responsibility-8k": { + "description": "360GPT Turbo Responsibility 8K يركز على الأمان الدلالي والتوجيه المسؤول، مصمم خصيصًا لتطبيقات تتطلب مستوى عالٍ من الأمان في المحتوى، مما يضمن دقة وموثوقية تجربة المستخدم." + }, + "360gpt2-pro": { + "description": "360GPT2 Pro هو نموذج متقدم لمعالجة اللغة الطبيعية تم إطلاقه من قبل شركة 360، يتمتع بقدرات استثنائية في توليد وفهم النصوص، خاصة في مجالات التوليد والإبداع، ويستطيع التعامل مع مهام تحويل اللغة المعقدة وأداء الأدوار." + }, + "4.0Ultra": { + "description": "Spark4.0 Ultra هو أقوى إصدار في سلسلة نماذج Spark، حيث يعزز فهم النصوص وقدرات التلخيص مع تحسين روابط البحث عبر الإنترنت. إنه حل شامل يهدف إلى تعزيز إنتاجية المكتب والاستجابة الدقيقة للاحتياجات، ويعتبر منتجًا ذكيًا رائدًا في الصناعة." + }, + "Baichuan2-Turbo": { + "description": "يستخدم تقنية تعزيز البحث لتحقيق الربط الشامل بين النموذج الكبير والمعرفة الميدانية والمعرفة من جميع أنحاء الشبكة. يدعم تحميل مستندات PDF وWord وغيرها من المدخلات، مما يضمن الحصول على المعلومات بشكل سريع وشامل، ويقدم نتائج دقيقة واحترافية." + }, + "Baichuan3-Turbo": { + "description": "تم تحسينه لمشاهد الاستخدام المتكررة في الشركات، مما أدى إلى تحسين كبير في الأداء وتكلفة فعالة. مقارنةً بنموذج Baichuan2، زادت قدرة الإبداع بنسبة 20%، وزادت قدرة الإجابة على الأسئلة المعرفية بنسبة 17%، وزادت قدرة التمثيل بنسبة 40%. الأداء العام أفضل من GPT3.5." + }, + "Baichuan3-Turbo-128k": { + "description": "يمتلك نافذة سياق طويلة جدًا تصل إلى 128K، تم تحسينه لمشاهد الاستخدام المتكررة في الشركات، مما أدى إلى تحسين كبير في الأداء وتكلفة فعالة. مقارنةً بنموذج Baichuan2، زادت قدرة الإبداع بنسبة 20%، وزادت قدرة الإجابة على الأسئلة المعرفية بنسبة 17%، وزادت قدرة التمثيل بنسبة 40%. الأداء العام أفضل من GPT3.5." + }, + "Baichuan4": { + "description": "النموذج الأول في البلاد من حيث القدرة، يتفوق على النماذج الرئيسية الأجنبية في المهام الصينية مثل الموسوعات، والنصوص الطويلة، والإبداع. كما يتمتع بقدرات متعددة الوسائط رائدة في الصناعة، ويظهر أداءً ممتازًا في العديد من معايير التقييم الموثوقة." + }, + "Gryphe/MythoMax-L2-13b": { + "description": "MythoMax-L2 (13B) هو نموذج مبتكر، مناسب لتطبيقات متعددة المجالات والمهام المعقدة." + }, + "Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Hermes 2 Mixtral 8x7B DPO هو دمج متعدد النماذج مرن للغاية، يهدف إلى تقديم تجربة إبداعية ممتازة." + }, + "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) هو نموذج تعليمات عالي الدقة، مناسب للحسابات المعقدة." + }, + "NousResearch/Nous-Hermes-2-Yi-34B": { + "description": "Nous Hermes-2 Yi (34B) يوفر مخرجات لغوية محسنة وإمكانيات تطبيق متنوعة." + }, + "Pro-128k": { + "description": "Spark Pro-128K مزود بقدرة معالجة سياق ضخمة، يمكنه التعامل مع معلومات سياق تصل إلى 128K، مما يجعله مثاليًا للمحتوى الطويل الذي يتطلب تحليلًا شاملًا ومعالجة علاقات منطقية طويلة الأمد، ويمكنه تقديم منطق سلس ودقيق ودعم متنوع للاقتباسات في التواصل النصي المعقد." + }, + "Qwen/Qwen1.5-110B-Chat": { + "description": "كنموذج تجريبي لـ Qwen2، يستخدم Qwen1.5 بيانات ضخمة لتحقيق وظائف حوارية أكثر دقة." + }, + "Qwen/Qwen1.5-14B-Chat": { + "description": "Qwen1.5 تم تدريبه على مجموعة بيانات ضخمة، ويتفوق في المهام اللغوية المعقدة." + }, + "Qwen/Qwen1.5-32B-Chat": { + "description": "Qwen1.5 يمتلك القدرة على الإجابة على الأسئلة في مجالات متعددة وتوليد النصوص." + }, + "Qwen/Qwen1.5-72B-Chat": { + "description": "Qwen 1.5 Chat (72B) يوفر استجابة سريعة وقدرة على الحوار الطبيعي، مناسب للبيئات متعددة اللغات." + }, + "Qwen/Qwen1.5-7B-Chat": { + "description": "Qwen1.5 يعزز قدرة التعبير الحواري من خلال دمج التدريب المسبق المتقدم والتعديل." + }, + "Qwen/Qwen2-1.5B-Instruct": { + "description": "Qwen2 هو سلسلة جديدة من نماذج اللغة الكبيرة، تهدف إلى تحسين معالجة المهام الإرشادية." + }, + "Qwen/Qwen2-57B-A14B-Instruct": { + "description": "Qwen2 هو سلسلة جديدة، حيث يظهر نموذج 57B A14B أداءً ممتازًا في المهام الإرشادية." + }, + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 هو نموذج لغوي عام متقدم، يدعم أنواع متعددة من التعليمات." + }, + "Qwen/Qwen2-7B-Instruct": { + "description": "Qwen2 هو سلسلة جديدة من نماذج اللغة الكبيرة، تتمتع بقدرات فهم وتوليد أقوى." + }, + "Qwen/Qwen2-Math-72B-Instruct": { + "description": "Qwen2-Math يركز على حل المشكلات في مجال الرياضيات، ويقدم إجابات احترافية للأسئلة الصعبة." + }, + "THUDM/chatglm3-6b": { + "description": "كنموذج لغوي للحوار ثنائي اللغة، يمكن لـ ChatGLM3 معالجة مهام تحويل اللغة بين الصينية والإنجليزية." + }, + "THUDM/glm-4-9b-chat": { + "description": "GLM-4 9B هو إصدار مفتوح المصدر، يوفر تجربة حوار محسنة لتطبيقات الحوار." + }, + "abab5.5-chat": { + "description": "موجه لمشاهد الإنتاجية، يدعم معالجة المهام المعقدة وتوليد النصوص بكفاءة، مناسب للتطبيقات في المجالات المهنية." + }, + "abab5.5s-chat": { + "description": "مصمم لمشاهد الحوار باللغة الصينية، يوفر قدرة توليد حوار عالي الجودة باللغة الصينية، مناسب لمجموعة متنوعة من التطبيقات." + }, + "abab6.5g-chat": { + "description": "مصمم للحوار متعدد اللغات، يدعم توليد حوارات عالية الجودة بالإنجليزية والعديد من اللغات الأخرى." + }, + "abab6.5s-chat": { + "description": "مناسب لمجموعة واسعة من مهام معالجة اللغة الطبيعية، بما في ذلك توليد النصوص، وأنظمة الحوار، وغيرها." + }, + "abab6.5t-chat": { + "description": "محسن لمشاهد الحوار باللغة الصينية، يوفر قدرة توليد حوار سلس ومتوافق مع عادات التعبير الصينية." + }, + "accounts/fireworks/models/firefunction-v1": { + "description": "نموذج استدعاء الدوال مفتوح المصدر من Fireworks، يوفر قدرة تنفيذ تعليمات ممتازة وخصائص قابلة للتخصيص." + }, + "accounts/fireworks/models/firefunction-v2": { + "description": "Firefunction-v2 من شركة Fireworks هو نموذج استدعاء دوال عالي الأداء، تم تطويره بناءً على Llama-3، وتم تحسينه بشكل كبير، مناسب بشكل خاص لاستدعاء الدوال، والحوار، واتباع التعليمات." + }, + "accounts/fireworks/models/firellava-13b": { + "description": "fireworks-ai/FireLLaVA-13b هو نموذج لغوي بصري، يمكنه استقبال المدخلات من الصور والنصوص، تم تدريبه على بيانات عالية الجودة، مناسب للمهام متعددة الوسائط." + }, + "accounts/fireworks/models/gemma2-9b-it": { + "description": "نموذج Gemma 2 9B للتعليمات، يعتمد على تقنيات Google السابقة، مناسب لمهام توليد النصوص مثل الإجابة على الأسئلة، والتلخيص، والاستدلال." + }, + "accounts/fireworks/models/llama-v3-70b-instruct": { + "description": "نموذج Llama 3 70B للتعليمات، مصمم للحوار متعدد اللغات وفهم اللغة الطبيعية، أداءه يتفوق على معظم النماذج المنافسة." + }, + "accounts/fireworks/models/llama-v3-70b-instruct-hf": { + "description": "نموذج Llama 3 70B للتعليمات (نسخة HF)، يتوافق مع نتائج التنفيذ الرسمية، مناسب لمهام اتباع التعليمات عالية الجودة." + }, + "accounts/fireworks/models/llama-v3-8b-instruct": { + "description": "نموذج Llama 3 8B للتعليمات، تم تحسينه للحوار والمهام متعددة اللغات، يظهر أداءً ممتازًا وفعالًا." + }, + "accounts/fireworks/models/llama-v3-8b-instruct-hf": { + "description": "نموذج Llama 3 8B للتعليمات (نسخة HF)، يتوافق مع نتائج التنفيذ الرسمية، يتمتع بتوافق عالٍ عبر المنصات." + }, + "accounts/fireworks/models/llama-v3p1-405b-instruct": { + "description": "نموذج Llama 3.1 405B للتعليمات، يتمتع بمعلمات ضخمة، مناسب لمهام معقدة واتباع التعليمات في سيناريوهات ذات حمل عالي." + }, + "accounts/fireworks/models/llama-v3p1-70b-instruct": { + "description": "نموذج Llama 3.1 70B للتعليمات، يوفر قدرة ممتازة على فهم اللغة الطبيعية وتوليدها، وهو الخيار المثالي لمهام الحوار والتحليل." + }, + "accounts/fireworks/models/llama-v3p1-8b-instruct": { + "description": "نموذج Llama 3.1 8B للتعليمات، تم تحسينه للحوار متعدد اللغات، قادر على تجاوز معظم النماذج المفتوحة والمغلقة في المعايير الصناعية الشائعة." + }, + "accounts/fireworks/models/mixtral-8x22b-instruct": { + "description": "نموذج Mixtral MoE 8x22B للتعليمات، مع معلمات ضخمة وهيكل خبير متعدد، يدعم معالجة فعالة لمهام معقدة." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct": { + "description": "نموذج Mixtral MoE 8x7B للتعليمات، يوفر هيكل خبير متعدد لتقديم تعليمات فعالة واتباعها." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct-hf": { + "description": "نموذج Mixtral MoE 8x7B للتعليمات (نسخة HF)، الأداء يتوافق مع التنفيذ الرسمي، مناسب لمجموعة متنوعة من سيناريوهات المهام الفعالة." + }, + "accounts/fireworks/models/mythomax-l2-13b": { + "description": "نموذج MythoMax L2 13B، يجمع بين تقنيات الدمج الجديدة، بارع في السرد وأدوار الشخصيات." + }, + "accounts/fireworks/models/phi-3-vision-128k-instruct": { + "description": "نموذج Phi 3 Vision للتعليمات، نموذج متعدد الوسائط خفيف الوزن، قادر على معالجة معلومات بصرية ونصية معقدة، يتمتع بقدرة استدلال قوية." + }, + "accounts/fireworks/models/starcoder-16b": { + "description": "نموذج StarCoder 15.5B، يدعم مهام البرمجة المتقدمة، مع تعزيز القدرة على التعامل مع لغات متعددة، مناسب لتوليد وفهم الشيفرات المعقدة." + }, + "accounts/fireworks/models/starcoder-7b": { + "description": "نموذج StarCoder 7B، تم تدريبه على أكثر من 80 لغة برمجة، يتمتع بقدرة ممتازة على ملء البرمجة وفهم السياق." + }, + "accounts/yi-01-ai/models/yi-large": { + "description": "نموذج Yi-Large، يتمتع بقدرة معالجة لغوية ممتازة، يمكن استخدامه في جميع أنواع مهام توليد وفهم اللغة." + }, + "anthropic.claude-3-5-sonnet-20240620-v1:0": { + "description": "Claude 3.5 Sonnet يرفع المعايير في الصناعة، حيث يتفوق على نماذج المنافسين وClaude 3 Opus، ويظهر أداءً ممتازًا في تقييمات واسعة، مع سرعة وتكلفة تتناسب مع نماذجنا المتوسطة." + }, + "anthropic.claude-3-haiku-20240307-v1:0": { + "description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، يوفر سرعة استجابة شبه فورية. يمكنه بسرعة الإجابة على الاستفسارات والطلبات البسيطة. سيتمكن العملاء من بناء تجربة ذكاء اصطناعي سلسة تحاكي التفاعل البشري. يمكن لـ Claude 3 Haiku معالجة الصور وإرجاع إخراج نصي، مع نافذة سياقية تبلغ 200K." + }, + "anthropic.claude-3-opus-20240229-v1:0": { + "description": "Claude 3 Opus هو أقوى نموذج ذكاء اصطناعي من Anthropic، يتمتع بأداء متقدم في المهام المعقدة للغاية. يمكنه معالجة المطالبات المفتوحة والمشاهد غير المعروفة، مع سلاسة وفهم يشبه البشر. يعرض Claude 3 Opus حدود إمكانيات الذكاء الاصطناعي التوليدي. يمكن لـ Claude 3 Opus معالجة الصور وإرجاع إخراج نصي، مع نافذة سياقية تبلغ 200K." + }, + "anthropic.claude-3-sonnet-20240229-v1:0": { + "description": "Claude 3 Sonnet من Anthropic يحقق توازنًا مثاليًا بين الذكاء والسرعة - مناسب بشكل خاص لأعباء العمل المؤسسية. يقدم أكبر فائدة بأقل من تكلفة المنافسين، وقد تم تصميمه ليكون نموذجًا موثوقًا وعالي التحمل، مناسبًا لنشر الذكاء الاصطناعي على نطاق واسع. يمكن لـ Claude 3 Sonnet معالجة الصور وإرجاع إخراج نصي، مع نافذة سياقية تبلغ 200K." + }, + "anthropic.claude-instant-v1": { + "description": "نموذج سريع واقتصادي وما زال قويًا للغاية، يمكنه معالجة مجموعة من المهام بما في ذلك المحادثات اليومية، وتحليل النصوص، والتلخيص، والأسئلة والأجوبة على الوثائق." + }, + "anthropic.claude-v2": { + "description": "نموذج يظهر قدرة عالية في مجموعة واسعة من المهام، من المحادثات المعقدة وتوليد المحتوى الإبداعي إلى اتباع التعليمات التفصيلية." + }, + "anthropic.claude-v2:1": { + "description": "الإصدار المحدث من Claude 2، مع نافذة سياقية مضاعفة، وتحسينات في الاعتمادية ومعدل الهلوسة والدقة المستندة إلى الأدلة في الوثائق الطويلة وسياقات RAG." + }, + "anthropic/claude-3-haiku": { + "description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتحقيق استجابة شبه فورية. يتمتع بأداء توجيهي سريع ودقيق." + }, + "anthropic/claude-3-opus": { + "description": "Claude 3 Opus هو أقوى نموذج من Anthropic لمعالجة المهام المعقدة للغاية. يتميز بأداء ممتاز وذكاء وسلاسة وفهم." + }, + "anthropic/claude-3.5-sonnet": { + "description": "Claude 3.5 Sonnet يقدم قدرات تتجاوز Opus وسرعة أكبر من Sonnet، مع الحفاظ على نفس السعر. يتميز Sonnet بمهارات خاصة في البرمجة وعلوم البيانات ومعالجة الصور والمهام الوكيلة." + }, + "aya": { + "description": "Aya 23 هو نموذج متعدد اللغات أطلقته Cohere، يدعم 23 لغة، مما يسهل التطبيقات اللغوية المتنوعة." + }, + "aya:35b": { + "description": "Aya 23 هو نموذج متعدد اللغات أطلقته Cohere، يدعم 23 لغة، مما يسهل التطبيقات اللغوية المتنوعة." + }, + "charglm-3": { + "description": "CharGLM-3 مصمم خصيصًا للأدوار التفاعلية والمرافقة العاطفية، يدعم ذاكرة متعددة الجولات طويلة الأمد وحوارات مخصصة، ويستخدم على نطاق واسع." + }, + "chatgpt-4o-latest": { + "description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي للحفاظ على أحدث إصدار. يجمع بين فهم اللغة القوي وقدرات التوليد، مما يجعله مناسبًا لمجموعة واسعة من التطبيقات، بما في ذلك خدمة العملاء والتعليم والدعم الفني." + }, + "claude-2.0": { + "description": "Claude 2 يوفر تقدمًا في القدرات الأساسية للمؤسسات، بما في ذلك سياق يصل إلى 200K توكن، وتقليل كبير في معدل حدوث الهلوسة في النموذج، وإشعارات النظام، وميزة اختبار جديدة: استدعاء الأدوات." + }, + "claude-2.1": { + "description": "Claude 2 يوفر تقدمًا في القدرات الأساسية للمؤسسات، بما في ذلك سياق يصل إلى 200K توكن، وتقليل كبير في معدل حدوث الهلوسة في النموذج، وإشعارات النظام، وميزة اختبار جديدة: استدعاء الأدوات." + }, + "claude-3-5-sonnet-20240620": { + "description": "Claude 3.5 Sonnet يوفر قدرات تتجاوز Opus وسرعة أكبر من Sonnet، مع الحفاظ على نفس السعر. Sonnet بارع بشكل خاص في البرمجة، وعلوم البيانات، ومعالجة الصور، ومهام الوكالة." + }, + "claude-3-haiku-20240307": { + "description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتحقيق استجابة شبه فورية. يتمتع بأداء توجيهي سريع ودقيق." + }, + "claude-3-opus-20240229": { + "description": "Claude 3 Opus هو أقوى نموذج من Anthropic لمعالجة المهام المعقدة للغاية. يظهر أداءً ممتازًا في الذكاء، والسلاسة، والفهم." + }, + "claude-3-sonnet-20240229": { + "description": "Claude 3 Sonnet يوفر توازنًا مثاليًا بين الذكاء والسرعة لحمولات العمل المؤسسية. يقدم أقصى فائدة بسعر أقل، موثوق ومناسب للنشر على نطاق واسع." + }, + "claude-instant-1.2": { + "description": "نموذج Anthropic يستخدم لتوليد النصوص ذات التأخير المنخفض، يدعم توليد مئات الصفحات من النص." + }, + "codegeex-4": { + "description": "CodeGeeX-4 هو مساعد برمجي قوي، يدعم مجموعة متنوعة من لغات البرمجة في الإجابة الذكية وإكمال الشيفرة، مما يعزز من كفاءة التطوير." + }, + "codegemma": { + "description": "CodeGemma هو نموذج لغوي خفيف الوزن مخصص لمهام البرمجة المختلفة، يدعم التكرار السريع والتكامل." + }, + "codegemma:2b": { + "description": "CodeGemma هو نموذج لغوي خفيف الوزن مخصص لمهام البرمجة المختلفة، يدعم التكرار السريع والتكامل." + }, + "codellama": { + "description": "Code Llama هو نموذج لغوي كبير يركز على توليد الشيفرة والنقاش، يجمع بين دعم مجموعة واسعة من لغات البرمجة، مناسب لبيئات المطورين." + }, + "codellama:13b": { + "description": "Code Llama هو نموذج لغوي كبير يركز على توليد الشيفرة والنقاش، يجمع بين دعم مجموعة واسعة من لغات البرمجة، مناسب لبيئات المطورين." + }, + "codellama:34b": { + "description": "Code Llama هو نموذج لغوي كبير يركز على توليد الشيفرة والنقاش، يجمع بين دعم مجموعة واسعة من لغات البرمجة، مناسب لبيئات المطورين." + }, + "codellama:70b": { + "description": "Code Llama هو نموذج لغوي كبير يركز على توليد الشيفرة والنقاش، يجمع بين دعم مجموعة واسعة من لغات البرمجة، مناسب لبيئات المطورين." + }, + "codeqwen": { + "description": "CodeQwen1.5 هو نموذج لغوي كبير تم تدريبه على مجموعة كبيرة من بيانات الشيفرة، مصمم لحل مهام البرمجة المعقدة." + }, + "codestral": { + "description": "Codestral هو أول نموذج شيفرة من Mistral AI، يوفر دعمًا ممتازًا لمهام توليد الشيفرة." + }, + "codestral-latest": { + "description": "Codestral هو نموذج توليد متقدم يركز على توليد الشيفرة، تم تحسينه لمهام الملء الوسيط وإكمال الشيفرة." + }, + "cognitivecomputations/dolphin-mixtral-8x22b": { + "description": "Dolphin Mixtral 8x22B هو نموذج مصمم للامتثال للتعليمات، والحوار، والبرمجة." + }, + "command-r": { + "description": "Command R هو نموذج LLM محسن لمهام الحوار والسياقات الطويلة، مناسب بشكل خاص للتفاعل الديناميكي وإدارة المعرفة." + }, + "command-r-plus": { + "description": "Command R+ هو نموذج لغوي كبير عالي الأداء، مصمم لمشاهد الأعمال الحقيقية والتطبيقات المعقدة." + }, + "databricks/dbrx-instruct": { + "description": "DBRX Instruct يوفر قدرة معالجة تعليمات موثوقة، يدعم تطبيقات متعددة الصناعات." + }, + "deepseek-ai/DeepSeek-Coder-V2-Instruct": { + "description": "DeepSeek Coder V2 مصمم لمهام البرمجة، يركز على توليد الأكواد بكفاءة." + }, + "deepseek-ai/DeepSeek-V2-Chat": { + "description": "DeepSeek V2 يحتوي على 6.7 مليار معلمة، ويدعم معالجة النصوص بالإنجليزية والصينية." + }, + "deepseek-ai/DeepSeek-V2.5": { + "description": "DeepSeek V2.5 يجمع بين الميزات الممتازة للإصدارات السابقة، ويعزز القدرات العامة والترميز." + }, + "deepseek-ai/deepseek-llm-67b-chat": { + "description": "DeepSeek 67B هو نموذج متقدم تم تدريبه للحوار المعقد." + }, + "deepseek-chat": { + "description": "نموذج مفتوح المصدر الجديد الذي يجمع بين القدرات العامة وقدرات البرمجة، لا يحتفظ فقط بالقدرات الحوارية العامة لنموذج الدردشة الأصلي وقدرات معالجة الشيفرة القوية لنموذج Coder، بل يتماشى أيضًا بشكل أفضل مع تفضيلات البشر. بالإضافة إلى ذلك، حقق DeepSeek-V2.5 تحسينات كبيرة في مهام الكتابة، واتباع التعليمات، وغيرها من المجالات." + }, + "deepseek-coder-v2": { + "description": "DeepSeek Coder V2 هو نموذج شيفرة مفتوح المصدر من نوع خبير مختلط، يقدم أداءً ممتازًا في مهام الشيفرة، ويضاهي GPT4-Turbo." + }, + "deepseek-coder-v2:236b": { + "description": "DeepSeek Coder V2 هو نموذج شيفرة مفتوح المصدر من نوع خبير مختلط، يقدم أداءً ممتازًا في مهام الشيفرة، ويضاهي GPT4-Turbo." + }, + "deepseek-v2": { + "description": "DeepSeek V2 هو نموذج لغوي فعال من نوع Mixture-of-Experts، مناسب لاحتياجات المعالجة الاقتصادية." + }, + "deepseek-v2:236b": { + "description": "DeepSeek V2 236B هو نموذج تصميم الشيفرة لـ DeepSeek، يوفر قدرة توليد شيفرة قوية." + }, + "deepseek/deepseek-chat": { + "description": "نموذج مفتوح المصدر جديد يجمع بين القدرات العامة وقدرات البرمجة، لا يحتفظ فقط بقدرات الحوار العامة لنموذج الدردشة الأصلي وقدرات معالجة الأكواد القوية لنموذج Coder، بل يتماشى أيضًا بشكل أفضل مع تفضيلات البشر. بالإضافة إلى ذلك، حقق DeepSeek-V2.5 تحسينات كبيرة في مهام الكتابة، واتباع التعليمات، وغيرها من المجالات." + }, + "emohaa": { + "description": "Emohaa هو نموذج نفسي، يتمتع بقدرات استشارية متخصصة، يساعد المستخدمين في فهم القضايا العاطفية." + }, + "gemini-1.0-pro-001": { + "description": "Gemini 1.0 Pro 001 (تعديل) يوفر أداءً مستقرًا وقابلًا للتعديل، وهو الخيار المثالي لحلول المهام المعقدة." + }, + "gemini-1.0-pro-002": { + "description": "Gemini 1.0 Pro 002 (تعديل) يوفر دعمًا ممتازًا متعدد الوسائط، مع التركيز على الحلول الفعالة للمهام المعقدة." + }, + "gemini-1.0-pro-latest": { + "description": "Gemini 1.0 Pro هو نموذج ذكاء اصطناعي عالي الأداء من Google، مصمم للتوسع في مجموعة واسعة من المهام." + }, + "gemini-1.5-flash-001": { + "description": "Gemini 1.5 Flash 001 هو نموذج متعدد الوسائط فعال، يدعم التوسع في التطبيقات الواسعة." + }, + "gemini-1.5-flash-8b-exp-0827": { + "description": "Gemini 1.5 Flash 8B 0827 مصمم لمعالجة سيناريوهات المهام الكبيرة، ويوفر سرعة معالجة لا مثيل لها." + }, + "gemini-1.5-flash-exp-0827": { + "description": "Gemini 1.5 Flash 0827 يوفر قدرات معالجة متعددة الوسائط محسّنة، مناسبة لمجموعة متنوعة من سيناريوهات المهام المعقدة." + }, + "gemini-1.5-flash-latest": { + "description": "Gemini 1.5 Flash هو أحدث نموذج ذكاء اصطناعي متعدد الوسائط من Google، يتمتع بقدرات معالجة سريعة، ويدعم إدخال النصوص والصور والفيديو، مما يجعله مناسبًا للتوسع الفعال في مجموعة متنوعة من المهام." + }, + "gemini-1.5-pro-001": { + "description": "Gemini 1.5 Pro 001 هو حل ذكاء اصطناعي متعدد الوسائط قابل للتوسع، يدعم مجموعة واسعة من المهام المعقدة." + }, + "gemini-1.5-pro-exp-0801": { + "description": "Gemini 1.5 Pro 0801 يوفر قدرات معالجة متعددة الوسائط ممتازة، مما يوفر مرونة أكبر لتطوير التطبيقات." + }, + "gemini-1.5-pro-exp-0827": { + "description": "Gemini 1.5 Pro 0827 يجمع بين أحدث تقنيات التحسين، مما يوفر قدرة معالجة بيانات متعددة الوسائط أكثر كفاءة." + }, + "gemini-1.5-pro-latest": { + "description": "Gemini 1.5 Pro يدعم ما يصل إلى 2 مليون توكن، وهو الخيار المثالي للنماذج المتوسطة الحجم متعددة الوسائط، مناسب لدعم المهام المعقدة من جوانب متعددة." + }, + "gemma-7b-it": { + "description": "Gemma 7B مناسب لمعالجة المهام المتوسطة والصغيرة، ويجمع بين الكفاءة من حيث التكلفة." + }, + "gemma2": { + "description": "Gemma 2 هو نموذج فعال أطلقته Google، يغطي مجموعة متنوعة من سيناريوهات التطبيقات من التطبيقات الصغيرة إلى معالجة البيانات المعقدة." + }, + "gemma2-9b-it": { + "description": "Gemma 2 9B هو نموذج محسن لمهام محددة ودمج الأدوات." + }, + "gemma2:27b": { + "description": "Gemma 2 هو نموذج فعال أطلقته Google، يغطي مجموعة متنوعة من سيناريوهات التطبيقات من التطبيقات الصغيرة إلى معالجة البيانات المعقدة." + }, + "gemma2:2b": { + "description": "Gemma 2 هو نموذج فعال أطلقته Google، يغطي مجموعة متنوعة من سيناريوهات التطبيقات من التطبيقات الصغيرة إلى معالجة البيانات المعقدة." + }, + "general": { + "description": "Spark Lite هو نموذج لغوي كبير خفيف الوزن، يتمتع بتأخير منخفض للغاية وقدرة معالجة فعالة، ومفتوح بالكامل، ويدعم وظيفة البحث عبر الإنترنت في الوقت الحقيقي. تجعل خاصية الاستجابة السريعة منه مثاليًا لتطبيقات الاستدلال على الأجهزة ذات القدرة الحاسوبية المنخفضة وتعديل النماذج، مما يوفر للمستخدمين قيمة ممتازة وتجربة ذكية، خاصة في مجالات الإجابة على الأسئلة، وتوليد المحتوى، وسيناريوهات البحث." + }, + "generalv3": { + "description": "Spark Pro هو نموذج لغوي كبير عالي الأداء تم تحسينه للحقول المهنية، يركز على الرياضيات، والبرمجة، والطب، والتعليم، ويدعم البحث عبر الإنترنت بالإضافة إلى المكونات الإضافية المدمجة مثل الطقس والتاريخ. يظهر النموذج المحسن أداءً ممتازًا وكفاءة في الإجابة على الأسئلة المعقدة، وفهم اللغة، وإنشاء نصوص عالية المستوى، مما يجعله الخيار المثالي لتطبيقات الاستخدام المهني." + }, + "generalv3.5": { + "description": "Spark3.5 Max هو الإصدار الأكثر شمولاً، يدعم البحث عبر الإنترنت والعديد من المكونات الإضافية المدمجة. تعزز قدراته الأساسية المحسنة، بالإضافة إلى إعدادات الأدوار النظامية ووظائف استدعاء الدوال، أداؤه بشكل استثنائي في مجموعة متنوعة من سيناريوهات التطبيقات المعقدة." + }, + "glm-4": { + "description": "GLM-4 هو الإصدار القديم الذي تم إصداره في يناير 2024، وقد تم استبداله الآن بـ GLM-4-0520 الأقوى." + }, + "glm-4-0520": { + "description": "GLM-4-0520 هو أحدث إصدار من النموذج، مصمم للمهام المعقدة والمتنوعة، ويظهر أداءً ممتازًا." + }, + "glm-4-air": { + "description": "GLM-4-Air هو إصدار ذو قيمة عالية، يتمتع بأداء قريب من GLM-4، ويقدم سرعة عالية وسعرًا معقولًا." + }, + "glm-4-airx": { + "description": "GLM-4-AirX يقدم إصدارًا فعالًا من GLM-4-Air، حيث تصل سرعة الاستدلال إلى 2.6 مرة." + }, + "glm-4-alltools": { + "description": "GLM-4-AllTools هو نموذج وكيل متعدد الوظائف، تم تحسينه لدعم تخطيط التعليمات المعقدة واستدعاء الأدوات، مثل تصفح الإنترنت، وتفسير الشيفرة، وتوليد النصوص، مناسب لتنفيذ المهام المتعددة." + }, + "glm-4-flash": { + "description": "GLM-4-Flash هو الخيار المثالي لمعالجة المهام البسيطة، حيث يتمتع بأسرع سرعة وأفضل سعر." + }, + "glm-4-long": { + "description": "GLM-4-Long يدعم إدخالات نصية طويلة جدًا، مما يجعله مناسبًا للمهام الذاكرية ومعالجة الوثائق الكبيرة." + }, + "glm-4-plus": { + "description": "GLM-4-Plus كنموذج رائد ذكي، يتمتع بقدرات قوية في معالجة النصوص الطويلة والمهام المعقدة، مع تحسين شامل في الأداء." + }, + "glm-4v": { + "description": "GLM-4V يوفر قدرات قوية في فهم الصور والاستدلال، ويدعم مجموعة متنوعة من المهام البصرية." + }, + "glm-4v-plus": { + "description": "GLM-4V-Plus يتمتع بقدرة على فهم محتوى الفيديو والصور المتعددة، مما يجعله مناسبًا للمهام متعددة الوسائط." + }, + "google/gemini-flash-1.5-exp": { + "description": "Gemini 1.5 Flash 0827 يوفر قدرات معالجة متعددة الوسائط محسّنة، مناسبة لمجموعة متنوعة من سيناريوهات المهام المعقدة." + }, + "google/gemini-pro-1.5-exp": { + "description": "Gemini 1.5 Pro 0827 يجمع بين أحدث تقنيات التحسين، مما يوفر قدرة معالجة بيانات متعددة الوسائط أكثر كفاءة." + }, + "google/gemma-2-27b-it": { + "description": "Gemma 2 تستمر في مفهوم التصميم الخفيف والفعال." + }, + "google/gemma-2-9b-it": { + "description": "Gemma 2 هو سلسلة نماذج نصية مفتوحة المصدر خفيفة الوزن من Google." + }, + "google/gemma-2-9b-it:free": { + "description": "Gemma 2 هو سلسلة نماذج نصية مفتوحة المصدر خفيفة الوزن من Google." + }, + "google/gemma-2b-it": { + "description": "Gemma Instruct (2B) يوفر قدرة أساسية على معالجة التعليمات، مناسب للتطبيقات الخفيفة." + }, + "gpt-3.5-turbo": { + "description": "نموذج GPT 3.5 Turbo، مناسب لمجموعة متنوعة من مهام توليد وفهم النصوص، يشير حاليًا إلى gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-0125": { + "description": "نموذج GPT 3.5 Turbo، مناسب لمجموعة متنوعة من مهام توليد وفهم النصوص، يشير حاليًا إلى gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-1106": { + "description": "نموذج GPT 3.5 Turbo، مناسب لمجموعة متنوعة من مهام توليد وفهم النصوص، يشير حاليًا إلى gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-instruct": { + "description": "نموذج GPT 3.5 Turbo، مناسب لمجموعة متنوعة من مهام توليد وفهم النصوص، يشير حاليًا إلى gpt-3.5-turbo-0125." + }, + "gpt-4": { + "description": "يوفر GPT-4 نافذة سياقية أكبر، مما يمكنه من معالجة إدخالات نصية أطول، مما يجعله مناسبًا للمواقف التي تتطلب دمج معلومات واسعة وتحليل البيانات." + }, + "gpt-4-0125-preview": { + "description": "نموذج GPT-4 Turbo الأحدث يتمتع بقدرات بصرية. الآن، يمكن استخدام الطلبات البصرية باستخدام نمط JSON واستدعاء الوظائف. GPT-4 Turbo هو إصدار معزز يوفر دعمًا فعالًا من حيث التكلفة للمهام متعددة الوسائط. يجد توازنًا بين الدقة والكفاءة، مما يجعله مناسبًا للتطبيقات التي تتطلب تفاعلات في الوقت الحقيقي." + }, + "gpt-4-0613": { + "description": "يوفر GPT-4 نافذة سياقية أكبر، مما يمكنه من معالجة إدخالات نصية أطول، مما يجعله مناسبًا للمواقف التي تتطلب دمج معلومات واسعة وتحليل البيانات." + }, + "gpt-4-1106-preview": { + "description": "نموذج GPT-4 Turbo الأحدث يتمتع بقدرات بصرية. الآن، يمكن استخدام الطلبات البصرية باستخدام نمط JSON واستدعاء الوظائف. GPT-4 Turbo هو إصدار معزز يوفر دعمًا فعالًا من حيث التكلفة للمهام متعددة الوسائط. يجد توازنًا بين الدقة والكفاءة، مما يجعله مناسبًا للتطبيقات التي تتطلب تفاعلات في الوقت الحقيقي." + }, + "gpt-4-1106-vision-preview": { + "description": "نموذج GPT-4 Turbo الأحدث يتمتع بقدرات بصرية. الآن، يمكن استخدام الطلبات البصرية باستخدام نمط JSON واستدعاء الوظائف. GPT-4 Turbo هو إصدار معزز يوفر دعمًا فعالًا من حيث التكلفة للمهام متعددة الوسائط. يجد توازنًا بين الدقة والكفاءة، مما يجعله مناسبًا للتطبيقات التي تتطلب تفاعلات في الوقت الحقيقي." + }, + "gpt-4-32k": { + "description": "يوفر GPT-4 نافذة سياقية أكبر، مما يمكنه من معالجة إدخالات نصية أطول، مما يجعله مناسبًا للمواقف التي تتطلب دمج معلومات واسعة وتحليل البيانات." + }, + "gpt-4-32k-0613": { + "description": "يوفر GPT-4 نافذة سياقية أكبر، مما يمكنه من معالجة إدخالات نصية أطول، مما يجعله مناسبًا للمواقف التي تتطلب دمج معلومات واسعة وتحليل البيانات." + }, + "gpt-4-turbo": { + "description": "نموذج GPT-4 Turbo الأحدث يتمتع بقدرات بصرية. الآن، يمكن استخدام الطلبات البصرية باستخدام نمط JSON واستدعاء الوظائف. GPT-4 Turbo هو إصدار معزز يوفر دعمًا فعالًا من حيث التكلفة للمهام متعددة الوسائط. يجد توازنًا بين الدقة والكفاءة، مما يجعله مناسبًا للتطبيقات التي تتطلب تفاعلات في الوقت الحقيقي." + }, + "gpt-4-turbo-2024-04-09": { + "description": "نموذج GPT-4 Turbo الأحدث يتمتع بقدرات بصرية. الآن، يمكن استخدام الطلبات البصرية باستخدام نمط JSON واستدعاء الوظائف. GPT-4 Turbo هو إصدار معزز يوفر دعمًا فعالًا من حيث التكلفة للمهام متعددة الوسائط. يجد توازنًا بين الدقة والكفاءة، مما يجعله مناسبًا للتطبيقات التي تتطلب تفاعلات في الوقت الحقيقي." + }, + "gpt-4-turbo-preview": { + "description": "نموذج GPT-4 Turbo الأحدث يتمتع بقدرات بصرية. الآن، يمكن استخدام الطلبات البصرية باستخدام نمط JSON واستدعاء الوظائف. GPT-4 Turbo هو إصدار معزز يوفر دعمًا فعالًا من حيث التكلفة للمهام متعددة الوسائط. يجد توازنًا بين الدقة والكفاءة، مما يجعله مناسبًا للتطبيقات التي تتطلب تفاعلات في الوقت الحقيقي." + }, + "gpt-4-vision-preview": { + "description": "نموذج GPT-4 Turbo الأحدث يتمتع بقدرات بصرية. الآن، يمكن استخدام الطلبات البصرية باستخدام نمط JSON واستدعاء الوظائف. GPT-4 Turbo هو إصدار معزز يوفر دعمًا فعالًا من حيث التكلفة للمهام متعددة الوسائط. يجد توازنًا بين الدقة والكفاءة، مما يجعله مناسبًا للتطبيقات التي تتطلب تفاعلات في الوقت الحقيقي." + }, + "gpt-4o": { + "description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي للحفاظ على أحدث إصدار. يجمع بين فهم اللغة القوي وقدرات التوليد، مما يجعله مناسبًا لمجموعة واسعة من التطبيقات، بما في ذلك خدمة العملاء والتعليم والدعم الفني." + }, + "gpt-4o-2024-05-13": { + "description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي للحفاظ على أحدث إصدار. يجمع بين فهم اللغة القوي وقدرات التوليد، مما يجعله مناسبًا لمجموعة واسعة من التطبيقات، بما في ذلك خدمة العملاء والتعليم والدعم الفني." + }, + "gpt-4o-2024-08-06": { + "description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي للحفاظ على أحدث إصدار. يجمع بين فهم اللغة القوي وقدرات التوليد، مما يجعله مناسبًا لمجموعة واسعة من التطبيقات، بما في ذلك خدمة العملاء والتعليم والدعم الفني." + }, + "gpt-4o-mini": { + "description": "نموذج GPT-4o mini هو أحدث نموذج أطلقته OpenAI بعد GPT-4 Omni، ويدعم إدخال الصور والنصوص وإخراج النصوص. كأحد نماذجهم المتقدمة الصغيرة، فهو أرخص بكثير من النماذج الرائدة الأخرى في الآونة الأخيرة، وأرخص بأكثر من 60% من GPT-3.5 Turbo. يحتفظ بذكاء متقدم مع قيمة ممتازة. حصل GPT-4o mini على 82% في اختبار MMLU، وهو حاليًا يتفوق على GPT-4 في تفضيلات الدردشة." + }, + "gryphe/mythomax-l2-13b": { + "description": "MythoMax l2 13B هو نموذج لغوي يجمع بين الإبداع والذكاء من خلال دمج عدة نماذج رائدة." + }, + "internlm/internlm2_5-20b-chat": { + "description": "نموذج مفتوح المصدر مبتكر InternLM2.5، يعزز الذكاء الحواري من خلال عدد كبير من المعلمات." + }, + "internlm/internlm2_5-7b-chat": { + "description": "InternLM2.5 يوفر حلول حوار ذكية في عدة سيناريوهات." + }, + "llama-3.1-70b-instruct": { + "description": "نموذج Llama 3.1 70B للتعليمات، يتمتع بـ 70B من المعلمات، قادر على تقديم أداء ممتاز في مهام توليد النصوص الكبيرة والتعليمات." + }, + "llama-3.1-70b-versatile": { + "description": "Llama 3.1 70B يوفر قدرة استدلال ذكائي أقوى، مناسب للتطبيقات المعقدة، يدعم معالجة حسابية ضخمة ويضمن الكفاءة والدقة." + }, + "llama-3.1-8b-instant": { + "description": "Llama 3.1 8B هو نموذج عالي الأداء، يوفر قدرة سريعة على توليد النصوص، مما يجعله مثاليًا لمجموعة من التطبيقات التي تتطلب كفاءة كبيرة وتكلفة فعالة." + }, + "llama-3.1-8b-instruct": { + "description": "نموذج Llama 3.1 8B للتعليمات، يتمتع بـ 8B من المعلمات، يدعم تنفيذ مهام التعليمات بكفاءة، ويوفر قدرة ممتازة على توليد النصوص." + }, + "llama-3.1-sonar-huge-128k-online": { + "description": "نموذج Llama 3.1 Sonar Huge Online، يتمتع بـ 405B من المعلمات، يدعم طول سياق حوالي 127,000 علامة، مصمم لتطبيقات دردشة معقدة عبر الإنترنت." + }, + "llama-3.1-sonar-large-128k-chat": { + "description": "نموذج Llama 3.1 Sonar Large Chat، يتمتع بـ 70B من المعلمات، يدعم طول سياق حوالي 127,000 علامة، مناسب لمهام دردشة غير متصلة معقدة." + }, + "llama-3.1-sonar-large-128k-online": { + "description": "نموذج Llama 3.1 Sonar Large Online، يتمتع بـ 70B من المعلمات، يدعم طول سياق حوالي 127,000 علامة، مناسب لمهام دردشة عالية السعة ومتنوعة." + }, + "llama-3.1-sonar-small-128k-chat": { + "description": "نموذج Llama 3.1 Sonar Small Chat، يتمتع بـ 8B من المعلمات، مصمم للدردشة غير المتصلة، يدعم طول سياق حوالي 127,000 علامة." + }, + "llama-3.1-sonar-small-128k-online": { + "description": "نموذج Llama 3.1 Sonar Small Online، يتمتع بـ 8B من المعلمات، يدعم طول سياق حوالي 127,000 علامة، مصمم للدردشة عبر الإنترنت، قادر على معالجة تفاعلات نصية متنوعة بكفاءة." + }, + "llama3-70b-8192": { + "description": "Meta Llama 3 70B يوفر قدرة معالجة معقدة لا مثيل لها، مصمم خصيصًا للمشاريع ذات المتطلبات العالية." + }, + "llama3-8b-8192": { + "description": "Meta Llama 3 8B يوفر أداء استدلال عالي الجودة، مناسب لمتطلبات التطبيقات متعددة السيناريوهات." + }, + "llama3-groq-70b-8192-tool-use-preview": { + "description": "Llama 3 Groq 70B Tool Use يوفر قدرة قوية على استدعاء الأدوات، يدعم معالجة فعالة للمهام المعقدة." + }, + "llama3-groq-8b-8192-tool-use-preview": { + "description": "Llama 3 Groq 8B Tool Use هو نموذج محسن للاستخدام الفعال للأدوات، يدعم الحسابات المتوازية السريعة." + }, + "llama3.1": { + "description": "Llama 3.1 هو النموذج الرائد الذي أطلقته Meta، يدعم ما يصل إلى 405B من المعلمات، ويمكن تطبيقه في مجالات الحوار المعقد، والترجمة متعددة اللغات، وتحليل البيانات." + }, + "llama3.1:405b": { + "description": "Llama 3.1 هو النموذج الرائد الذي أطلقته Meta، يدعم ما يصل إلى 405B من المعلمات، ويمكن تطبيقه في مجالات الحوار المعقد، والترجمة متعددة اللغات، وتحليل البيانات." + }, + "llama3.1:70b": { + "description": "Llama 3.1 هو النموذج الرائد الذي أطلقته Meta، يدعم ما يصل إلى 405B من المعلمات، ويمكن تطبيقه في مجالات الحوار المعقد، والترجمة متعددة اللغات، وتحليل البيانات." + }, + "llava": { + "description": "LLaVA هو نموذج متعدد الوسائط يجمع بين مشفرات بصرية وVicuna، يستخدم لفهم بصري ولغوي قوي." + }, + "llava-v1.5-7b-4096-preview": { + "description": "LLaVA 1.5 7B يوفر قدرة معالجة بصرية مدمجة، من خلال إدخال المعلومات البصرية لتوليد مخرجات معقدة." + }, + "llava:13b": { + "description": "LLaVA هو نموذج متعدد الوسائط يجمع بين مشفرات بصرية وVicuna، يستخدم لفهم بصري ولغوي قوي." + }, + "llava:34b": { + "description": "LLaVA هو نموذج متعدد الوسائط يجمع بين مشفرات بصرية وVicuna، يستخدم لفهم بصري ولغوي قوي." + }, + "mathstral": { + "description": "MathΣtral مصمم للبحث العلمي والاستدلال الرياضي، يوفر قدرة حسابية فعالة وتفسير النتائج." + }, + "meta-llama/Llama-2-13b-chat-hf": { + "description": "LLaMA-2 Chat (13B) يوفر قدرة ممتازة على معالجة اللغة وتجربة تفاعلية رائعة." + }, + "meta-llama/Llama-3-70b-chat-hf": { + "description": "LLaMA-3 Chat (70B) هو نموذج دردشة قوي، يدعم احتياجات الحوار المعقدة." + }, + "meta-llama/Llama-3-8b-chat-hf": { + "description": "LLaMA-3 Chat (8B) يوفر دعمًا متعدد اللغات، ويغطي مجموعة واسعة من المعرفة في المجالات." + }, + "meta-llama/Meta-Llama-3-70B-Instruct": { + "description": "LLaMA 3 يدعم توليد نصوص كبيرة وفهم التعليمات." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { + "description": "Llama 3 70B Instruct Lite مناسب للبيئات التي تتطلب أداءً عاليًا وزمن استجابة منخفض." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": { + "description": "Llama 3 70B Instruct Turbo يوفر قدرة ممتازة على فهم اللغة وتوليدها، مناسب لأكثر المهام الحسابية تطلبًا." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Lite": { + "description": "Llama 3 8B Instruct Lite مناسب للبيئات ذات الموارد المحدودة، ويوفر أداءً متوازنًا ممتازًا." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": { + "description": "Llama 3 8B Instruct Turbo هو نموذج لغوي كبير عالي الأداء، يدعم مجموعة واسعة من سيناريوهات التطبيق." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct": { + "description": "LLaMA 3.1 405B هو نموذج قوي للتدريب المسبق وضبط التعليمات." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": { + "description": "نموذج Llama 3.1 Turbo 405B يوفر دعمًا كبيرًا للسياق لمعالجة البيانات الكبيرة، ويظهر أداءً بارزًا في تطبيقات الذكاء الاصطناعي على نطاق واسع." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct": { + "description": "LLaMA 3.1 70B يوفر دعمًا فعالًا للحوار متعدد اللغات." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": { + "description": "نموذج Llama 3.1 70B تم ضبطه بدقة، مناسب للتطبيقات ذات الحمل العالي، تم تكميمه إلى FP8 لتوفير قدرة حسابية ودقة أعلى، مما يضمن أداءً ممتازًا في السيناريوهات المعقدة." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct": { + "description": "LLaMA 3.1 يوفر دعمًا متعدد اللغات، وهو واحد من النماذج الرائدة في الصناعة." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": { + "description": "نموذج Llama 3.1 8B يستخدم FP8 للتكميم، يدعم ما يصل إلى 131,072 علامة سياق، وهو من بين الأفضل في النماذج المفتوحة المصدر، مناسب للمهام المعقدة، ويظهر أداءً ممتازًا في العديد من المعايير الصناعية." + }, + "meta-llama/llama-3-70b-instruct": { + "description": "Llama 3 70B Instruct تم تحسينه لمشاهد الحوار عالية الجودة، ويظهر أداءً ممتازًا في مختلف التقييمات البشرية." + }, + "meta-llama/llama-3-8b-instruct": { + "description": "Llama 3 8B Instruct تم تحسينه لمشاهد الحوار عالية الجودة، ويظهر أداءً أفضل من العديد من النماذج المغلقة." + }, + "meta-llama/llama-3.1-405b-instruct": { + "description": "Llama 3.1 405B Instruct هو أحدث إصدار من Meta، تم تحسينه لتوليد حوارات عالية الجودة، متجاوزًا العديد من النماذج المغلقة الرائدة." + }, + "meta-llama/llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct مصمم للحوار عالي الجودة، ويظهر أداءً بارزًا في التقييمات البشرية، مما يجعله مناسبًا بشكل خاص للمشاهد التفاعلية العالية." + }, + "meta-llama/llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct هو أحدث إصدار من Meta، تم تحسينه لمشاهد الحوار عالية الجودة، ويظهر أداءً أفضل من العديد من النماذج المغلقة الرائدة." + }, + "meta-llama/llama-3.1-8b-instruct:free": { + "description": "LLaMA 3.1 يوفر دعمًا متعدد اللغات، وهو واحد من النماذج الرائدة في الصناعة في مجال التوليد." + }, + "meta.llama3-1-405b-instruct-v1:0": { + "description": "نموذج Meta Llama 3.1 405B Instruct هو أكبر وأقوى نموذج في مجموعة نماذج Llama 3.1 Instruct، وهو نموذج متقدم للغاية لتوليد البيانات والحوار، ويمكن استخدامه كأساس للتدريب المستمر أو التخصيص في مجالات معينة. توفر Llama 3.1 نماذج لغوية كبيرة متعددة اللغات (LLMs) وهي مجموعة من النماذج المدربة مسبقًا والمعدلة وفقًا للتعليمات، بما في ذلك أحجام 8B و70B و405B (إدخال/إخراج نصي). تم تحسين نماذج النص المعدلة وفقًا للتعليمات (8B و70B و405B) لحالات الاستخدام الحوارية متعددة اللغات، وقد تفوقت في العديد من اختبارات المعايير الصناعية الشائعة على العديد من نماذج الدردشة مفتوحة المصدر المتاحة. تم تصميم Llama 3.1 للاستخدام التجاري والبحثي في عدة لغات. نماذج النص المعدلة وفقًا للتعليمات مناسبة للدردشة الشبيهة بالمساعد، بينما يمكن للنماذج المدربة مسبقًا التكيف مع مجموعة متنوعة من مهام توليد اللغة الطبيعية. تدعم نماذج Llama 3.1 أيضًا تحسين نماذج أخرى باستخدام مخرجاتها، بما في ذلك توليد البيانات الاصطناعية والتنقيح. Llama 3.1 هو نموذج لغوي ذاتي التكرار يستخدم بنية المحولات المحسّنة. تستخدم النسخ المعدلة التعلم المعزز مع التغذية الراجعة البشرية (RLHF) لتلبية تفضيلات البشر فيما يتعلق بالمساعدة والأمان." + }, + "meta.llama3-1-70b-instruct-v1:0": { + "description": "الإصدار المحدث من Meta Llama 3.1 70B Instruct، يتضمن طول سياق موسع يبلغ 128K، ودعم لغات متعددة، وقدرات استدلال محسنة. توفر Llama 3.1 نماذج لغوية كبيرة متعددة اللغات (LLMs) وهي مجموعة من النماذج التوليدية المدربة مسبقًا والمعدلة للتعليمات، بما في ذلك أحجام 8B و70B و405B (إدخال/إخراج نص). تم تحسين نماذج النص المعدلة للتعليمات (8B و70B و405B) لحالات الاستخدام متعددة اللغات، وتفوقت في اختبارات المعايير الصناعية الشائعة على العديد من نماذج الدردشة مفتوحة المصدر المتاحة. تم تصميم Llama 3.1 للاستخدام التجاري والبحثي في لغات متعددة. نماذج النص المعدلة للتعليمات مناسبة للدردشة الشبيهة بالمساعد، بينما يمكن للنماذج المدربة مسبقًا التكيف مع مجموعة متنوعة من مهام توليد اللغة الطبيعية. تدعم نماذج Llama 3.1 أيضًا تحسين نماذج أخرى باستخدام مخرجات نموذجها، بما في ذلك توليد البيانات الاصطناعية والتنقيح. Llama 3.1 هو نموذج لغوي ذاتي التكرار يستخدم بنية المحولات المحسنة. تستخدم النسخ المعدلة التعلم الموجه بالإشراف (SFT) والتعلم المعزز مع التغذية الراجعة البشرية (RLHF) لتلبية تفضيلات البشر فيما يتعلق بالمساعدة والأمان." + }, + "meta.llama3-1-8b-instruct-v1:0": { + "description": "الإصدار المحدث من Meta Llama 3.1 8B Instruct، يتضمن طول سياق موسع يبلغ 128K، ودعم لغات متعددة، وقدرات استدلال محسنة. توفر Llama 3.1 نماذج لغوية كبيرة متعددة اللغات (LLMs) وهي مجموعة من النماذج التوليدية المدربة مسبقًا والمعدلة للتعليمات، بما في ذلك أحجام 8B و70B و405B (إدخال/إخراج نص). تم تحسين نماذج النص المعدلة للتعليمات (8B و70B و405B) لحالات الاستخدام متعددة اللغات، وتفوقت في اختبارات المعايير الصناعية الشائعة على العديد من نماذج الدردشة مفتوحة المصدر المتاحة. تم تصميم Llama 3.1 للاستخدام التجاري والبحثي في لغات متعددة. نماذج النص المعدلة للتعليمات مناسبة للدردشة الشبيهة بالمساعد، بينما يمكن للنماذج المدربة مسبقًا التكيف مع مجموعة متنوعة من مهام توليد اللغة الطبيعية. تدعم نماذج Llama 3.1 أيضًا تحسين نماذج أخرى باستخدام مخرجات نموذجها، بما في ذلك توليد البيانات الاصطناعية والتنقيح. Llama 3.1 هو نموذج لغوي ذاتي التكرار يستخدم بنية المحولات المحسنة. تستخدم النسخ المعدلة التعلم الموجه بالإشراف (SFT) والتعلم المعزز مع التغذية الراجعة البشرية (RLHF) لتلبية تفضيلات البشر فيما يتعلق بالمساعدة والأمان." + }, + "meta.llama3-70b-instruct-v1:0": { + "description": "Meta Llama 3 هو نموذج لغوي كبير مفتوح (LLM) موجه للمطورين والباحثين والشركات، يهدف إلى مساعدتهم في بناء وتجربة وتوسيع أفكارهم في الذكاء الاصطناعي بشكل مسؤول. كجزء من نظام الابتكار المجتمعي العالمي، فهو مثالي لإنشاء المحتوى، والذكاء الاصطناعي الحواري، وفهم اللغة، والبحث والتطوير، وتطبيقات الأعمال." + }, + "meta.llama3-8b-instruct-v1:0": { + "description": "Meta Llama 3 هو نموذج لغوي كبير مفتوح (LLM) موجه للمطورين والباحثين والشركات، يهدف إلى مساعدتهم في بناء وتجربة وتوسيع أفكارهم في الذكاء الاصطناعي بشكل مسؤول. كجزء من نظام الابتكار المجتمعي العالمي، فهو مثالي للأجهزة ذات القدرة الحاسوبية والموارد المحدودة، والأجهزة الطرفية، وأوقات التدريب الأسرع." + }, + "microsoft/wizardlm 2-7b": { + "description": "WizardLM 2 7B هو أحدث نموذج خفيف الوزن وسريع من Microsoft AI، ويقترب أداؤه من 10 أضعاف النماذج الرائدة المفتوحة المصدر الحالية." + }, + "microsoft/wizardlm-2-8x22b": { + "description": "WizardLM-2 8x22B هو نموذج Wizard المتقدم من Microsoft، يظهر أداءً تنافسيًا للغاية." + }, + "minicpm-v": { + "description": "MiniCPM-V هو نموذج متعدد الوسائط من الجيل الجديد تم إطلاقه بواسطة OpenBMB، ويتميز بقدرات استثنائية في التعرف على النصوص وفهم الوسائط المتعددة، ويدعم مجموعة واسعة من سيناريوهات الاستخدام." + }, + "mistral": { + "description": "Mistral هو نموذج 7B أطلقته Mistral AI، مناسب لاحتياجات معالجة اللغة المتغيرة." + }, + "mistral-large": { + "description": "Mixtral Large هو النموذج الرائد من Mistral، يجمع بين قدرات توليد الشيفرة، والرياضيات، والاستدلال، ويدعم نافذة سياق تصل إلى 128k." + }, + "mistral-large-latest": { + "description": "Mistral Large هو النموذج الرائد، يتفوق في المهام متعددة اللغات، والاستدلال المعقد، وتوليد الشيفرة، وهو الخيار المثالي للتطبيقات الراقية." + }, + "mistral-nemo": { + "description": "Mistral Nemo تم تطويره بالتعاون بين Mistral AI وNVIDIA، وهو نموذج 12B عالي الأداء." + }, + "mistralai/Mistral-7B-Instruct-v0.1": { + "description": "Mistral (7B) Instruct معروف بأدائه العالي، مناسب لمهام لغوية متعددة." + }, + "mistralai/Mistral-7B-Instruct-v0.2": { + "description": "Mistral 7B هو نموذج تم ضبطه حسب الطلب، يوفر إجابات محسنة للمهام." + }, + "mistralai/Mistral-7B-Instruct-v0.3": { + "description": "Mistral (7B) Instruct v0.3 يوفر قدرة حسابية فعالة وفهم اللغة الطبيعية، مناسب لمجموعة واسعة من التطبيقات." + }, + "mistralai/Mixtral-8x22B-Instruct-v0.1": { + "description": "Mixtral-8x22B Instruct (141B) هو نموذج لغوي كبير للغاية، يدعم احتياجات معالجة عالية جدًا." + }, + "mistralai/Mixtral-8x7B-Instruct-v0.1": { + "description": "Mixtral 8x7B هو نموذج خبير مختلط مدرب مسبقًا، يستخدم لمهام النص العامة." + }, + "mistralai/mistral-7b-instruct": { + "description": "Mistral 7B Instruct هو نموذج صناعي عالي الأداء يجمع بين تحسين السرعة ودعم السياقات الطويلة." + }, + "mistralai/mistral-nemo": { + "description": "Mistral Nemo هو نموذج ببارامترات 7.3B يدعم عدة لغات ويتميز بأداء برمجي عالي." + }, + "mixtral": { + "description": "Mixtral هو نموذج خبير من Mistral AI، يتمتع بأوزان مفتوحة المصدر، ويوفر دعمًا في توليد الشيفرة وفهم اللغة." + }, + "mixtral-8x7b-32768": { + "description": "Mixtral 8x7B يوفر قدرة حسابية متوازية عالية التحمل، مناسب للمهام المعقدة." + }, + "mixtral:8x22b": { + "description": "Mixtral هو نموذج خبير من Mistral AI، يتمتع بأوزان مفتوحة المصدر، ويوفر دعمًا في توليد الشيفرة وفهم اللغة." + }, + "moonshot-v1-128k": { + "description": "Moonshot V1 128K هو نموذج يتمتع بقدرة معالجة سياقات طويلة جدًا، مناسب لتوليد نصوص طويلة جدًا، يلبي احتياجات المهام المعقدة، قادر على معالجة ما يصل إلى 128,000 توكن، مما يجعله مثاليًا للبحث، والأكاديميات، وتوليد الوثائق الكبيرة." + }, + "moonshot-v1-32k": { + "description": "Moonshot V1 32K يوفر قدرة معالجة سياقات متوسطة الطول، قادر على معالجة 32,768 توكن، مناسب بشكل خاص لتوليد مجموعة متنوعة من الوثائق الطويلة والحوار المعقد، ويستخدم في إنشاء المحتوى، وتوليد التقارير، وأنظمة الحوار." + }, + "moonshot-v1-8k": { + "description": "Moonshot V1 8K مصمم خصيصًا لتوليد مهام النصوص القصيرة، يتمتع بأداء معالجة فعال، قادر على معالجة 8,192 توكن، مما يجعله مثاليًا للحوار القصير، والتدوين السريع، وتوليد المحتوى السريع." + }, + "nousresearch/hermes-2-pro-llama-3-8b": { + "description": "Hermes 2 Pro Llama 3 8B هو إصدار مطور من Nous Hermes 2، ويحتوي على أحدث مجموعات البيانات المطورة داخليًا." + }, + "o1-mini": { + "description": "o1-mini هو نموذج استدلال سريع وفعال من حيث التكلفة مصمم لتطبيقات البرمجة والرياضيات والعلوم. يحتوي هذا النموذج على 128K من السياق وتاريخ انتهاء المعرفة في أكتوبر 2023." + }, + "o1-preview": { + "description": "o1 هو نموذج استدلال جديد من OpenAI، مناسب للمهام المعقدة التي تتطلب معرفة عامة واسعة. يحتوي هذا النموذج على 128K من السياق وتاريخ انتهاء المعرفة في أكتوبر 2023." + }, + "open-codestral-mamba": { + "description": "Codestral Mamba هو نموذج لغة Mamba 2 يركز على توليد الشيفرة، ويوفر دعمًا قويًا لمهام الشيفرة المتقدمة والاستدلال." + }, + "open-mistral-7b": { + "description": "Mistral 7B هو نموذج مدمج ولكنه عالي الأداء، يتفوق في معالجة الدفعات والمهام البسيطة، مثل التصنيف وتوليد النصوص، ويتميز بقدرة استدلال جيدة." + }, + "open-mistral-nemo": { + "description": "Mistral Nemo هو نموذج 12B تم تطويره بالتعاون مع Nvidia، يوفر أداء استدلال وترميز ممتاز، سهل التكامل والاستبدال." + }, + "open-mixtral-8x22b": { + "description": "Mixtral 8x22B هو نموذج خبير أكبر، يركز على المهام المعقدة، ويوفر قدرة استدلال ممتازة وإنتاجية أعلى." + }, + "open-mixtral-8x7b": { + "description": "Mixtral 8x7B هو نموذج خبير نادر، يستخدم عدة معلمات لزيادة سرعة الاستدلال، مناسب لمعالجة المهام متعددة اللغات وتوليد الشيفرة." + }, + "openai/gpt-4o-2024-08-06": { + "description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي للحفاظ على أحدث إصدار. يجمع بين قدرات الفهم اللغوي القوي والتوليد، وهو مناسب لمجموعة واسعة من سيناريوهات الاستخدام، بما في ذلك خدمة العملاء والتعليم والدعم الفني." + }, + "openai/gpt-4o-mini": { + "description": "GPT-4o mini هو أحدث نموذج من OpenAI تم إطلاقه بعد GPT-4 Omni، ويدعم إدخال النصوص والصور وإخراج النصوص. كأحد نماذجهم المتقدمة الصغيرة، فهو أرخص بكثير من النماذج الرائدة الأخرى في الآونة الأخيرة، وأرخص بأكثر من 60% من GPT-3.5 Turbo. يحتفظ بذكاء متقدم مع قيمة ممتازة. حصل GPT-4o mini على 82% في اختبار MMLU، وهو حاليًا يتفوق على GPT-4 في تفضيلات الدردشة." + }, + "openai/o1-mini": { + "description": "o1-mini هو نموذج استدلال سريع وفعال من حيث التكلفة مصمم لتطبيقات البرمجة والرياضيات والعلوم. يحتوي هذا النموذج على 128K من السياق وتاريخ انتهاء المعرفة في أكتوبر 2023." + }, + "openai/o1-preview": { + "description": "o1 هو نموذج استدلال جديد من OpenAI، مناسب للمهام المعقدة التي تتطلب معرفة عامة واسعة. يحتوي هذا النموذج على 128K من السياق وتاريخ انتهاء المعرفة في أكتوبر 2023." + }, + "openchat/openchat-7b": { + "description": "OpenChat 7B هو مكتبة نماذج لغوية مفتوحة المصدر تم تحسينها باستخدام استراتيجية \"C-RLFT (تعزيز التعلم الشرطي)\"." + }, + "openrouter/auto": { + "description": "استنادًا إلى طول السياق، والموضوع، والتعقيد، سيتم إرسال طلبك إلى Llama 3 70B Instruct، أو Claude 3.5 Sonnet (التعديل الذاتي) أو GPT-4o." + }, + "phi3": { + "description": "Phi-3 هو نموذج مفتوح خفيف الوزن أطلقته Microsoft، مناسب للتكامل الفعال واستدلال المعرفة على نطاق واسع." + }, + "phi3:14b": { + "description": "Phi-3 هو نموذج مفتوح خفيف الوزن أطلقته Microsoft، مناسب للتكامل الفعال واستدلال المعرفة على نطاق واسع." + }, + "qwen-long": { + "description": "نموذج Qwen العملاق للغة، يدعم سياقات نصية طويلة، بالإضافة إلى وظائف الحوار المستندة إلى الوثائق الطويلة والعديد من الوثائق." + }, + "qwen-max": { + "description": "نموذج Qwen العملاق للغة بمستوى تريليوني، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية، وهو النموذج API وراء إصدار Qwen 2.5." + }, + "qwen-max-longcontext": { + "description": "نموذج Qwen العملاق للغة بمستوى تريليوني، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية، ويوسع نافذة السياق." + }, + "qwen-plus": { + "description": "نموذج Qwen العملاق للغة المعزز، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية." + }, + "qwen-turbo": { + "description": "نموذج Qwen العملاق للغة، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية." + }, + "qwen-vl-chat-v1": { + "description": "نموذج Qwen العملاق للغة البصرية يدعم طرق تفاعل مرنة، بما في ذلك الصور المتعددة، والأسئلة والأجوبة المتعددة، والإبداع." + }, + "qwen-vl-max": { + "description": "نموذج Qwen العملاق للغة البصرية. يعزز بشكل أكبر من قدرة الاستدلال البصري والامتثال للتعليمات، ويقدم مستوى أعلى من الإدراك البصري والفهم." + }, + "qwen-vl-plus": { + "description": "نموذج Qwen العملاق للغة البصرية المعزز. يعزز بشكل كبير من قدرة التعرف على التفاصيل والتعرف على النصوص، ويدعم دقة تصل إلى مليون بكسل وأبعاد صورة بأي نسبة." + }, + "qwen-vl-v1": { + "description": "نموذج تم تدريبه باستخدام نموذج Qwen-7B اللغوي، مع إضافة نموذج الصور، بدقة إدخال الصور 448." + }, + "qwen/qwen-2-7b-instruct:free": { + "description": "Qwen2 هو سلسلة جديدة من نماذج اللغة الكبيرة، تتمتع بقدرات فهم وتوليد أقوى." + }, + "qwen2": { + "description": "Qwen2 هو نموذج لغوي كبير من الجيل الجديد من Alibaba، يدعم أداءً ممتازًا لتلبية احتياجات التطبيقات المتنوعة." + }, + "qwen2-57b-a14b-instruct": { + "description": "نموذج Qwen2 بحجم 57B مع 14B من معلمات MOE مفتوح المصدر." + }, + "qwen2-72b-instruct": { + "description": "نموذج Qwen2 بحجم 72B مفتوح المصدر." + }, + "qwen2-7b-instruct": { + "description": "نموذج Qwen2 بحجم 7B مفتوح المصدر." + }, + "qwen2-math-72b-instruct": { + "description": "نموذج Qwen2-Math يتمتع بقدرات قوية في حل المسائل الرياضية." + }, + "qwen2:0.5b": { + "description": "Qwen2 هو نموذج لغوي كبير من الجيل الجديد من Alibaba، يدعم أداءً ممتازًا لتلبية احتياجات التطبيقات المتنوعة." + }, + "qwen2:1.5b": { + "description": "Qwen2 هو نموذج لغوي كبير من الجيل الجديد من Alibaba، يدعم أداءً ممتازًا لتلبية احتياجات التطبيقات المتنوعة." + }, + "qwen2:72b": { + "description": "Qwen2 هو نموذج لغوي كبير من الجيل الجديد من Alibaba، يدعم أداءً ممتازًا لتلبية احتياجات التطبيقات المتنوعة." + }, + "solar-1-mini-chat": { + "description": "Solar Mini هو نموذج LLM مدمج، يتفوق على GPT-3.5، ويتميز بقدرات متعددة اللغات، ويدعم الإنجليزية والكورية، ويقدم حلولًا فعالة وصغيرة الحجم." + }, + "solar-1-mini-chat-ja": { + "description": "Solar Mini (Ja) يوسع قدرات Solar Mini، ويركز على اللغة اليابانية، مع الحفاظ على الكفاءة والأداء الممتاز في استخدام الإنجليزية والكورية." + }, + "solar-pro": { + "description": "Solar Pro هو نموذج LLM عالي الذكاء تم إطلاقه من قبل Upstage، يركز على قدرة اتباع التعليمات على وحدة معالجة الرسوميات الواحدة، وسجل IFEval فوق 80. حاليًا يدعم اللغة الإنجليزية، ومن المقرر إصدار النسخة الرسمية في نوفمبر 2024، مع توسيع دعم اللغات وطول السياق." + }, + "step-1-128k": { + "description": "يوفر توازنًا بين الأداء والتكلفة، مناسب لمجموعة متنوعة من السيناريوهات." + }, + "step-1-256k": { + "description": "يمتلك قدرة معالجة سياق طويلة جدًا، مناسب بشكل خاص لتحليل الوثائق الطويلة." + }, + "step-1-32k": { + "description": "يدعم حوارات متوسطة الطول، مناسب لمجموعة متنوعة من تطبيقات السيناريو." + }, + "step-1-8k": { + "description": "نموذج صغير، مناسب للمهام الخفيفة." + }, + "step-1-flash": { + "description": "نموذج عالي السرعة، مناسب للحوار في الوقت الحقيقي." + }, + "step-1v-32k": { + "description": "يدعم المدخلات البصرية، يعزز تجربة التفاعل متعدد الوسائط." + }, + "step-1v-8k": { + "description": "نموذج بصري صغير، مناسب للمهام الأساسية المتعلقة بالنصوص والصور." + }, + "step-2-16k": { + "description": "يدعم تفاعلات سياق كبيرة، مناسب لمشاهد الحوار المعقدة." + }, + "taichu_llm": { + "description": "نموذج اللغة الكبير TaiChu يتمتع بقدرات قوية في فهم اللغة، بالإضافة إلى إنشاء النصوص، والإجابة على الأسئلة، وبرمجة الأكواد، والحسابات الرياضية، والاستدلال المنطقي، وتحليل المشاعر، وتلخيص النصوص. يجمع بشكل مبتكر بين التدريب المسبق على البيانات الضخمة والمعرفة الغنية من مصادر متعددة، من خلال تحسين تقنيات الخوارزميات باستمرار واستيعاب المعرفة الجديدة من البيانات النصية الضخمة، مما يحقق تطورًا مستمرًا في أداء النموذج. يوفر للمستخدمين معلومات وخدمات أكثر سهولة وتجربة أكثر ذكاءً." + }, + "togethercomputer/StripedHyena-Nous-7B": { + "description": "StripedHyena Nous (7B) يوفر قدرة حسابية معززة من خلال استراتيجيات فعالة وهندسة نموذجية." + }, + "upstage/SOLAR-10.7B-Instruct-v1.0": { + "description": "Upstage SOLAR Instruct v1 (11B) مناسب لمهام التعليمات الدقيقة، يوفر قدرة معالجة لغوية ممتازة." + }, + "wizardlm2": { + "description": "WizardLM 2 هو نموذج لغوي تقدمه Microsoft AI، يتميز بأداء ممتاز في الحوار المعقد، واللغات المتعددة، والاستدلال، والمساعدين الذكيين." + }, + "wizardlm2:8x22b": { + "description": "WizardLM 2 هو نموذج لغوي تقدمه Microsoft AI، يتميز بأداء ممتاز في الحوار المعقد، واللغات المتعددة، والاستدلال، والمساعدين الذكيين." + }, + "yi-large": { + "description": "نموذج جديد بمليارات المعلمات، يوفر قدرة قوية على الإجابة وتوليد النصوص." + }, + "yi-large-fc": { + "description": "يدعم ويعزز قدرة استدعاء الأدوات على نموذج yi-large، مناسب لمجموعة متنوعة من سيناريوهات الأعمال التي تتطلب بناء وكيل أو سير عمل." + }, + "yi-large-preview": { + "description": "الإصدار الأولي، يوصى باستخدام yi-large (الإصدار الجديد)." + }, + "yi-large-rag": { + "description": "خدمة متقدمة تعتمد على نموذج yi-large القوي، تجمع بين تقنيات الاسترجاع والتوليد لتوفير إجابات دقيقة، وخدمة استرجاع المعلومات من الإنترنت في الوقت الحقيقي." + }, + "yi-large-turbo": { + "description": "عالية الكفاءة، أداء ممتاز. يتم ضبطها بدقة عالية لتحقيق توازن بين الأداء وسرعة الاستدلال والتكلفة." + }, + "yi-medium": { + "description": "نموذج متوسط الحجم تم تحسينه، يتمتع بقدرات متوازنة، وكفاءة عالية في التكلفة. تم تحسين قدرة اتباع التعليمات بشكل عميق." + }, + "yi-medium-200k": { + "description": "نافذة سياق طويلة تصل إلى 200K، توفر قدرة عميقة على فهم وتوليد النصوص الطويلة." + }, + "yi-spark": { + "description": "نموذج صغير ولكنه قوي، خفيف وسريع. يوفر قدرة معززة على العمليات الرياضية وكتابة الشيفرات." + }, + "yi-vision": { + "description": "نموذج لمهام الرؤية المعقدة، يوفر قدرة عالية على فهم وتحليل الصور." + } +} diff --git a/locales/ar/providers.json b/locales/ar/providers.json new file mode 100644 index 000000000000..45fb63774abb --- /dev/null +++ b/locales/ar/providers.json @@ -0,0 +1,80 @@ +{ + "ai360": { + "description": "AI 360 هي منصة نماذج وخدمات الذكاء الاصطناعي التي أطلقتها شركة 360، تقدم مجموعة متنوعة من نماذج معالجة اللغة الطبيعية المتقدمة، بما في ذلك 360GPT2 Pro و360GPT Pro و360GPT Turbo و360GPT Turbo Responsibility 8K. تجمع هذه النماذج بين المعلمات الكبيرة والقدرات متعددة الوسائط، وتستخدم على نطاق واسع في توليد النصوص، وفهم المعاني، وأنظمة الحوار، وتوليد الشيفرات. من خلال استراتيجيات تسعير مرنة، تلبي AI 360 احتياجات المستخدمين المتنوعة، وتدعم المطورين في التكامل، مما يعزز الابتكار والتطوير في التطبيقات الذكية." + }, + "anthropic": { + "description": "Anthropic هي شركة تركز على أبحاث وتطوير الذكاء الاصطناعي، وتقدم مجموعة من نماذج اللغة المتقدمة، مثل Claude 3.5 Sonnet وClaude 3 Sonnet وClaude 3 Opus وClaude 3 Haiku. تحقق هذه النماذج توازنًا مثاليًا بين الذكاء والسرعة والتكلفة، وتناسب مجموعة متنوعة من سيناريوهات التطبيقات، من أحمال العمل على مستوى المؤسسات إلى الاستجابات السريعة. يعتبر Claude 3.5 Sonnet أحدث نماذجها، وقد أظهر أداءً ممتازًا في العديد من التقييمات مع الحفاظ على نسبة تكلفة فعالة." + }, + "azure": { + "description": "توفر Azure مجموعة متنوعة من نماذج الذكاء الاصطناعي المتقدمة، بما في ذلك GPT-3.5 وأحدث سلسلة GPT-4، تدعم أنواع بيانات متعددة ومهام معقدة، وتلتزم بحلول ذكاء اصطناعي آمنة وموثوقة ومستدامة." + }, + "baichuan": { + "description": "Baichuan Intelligence هي شركة تركز على تطوير نماذج الذكاء الاصطناعي الكبيرة، حيث تظهر نماذجها أداءً ممتازًا في المهام الصينية مثل الموسوعات المعرفية ومعالجة النصوص الطويلة والإبداع. تتفوق على النماذج الرئيسية الأجنبية. كما تتمتع Baichuan Intelligence بقدرات متعددة الوسائط رائدة في الصناعة، وقد أظهرت أداءً ممتازًا في العديد من التقييمات الموثوقة. تشمل نماذجها Baichuan 4 وBaichuan 3 Turbo وBaichuan 3 Turbo 128k، وكل منها مُحسّن لمشاهد تطبيق مختلفة، مما يوفر حلولًا فعالة من حيث التكلفة." + }, + "bedrock": { + "description": "Bedrock هي خدمة تقدمها أمازون AWS، تركز على توفير نماذج لغة ورؤية متقدمة للذكاء الاصطناعي للشركات. تشمل عائلة نماذجها سلسلة Claude من Anthropic وسلسلة Llama 3.1 من Meta، وتغطي مجموعة من الخيارات من النماذج الخفيفة إلى عالية الأداء، وتدعم مهام مثل توليد النصوص، والحوار، ومعالجة الصور، مما يجعلها مناسبة لتطبيقات الشركات بمختلف أحجامها واحتياجاتها." + }, + "deepseek": { + "description": "DeepSeek هي شركة تركز على أبحاث وتطبيقات تقنيات الذكاء الاصطناعي، حيث يجمع نموذجها الأحدث DeepSeek-V2.5 بين قدرات الحوار العامة ومعالجة الشيفرات، وقد حقق تحسينات ملحوظة في محاذاة تفضيلات البشر، ومهام الكتابة، واتباع التعليمات." + }, + "fireworksai": { + "description": "Fireworks AI هي شركة رائدة في تقديم خدمات نماذج اللغة المتقدمة، تركز على استدعاء الوظائف والمعالجة متعددة الوسائط. نموذجها الأحدث Firefunction V2 مبني على Llama-3، مُحسّن لاستدعاء الوظائف، والحوار، واتباع التعليمات. يدعم نموذج اللغة البصرية FireLLaVA-13B إدخال الصور والنصوص المختلطة. تشمل النماذج البارزة الأخرى سلسلة Llama وسلسلة Mixtral، مما يوفر دعمًا فعالًا لاتباع التعليمات وتوليدها بلغات متعددة." + }, + "google": { + "description": "سلسلة Gemini من Google هي نماذج الذكاء الاصطناعي الأكثر تقدمًا وشمولية، تم تطويرها بواسطة Google DeepMind، مصممة خصيصًا لتكون متعددة الوسائط، تدعم الفهم والمعالجة السلسة للنصوص، والشيفرات، والصور، والصوت، والفيديو. تناسب مجموعة متنوعة من البيئات، من مراكز البيانات إلى الأجهزة المحمولة، مما يعزز بشكل كبير كفاءة نماذج الذكاء الاصطناعي وانتشار استخدامها." + }, + "groq": { + "description": "يتميز محرك الاستدلال LPU من Groq بأداء ممتاز في أحدث اختبارات المعايير لنماذج اللغة الكبيرة المستقلة (LLM)، حيث أعاد تعريف معايير حلول الذكاء الاصطناعي بسرعته وكفاءته المذهلة. Groq يمثل سرعة استدلال فورية، ويظهر أداءً جيدًا في النشر القائم على السحابة." + }, + "minimax": { + "description": "MiniMax هي شركة تكنولوجيا الذكاء الاصطناعي العامة التي تأسست في عام 2021، تكرس جهودها للتعاون مع المستخدمين في إنشاء الذكاء. طورت MiniMax نماذج كبيرة عامة من أوضاع مختلفة، بما في ذلك نموذج نصي MoE الذي يحتوي على تريليونات من المعلمات، ونموذج صوتي، ونموذج صور. وقد أطلقت تطبيقات مثل Conch AI." + }, + "mistral": { + "description": "تقدم Mistral نماذج متقدمة عامة ومتخصصة وبحثية، تستخدم على نطاق واسع في الاستدلال المعقد، والمهام متعددة اللغات، وتوليد الشيفرات، من خلال واجهة استدعاء الوظائف، يمكن للمستخدمين دمج وظائف مخصصة لتحقيق تطبيقات محددة." + }, + "moonshot": { + "description": "Moonshot هي منصة مفتوحة أطلقتها شركة Beijing Dark Side Technology Co.، Ltd، تقدم مجموعة متنوعة من نماذج معالجة اللغة الطبيعية، وتغطي مجالات واسعة، بما في ذلك ولكن لا تقتصر على إنشاء المحتوى، والبحث الأكاديمي، والتوصيات الذكية، والتشخيص الطبي، وتدعم معالجة النصوص الطويلة والمهام المعقدة." + }, + "novita": { + "description": "Novita AI هي منصة تقدم خدمات API لمجموعة متنوعة من نماذج اللغة الكبيرة وتوليد الصور بالذكاء الاصطناعي، مرنة وموثوقة وفعالة من حيث التكلفة. تدعم أحدث النماذج مفتوحة المصدر مثل Llama3 وMistral، وتوفر حلول API شاملة وسهلة الاستخدام وقابلة للتوسع تلقائيًا لتطوير تطبيقات الذكاء الاصطناعي، مما يجعلها مناسبة لنمو الشركات الناشئة في مجال الذكاء الاصطناعي." + }, + "ollama": { + "description": "تغطي نماذج Ollama مجموعة واسعة من مجالات توليد الشيفرة، والعمليات الرياضية، ومعالجة اللغات المتعددة، والتفاعل الحواري، وتدعم احتياجات النشر على مستوى المؤسسات والتخصيص المحلي." + }, + "openai": { + "description": "OpenAI هي مؤسسة رائدة عالميًا في أبحاث الذكاء الاصطناعي، حيث دفعت النماذج التي طورتها مثل سلسلة GPT حدود معالجة اللغة الطبيعية. تلتزم OpenAI بتغيير العديد من الصناعات من خلال حلول الذكاء الاصطناعي المبتكرة والفعالة. تتمتع منتجاتهم بأداء ملحوظ وفعالية من حيث التكلفة، وتستخدم على نطاق واسع في البحث والتجارة والتطبيقات الابتكارية." + }, + "openrouter": { + "description": "OpenRouter هي منصة خدمة تقدم واجهات لمجموعة متنوعة من النماذج الكبيرة المتقدمة، تدعم OpenAI وAnthropic وLLaMA وغيرها، مما يجعلها مناسبة لاحتياجات التطوير والتطبيق المتنوعة. يمكن للمستخدمين اختيار النموذج والسعر الأمثل وفقًا لاحتياجاتهم، مما يعزز تجربة الذكاء الاصطناعي." + }, + "perplexity": { + "description": "Perplexity هي شركة رائدة في تقديم نماذج توليد الحوار، تقدم مجموعة من نماذج Llama 3.1 المتقدمة، تدعم التطبيقات عبر الإنترنت وغير المتصلة، وتناسب بشكل خاص مهام معالجة اللغة الطبيعية المعقدة." + }, + "qwen": { + "description": "Qwen هو نموذج لغة ضخم تم تطويره ذاتيًا بواسطة Alibaba Cloud، يتمتع بقدرات قوية في فهم وتوليد اللغة الطبيعية. يمكنه الإجابة على مجموعة متنوعة من الأسئلة، وكتابة المحتوى، والتعبير عن الآراء، وكتابة الشيفرات، ويؤدي دورًا في مجالات متعددة." + }, + "siliconcloud": { + "description": "تسعى SiliconFlow إلى تسريع الذكاء الاصطناعي العام (AGI) لفائدة البشرية، من خلال تحسين كفاءة الذكاء الاصطناعي على نطاق واسع باستخدام حزمة GenAI سهلة الاستخدام وذات التكلفة المنخفضة." + }, + "spark": { + "description": "تقدم شركة iFlytek نموذج Spark الكبير، الذي يوفر قدرات ذكاء اصطناعي قوية عبر مجالات متعددة ولغات متعددة، باستخدام تقنيات معالجة اللغة الطبيعية المتقدمة، لبناء تطبيقات مبتكرة مناسبة للأجهزة الذكية، والرعاية الصحية الذكية، والتمويل الذكي، وغيرها من السيناريوهات الرأسية." + }, + "stepfun": { + "description": "نموذج StepFun الكبير يتمتع بقدرات متعددة الوسائط واستدلال معقد رائدة في الصناعة، ويدعم فهم النصوص الطويلة جدًا وميزات قوية لمحرك البحث الذاتي." + }, + "taichu": { + "description": "أطلقت الأكاديمية الصينية للعلوم ومعهد ووهان للذكاء الاصطناعي نموذجًا جديدًا متعدد الوسائط، يدعم أسئلة وأجوبة متعددة الجولات، وإنشاء النصوص، وتوليد الصور، وفهم 3D، وتحليل الإشارات، ويغطي مجموعة شاملة من مهام الأسئلة والأجوبة، مع قدرات أقوى في الإدراك والفهم والإبداع، مما يوفر تجربة تفاعلية جديدة." + }, + "togetherai": { + "description": "تسعى Together AI لتحقيق أداء رائد من خلال نماذج الذكاء الاصطناعي المبتكرة، وتقدم مجموعة واسعة من القدرات المخصصة، بما في ذلك دعم التوسع السريع وعمليات النشر البديهية، لتلبية احتياجات الشركات المتنوعة." + }, + "upstage": { + "description": "تتخصص Upstage في تطوير نماذج الذكاء الاصطناعي لتلبية احتياجات الأعمال المتنوعة، بما في ذلك Solar LLM وDocument AI، بهدف تحقيق الذكاء الاصطناعي العام (AGI) القائم على العمل. من خلال واجهة Chat API، يمكن إنشاء وكلاء حوار بسيطين، وتدعم استدعاء الوظائف، والترجمة، والتضمين، وتطبيقات المجالات المحددة." + }, + "zeroone": { + "description": "01.AI تركز على تقنيات الذكاء الاصطناعي في عصر الذكاء الاصطناعي 2.0، وتعزز الابتكار والتطبيقات \"الإنسان + الذكاء الاصطناعي\"، باستخدام نماذج قوية وتقنيات ذكاء اصطناعي متقدمة لتعزيز إنتاجية البشر وتحقيق تمكين التكنولوجيا." + }, + "zhipu": { + "description": "تقدم Zhipu AI منصة مفتوحة للنماذج متعددة الوسائط ونماذج اللغة، تدعم مجموعة واسعة من سيناريوهات تطبيقات الذكاء الاصطناعي، بما في ذلك معالجة النصوص، وفهم الصور، والمساعدة في البرمجة." + } +} diff --git a/locales/bg-BG/common.json b/locales/bg-BG/common.json index 61a14bf7bd4a..c56c072b12e1 100644 --- a/locales/bg-BG/common.json +++ b/locales/bg-BG/common.json @@ -195,8 +195,8 @@ }, "tab": { "chat": "Чат", + "discover": "Открий", "files": "Файлове", - "market": "Открий", "me": "аз", "setting": "Настройки" }, diff --git a/locales/bg-BG/discover.json b/locales/bg-BG/discover.json new file mode 100644 index 000000000000..b3e924c3341c --- /dev/null +++ b/locales/bg-BG/discover.json @@ -0,0 +1,204 @@ +{ + "assistants": { + "addAgent": "Добави асистент", + "addAgentAndConverse": "Добави асистент и започни разговор", + "addAgentSuccess": "Успешно добавен", + "conversation": { + "l1": "Здравей, аз съм **{{name}}**, можеш да ми зададеш всякакви въпроси и ще се постарая да ти отговоря ~", + "l2": "Ето какви са моите способности: ", + "l3": "Нека започнем разговора!" + }, + "description": "Представяне на асистента", + "detail": "Детайли", + "list": "Списък с асистенти", + "more": "Още", + "plugins": "Интегрирани плъгини", + "recentSubmits": "Наскоро обновено", + "suggestions": "Свързани предложения", + "systemRole": "Настройки на асистента", + "try": "Опитай" + }, + "back": "Назад към открития", + "category": { + "assistant": { + "academic": "Академичен", + "all": "Всички", + "career": "Кариерен", + "copywriting": "Копирайтинг", + "design": "Дизайн", + "education": "Образование", + "emotions": "Емоции", + "entertainment": "Развлечение", + "games": "Игри", + "general": "Общ", + "life": "Живот", + "marketing": "Маркетинг", + "office": "Офис", + "programming": "Програмиране", + "translation": "Превод" + }, + "plugin": { + "all": "Всички", + "gaming-entertainment": "Игри и развлечения", + "life-style": "Начин на живот", + "media-generate": "Генериране на медии", + "science-education": "Наука и образование", + "social": "Социални медии", + "stocks-finance": "Акции и финанси", + "tools": "Практически инструменти", + "web-search": "Уеб търсене" + } + }, + "cleanFilter": "Изчисти филтъра", + "create": "Създай", + "createGuide": { + "func1": { + "desc1": "Влез в настройките на асистента, който искаш да добавиш, чрез иконата в горния десен ъгъл на прозореца за разговор;", + "desc2": "Натисни бутона за добавяне на асистент в горния десен ъгъл.", + "tag": "Метод 1", + "title": "Добавяне чрез LobeChat" + }, + "func2": { + "button": "Отиди на хранилището на асистенти в Github", + "desc": "Ако искаш да добавиш асистент в индекса, създай запис с agent-template.json или agent-template-full.json в директорията plugins, напиши кратко описание и подходящи тагове, след което създай pull request.", + "tag": "Метод 2", + "title": "Добавяне чрез Github" + } + }, + "dislike": "Не харесвам", + "filter": "Филтър", + "filterBy": { + "authorRange": { + "everyone": "Всички автори", + "followed": "Следвани автори", + "title": "Обхват на авторите" + }, + "contentLength": "Минимална дължина на контекста", + "maxToken": { + "title": "Настрой максимална дължина (Token)", + "unlimited": "Без ограничения" + }, + "other": { + "functionCall": "Поддържа извикване на функции", + "title": "Други", + "vision": "Поддържа визуално разпознаване", + "withKnowledge": "С включена база данни", + "withTool": "С включени инструменти" + }, + "pricing": "Цени на модела", + "timePeriod": { + "all": "Всички времена", + "day": "Последни 24 часа", + "month": "Последни 30 дни", + "title": "Обхват на времето", + "week": "Последни 7 дни", + "year": "Последна година" + } + }, + "home": { + "featuredAssistants": "Препоръчани асистенти", + "featuredModels": "Препоръчани модели", + "featuredProviders": "Препоръчани доставчици на модели", + "featuredTools": "Препоръчани инструменти", + "more": "Открий повече" + }, + "like": "Харесвам", + "models": { + "chat": "Започни разговор", + "contentLength": "Максимална дължина на контекста", + "free": "Безплатно", + "guide": "Ръководство за конфигурация", + "list": "Списък на моделите", + "more": "Още", + "parameterList": { + "defaultValue": "Стойност по подразбиране", + "docs": "Прегледай документацията", + "frequency_penalty": { + "desc": "Тази настройка регулира честотата на повторно използване на определени думи, които вече са се появили в входа. По-високи стойности намаляват вероятността за повторение, докато отрицателните стойности имат обратен ефект. Наказанието за думи не се увеличава с увеличаване на честотата на появата. Отрицателните стойности насърчават повторното използване на думи.", + "title": "Наказание за честота" + }, + "max_tokens": { + "desc": "Тази настройка определя максималната дължина, която моделът може да генерира в един отговор. По-високата стойност позволява на модела да генерира по-дълги отговори, докато по-ниската стойност ограничава дължината на отговора, правейки го по-кратък. Разумното регулиране на тази стойност в зависимост от различните приложения може да помогне за постигане на желаната дължина и детайлност на отговора.", + "title": "Ограничение за един отговор" + }, + "presence_penalty": { + "desc": "Тази настройка е предназначена да контролира повторното използване на думи в зависимост от честотата на появата им в входа. Тя се опитва да използва по-малко думи, които се появяват често, като честотата на използване е пропорционална на честотата на появата. Наказанието за думи нараства с увеличаване на честотата на появата. Отрицателните стойности насърчават повторното използване на думи.", + "title": "Свежест на темата" + }, + "range": "Обхват", + "temperature": { + "desc": "Тази настройка влияе на разнообразието на отговорите на модела. По-ниски стойности водят до по-предсказуеми и типични отговори, докато по-високи стойности насърчават по-разнообразни и необичайни отговори. Когато стойността е 0, моделът винаги дава един и същ отговор на даден вход.", + "title": "Случайност" + }, + "title": "Параметри на модела", + "top_p": { + "desc": "Тази настройка ограничава избора на модела до определен процент от най-вероятните думи: избират се само тези думи, чиято кумулативна вероятност достига P. По-ниски стойности правят отговорите на модела по-предсказуеми, докато настройката по подразбиране позволява на модела да избира от целия обхват на думите.", + "title": "Ядро на пробата" + }, + "type": "Тип" + }, + "providerInfo": { + "apiTooltip": "LobeChat поддържа използването на персонализиран API ключ за този доставчик.", + "input": "Цена на входа", + "inputTooltip": "Цена на всеки милион Token", + "latency": "Забавяне", + "latencyTooltip": "Средно време за отговор на доставчика за изпращане на първия Token", + "maxOutput": "Максимална дължина на изхода", + "maxOutputTooltip": "Максимален брой Token, които този крайна точка може да генерира", + "officialTooltip": "Официална услуга на LobeHub", + "output": "Цена на изхода", + "outputTooltip": "Цена на всеки милион Token", + "streamCancellationTooltip": "Този доставчик поддържа функция за анулиране на потока.", + "throughput": "Пропускателна способност", + "throughputTooltip": "Среден брой Token, предавани на секунда за поточни заявки" + }, + "suggestions": "Свързани модели", + "supportedProviders": "Доставчици, поддържащи този модел" + }, + "plugins": { + "community": "Обществени плъгини", + "install": "Инсталирай плъгин", + "installed": "Инсталиран", + "list": "Списък с плъгини", + "meta": { + "description": "Описание", + "parameter": "Параметър", + "title": "Инструментални параметри", + "type": "Тип" + }, + "more": "Още", + "official": "Официални плъгини", + "recentSubmits": "Наскоро обновени", + "suggestions": "Свързани предложения" + }, + "providers": { + "config": "Конфигуриране на доставчици", + "list": "Списък на доставчиците на модели", + "modelCount": "{{count}} модела", + "modelSite": "Документация на моделите", + "more": "Още", + "officialSite": "Официален сайт", + "showAllModels": "Покажи всички модели", + "suggestions": "Свързани доставчици", + "supportedModels": "Поддържани модели" + }, + "search": { + "placeholder": "Търсене по име, описание или ключови думи...", + "result": "{{count}} резултата за {{keyword}}", + "searching": "Търсене..." + }, + "sort": { + "mostLiked": "Най-подобни", + "mostUsed": "Най-използвани", + "newest": "От ново към старо", + "oldest": "От старо към ново", + "recommended": "Препоръчани" + }, + "tab": { + "assistants": "Асистенти", + "home": "Начална страница", + "models": "Модели", + "plugins": "Плъгини", + "providers": "Доставчици на модели" + } +} diff --git a/locales/bg-BG/metadata.json b/locales/bg-BG/metadata.json index aff021094427..8c12d30619a8 100644 --- a/locales/bg-BG/metadata.json +++ b/locales/bg-BG/metadata.json @@ -3,9 +3,26 @@ "description": "{{appName}} ви предлага най-доброто изживяване с ChatGPT, Claude, Gemini и OLLaMA WebUI", "title": "{{appName}}: Личен AI инструмент за ефективност, дайте си по-умен мозък" }, - "market": { - "description": "Създаване на съдържание, копиране, въпроси и отговори, генериране на изображения, генериране на видео, генериране на глас, интелигентни агенти, автоматизирани работни потоци, персонализирайте своя собствен AI интелигентен асистент", - "title": "Пазар на асистенти" + "discover": { + "assistants": { + "description": "Създаване на съдържание, копиране, въпроси и отговори, генериране на изображения, генериране на видео, генериране на глас, интелигентни агенти, автоматизирани работни потоци, персонализирайте своя собствен AI / GPTs / OLLaMA интелигентен асистент", + "title": "AI асистенти" + }, + "description": "Създаване на съдържание, копиране, въпроси и отговори, генериране на изображения, генериране на видео, генериране на глас, интелигентни агенти, автоматизирани работни потоци, персонализирани AI приложения, персонализирайте своя собствена AI работна станция", + "models": { + "description": "Изследвайте основните AI модели OpenAI / GPT / Claude 3 / Gemini / Ollama / Azure / DeepSeek", + "title": "AI модели" + }, + "plugins": { + "description": "Търсете графични генератори, академични ресурси, генератори на изображения, генератори на видео, генератори на глас и автоматизирани работни потоци, за да интегрирате богати възможности за плъгини във вашия асистент.", + "title": "AI плъгини" + }, + "providers": { + "description": "Изследвайте основните доставчици на модели OpenAI / Qwen / Ollama / Anthropic / DeepSeek / Google Gemini / OpenRouter", + "title": "Доставчици на AI модели" + }, + "search": "Търсене", + "title": "Открий" }, "plugins": { "description": "Търсене, генериране на графики, академични изследвания, генериране на изображения, генериране на видео, генериране на глас, автоматизирани работни потоци, персонализирайте ToolCall плъгините на ChatGPT / Claude", diff --git a/locales/bg-BG/models.json b/locales/bg-BG/models.json new file mode 100644 index 000000000000..8d01aebe881e --- /dev/null +++ b/locales/bg-BG/models.json @@ -0,0 +1,845 @@ +{ + "01-ai/Yi-1.5-34B-Chat-16K": { + "description": "Yi-1.5 34B предлага отлични резултати в индустриалните приложения с богат набор от обучителни примери." + }, + "01-ai/Yi-1.5-6B-Chat": { + "description": "Yi-1.5 е еволюционна версия на серията Yi, с високо качество на предварителното обучение и богати данни за фино настройване." + }, + "01-ai/Yi-1.5-9B-Chat-16K": { + "description": "Yi-1.5 9B поддържа 16K токена, предоставяйки ефективни и плавни способности за генериране на език." + }, + "360gpt-pro": { + "description": "360GPT Pro, като важен член на серията AI модели на 360, отговаря на разнообразни приложения на естествения език с ефективни способности за обработка на текст, поддържайки разбиране на дълги текстове и многостепенни диалози." + }, + "360gpt-turbo": { + "description": "360GPT Turbo предлага мощни изчислителни и диалогови способности, с отлична семантична разбираемост и ефективност на генериране, идеално решение за интелигентни асистенти за предприятия и разработчици." + }, + "360gpt-turbo-responsibility-8k": { + "description": "360GPT Turbo Responsibility 8K акцентира на семантичната безопасност и отговорността, проектиран специално за приложения с високи изисквания за безопасност на съдържанието, осигурявайки точност и стабилност на потребителското изживяване." + }, + "360gpt2-pro": { + "description": "360GPT2 Pro е усъвършенстван модел за обработка на естествен език, пуснат от компания 360, с изключителни способности за генериране и разбиране на текст, особено в областта на генерирането и творчеството, способен да обработва сложни езикови трансформации и ролеви игри." + }, + "4.0Ultra": { + "description": "Spark4.0 Ultra е най-мощната версия в серията Starfire, която подобрява разбирането и обобщаването на текстовото съдържание, докато надгражда свързаните търсения. Това е всестранно решение за повишаване на производителността в офиса и точно отговаряне на нуждите, водещо в индустрията интелигентно решение." + }, + "Baichuan2-Turbo": { + "description": "Използва технологии за подобряване на търсенето, за да свърже голям модел с областни знания и знания от интернет. Поддържа качване на различни документи като PDF, Word и вход на уебсайтове, с бърз и цялостен достъп до информация, предоставяйки точни и професионални резултати." + }, + "Baichuan3-Turbo": { + "description": "Оптимизиран за често срещани корпоративни сценарии, с значително подобрени резултати и висока цена-качество. В сравнение с модела Baichuan2, генерирането на съдържание е увеличено с 20%, отговорите на знания с 17%, а способността за ролеви игри с 40%. Общите резултати са по-добри от тези на GPT3.5." + }, + "Baichuan3-Turbo-128k": { + "description": "С 128K свръхдълъг контекстен прозорец, оптимизиран за често срещани корпоративни сценарии, с значително подобрени резултати и висока цена-качество. В сравнение с модела Baichuan2, генерирането на съдържание е увеличено с 20%, отговорите на знания с 17%, а способността за ролеви игри с 40%. Общите резултати са по-добри от тези на GPT3.5." + }, + "Baichuan4": { + "description": "Моделът е с най-добри способности в страната, надминаващ чуждестранните водещи модели в задачи като енциклопедични знания, дълги текстове и генериране на съдържание. Също така притежава водещи в индустрията мултимодални способности и отлични резултати в множество авторитетни тестови стандарти." + }, + "Gryphe/MythoMax-L2-13b": { + "description": "MythoMax-L2 (13B) е иновативен модел, подходящ за приложения в множество области и сложни задачи." + }, + "Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Hermes 2 Mixtral 8x7B DPO е високо гъвкава многомоделна комбинация, предназначена да предостави изключителен креативен опит." + }, + "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) е модел с висока точност за инструкции, подходящ за сложни изчисления." + }, + "NousResearch/Nous-Hermes-2-Yi-34B": { + "description": "Nous Hermes-2 Yi (34B) предлага оптимизирани езикови изходи и разнообразни възможности за приложение." + }, + "Pro-128k": { + "description": "Spark Pro-128K е конфигуриран с изключителна способност за обработка на контекст, способен да обработва до 128K контекстна информация, особено подходящ за дълги текстове, изискващи цялостен анализ и дългосрочни логически връзки, предоставяйки плавна и последователна логика и разнообразна поддръжка на цитати в сложни текстови комуникации." + }, + "Qwen/Qwen1.5-110B-Chat": { + "description": "Като тестова версия на Qwen2, Qwen1.5 използва големи данни за постигане на по-точни диалогови функции." + }, + "Qwen/Qwen1.5-14B-Chat": { + "description": "Qwen1.5 е обучен с големи набори от данни и е специализиран в сложни езикови задачи." + }, + "Qwen/Qwen1.5-32B-Chat": { + "description": "Qwen1.5 притежава способности за отговори на въпроси в множество области и генериране на текст." + }, + "Qwen/Qwen1.5-72B-Chat": { + "description": "Qwen 1.5 Chat (72B) предлага бързи отговори и естествени диалогови способности, подходящи за многоезични среди." + }, + "Qwen/Qwen1.5-7B-Chat": { + "description": "Qwen1.5 подобрява способността за диалогово изразяване чрез комбиниране на напреднало предварително обучение и фино настройване." + }, + "Qwen/Qwen2-1.5B-Instruct": { + "description": "Qwen2 е нова серия от големи езикови модели, предназначена за оптимизиране на обработката на инструкции." + }, + "Qwen/Qwen2-57B-A14B-Instruct": { + "description": "Qwen2 е нова серия, при която моделът 57B A14B показва отлични резултати в задачите с инструкции." + }, + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 е напреднал универсален езиков модел, поддържащ множество типове инструкции." + }, + "Qwen/Qwen2-7B-Instruct": { + "description": "Qwen2 е нова серия от големи езикови модели с по-силни способности за разбиране и генериране." + }, + "Qwen/Qwen2-Math-72B-Instruct": { + "description": "Qwen2-Math се фокусира върху решаването на проблеми в математическата област, предоставяйки професионални отговори на трудни задачи." + }, + "THUDM/chatglm3-6b": { + "description": "Като двуезичен разговорен езиков модел, ChatGLM3 може да обработва задачи за превод между китайски и английски." + }, + "THUDM/glm-4-9b-chat": { + "description": "GLM-4 9B е отворен код версия, предоставяща оптимизирано изживяване в разговорните приложения." + }, + "abab5.5-chat": { + "description": "Насочена към производствени сценарии, поддържаща обработка на сложни задачи и ефективно генериране на текст, подходяща за професионални приложения." + }, + "abab5.5s-chat": { + "description": "Специално проектирана за диалогови сценарии на китайски, предлагаща висококачествено генериране на диалози на китайски, подходяща за множество приложения." + }, + "abab6.5g-chat": { + "description": "Специално проектирана за многоезични диалогови системи, поддържаща висококачествено генериране на диалози на английски и много други езици." + }, + "abab6.5s-chat": { + "description": "Подходяща за широк спектър от задачи за обработка на естествен език, включително генериране на текст, диалогови системи и др." + }, + "abab6.5t-chat": { + "description": "Оптимизирана за диалогови сценарии на китайски, предлагаща плавно и съответстващо на китайските изразни навици генериране на диалози." + }, + "accounts/fireworks/models/firefunction-v1": { + "description": "Fireworks отворен модел за извикване на функции, предлагащ отлични способности за изпълнение на инструкции и отворени, персонализируеми характеристики." + }, + "accounts/fireworks/models/firefunction-v2": { + "description": "Fireworks компанията представя Firefunction-v2, модел за извикване на функции с изключителна производителност, разработен на базата на Llama-3 и оптимизиран за функции, диалози и следване на инструкции." + }, + "accounts/fireworks/models/firellava-13b": { + "description": "fireworks-ai/FireLLaVA-13b е визуален езиков модел, който може да приема изображения и текстови входове, обучен с висококачествени данни, подходящ за мултимодални задачи." + }, + "accounts/fireworks/models/gemma2-9b-it": { + "description": "Gemma 2 9B модел за инструкции, базиран на предишната технология на Google, подходящ за отговори на въпроси, обобщения и разсъждения в множество текстови генериращи задачи." + }, + "accounts/fireworks/models/llama-v3-70b-instruct": { + "description": "Llama 3 70B модел за инструкции, специално оптимизиран за многоезични диалози и разбиране на естествен език, с производителност, превъзхождаща повечето конкурентни модели." + }, + "accounts/fireworks/models/llama-v3-70b-instruct-hf": { + "description": "Llama 3 70B модел за инструкции (HF версия), с резултати, съвпадащи с официалната реализация, подходящ за висококачествени задачи за следване на инструкции." + }, + "accounts/fireworks/models/llama-v3-8b-instruct": { + "description": "Llama 3 8B модел за инструкции, оптимизиран за диалози и многоезични задачи, с изключителна производителност и ефективност." + }, + "accounts/fireworks/models/llama-v3-8b-instruct-hf": { + "description": "Llama 3 8B модел за инструкции (HF версия), с резултати, съвпадащи с официалната реализация, предлагаща висока последователност и съвместимост между платформите." + }, + "accounts/fireworks/models/llama-v3p1-405b-instruct": { + "description": "Llama 3.1 405B модел за инструкции, с огромен брой параметри, подходящ за сложни задачи и следване на инструкции в сценарии с високо натоварване." + }, + "accounts/fireworks/models/llama-v3p1-70b-instruct": { + "description": "Llama 3.1 70B модел за инструкции, предлагащ изключителни способности за разбиране и генериране на естествен език, идеален за диалогови и аналитични задачи." + }, + "accounts/fireworks/models/llama-v3p1-8b-instruct": { + "description": "Llama 3.1 8B модел за инструкции, оптимизиран за многоезични диалози, способен да надмине повечето отворени и затворени модели на общи индустриални стандарти." + }, + "accounts/fireworks/models/mixtral-8x22b-instruct": { + "description": "Mixtral MoE 8x22B модел за инструкции, с голям брой параметри и архитектура с множество експерти, осигуряваща всестранна поддръжка за ефективна обработка на сложни задачи." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct": { + "description": "Mixtral MoE 8x7B модел за инструкции, архитектура с множество експерти, предлагаща ефективно следване и изпълнение на инструкции." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct-hf": { + "description": "Mixtral MoE 8x7B модел за инструкции (HF версия), с производителност, съвпадаща с официалната реализация, подходящ за множество ефективни сценарии." + }, + "accounts/fireworks/models/mythomax-l2-13b": { + "description": "MythoMax L2 13B модел, комбиниращ новаторски технологии за интеграция, специализиран в разказване на истории и ролеви игри." + }, + "accounts/fireworks/models/phi-3-vision-128k-instruct": { + "description": "Phi 3 Vision модел за инструкции, лек мултимодален модел, способен да обработва сложна визуална и текстова информация, с високи способности за разсъждение." + }, + "accounts/fireworks/models/starcoder-16b": { + "description": "StarCoder 15.5B модел, поддържащ напреднали програмни задачи, с подобрени многоезични способности, подходящ за сложна генерация и разбиране на код." + }, + "accounts/fireworks/models/starcoder-7b": { + "description": "StarCoder 7B модел, обучен за над 80 програмни езика, с отлични способности за попълване на код и разбиране на контекста." + }, + "accounts/yi-01-ai/models/yi-large": { + "description": "Yi-Large модел, предлагащ изключителни способности за многоезична обработка, подходящ за различни задачи по генериране и разбиране на език." + }, + "anthropic.claude-3-5-sonnet-20240620-v1:0": { + "description": "Claude 3.5 Sonnet повишава индустриалните стандарти, с производителност, надвишаваща конкурентните модели и Claude 3 Opus, с отлични резултати в широки оценки, като същевременно предлага скорост и разходи на нашите модели от средно ниво." + }, + "anthropic.claude-3-haiku-20240307-v1:0": { + "description": "Claude 3 Haiku е най-бързият и компактен модел на Anthropic, предлагащ почти мигновена скорост на отговор. Той може бързо да отговаря на прости запитвания и заявки. Клиентите ще могат да изградят безпроблемно AI изживяване, имитиращо човешко взаимодействие. Claude 3 Haiku може да обработва изображения и да връща текстови изходи, с контекстуален прозорец от 200K." + }, + "anthropic.claude-3-opus-20240229-v1:0": { + "description": "Claude 3 Opus е най-мощният AI модел на Anthropic, с най-съвременна производителност при високо сложни задачи. Той може да обработва отворени подсказки и непознати сценарии, с отлична плавност и човешко разбиране. Claude 3 Opus демонстрира предимствата на генериращия AI. Claude 3 Opus може да обработва изображения и да връща текстови изходи, с контекстуален прозорец от 200K." + }, + "anthropic.claude-3-sonnet-20240229-v1:0": { + "description": "Claude 3 Sonnet на Anthropic постига идеален баланс между интелигентност и скорост - особено подходящ за корпоративни работни натоварвания. Той предлага максимална полезност на цена под конкурентите и е проектиран да бъде надежден и издръжлив основен модел, подходящ за мащабируеми AI внедрения. Claude 3 Sonnet може да обработва изображения и да връща текстови изходи, с контекстуален прозорец от 200K." + }, + "anthropic.claude-instant-v1": { + "description": "Бърз, икономичен и все пак много способен модел, който може да обработва редица задачи, включително ежедневни разговори, текстов анализ, обобщение и въпроси и отговори на документи." + }, + "anthropic.claude-v2": { + "description": "Anthropic демонстрира висока способност в широк спектър от задачи, от сложни разговори и генериране на креативно съдържание до следване на подробни инструкции." + }, + "anthropic.claude-v2:1": { + "description": "Актуализирана версия на Claude 2, с двойно по-голям контекстуален прозорец и подобрения в надеждността, процента на халюцинации и точността, основана на доказателства, в контексти с дълги документи и RAG." + }, + "anthropic/claude-3-haiku": { + "description": "Claude 3 Haiku е най-бързият и компактен модел на Anthropic, проектиран за почти мигновени отговори. Той предлага бърза и точна насочена производителност." + }, + "anthropic/claude-3-opus": { + "description": "Claude 3 Opus е най-мощният модел на Anthropic, предназначен за обработка на изключително сложни задачи. Той се отличава с изключителна производителност, интелигентност, гладкост и разбиране." + }, + "anthropic/claude-3.5-sonnet": { + "description": "Claude 3.5 Sonnet предлага способности, надхвърлящи Opus, и по-бърза скорост в сравнение с Sonnet, като същевременно запазва същата цена. Sonnet е особено силен в програмирането, науката за данни, визуалната обработка и агентските задачи." + }, + "aya": { + "description": "Aya 23 е многозначен модел, представен от Cohere, поддържащ 23 езика, предоставяйки удобство за многоезични приложения." + }, + "aya:35b": { + "description": "Aya 23 е многозначен модел, представен от Cohere, поддържащ 23 езика, предоставяйки удобство за многоезични приложения." + }, + "charglm-3": { + "description": "CharGLM-3 е проектиран за ролеви игри и емоционално придружаване, поддържаща дълга многократна памет и персонализиран диалог, с широко приложение." + }, + "chatgpt-4o-latest": { + "description": "ChatGPT-4o е динамичен модел, който се актуализира в реално време, за да поддържа най-новата версия. Той комбинира мощно разбиране на езика и генериране на текст, подходящ за мащабни приложения, включително обслужване на клиенти, образование и техническа поддръжка." + }, + "claude-2.0": { + "description": "Claude 2 предлага напредък в ключовите способности за бизнеса, включително водещи в индустрията 200K токена контекст, значително намаляване на честотата на илюзии на модела, системни подсказки и нова тестова функция: извикване на инструменти." + }, + "claude-2.1": { + "description": "Claude 2 предлага напредък в ключовите способности за бизнеса, включително водещи в индустрията 200K токена контекст, значително намаляване на честотата на илюзии на модела, системни подсказки и нова тестова функция: извикване на инструменти." + }, + "claude-3-5-sonnet-20240620": { + "description": "Claude 3.5 Sonnet предлага способности, надминаващи Opus и по-бърза скорост от Sonnet, като същевременно поддържа същата цена. Sonnet е особено силен в програмирането, науката за данни, визуалната обработка и задачи с агенти." + }, + "claude-3-haiku-20240307": { + "description": "Claude 3 Haiku е най-бързият и компактен модел на Anthropic, проектиран за почти мигновени отговори. Той предлага бърза и точна насочена производителност." + }, + "claude-3-opus-20240229": { + "description": "Claude 3 Opus е най-мощният модел на Anthropic за обработка на високо сложни задачи. Той показва изключителна производителност, интелигентност, гладкост и разбиране." + }, + "claude-3-sonnet-20240229": { + "description": "Claude 3 Sonnet предлага идеален баланс между интелигентност и скорост за корпоративни работни натоварвания. Той предлага максимална полезност на по-ниска цена, надежден и подходящ за мащабно внедряване." + }, + "claude-instant-1.2": { + "description": "Моделът на Anthropic е предназначен за ниска латентност и висока производителност на текстовото генериране, поддържащ генерирането на стотици страници текст." + }, + "codegeex-4": { + "description": "CodeGeeX-4 е мощен AI помощник за програмиране, който поддържа интелигентни въпроси и отговори и автоматично допълване на код за различни програмни езици, повишавайки ефективността на разработката." + }, + "codegemma": { + "description": "CodeGemma е лек езиков модел, специализиран в различни програмни задачи, поддържащ бърза итерация и интеграция." + }, + "codegemma:2b": { + "description": "CodeGemma е лек езиков модел, специализиран в различни програмни задачи, поддържащ бърза итерация и интеграция." + }, + "codellama": { + "description": "Code Llama е LLM, фокусиран върху генерирането и обсъждането на код, комбиниращ широк спектър от поддръжка на програмни езици, подходящ за среда на разработчици." + }, + "codellama:13b": { + "description": "Code Llama е LLM, фокусиран върху генерирането и обсъждането на код, комбиниращ широк спектър от поддръжка на програмни езици, подходящ за среда на разработчици." + }, + "codellama:34b": { + "description": "Code Llama е LLM, фокусиран върху генерирането и обсъждането на код, комбиниращ широк спектър от поддръжка на програмни езици, подходящ за среда на разработчици." + }, + "codellama:70b": { + "description": "Code Llama е LLM, фокусиран върху генерирането и обсъждането на код, комбиниращ широк спектър от поддръжка на програмни езици, подходящ за среда на разработчици." + }, + "codeqwen": { + "description": "CodeQwen1.5 е голям езиков модел, обучен на основата на обширни кодови данни, специално проектиран за решаване на сложни програмни задачи." + }, + "codestral": { + "description": "Codestral е първият кодов модел на Mistral AI, предоставящ отлична поддръжка за задачи по генериране на код." + }, + "codestral-latest": { + "description": "Codestral е авангарден генеративен модел, фокусиран върху генерирането на код, оптимизиран за междинно попълване и задачи за допълване на код." + }, + "cognitivecomputations/dolphin-mixtral-8x22b": { + "description": "Dolphin Mixtral 8x22B е модел, проектиран за следване на инструкции, диалози и програмиране." + }, + "command-r": { + "description": "Command R е LLM, оптимизиран за диалогови и дълги контекстуални задачи, особено подходящ за динамично взаимодействие и управление на знания." + }, + "command-r-plus": { + "description": "Command R+ е високопроизводителен голям езиков модел, проектиран за реални бизнес сценарии и сложни приложения." + }, + "databricks/dbrx-instruct": { + "description": "DBRX Instruct предлага висока надеждност в обработката на инструкции, поддържаща приложения в множество индустрии." + }, + "deepseek-ai/DeepSeek-Coder-V2-Instruct": { + "description": "DeepSeek Coder V2 е проектиран за кодови задачи, с фокус върху ефективното генериране на код." + }, + "deepseek-ai/DeepSeek-V2-Chat": { + "description": "DeepSeek V2 разполага с 6.7 милиарда параметри и поддържа обработка на текст на английски и китайски." + }, + "deepseek-ai/DeepSeek-V2.5": { + "description": "DeepSeek V2.5 обединява отличителните характеристики на предишните версии, подобрявайки общите и кодиращите способности." + }, + "deepseek-ai/deepseek-llm-67b-chat": { + "description": "DeepSeek 67B е напреднал модел, обучен за диалози с висока сложност." + }, + "deepseek-chat": { + "description": "Новооткритият отворен модел, който съчетава общи и кодови способности, не само запазва общата диалогова способност на оригиналния Chat модел и мощната способност за обработка на код на Coder модела, но също така по-добре се съгласува с човешките предпочитания. Освен това, DeepSeek-V2.5 постигна значителни подобрения в писателските задачи, следването на инструкции и много други области." + }, + "deepseek-coder-v2": { + "description": "DeepSeek Coder V2 е отворен хибриден експертен кодов модел, който се представя отлично в кодовите задачи, сравним с GPT4-Turbo." + }, + "deepseek-coder-v2:236b": { + "description": "DeepSeek Coder V2 е отворен хибриден експертен кодов модел, който се представя отлично в кодовите задачи, сравним с GPT4-Turbo." + }, + "deepseek-v2": { + "description": "DeepSeek V2 е ефективен модел на Mixture-of-Experts, подходящ за икономически ефективни нужди от обработка." + }, + "deepseek-v2:236b": { + "description": "DeepSeek V2 236B е кодовият модел на DeepSeek, предоставящ мощни способности за генериране на код." + }, + "deepseek/deepseek-chat": { + "description": "Новооткритият отворен модел, който съчетава общи и кодови способности, не само запазва общата диалогова способност на оригиналния Chat модел и мощната способност за обработка на код на Coder модела, но също така по-добре се съобразява с човешките предпочитания. Освен това, DeepSeek-V2.5 постигна значителни подобрения в задачи по писане, следване на инструкции и много други." + }, + "emohaa": { + "description": "Emohaa е психологически модел с професионални консултантски способности, помагащ на потребителите да разберат емоционалните проблеми." + }, + "gemini-1.0-pro-001": { + "description": "Gemini 1.0 Pro 001 (Тунинг) предлага стабилна и настройваема производителност, идеален избор за решения на сложни задачи." + }, + "gemini-1.0-pro-002": { + "description": "Gemini 1.0 Pro 002 (Тунинг) предлага отлична поддръжка на многомодални данни, фокусирайки се върху ефективното решаване на сложни задачи." + }, + "gemini-1.0-pro-latest": { + "description": "Gemini 1.0 Pro е високопроизводителен AI модел на Google, проектиран за разширяване на широк спектър от задачи." + }, + "gemini-1.5-flash-001": { + "description": "Gemini 1.5 Flash 001 е ефективен многомодален модел, който поддържа разширяване на широк спектър от приложения." + }, + "gemini-1.5-flash-8b-exp-0827": { + "description": "Gemini 1.5 Flash 8B 0827 е проектиран за обработка на мащабни задачи, предлагащ ненадмината скорост на обработка." + }, + "gemini-1.5-flash-exp-0827": { + "description": "Gemini 1.5 Flash 0827 предлага оптимизирани многомодални обработващи способности, подходящи за множество сложни задачи." + }, + "gemini-1.5-flash-latest": { + "description": "Gemini 1.5 Flash е най-новият многомодален AI модел на Google, който предлага бърза обработка и поддържа текстови, изображенчески и видео входове, подходящ за ефективно разширяване на множество задачи." + }, + "gemini-1.5-pro-001": { + "description": "Gemini 1.5 Pro 001 е разширяемо многомодално AI решение, което поддържа широк спектър от сложни задачи." + }, + "gemini-1.5-pro-exp-0801": { + "description": "Gemini 1.5 Pro 0801 предлага отлични способности за обработка на многомодални данни, предоставяйки по-голяма гъвкавост за разработка на приложения." + }, + "gemini-1.5-pro-exp-0827": { + "description": "Gemini 1.5 Pro 0827 комбинира най-новите оптимизационни технологии, предоставяйки по-ефективни способности за обработка на многомодални данни." + }, + "gemini-1.5-pro-latest": { + "description": "Gemini 1.5 Pro поддържа до 2 милиона токена и е идеален избор за среден многомодален модел, подходящ за многостранна поддръжка на сложни задачи." + }, + "gemma-7b-it": { + "description": "Gemma 7B е подходяща за обработка на средни и малки задачи, съчетаваща икономичност." + }, + "gemma2": { + "description": "Gemma 2 е ефективен модел, представен от Google, обхващащ множество приложения от малки до сложни обработки на данни." + }, + "gemma2-9b-it": { + "description": "Gemma 2 9B е модел, оптимизиран за специфични задачи и интеграция на инструменти." + }, + "gemma2:27b": { + "description": "Gemma 2 е ефективен модел, представен от Google, обхващащ множество приложения от малки до сложни обработки на данни." + }, + "gemma2:2b": { + "description": "Gemma 2 е ефективен модел, представен от Google, обхващащ множество приложения от малки до сложни обработки на данни." + }, + "general": { + "description": "Spark Lite е лек голям езиков модел с изключително ниска латентност и висока ефективност, напълно безплатен и отворен, поддържащ функция за търсене в реално време. Неговата бърза реакция го прави отличен за приложения с ниска изчислителна мощ и фино настройване на модела, предоставяйки на потребителите отлична цена-качество и интелигентно изживяване, особено в области като отговори на знания, генериране на съдържание и търсене." + }, + "generalv3": { + "description": "Spark Pro е високопроизводителен голям езиков модел, оптимизиран за професионални области, фокусирайки се върху математика, програмиране, медицина, образование и др., и поддържа свързано търсене и вградени плъгини за времето, датата и др. Оптимизираният модел показва отлични резултати и висока производителност в сложни отговори на знания, разбиране на езика и високо ниво на текстово генериране, което го прави идеален избор за професионални приложения." + }, + "generalv3.5": { + "description": "Spark3.5 Max е най-пълната версия, поддържаща свързано търсене и множество вградени плъгини. Неговите напълно оптимизирани основни способности, системни роли и функции за извикване на функции осигуряват изключителни резултати в различни сложни приложения." + }, + "glm-4": { + "description": "GLM-4 е старата флагманска версия, пусната през януари 2024 г., която в момента е заменена от по-силната GLM-4-0520." + }, + "glm-4-0520": { + "description": "GLM-4-0520 е най-новата версия на модела, проектирана за високо сложни и разнообразни задачи, с отлични резултати." + }, + "glm-4-air": { + "description": "GLM-4-Air е икономичен вариант, с производителност близка до GLM-4, предлагаща бързина и достъпна цена." + }, + "glm-4-airx": { + "description": "GLM-4-AirX предлага ефективна версия на GLM-4-Air, с скорост на извеждане до 2.6 пъти." + }, + "glm-4-alltools": { + "description": "GLM-4-AllTools е многофункционален интелигентен модел, оптимизиран за поддръжка на сложни инструкции и извиквания на инструменти, като уеб браузинг, обяснение на код и генериране на текст, подходящ за изпълнение на множество задачи." + }, + "glm-4-flash": { + "description": "GLM-4-Flash е идеалният избор за обработка на прости задачи, с най-бърза скорост и най-добра цена." + }, + "glm-4-long": { + "description": "GLM-4-Long поддържа извеждане на много дълги текстове, подходящ за задачи, свързани с памет и обработка на големи документи." + }, + "glm-4-plus": { + "description": "GLM-4-Plus, като флагман с висока интелигентност, разполага с мощни способности за обработка на дълги текстове и сложни задачи, с цялостно подобрена производителност." + }, + "glm-4v": { + "description": "GLM-4V предлага мощни способности за разбиране и разсъждение на изображения, поддържаща множество визуални задачи." + }, + "glm-4v-plus": { + "description": "GLM-4V-Plus разполага с разбиране на видео съдържание и множество изображения, подходящ за мултимодални задачи." + }, + "google/gemini-flash-1.5-exp": { + "description": "Gemini 1.5 Flash 0827 предлага оптимизирани мултимодални обработващи способности, подходящи за различни сложни задачи." + }, + "google/gemini-pro-1.5-exp": { + "description": "Gemini 1.5 Pro 0827 комбинира най-новите оптимизационни технологии, предоставяйки по-ефективни способности за обработка на мултимодални данни." + }, + "google/gemma-2-27b-it": { + "description": "Gemma 2 продължава концепцията за лекота и ефективност." + }, + "google/gemma-2-9b-it": { + "description": "Gemma 2 е серия от леки отворени текстови модели на Google." + }, + "google/gemma-2-9b-it:free": { + "description": "Gemma 2 е лека отворена текстова моделна серия на Google." + }, + "google/gemma-2b-it": { + "description": "Gemma Instruct (2B) предлага основни способности за обработка на инструкции, подходящи за леки приложения." + }, + "gpt-3.5-turbo": { + "description": "GPT 3.5 Turbo, подходящ за различни задачи по генериране и разбиране на текст, в момента сочи към gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-0125": { + "description": "GPT 3.5 Turbo, подходящ за различни задачи по генериране и разбиране на текст, в момента сочи към gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-1106": { + "description": "GPT 3.5 Turbo, подходящ за различни задачи по генериране и разбиране на текст, в момента сочи към gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-instruct": { + "description": "GPT 3.5 Turbo, подходящ за различни задачи по генериране и разбиране на текст, в момента сочи към gpt-3.5-turbo-0125." + }, + "gpt-4": { + "description": "GPT-4 предлага по-голям контекстуален прозорец, способен да обработва по-дълги текстови входове, подходящ за сценарии, изискващи интеграция на обширна информация и анализ на данни." + }, + "gpt-4-0125-preview": { + "description": "Най-новият модел GPT-4 Turbo разполага с визуални функции. Сега визуалните заявки могат да се използват с JSON формат и извиквания на функции. GPT-4 Turbo е подобрена версия, която предлага икономически ефективна поддръжка за мултимодални задачи. Той намира баланс между точност и ефективност, подходящ за приложения, изискващи взаимодействие в реално време." + }, + "gpt-4-0613": { + "description": "GPT-4 предлага по-голям контекстуален прозорец, способен да обработва по-дълги текстови входове, подходящ за сценарии, изискващи интеграция на обширна информация и анализ на данни." + }, + "gpt-4-1106-preview": { + "description": "Най-новият модел GPT-4 Turbo разполага с визуални функции. Сега визуалните заявки могат да се използват с JSON формат и извиквания на функции. GPT-4 Turbo е подобрена версия, която предлага икономически ефективна поддръжка за мултимодални задачи. Той намира баланс между точност и ефективност, подходящ за приложения, изискващи взаимодействие в реално време." + }, + "gpt-4-1106-vision-preview": { + "description": "Най-новият модел GPT-4 Turbo разполага с визуални функции. Сега визуалните заявки могат да се използват с JSON формат и извиквания на функции. GPT-4 Turbo е подобрена версия, която предлага икономически ефективна поддръжка за мултимодални задачи. Той намира баланс между точност и ефективност, подходящ за приложения, изискващи взаимодействие в реално време." + }, + "gpt-4-32k": { + "description": "GPT-4 предлага по-голям контекстуален прозорец, способен да обработва по-дълги текстови входове, подходящ за сценарии, изискващи интеграция на обширна информация и анализ на данни." + }, + "gpt-4-32k-0613": { + "description": "GPT-4 предлага по-голям контекстуален прозорец, способен да обработва по-дълги текстови входове, подходящ за сценарии, изискващи интеграция на обширна информация и анализ на данни." + }, + "gpt-4-turbo": { + "description": "Най-новият модел GPT-4 Turbo разполага с визуални функции. Сега визуалните заявки могат да се използват с JSON формат и извиквания на функции. GPT-4 Turbo е подобрена версия, която предлага икономически ефективна поддръжка за мултимодални задачи. Той намира баланс между точност и ефективност, подходящ за приложения, изискващи взаимодействие в реално време." + }, + "gpt-4-turbo-2024-04-09": { + "description": "Най-новият модел GPT-4 Turbo разполага с визуални функции. Сега визуалните заявки могат да се използват с JSON формат и извиквания на функции. GPT-4 Turbo е подобрена версия, която предлага икономически ефективна поддръжка за мултимодални задачи. Той намира баланс между точност и ефективност, подходящ за приложения, изискващи взаимодействие в реално време." + }, + "gpt-4-turbo-preview": { + "description": "Най-новият модел GPT-4 Turbo разполага с визуални функции. Сега визуалните заявки могат да се използват с JSON формат и извиквания на функции. GPT-4 Turbo е подобрена версия, която предлага икономически ефективна поддръжка за мултимодални задачи. Той намира баланс между точност и ефективност, подходящ за приложения, изискващи взаимодействие в реално време." + }, + "gpt-4-vision-preview": { + "description": "Най-новият модел GPT-4 Turbo разполага с визуални функции. Сега визуалните заявки могат да се използват с JSON формат и извиквания на функции. GPT-4 Turbo е подобрена версия, която предлага икономически ефективна поддръжка за мултимодални задачи. Той намира баланс между точност и ефективност, подходящ за приложения, изискващи взаимодействие в реално време." + }, + "gpt-4o": { + "description": "ChatGPT-4o е динамичен модел, който се актуализира в реално време, за да поддържа най-новата версия. Той комбинира мощно разбиране на езика и генериране на текст, подходящ за мащабни приложения, включително обслужване на клиенти, образование и техническа поддръжка." + }, + "gpt-4o-2024-05-13": { + "description": "ChatGPT-4o е динамичен модел, който се актуализира в реално време, за да поддържа най-новата версия. Той комбинира мощно разбиране на езика и генериране на текст, подходящ за мащабни приложения, включително обслужване на клиенти, образование и техническа поддръжка." + }, + "gpt-4o-2024-08-06": { + "description": "ChatGPT-4o е динамичен модел, който се актуализира в реално време, за да поддържа най-новата версия. Той комбинира мощно разбиране на езика и генериране на текст, подходящ за мащабни приложения, включително обслужване на клиенти, образование и техническа поддръжка." + }, + "gpt-4o-mini": { + "description": "GPT-4o mini е най-новият модел на OpenAI, след GPT-4 Omni, който поддържа текстово и визуално въвеждане и генерира текст. Като най-напредналият им малък модел, той е значително по-евтин от другите нови модели и е с над 60% по-евтин от GPT-3.5 Turbo. Запазва най-съвременната интелигентност, като същевременно предлага значителна стойност за парите. GPT-4o mini получи 82% на теста MMLU и в момента е с по-висок рейтинг от GPT-4 по предпочитания за чат." + }, + "gryphe/mythomax-l2-13b": { + "description": "MythoMax l2 13B е езиков модел, който комбинира креативност и интелигентност, обединявайки множество водещи модели." + }, + "internlm/internlm2_5-20b-chat": { + "description": "Иновативният отворен модел InternLM2.5 повишава интелигентността на диалога чрез голям брой параметри." + }, + "internlm/internlm2_5-7b-chat": { + "description": "InternLM2.5 предлага интелигентни решения за диалог в множество сценарии." + }, + "llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct модел, с 70B параметри, способен да предоставя изключителна производителност в задачи за генериране на текст и инструкции." + }, + "llama-3.1-70b-versatile": { + "description": "Llama 3.1 70B предлага по-мощни способности за разсъждение на AI, подходящи за сложни приложения, поддържащи множество изчислителни обработки и осигуряващи ефективност и точност." + }, + "llama-3.1-8b-instant": { + "description": "Llama 3.1 8B е модел с висока производителност, предлагащ бързи способности за генериране на текст, особено подходящ за приложения, изискващи мащабна ефективност и икономичност." + }, + "llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct модел, с 8B параметри, поддържащ ефективно изпълнение на задачи с визуални указания, предлагащ качествени способности за генериране на текст." + }, + "llama-3.1-sonar-huge-128k-online": { + "description": "Llama 3.1 Sonar Huge Online модел, с 405B параметри, поддържащ контекстова дължина от около 127,000 маркера, проектиран за сложни онлайн чат приложения." + }, + "llama-3.1-sonar-large-128k-chat": { + "description": "Llama 3.1 Sonar Large Chat модел, с 70B параметри, поддържащ контекстова дължина от около 127,000 маркера, подходящ за сложни офлайн чат задачи." + }, + "llama-3.1-sonar-large-128k-online": { + "description": "Llama 3.1 Sonar Large Online модел, с 70B параметри, поддържащ контекстова дължина от около 127,000 маркера, подходящ за задачи с висока капацитет и разнообразие в чата." + }, + "llama-3.1-sonar-small-128k-chat": { + "description": "Llama 3.1 Sonar Small Chat модел, с 8B параметри, проектиран за офлайн чат, поддържащ контекстова дължина от около 127,000 маркера." + }, + "llama-3.1-sonar-small-128k-online": { + "description": "Llama 3.1 Sonar Small Online модел, с 8B параметри, поддържащ контекстова дължина от около 127,000 маркера, проектиран за онлайн чат, способен да обработва ефективно различни текстови взаимодействия." + }, + "llama3-70b-8192": { + "description": "Meta Llama 3 70B предлага ненадмината способност за обработка на сложност, проектирана за високи изисквания." + }, + "llama3-8b-8192": { + "description": "Meta Llama 3 8B предлага качествени способности за разсъждение, подходящи за множество приложения." + }, + "llama3-groq-70b-8192-tool-use-preview": { + "description": "Llama 3 Groq 70B Tool Use предлага мощни способности за извикване на инструменти, поддържащи ефективна обработка на сложни задачи." + }, + "llama3-groq-8b-8192-tool-use-preview": { + "description": "Llama 3 Groq 8B Tool Use е модел, оптимизиран за ефективна употреба на инструменти, поддържащ бързо паралелно изчисление." + }, + "llama3.1": { + "description": "Llama 3.1 е водещ модел, представен от Meta, поддържащ до 405B параметри, приложим в области като сложни диалози, многоезичен превод и анализ на данни." + }, + "llama3.1:405b": { + "description": "Llama 3.1 е водещ модел, представен от Meta, поддържащ до 405B параметри, приложим в области като сложни диалози, многоезичен превод и анализ на данни." + }, + "llama3.1:70b": { + "description": "Llama 3.1 е водещ модел, представен от Meta, поддържащ до 405B параметри, приложим в области като сложни диалози, многоезичен превод и анализ на данни." + }, + "llava": { + "description": "LLaVA е многомодален модел, комбиниращ визуален кодер и Vicuna, предназначен за мощно визуално и езиково разбиране." + }, + "llava-v1.5-7b-4096-preview": { + "description": "LLaVA 1.5 7B предлага интегрирани способности за визуална обработка, генерирайки сложни изходи чрез визуална информация." + }, + "llava:13b": { + "description": "LLaVA е многомодален модел, комбиниращ визуален кодер и Vicuna, предназначен за мощно визуално и езиково разбиране." + }, + "llava:34b": { + "description": "LLaVA е многомодален модел, комбиниращ визуален кодер и Vicuna, предназначен за мощно визуално и езиково разбиране." + }, + "mathstral": { + "description": "MathΣtral е проектиран за научни изследвания и математически разсъждения, предоставяйки ефективни изчислителни способности и интерпретация на резултати." + }, + "meta-llama/Llama-2-13b-chat-hf": { + "description": "LLaMA-2 Chat (13B) предлага отлични способности за обработка на език и изключителен интерактивен опит." + }, + "meta-llama/Llama-3-70b-chat-hf": { + "description": "LLaMA-3 Chat (70B) е мощен чат модел, поддържащ сложни изисквания за диалог." + }, + "meta-llama/Llama-3-8b-chat-hf": { + "description": "LLaMA-3 Chat (8B) предлага многоезична поддръжка, обхващаща богати области на знание." + }, + "meta-llama/Meta-Llama-3-70B-Instruct": { + "description": "LLaMA 3 поддържа генериране на големи обеми текст и анализ на инструкции." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { + "description": "Llama 3 70B Instruct Lite е подходящ за среди, изискващи висока производителност и ниска латентност." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": { + "description": "Llama 3 70B Instruct Turbo предлага изключителни способности за разбиране и генериране на език, подходящи за най-строги изчислителни задачи." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Lite": { + "description": "Llama 3 8B Instruct Lite е подходящ за среди с ограничени ресурси, предлагащи отличен баланс на производителност." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": { + "description": "Llama 3 8B Instruct Turbo е високоефективен голям езиков модел, поддържащ широк спектър от приложения." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct": { + "description": "LLaMA 3.1 405B е мощен модел за предварително обучение и настройка на инструкции." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": { + "description": "405B Llama 3.1 Turbo моделът предлага огромна контекстова поддръжка за обработка на големи данни, с изключителна производителност в приложения с изкуствен интелект с много голям мащаб." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct": { + "description": "LLaMA 3.1 70B предлага ефективна поддръжка за многоезични диалози." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": { + "description": "Llama 3.1 70B моделът е прецизно настроен за приложения с високо натоварване, квантован до FP8, осигурявайки по-ефективна изчислителна мощ и точност, гарантиращи изключителна производителност в сложни сценарии." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct": { + "description": "LLaMA 3.1 предлага многоезична поддръжка и е един от водещите генеративни модели в индустрията." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": { + "description": "Llama 3.1 8B моделът използва FP8 квантоване, поддържа до 131,072 контекстови маркера и е сред най-добрите отворени модели, подходящи за сложни задачи, с производителност, превъзхождаща много индустриални стандарти." + }, + "meta-llama/llama-3-70b-instruct": { + "description": "Llama 3 70B Instruct е оптимизирана за висококачествени диалогови сценарии и показва отлични резултати в различни човешки оценки." + }, + "meta-llama/llama-3-8b-instruct": { + "description": "Llama 3 8B Instruct е оптимизирана за висококачествени диалогови сценарии, с представяне, надминаващо много затворени модели." + }, + "meta-llama/llama-3.1-405b-instruct": { + "description": "Llama 3.1 405B Instruct е най-новата версия на Meta, оптимизирана за генериране на висококачествени диалози, надминаваща много водещи затворени модели." + }, + "meta-llama/llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct е проектиран за висококачествени диалози и показва отлични резултати в човешките оценки, особено подходящ за сценарии с висока интерактивност." + }, + "meta-llama/llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct е най-новата версия, пусната от Meta, оптимизирана за висококачествени диалогови сценарии, с представяне, надминаващо много водещи затворени модели." + }, + "meta-llama/llama-3.1-8b-instruct:free": { + "description": "LLaMA 3.1 предлага поддръжка на множество езици и е един от водещите генеративни модели в индустрията." + }, + "meta.llama3-1-405b-instruct-v1:0": { + "description": "Meta Llama 3.1 405B Instruct е най-голямата и най-мощната версия на модела Llama 3.1 Instruct. Това е високо напреднал модел за диалогово разсъждение и генериране на синтетични данни, който може да се използва и като основа за професионално продължително предварително обучение или фино настройване в специфични области. Многоезичният голям езиков модел (LLMs), предоставен от Llama 3.1, е набор от предварително обучени, коригирани по инструкции генеративни модели, включително размери 8B, 70B и 405B (текстов вход/изход). Текстовите модели, коригирани по инструкции (8B, 70B, 405B), са оптимизирани за многоезични диалогови случаи и надминават много налични отворени чат модели в общи индустриални бенчмаркове. Llama 3.1 е проектиран за търговски и изследователски цели на множество езици. Моделите, коригирани по инструкции, са подходящи за чатове, подобни на асистенти, докато предварително обучените модели могат да се адаптират към различни задачи за генериране на естествен език. Моделите на Llama 3.1 също поддържат използването на изхода на модела за подобряване на други модели, включително генериране на синтетични данни и рафиниране. Llama 3.1 е саморегресивен езиков модел, използващ оптимизирана трансформаторна архитектура. Коригираните версии използват супервизирано фино настройване (SFT) и обучение с човешка обратна връзка (RLHF), за да отговорят на предпочитанията на хората за полезност и безопасност." + }, + "meta.llama3-1-70b-instruct-v1:0": { + "description": "Актуализирана версия на Meta Llama 3.1 70B Instruct, включваща разширен контекстуален прозорец от 128K, многоезичност и подобрени способности за разсъждение. Многоезичният голям езиков модел (LLMs) на Llama 3.1 е набор от предварително обучени, коригирани за инструкции генериращи модели, включващи размери 8B, 70B и 405B (текстово въвеждане/изход). Текстовите модели, коригирани за инструкции (8B, 70B, 405B), са оптимизирани за многоезични диалогови случаи и надминават много налични отворени чат модели в общи индустриални бенчмаркове. Llama 3.1 е проектиран за търговски и изследователски цели на множество езици. Текстовите модели, коригирани за инструкции, са подходящи за чат, подобен на асистент, докато предварително обучените модели могат да се адаптират за различни задачи по генериране на естествен език. Моделите на Llama 3.1 също поддържат използването на изхода на модела за подобряване на други модели, включително генериране на синтетични данни и рафиниране. Llama 3.1 е саморегресивен езиков модел, използващ оптимизирана архитектура на трансформатор. Коригираните версии използват наблюдавано фино настройване (SFT) и обучение с подсилване с човешка обратна връзка (RLHF), за да отговорят на предпочитанията на хората за полезност и безопасност." + }, + "meta.llama3-1-8b-instruct-v1:0": { + "description": "Актуализирана версия на Meta Llama 3.1 8B Instruct, включваща разширен контекстуален прозорец от 128K, многоезичност и подобрени способности за разсъждение. Многоезичният голям езиков модел (LLMs) на Llama 3.1 е набор от предварително обучени, коригирани за инструкции генериращи модели, включващи размери 8B, 70B и 405B (текстово въвеждане/изход). Текстовите модели, коригирани за инструкции (8B, 70B, 405B), са оптимизирани за многоезични диалогови случаи и надминават много налични отворени чат модели в общи индустриални бенчмаркове. Llama 3.1 е проектиран за търговски и изследователски цели на множество езици. Текстовите модели, коригирани за инструкции, са подходящи за чат, подобен на асистент, докато предварително обучените модели могат да се адаптират за различни задачи по генериране на естествен език. Моделите на Llama 3.1 също поддържат използването на изхода на модела за подобряване на други модели, включително генериране на синтетични данни и рафиниране. Llama 3.1 е саморегресивен езиков модел, използващ оптимизирана архитектура на трансформатор. Коригираните версии използват наблюдавано фино настройване (SFT) и обучение с подсилване с човешка обратна връзка (RLHF), за да отговорят на предпочитанията на хората за полезност и безопасност." + }, + "meta.llama3-70b-instruct-v1:0": { + "description": "Meta Llama 3 е отворен голям езиков модел (LLM), насочен към разработчици, изследователи и предприятия, предназначен да им помогне да изградят, експериментират и отговорно разширят своите идеи за генеративен ИИ. Като част от основната система на глобалната общност за иновации, той е особено подходящ за създаване на съдържание, диалогов ИИ, разбиране на езика, научноизследователска и развойна дейност и бизнес приложения." + }, + "meta.llama3-8b-instruct-v1:0": { + "description": "Meta Llama 3 е отворен голям езиков модел (LLM), насочен към разработчици, изследователи и предприятия, предназначен да им помогне да изградят, експериментират и отговорно разширят своите идеи за генеративен ИИ. Като част от основната система на глобалната общност за иновации, той е особено подходящ за устройства с ограничени изчислителни ресурси и по-бързо време за обучение." + }, + "microsoft/wizardlm 2-7b": { + "description": "WizardLM 2 7B е най-новият бърз и лек модел на Microsoft AI, с производителност, близка до 10 пъти на съществуващите водещи отворени модели." + }, + "microsoft/wizardlm-2-8x22b": { + "description": "WizardLM-2 8x22B е най-напредналият Wizard модел на Microsoft AI, показващ изключителна конкурентоспособност." + }, + "minicpm-v": { + "description": "MiniCPM-V е новото поколение мултимодален голям модел, представен от OpenBMB, който притежава изключителни способности за OCR разпознаване и мултимодално разбиране, поддържащ широк спектър от приложения." + }, + "mistral": { + "description": "Mistral е 7B модел, представен от Mistral AI, подходящ за променливи нужди в обработката на език." + }, + "mistral-large": { + "description": "Mixtral Large е флагманският модел на Mistral, комбиниращ способности за генериране на код, математика и разсъждение, поддържащ контекстен прозорец от 128k." + }, + "mistral-large-latest": { + "description": "Mistral Large е флагманският модел, специализиран в многоезични задачи, сложни разсъждения и генериране на код, идеален за висококачествени приложения." + }, + "mistral-nemo": { + "description": "Mistral Nemo е 12B модел, разработен в сътрудничество между Mistral AI и NVIDIA, предлагащ ефективна производителност." + }, + "mistralai/Mistral-7B-Instruct-v0.1": { + "description": "Mistral (7B) Instruct е известен с високата си производителност, подходящ за множество езикови задачи." + }, + "mistralai/Mistral-7B-Instruct-v0.2": { + "description": "Mistral 7B е модел с фино настройване по заявка, предлагащ оптимизирани отговори за задачи." + }, + "mistralai/Mistral-7B-Instruct-v0.3": { + "description": "Mistral (7B) Instruct v0.3 предлага ефективна изчислителна мощ и разбиране на естествения език, подходяща за широк спектър от приложения." + }, + "mistralai/Mixtral-8x22B-Instruct-v0.1": { + "description": "Mixtral-8x22B Instruct (141B) е супер голям езиков модел, поддържащ изключително високи изисквания за обработка." + }, + "mistralai/Mixtral-8x7B-Instruct-v0.1": { + "description": "Mixtral 8x7B е предварително обучен модел на разредени смесени експерти, предназначен за универсални текстови задачи." + }, + "mistralai/mistral-7b-instruct": { + "description": "Mistral 7B Instruct е високопроизводителен индустриален стандартен модел, оптимизиран за бързина и поддръжка на дълги контексти." + }, + "mistralai/mistral-nemo": { + "description": "Mistral Nemo е модел с 7.3B параметри, предлагащ многоезична поддръжка и висока производителност." + }, + "mixtral": { + "description": "Mixtral е експертен модел на Mistral AI, с отворени тегла, предоставящ поддръжка в генерирането на код и разбиране на езика." + }, + "mixtral-8x7b-32768": { + "description": "Mixtral 8x7B предлага висока толерантност на грешки при паралелно изчисление, подходяща за сложни задачи." + }, + "mixtral:8x22b": { + "description": "Mixtral е експертен модел на Mistral AI, с отворени тегла, предоставящ поддръжка в генерирането на код и разбиране на езика." + }, + "moonshot-v1-128k": { + "description": "Moonshot V1 128K е модел с изключителна способност за обработка на дълги контексти, подходящ за генериране на много дълги текстове, отговарящи на сложни изисквания за генериране, способен да обработва до 128,000 токена, особено подходящ за научни изследвания, академични и генериране на големи документи." + }, + "moonshot-v1-32k": { + "description": "Moonshot V1 32K предлага средна дължина на контекста, способен да обработва 32,768 токена, особено подходящ за генериране на различни дълги документи и сложни диалози, използван в области като създаване на съдържание, генериране на отчети и диалогови системи." + }, + "moonshot-v1-8k": { + "description": "Moonshot V1 8K е проектиран за генериране на кратки текстови задачи, с ефективна производителност, способен да обработва 8,192 токена, особено подходящ за кратки диалози, бележки и бързо генериране на съдържание." + }, + "nousresearch/hermes-2-pro-llama-3-8b": { + "description": "Hermes 2 Pro Llama 3 8B е обновена версия на Nous Hermes 2, включваща най-новите вътрешно разработени набори от данни." + }, + "o1-mini": { + "description": "o1-mini е бърз и икономичен модел за изводи, проектиран за приложения в програмирането, математиката и науката. Моделът разполага с контекст от 128K и дата на знание до октомври 2023." + }, + "o1-preview": { + "description": "o1 е новият модел за изводи на OpenAI, подходящ за сложни задачи, изискващи обширни общи знания. Моделът разполага с контекст от 128K и дата на знание до октомври 2023." + }, + "open-codestral-mamba": { + "description": "Codestral Mamba е модел на езика Mamba 2, специализиран в генерирането на код, предоставящ мощна поддръжка за напреднали кодови и разсъждателни задачи." + }, + "open-mistral-7b": { + "description": "Mistral 7B е компактен, но високопроизводителен модел, специализиран в обработка на партиди и прости задачи, като класификация и генериране на текст, с добра способност за разсъждение." + }, + "open-mistral-nemo": { + "description": "Mistral Nemo е 12B модел, разработен в сътрудничество с Nvidia, предлагащ отлични способности за разсъждение и кодиране, лесен за интеграция и замяна." + }, + "open-mixtral-8x22b": { + "description": "Mixtral 8x22B е по-голям експертен модел, фокусиран върху сложни задачи, предлагащ отлични способности за разсъждение и по-висока производителност." + }, + "open-mixtral-8x7b": { + "description": "Mixtral 8x7B е рядък експертен модел, който използва множество параметри за увеличаване на скоростта на разсъждение, подходящ за обработка на многоезични и кодови генериращи задачи." + }, + "openai/gpt-4o-2024-08-06": { + "description": "ChatGPT-4o е динамичен модел, който се актуализира в реално време, за да поддържа най-новата версия. Той комбинира мощни способности за разбиране и генериране на език, подходящи за мащабни приложения, включително обслужване на клиенти, образование и техническа поддръжка." + }, + "openai/gpt-4o-mini": { + "description": "GPT-4o mini е най-новият модел на OpenAI, пуснат след GPT-4 Omni, който поддържа вход и изход на текст и изображения. Като най-напредналият им малък модел, той е значително по-евтин от другите нови модели и е с над 60% по-евтин от GPT-3.5 Turbo. Запазва най-съвременната интелигентност, като предлага значителна стойност за парите. GPT-4o mini получи 82% на теста MMLU и в момента е с по-висок рейтинг от GPT-4 в предпочитанията за чат." + }, + "openai/o1-mini": { + "description": "o1-mini е бърз и икономичен модел за изводи, проектиран за приложения в програмирането, математиката и науката. Моделът разполага с контекст от 128K и дата на знание до октомври 2023." + }, + "openai/o1-preview": { + "description": "o1 е новият модел за изводи на OpenAI, подходящ за сложни задачи, изискващи обширни общи знания. Моделът разполага с контекст от 128K и дата на знание до октомври 2023." + }, + "openchat/openchat-7b": { + "description": "OpenChat 7B е отворен езиков модел, прецизно настроен с помощта на стратегията „C-RLFT (условно подсилващо обучение)“." + }, + "openrouter/auto": { + "description": "В зависимост от дължината на контекста, темата и сложността, вашето запитване ще бъде изпратено до Llama 3 70B Instruct, Claude 3.5 Sonnet (саморегулиращ) или GPT-4o." + }, + "phi3": { + "description": "Phi-3 е лек отворен модел, представен от Microsoft, подходящ за ефективна интеграция и мащабно знание разсъждение." + }, + "phi3:14b": { + "description": "Phi-3 е лек отворен модел, представен от Microsoft, подходящ за ефективна интеграция и мащабно знание разсъждение." + }, + "qwen-long": { + "description": "Qwen е мащабен езиков модел, който поддържа дълги текстови контексти и диалогови функции, базирани на дълги документи и множество документи." + }, + "qwen-max": { + "description": "Qwen е мащабен езиков модел с ниво на 100 милиарда параметри, който поддържа вход на различни езици, включително китайски и английски, в момента е API моделът зад версията на продукта Qwen 2.5." + }, + "qwen-max-longcontext": { + "description": "Qwen е мащабен езиков модел с ниво на 100 милиарда параметри, който поддържа вход на различни езици, включително китайски и английски, разширявайки контекстуалния прозорец." + }, + "qwen-plus": { + "description": "Qwen е подобрена версия на мащабния езиков модел, която поддържа вход на различни езици, включително китайски и английски." + }, + "qwen-turbo": { + "description": "Qwen е мащабен езиков модел, който поддържа вход на различни езици, включително китайски и английски." + }, + "qwen-vl-chat-v1": { + "description": "Qwen VL поддържа гъвкави интерактивни методи, включително множество изображения, многократни въпроси и отговори, творчество и др." + }, + "qwen-vl-max": { + "description": "Qwen е мащабен визуален езиков модел. В сравнение с подобрената версия, отново е подобрена способността за визуално разсъждение и следване на инструкции, предоставяйки по-високо ниво на визуално възприятие и познание." + }, + "qwen-vl-plus": { + "description": "Qwen е подобрена версия на мащабния визуален езиков модел. Значително подобрена способност за разпознаване на детайли и текст, поддържа изображения с резолюция над един милион пиксела и произволни съотношения на страните." + }, + "qwen-vl-v1": { + "description": "Инициализиран с езиковия модел Qwen-7B, добавя модел за изображения, предтренировъчен модел с резолюция на входа от 448." + }, + "qwen/qwen-2-7b-instruct:free": { + "description": "Qwen2 е нова серия от големи езикови модели с по-силни способности за разбиране и генериране." + }, + "qwen2": { + "description": "Qwen2 е новото поколение голям езиков модел на Alibaba, предлагащ отлична производителност за разнообразни приложения." + }, + "qwen2-57b-a14b-instruct": { + "description": "Qwen2 е отворен модел с 57B параметри и 14B активирани параметри в MOE модела." + }, + "qwen2-72b-instruct": { + "description": "Qwen2 е отворен модел с 72B параметри." + }, + "qwen2-7b-instruct": { + "description": "Qwen2 е отворен модел с 7B параметри." + }, + "qwen2-math-72b-instruct": { + "description": "Qwen2-Math моделът разполага с мощни способности за решаване на математически задачи." + }, + "qwen2:0.5b": { + "description": "Qwen2 е новото поколение голям езиков модел на Alibaba, предлагащ отлична производителност за разнообразни приложения." + }, + "qwen2:1.5b": { + "description": "Qwen2 е новото поколение голям езиков модел на Alibaba, предлагащ отлична производителност за разнообразни приложения." + }, + "qwen2:72b": { + "description": "Qwen2 е новото поколение голям езиков модел на Alibaba, предлагащ отлична производителност за разнообразни приложения." + }, + "solar-1-mini-chat": { + "description": "Solar Mini е компактен LLM, с производителност над GPT-3.5, предлагащ мощни многоезични способности, поддържащ английски и корейски, предоставяйки ефективно и компактно решение." + }, + "solar-1-mini-chat-ja": { + "description": "Solar Mini (Ja) разширява възможностите на Solar Mini, фокусирайки се върху японския език, като същевременно поддържа висока ефективност и отлична производителност на английски и корейски." + }, + "solar-pro": { + "description": "Solar Pro е високоинтелигентен LLM, пуснат от Upstage, фокусиран върху способността за следване на инструкции с един GPU, с IFEval оценка над 80. В момента поддържа английски, а официалната версия е планирана за пускане през ноември 2024 г., с разширена поддръжка на езици и дължина на контекста." + }, + "step-1-128k": { + "description": "Баланс между производителност и разходи, подходящ за общи сценарии." + }, + "step-1-256k": { + "description": "Супер дълга контекстова обработка, особено подходяща за анализ на дълги документи." + }, + "step-1-32k": { + "description": "Поддържа диалози със средна дължина, подходящи за множество приложения." + }, + "step-1-8k": { + "description": "Малък модел, подходящ за леки задачи." + }, + "step-1-flash": { + "description": "Бърз модел, подходящ за реални диалози." + }, + "step-1v-32k": { + "description": "Поддържа визуални входове, подобряваща мултимодалното взаимодействие." + }, + "step-1v-8k": { + "description": "Малък визуален модел, подходящ за основни текстово-визуални задачи." + }, + "step-2-16k": { + "description": "Поддържа взаимодействия с голям мащаб на контекста, подходящи за сложни диалогови сценарии." + }, + "taichu_llm": { + "description": "Моделът на езика TaiChu е с изключителни способности за разбиране на езика, текстово генериране, отговори на знания, програмиране, математически изчисления, логическо разсъждение, анализ на емоции, резюмиране на текст и др. Иновативно комбинира предварително обучение с големи данни и разнообразни източници на знания, чрез непрекъснато усъвършенстване на алгоритмичните технологии и усвояване на нови знания от масивни текстови данни, за да осигури на потребителите по-удобна информация и услуги, както и по-интелигентно изживяване." + }, + "togethercomputer/StripedHyena-Nous-7B": { + "description": "StripedHyena Nous (7B) предлага подобрена изчислителна мощ чрез ефективни стратегии и архитектура на модела." + }, + "upstage/SOLAR-10.7B-Instruct-v1.0": { + "description": "Upstage SOLAR Instruct v1 (11B) е подходящ за прецизни задачи с инструкции, предлагащи отлични способности за обработка на език." + }, + "wizardlm2": { + "description": "WizardLM 2 е езиков модел, предоставен от Microsoft AI, който се отличава в сложни диалози, многоезичност, разсъждение и интелигентни асистенти." + }, + "wizardlm2:8x22b": { + "description": "WizardLM 2 е езиков модел, предоставен от Microsoft AI, който се отличава в сложни диалози, многоезичност, разсъждение и интелигентни асистенти." + }, + "yi-large": { + "description": "Новият модел с хиляда милиарда параметри предлага изключителни способности за отговори и генериране на текст." + }, + "yi-large-fc": { + "description": "Поддържа и усилва способностите за извикване на инструменти на базата на модела yi-large, подходящ за различни бизнес сценарии, изискващи изграждане на агенти или работни потоци." + }, + "yi-large-preview": { + "description": "Начална версия, препоръчва се да се използва yi-large (новата версия)." + }, + "yi-large-rag": { + "description": "Висококачествена услуга, базирана на мощния модел yi-large, комбинираща технологии за извличане и генериране, предлагаща точни отговори и услуги за търсене на информация в реално време." + }, + "yi-large-turbo": { + "description": "Изключителна производителност на висока цена. Балансирано прецизно настройване на производителността и скоростта на разсъжденията." + }, + "yi-medium": { + "description": "Модел с среден размер, обновен и прецизно настроен, с балансирани способности и висока цена на производителност." + }, + "yi-medium-200k": { + "description": "200K свръхдълъг контекстов прозорец, предлагащ дълбочинно разбиране и генериране на дълги текстове." + }, + "yi-spark": { + "description": "Малък и мощен, лек и бърз модел. Предлага подобрени способности за математически операции и писане на код." + }, + "yi-vision": { + "description": "Модел за сложни визуални задачи, предлагащ висока производителност за разбиране и анализ на изображения." + } +} diff --git a/locales/bg-BG/providers.json b/locales/bg-BG/providers.json new file mode 100644 index 000000000000..4dec79830cbf --- /dev/null +++ b/locales/bg-BG/providers.json @@ -0,0 +1,80 @@ +{ + "ai360": { + "description": "360 AI е платформа за AI модели и услуги, предлагана от компания 360, предлагаща множество напреднали модели за обработка на естествен език, включително 360GPT2 Pro, 360GPT Pro, 360GPT Turbo и 360GPT Turbo Responsibility 8K. Тези модели комбинират голям брой параметри и мултимодални способности, широко използвани в текстово генериране, семантично разбиране, диалогови системи и генериране на код. Чрез гъвкава ценова стратегия, 360 AI отговаря на разнообразни потребителски нужди, поддържайки интеграция за разработчици и насърчавайки иновации и развитие на интелигентни приложения." + }, + "anthropic": { + "description": "Anthropic е компания, специализирана в изследвания и разработка на изкуствен интелект, предлагаща набор от напреднали езикови модели, като Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus и Claude 3 Haiku. Тези модели постигат идеален баланс между интелигентност, скорост и разходи, подходящи за различни приложения, от корпоративни натоварвания до бързи отговори. Claude 3.5 Sonnet, като най-новия им модел, показва отлични резултати в множество оценки, като същевременно поддържа висока цена-качество." + }, + "azure": { + "description": "Azure предлага разнообразие от напреднали AI модели, включително GPT-3.5 и най-новата серия GPT-4, поддържащи различни типове данни и сложни задачи, с акцент върху безопасни, надеждни и устойчиви AI решения." + }, + "baichuan": { + "description": "Baichuan Intelligence е компания, специализирана в разработката на големи модели за изкуствен интелект, чийто модели показват отлични резултати в китайски задачи, свързани с енциклопедии, обработка на дълги текстове и генериране на съдържание, надминавайки основните чуждестранни модели. Baichuan Intelligence също така притежава индустриално водещи мултимодални способности, показвайки отлични резултати в множество авторитетни оценки. Моделите им включват Baichuan 4, Baichuan 3 Turbo и Baichuan 3 Turbo 128k, оптимизирани за различни приложения, предлагащи решения с висока цена-качество." + }, + "bedrock": { + "description": "Bedrock е услуга, предоставяна от Amazon AWS, фокусирана върху предоставянето на напреднали AI езикови и визуални модели за предприятия. Семейството на моделите включва серията Claude на Anthropic, серията Llama 3.1 на Meta и други, обхващащи разнообразие от опции от леки до високо производителни, поддържащи текстово генериране, диалог, обработка на изображения и много други задачи, подходящи за различни мащаби и нужди на бизнес приложения." + }, + "deepseek": { + "description": "DeepSeek е компания, специализирана в изследвания и приложения на технологии за изкуствен интелект, чийто най-нов модел DeepSeek-V2.5 комбинира способности за общи диалози и обработка на код, постигайки значителни подобрения в съответствието с човешките предпочитания, писателските задачи и следването на инструкции." + }, + "fireworksai": { + "description": "Fireworks AI е водещ доставчик на напреднали езикови модели, фокусирайки се върху извикване на функции и мултимодална обработка. Най-новият им модел Firefunction V2, базиран на Llama-3, е оптимизиран за извикване на функции, диалози и следване на инструкции. Визуалният езиков модел FireLLaVA-13B поддържа смесени входове от изображения и текст. Други забележителни модели включват серията Llama и серията Mixtral, предлагащи ефективна поддръжка за многоезично следване на инструкции и генериране." + }, + "google": { + "description": "Серията Gemini на Google е най-напредналият и универсален AI модел, разработен от Google DeepMind, проектиран за мултимодално разбиране и обработка на текст, код, изображения, аудио и видео. Подходящ за различни среди, от центрове за данни до мобилни устройства, значително увеличава ефективността и приложимостта на AI моделите." + }, + "groq": { + "description": "Инженерният двигател LPU на Groq показва изключителни резултати в последните независими тестове на големи езикови модели (LLM), преосмисляйки стандартите за AI решения с невероятната си скорост и ефективност. Groq е представител на мигновен скорост на изводите, демонстрирайки добро представяне в облачни внедрения." + }, + "minimax": { + "description": "MiniMax е компания за универсален изкуствен интелект, основана през 2021 г., която се стреми да създаде интелигентност заедно с потребителите. MiniMax е разработила различни универсални големи модели, включително текстови модели с трилйон параметри, модели за глас и модели за изображения. Също така е пуснала приложения като Conch AI." + }, + "mistral": { + "description": "Mistral предлага напреднали универсални, професионални и изследователски модели, широко използвани в сложни разсъждения, многоезични задачи, генериране на код и др. Чрез интерфейси за извикване на функции, потребителите могат да интегрират персонализирани функции за специфични приложения." + }, + "moonshot": { + "description": "Moonshot е отворена платформа, представена от Beijing Dark Side Technology Co., Ltd., предлагаща множество модели за обработка на естествен език, с широко приложение, включително, но не само, създаване на съдържание, академични изследвания, интелигентни препоръки, медицинска диагностика и др., поддържаща обработка на дълги текстове и сложни генериращи задачи." + }, + "novita": { + "description": "Novita AI е платформа, предлагаща API услуги за множество големи езикови модели и генериране на AI изображения, гъвкава, надеждна и икономически ефективна. Поддържа най-новите отворени модели, като Llama3 и Mistral, и предлага цялостни, потребителски приятелски и автоматично разширяеми API решения за разработка на генеративни AI приложения, подходящи за бързото развитие на AI стартъпи." + }, + "ollama": { + "description": "Моделите, предоставени от Ollama, обхващат широк спектър от области, включително генериране на код, математически операции, многоезично обработване и диалогова интеракция, отговарящи на разнообразните нужди на предприятията и локализирани внедрявания." + }, + "openai": { + "description": "OpenAI е водеща световна изследователска институция в областта на изкуствения интелект, чийто модели, като серията GPT, напредват в границите на обработката на естествен език. OpenAI се стреми да трансформира множество индустрии чрез иновации и ефективни AI решения. Продуктите им предлагат значителна производителност и икономичност, широко използвани в изследвания, бизнес и иновационни приложения." + }, + "openrouter": { + "description": "OpenRouter е платформа за услуги, предлагаща интерфейси за множество авангардни големи модели, поддържащи OpenAI, Anthropic, LLaMA и много други, подходяща за разнообразни нужди от разработка и приложение. Потребителите могат гъвкаво да избират оптималния модел и цена в зависимост от собствените си нужди, подобрявайки AI опита." + }, + "perplexity": { + "description": "Perplexity е водещ доставчик на модели за генериране на диалози, предлагащ множество напреднали модели Llama 3.1, поддържащи онлайн и офлайн приложения, особено подходящи за сложни задачи по обработка на естествен език." + }, + "qwen": { + "description": "Qwen е самостоятелно разработен свръхголям езиков модел на Alibaba Cloud, с мощни способности за разбиране и генериране на естествен език. Може да отговаря на различни въпроси, да създава текстово съдържание, да изразява мнения и да пише код, играейки роля в множество области." + }, + "siliconcloud": { + "description": "SiliconFlow се стреми да ускори AGI, за да бъде от полза за човечеството, повишавайки ефективността на мащабния AI чрез лесен за използване и икономически изгоден GenAI стек." + }, + "spark": { + "description": "Spark на iFlytek предлага мощни AI способности в множество области и езици, използвайки напреднали технологии за обработка на естествен език, за изграждане на иновационни приложения, подходящи за интелигентни устройства, интелигентно здравеопазване, интелигентни финанси и други вертикални сцени." + }, + "stepfun": { + "description": "StepFun предлага индустриално водещи мултимодални и сложни разсъждения, поддържащи разбиране на свръхдълги текстове и мощни функции за самостоятелно планиране на търсене." + }, + "taichu": { + "description": "Институтът по автоматизация на Китайската академия на науките и Институтът по изкуствен интелект в Ухан представят ново поколение мултимодални големи модели, поддържащи многократни въпроси и отговори, текстово създаване, генериране на изображения, 3D разбиране, анализ на сигнали и др., с по-силни способности за познание, разбиране и създаване, предоставяйки ново взаимодействие." + }, + "togetherai": { + "description": "Together AI се стреми да постигне водеща производителност чрез иновационни AI модели, предлагащи широки възможности за персонализация, включително бърза поддръжка за разширяване и интуитивни процеси на внедряване, отговарящи на разнообразните нужди на предприятията." + }, + "upstage": { + "description": "Upstage се фокусира върху разработването на AI модели за различни бизнес нужди, включително Solar LLM и документен AI, с цел постигане на човешки универсален интелект (AGI). Създава прости диалогови агенти чрез Chat API и поддържа извикване на функции, превод, вграждане и специфични приложения." + }, + "zeroone": { + "description": "01.AI се фокусира върху технологии за изкуствен интелект от ерата на AI 2.0, активно насърчавайки иновации и приложения на \"човек + изкуствен интелект\", използвайки мощни модели и напреднали AI технологии за повишаване на производителността на човека и реализиране на технологично овластяване." + }, + "zhipu": { + "description": "Zhipu AI предлага отворена платформа за мултимодални и езикови модели, поддържащи широк спектър от AI приложения, включително обработка на текст, разбиране на изображения и помощ при програмиране." + } +} diff --git a/locales/de-DE/common.json b/locales/de-DE/common.json index d232804ab675..4ca51c5a849d 100644 --- a/locales/de-DE/common.json +++ b/locales/de-DE/common.json @@ -195,8 +195,8 @@ }, "tab": { "chat": "Chat", + "discover": "Entdecken", "files": "Dateien", - "market": "Entdecken", "me": "Ich", "setting": "Einstellung" }, diff --git a/locales/de-DE/discover.json b/locales/de-DE/discover.json new file mode 100644 index 000000000000..4102d2df10bd --- /dev/null +++ b/locales/de-DE/discover.json @@ -0,0 +1,204 @@ +{ + "assistants": { + "addAgent": "Assistent hinzufügen", + "addAgentAndConverse": "Assistent hinzufügen und chatten", + "addAgentSuccess": "Erfolgreich hinzugefügt", + "conversation": { + "l1": "Hallo, ich bin **{{name}}**, du kannst mir jede Frage stellen, ich werde mein Bestes tun, um dir zu antworten ~", + "l2": "Hier sind meine Fähigkeiten: ", + "l3": "Lass uns das Gespräch beginnen!" + }, + "description": "Assistentenbeschreibung", + "detail": "Details", + "list": "Assistentenliste", + "more": "Mehr", + "plugins": "Integrations-Plugins", + "recentSubmits": "Neueste Aktualisierungen", + "suggestions": "Ähnliche Empfehlungen", + "systemRole": "Assistenteneinstellungen", + "try": "Ausprobieren" + }, + "back": "Zurück zur Entdeckung", + "category": { + "assistant": { + "academic": "Akademisch", + "all": "Alle", + "career": "Karriere", + "copywriting": "Texterstellung", + "design": "Design", + "education": "Bildung", + "emotions": "Emotionen", + "entertainment": "Unterhaltung", + "games": "Spiele", + "general": "Allgemein", + "life": "Leben", + "marketing": "Marketing", + "office": "Büro", + "programming": "Programmierung", + "translation": "Übersetzung" + }, + "plugin": { + "all": "Alle", + "gaming-entertainment": "Gaming & Unterhaltung", + "life-style": "Lebensstil", + "media-generate": "Medienerstellung", + "science-education": "Wissenschaft & Bildung", + "social": "Soziale Medien", + "stocks-finance": "Aktien & Finanzen", + "tools": "Praktische Werkzeuge", + "web-search": "Websuche" + } + }, + "cleanFilter": "Filter zurücksetzen", + "create": "Erstellen", + "createGuide": { + "func1": { + "desc1": "Gehe im Chatfenster über die Einstellungen in der oberen rechten Ecke zur Seite, auf der du deinen Assistenten einreichen möchtest;", + "desc2": "Klicke auf die Schaltfläche 'In den Assistentenmarkt einreichen' in der oberen rechten Ecke.", + "tag": "Methode Eins", + "title": "Einreichung über LobeChat" + }, + "func2": { + "button": "Gehe zum Github-Assistenten-Repository", + "desc": "Wenn du den Assistenten im Index hinzufügen möchtest, erstelle einen Eintrag mit agent-template.json oder agent-template-full.json im plugins-Verzeichnis, schreibe eine kurze Beschreibung und markiere sie entsprechend, und erstelle dann eine Pull-Anfrage.", + "tag": "Methode Zwei", + "title": "Einreichung über Github" + } + }, + "dislike": "Nicht mögen", + "filter": "Filter", + "filterBy": { + "authorRange": { + "everyone": "Alle Autoren", + "followed": "Folgte Autoren", + "title": "Autorenbereich" + }, + "contentLength": "Minimale Kontextlänge", + "maxToken": { + "title": "Maximale Länge festlegen (Token)", + "unlimited": "Unbegrenzt" + }, + "other": { + "functionCall": "Funktionaufrufe unterstützen", + "title": "Sonstiges", + "vision": "Visuelle Erkennung unterstützen", + "withKnowledge": "Mit Wissensdatenbank", + "withTool": "Mit Plugin" + }, + "pricing": "Modellpreise", + "timePeriod": { + "all": "Alle Zeiten", + "day": "Letzte 24 Stunden", + "month": "Letzte 30 Tage", + "title": "Zeitraum", + "week": "Letzte 7 Tage", + "year": "Letztes Jahr" + } + }, + "home": { + "featuredAssistants": "Empfohlene Assistenten", + "featuredModels": "Empfohlene Modelle", + "featuredProviders": "Empfohlene Modellanbieter", + "featuredTools": "Empfohlene Plugins", + "more": "Mehr entdecken" + }, + "like": "Mögen", + "models": { + "chat": "Gespräch starten", + "contentLength": "Maximale Kontextlänge", + "free": "Kostenlos", + "guide": "Konfigurationsanleitung", + "list": "Modellliste", + "more": "Mehr", + "parameterList": { + "defaultValue": "Standardwert", + "docs": "Dokumentation ansehen", + "frequency_penalty": { + "desc": "Diese Einstellung passt die Häufigkeit an, mit der das Modell bestimmte Wörter, die bereits im Input erschienen sind, wiederverwendet. Höhere Werte verringern die Wahrscheinlichkeit dieser Wiederholung, während negative Werte den gegenteiligen Effekt haben. Die Wortstrafe erhöht sich nicht mit der Anzahl der Vorkommen. Negative Werte fördern die Wiederverwendung von Wörtern.", + "title": "Häufigkeitsstrafe" + }, + "max_tokens": { + "desc": "Diese Einstellung definiert die maximale Länge, die das Modell in einer einzelnen Antwort generieren kann. Höhere Werte ermöglichen es dem Modell, längere Antworten zu generieren, während niedrigere Werte die Länge der Antwort einschränken und sie prägnanter machen. Eine angemessene Anpassung dieses Wertes je nach Anwendungsfall kann helfen, die gewünschte Länge und Detailgenauigkeit der Antwort zu erreichen.", + "title": "Begrenzung der Antwortlänge" + }, + "presence_penalty": { + "desc": "Diese Einstellung soll die Wiederverwendung von Wörtern basierend auf deren Häufigkeit im Input steuern. Sie versucht, weniger häufig Wörter zu verwenden, die im Input häufig vorkommen, wobei die Verwendungshäufigkeit proportional zur Häufigkeit ist. Die Wortstrafe erhöht sich mit der Anzahl der Vorkommen. Negative Werte fördern die Wiederverwendung von Wörtern.", + "title": "Themenfrische" + }, + "range": "Bereich", + "temperature": { + "desc": "Diese Einstellung beeinflusst die Vielfalt der Antworten des Modells. Niedrigere Werte führen zu vorhersehbareren und typischen Antworten, während höhere Werte zu vielfältigeren und weniger häufigen Antworten anregen. Wenn der Wert auf 0 gesetzt wird, gibt das Modell für einen bestimmten Input immer die gleiche Antwort.", + "title": "Zufälligkeit" + }, + "title": "Modellparameter", + "top_p": { + "desc": "Diese Einstellung beschränkt die Auswahl des Modells auf die Wörter mit der höchsten Wahrscheinlichkeit, die einen bestimmten Anteil erreichen: Es werden nur die Wörter ausgewählt, deren kumulative Wahrscheinlichkeit P erreicht. Niedrigere Werte machen die Antworten des Modells vorhersehbarer, während die Standardeinstellung dem Modell erlaubt, aus dem gesamten Wortschatz auszuwählen.", + "title": "Kernsampling" + }, + "type": "Typ" + }, + "providerInfo": { + "apiTooltip": "LobeChat unterstützt die Verwendung eines benutzerdefinierten API-Schlüssels für diesen Anbieter.", + "input": "Eingabepreis", + "inputTooltip": "Kosten pro Million Token", + "latency": "Latenz", + "latencyTooltip": "Durchschnittliche Antwortzeit des Anbieters für das erste Token", + "maxOutput": "Maximale Ausgabelänge", + "maxOutputTooltip": "Maximale Anzahl von Tokens, die dieser Endpunkt generieren kann", + "officialTooltip": "Offizieller LobeHub-Dienst", + "output": "Ausgabepreis", + "outputTooltip": "Kosten pro Million Token", + "streamCancellationTooltip": "Dieser Anbieter unterstützt die Stream-Abbruchfunktion.", + "throughput": "Durchsatz", + "throughputTooltip": "Durchschnittliche Anzahl von Tokens, die pro Sekunde bei Stream-Anfragen übertragen werden" + }, + "suggestions": "Verwandte Modelle", + "supportedProviders": "Anbieter, die dieses Modell unterstützen" + }, + "plugins": { + "community": "Community-Plugins", + "install": "Plugin installieren", + "installed": "Installiert", + "list": "Plugin-Liste", + "meta": { + "description": "Beschreibung", + "parameter": "Parameter", + "title": "Werkzeugparameter", + "type": "Typ" + }, + "more": "Mehr", + "official": "Offizielle Plugins", + "recentSubmits": "Neueste Aktualisierungen", + "suggestions": "Ähnliche Empfehlungen" + }, + "providers": { + "config": "Anbieter konfigurieren", + "list": "Liste der Modellanbieter", + "modelCount": "{{count}} Modelle", + "modelSite": "Modell-Dokumentation", + "more": "Mehr", + "officialSite": "Offizielle Webseite", + "showAllModels": "Alle Modelle anzeigen", + "suggestions": "Verwandte Anbieter", + "supportedModels": "Unterstützte Modelle" + }, + "search": { + "placeholder": "Suche nach Namen, Beschreibung oder Schlüsselwörtern...", + "result": "{{count}} Ergebnisse zu {{keyword}}", + "searching": "Suche läuft..." + }, + "sort": { + "mostLiked": "Am meisten gemocht", + "mostUsed": "Am häufigsten verwendet", + "newest": "Neueste zuerst", + "oldest": "Älteste zuerst", + "recommended": "Empfohlen" + }, + "tab": { + "assistants": "Assistenten", + "home": "Startseite", + "models": "Modelle", + "plugins": "Plugins", + "providers": "Modellanbieter" + } +} diff --git a/locales/de-DE/metadata.json b/locales/de-DE/metadata.json index 768c387f49a4..d5e01753ce0f 100644 --- a/locales/de-DE/metadata.json +++ b/locales/de-DE/metadata.json @@ -3,9 +3,26 @@ "description": "{{appName}} bietet dir das beste Erlebnis mit ChatGPT, Claude, Gemini und OLLaMA WebUI", "title": "{{appName}}: Persönliches KI-Effizienzwerkzeug, gib dir selbst ein schlaueres Gehirn" }, - "market": { - "description": "Inhaltserstellung, Copywriting, Fragen und Antworten, Bilderzeugung, Videoerzeugung, Spracherzeugung, intelligente Agenten, automatisierte Workflows, passe deinen eigenen KI-Assistenten an", - "title": "Assistentenmarkt" + "discover": { + "assistants": { + "description": "Inhaltserstellung, Textverfassung, Fragen und Antworten, Bildgenerierung, Videoerstellung, Sprachsynthese, intelligente Agenten, automatisierte Workflows, passe deinen eigenen AI / GPTs / OLLaMA intelligenten Assistenten an", + "title": "KI-Assistenten" + }, + "description": "Inhaltserstellung, Textverfassung, Fragen und Antworten, Bildgenerierung, Videoerstellung, Sprachsynthese, intelligente Agenten, automatisierte Workflows, benutzerdefinierte AI-Anwendungen, passe deine eigene AI-Anwendungsplattform an", + "models": { + "description": "Entdecke gängige AI-Modelle wie OpenAI / GPT / Claude 3 / Gemini / Ollama / Azure / DeepSeek", + "title": "KI-Modelle" + }, + "plugins": { + "description": "Entdecken Sie die Möglichkeiten zur Erstellung von Diagrammen, wissenschaftlichen Inhalten, Bildgenerierung, Videoerstellung, Sprachsynthese und automatisierten Workflows, um Ihrem Assistenten eine Vielzahl von Plugin-Funktionen zu integrieren.", + "title": "KI-Plugins" + }, + "providers": { + "description": "Entdecke führende Modellanbieter wie OpenAI / Qwen / Ollama / Anthropic / DeepSeek / Google Gemini / OpenRouter", + "title": "Anbieter von KI-Modellen" + }, + "search": "Suche", + "title": "Entdecken" }, "plugins": { "description": "Suche, Diagrammerstellung, akademisch, Bilderzeugung, Videoerzeugung, Spracherzeugung, automatisierte Workflows, passe die ToolCall-Plugin-Funktionen von ChatGPT / Claude an", diff --git a/locales/de-DE/models.json b/locales/de-DE/models.json new file mode 100644 index 000000000000..61c7035c90d8 --- /dev/null +++ b/locales/de-DE/models.json @@ -0,0 +1,845 @@ +{ + "01-ai/Yi-1.5-34B-Chat-16K": { + "description": "Yi-1.5 34B bietet mit umfangreichen Trainingsbeispielen überlegene Leistungen in der Branchenanwendung." + }, + "01-ai/Yi-1.5-6B-Chat": { + "description": "Yi-1.5 ist die evolutionäre Version der Yi-Serie mit hochwertigem Vortraining und umfangreichen Feinabstimmungsdaten." + }, + "01-ai/Yi-1.5-9B-Chat-16K": { + "description": "Yi-1.5 9B unterstützt 16K Tokens und bietet effiziente, flüssige Sprachgenerierungsfähigkeiten." + }, + "360gpt-pro": { + "description": "360GPT Pro ist ein wichtiger Bestandteil der 360 AI-Modellreihe und erfüllt mit seiner effizienten Textverarbeitungsfähigkeit vielfältige Anwendungen der natürlichen Sprache, unterstützt das Verständnis langer Texte und Mehrfachdialoge." + }, + "360gpt-turbo": { + "description": "360GPT Turbo bietet leistungsstarke Berechnungs- und Dialogfähigkeiten, mit hervorragendem semantischen Verständnis und Generierungseffizienz, und ist die ideale intelligente Assistentenlösung für Unternehmen und Entwickler." + }, + "360gpt-turbo-responsibility-8k": { + "description": "360GPT Turbo Responsibility 8K betont semantische Sicherheit und verantwortungsbewusste Ausrichtung, speziell für Anwendungen mit hohen Anforderungen an die Inhaltssicherheit konzipiert, um die Genauigkeit und Robustheit der Benutzererfahrung zu gewährleisten." + }, + "360gpt2-pro": { + "description": "360GPT2 Pro ist ein fortschrittliches Modell zur Verarbeitung natürlicher Sprache, das von der 360 Company entwickelt wurde und über außergewöhnliche Textgenerierungs- und Verständnisfähigkeiten verfügt, insbesondere im Bereich der Generierung und Kreativität, und in der Lage ist, komplexe Sprachumwandlungs- und Rollendarstellungsaufgaben zu bewältigen." + }, + "4.0Ultra": { + "description": "Spark4.0 Ultra ist die leistungsstärkste Version der Spark-Großmodellreihe, die die Online-Suchverbindung aktualisiert und die Fähigkeit zur Textverständnis und -zusammenfassung verbessert. Es ist eine umfassende Lösung zur Steigerung der Büroproduktivität und zur genauen Reaktion auf Anforderungen und ein führendes intelligentes Produkt in der Branche." + }, + "Baichuan2-Turbo": { + "description": "Verwendet Suchverbesserungstechnologie, um eine umfassende Verknüpfung zwischen großen Modellen und Fachwissen sowie Wissen aus dem gesamten Internet zu ermöglichen. Unterstützt das Hochladen von Dokumenten wie PDF, Word und die Eingabe von URLs, um Informationen zeitnah und umfassend zu erhalten, mit genauen und professionellen Ergebnissen." + }, + "Baichuan3-Turbo": { + "description": "Für häufige Unternehmensszenarien optimiert, mit erheblichen Leistungssteigerungen und einem hohen Preis-Leistungs-Verhältnis. Im Vergleich zum Baichuan2-Modell wurde die Inhaltserstellung um 20 %, die Wissensabfrage um 17 % und die Rollenspiel-Fähigkeit um 40 % verbessert. Die Gesamtleistung übertrifft die von GPT-3.5." + }, + "Baichuan3-Turbo-128k": { + "description": "Verfügt über ein 128K Ultra-Langkontextfenster, optimiert für häufige Unternehmensszenarien, mit erheblichen Leistungssteigerungen und einem hohen Preis-Leistungs-Verhältnis. Im Vergleich zum Baichuan2-Modell wurde die Inhaltserstellung um 20 %, die Wissensabfrage um 17 % und die Rollenspiel-Fähigkeit um 40 % verbessert. Die Gesamtleistung übertrifft die von GPT-3.5." + }, + "Baichuan4": { + "description": "Das Modell hat die höchste Fähigkeit im Inland und übertrifft ausländische Mainstream-Modelle in Aufgaben wie Wissensdatenbanken, langen Texten und kreativer Generierung. Es verfügt auch über branchenführende multimodale Fähigkeiten und zeigt in mehreren autoritativen Bewertungsbenchmarks hervorragende Leistungen." + }, + "Gryphe/MythoMax-L2-13b": { + "description": "MythoMax-L2 (13B) ist ein innovatives Modell, das sich für Anwendungen in mehreren Bereichen und komplexe Aufgaben eignet." + }, + "Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Hermes 2 Mixtral 8x7B DPO ist eine hochflexible Multi-Modell-Kombination, die darauf abzielt, außergewöhnliche kreative Erlebnisse zu bieten." + }, + "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) ist ein hochpräzises Anweisungsmodell, das für komplexe Berechnungen geeignet ist." + }, + "NousResearch/Nous-Hermes-2-Yi-34B": { + "description": "Nous Hermes-2 Yi (34B) bietet optimierte Sprachausgaben und vielfältige Anwendungsmöglichkeiten." + }, + "Pro-128k": { + "description": "Spark Pro-128K ist mit einer extrem großen Kontextverarbeitungsfähigkeit ausgestattet, die bis zu 128K Kontextinformationen verarbeiten kann, besonders geeignet für lange Texte, die eine umfassende Analyse und langfristige logische Verknüpfung erfordern, und bietet in komplexen Textkommunikationen flüssige und konsistente Logik sowie vielfältige Zitationsunterstützung." + }, + "Qwen/Qwen1.5-110B-Chat": { + "description": "Als Testversion von Qwen2 bietet Qwen1.5 präzisere Dialogfunktionen durch den Einsatz großer Datenmengen." + }, + "Qwen/Qwen1.5-14B-Chat": { + "description": "Qwen1.5 ist durch das Training mit umfangreichen Datensätzen in der Lage, komplexe Sprachaufgaben zu bewältigen." + }, + "Qwen/Qwen1.5-32B-Chat": { + "description": "Qwen1.5 verfügt über Fähigkeiten in der Beantwortung von Fragen aus mehreren Bereichen und der Textgenerierung." + }, + "Qwen/Qwen1.5-72B-Chat": { + "description": "Qwen 1.5 Chat (72B) bietet schnelle Antworten und natürliche Dialogfähigkeiten, die sich für mehrsprachige Umgebungen eignen." + }, + "Qwen/Qwen1.5-7B-Chat": { + "description": "Qwen1.5 verbessert die Dialogausdrucksfähigkeit durch die Kombination von fortgeschrittenem Vortraining und Feinabstimmung." + }, + "Qwen/Qwen2-1.5B-Instruct": { + "description": "Qwen2 ist eine neue Serie großer Sprachmodelle, die darauf abzielt, die Verarbeitung von Anweisungsaufgaben zu optimieren." + }, + "Qwen/Qwen2-57B-A14B-Instruct": { + "description": "Qwen2 ist eine neue Serie, bei der das 57B A14B-Modell in Anweisungstasks herausragende Leistungen zeigt." + }, + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 ist ein fortschrittliches allgemeines Sprachmodell, das eine Vielzahl von Anweisungsarten unterstützt." + }, + "Qwen/Qwen2-7B-Instruct": { + "description": "Qwen2 ist eine neue Serie großer Sprachmodelle mit stärkeren Verständnis- und Generierungsfähigkeiten." + }, + "Qwen/Qwen2-Math-72B-Instruct": { + "description": "Qwen2-Math konzentriert sich auf die Problemlösung im Bereich Mathematik und bietet professionelle Antworten auf schwierige Aufgaben." + }, + "THUDM/chatglm3-6b": { + "description": "Als zweisprachiges Konversationssprachmodell kann ChatGLM3 Aufgaben zur Umwandlung zwischen Chinesisch und Englisch verarbeiten." + }, + "THUDM/glm-4-9b-chat": { + "description": "GLM-4 9B ist die Open-Source-Version, die ein optimiertes Dialogerlebnis für Konversationsanwendungen bietet." + }, + "abab5.5-chat": { + "description": "Für produktivitätsorientierte Szenarien konzipiert, unterstützt es die Verarbeitung komplexer Aufgaben und die effiziente Textgenerierung, geeignet für professionelle Anwendungen." + }, + "abab5.5s-chat": { + "description": "Speziell für chinesische Charakterdialoge konzipiert, bietet es hochwertige chinesische Dialoggenerierung und ist für verschiedene Anwendungsszenarien geeignet." + }, + "abab6.5g-chat": { + "description": "Speziell für mehrsprachige Charakterdialoge konzipiert, unterstützt die hochwertige Dialoggenerierung in Englisch und anderen Sprachen." + }, + "abab6.5s-chat": { + "description": "Geeignet für eine Vielzahl von Aufgaben der natürlichen Sprachverarbeitung, einschließlich Textgenerierung und Dialogsystemen." + }, + "abab6.5t-chat": { + "description": "Für chinesische Charakterdialoge optimiert, bietet es flüssige und den chinesischen Ausdrucksgewohnheiten entsprechende Dialoggenerierung." + }, + "accounts/fireworks/models/firefunction-v1": { + "description": "Das Open-Source-Funktionsaufrufmodell von Fireworks bietet hervorragende Anweisungsdurchführungsfähigkeiten und anpassbare Funktionen." + }, + "accounts/fireworks/models/firefunction-v2": { + "description": "Das neueste Firefunction-v2 von Fireworks ist ein leistungsstarkes Funktionsaufrufmodell, das auf Llama-3 basiert und durch zahlreiche Optimierungen besonders für Funktionsaufrufe, Dialoge und Anweisungsverfolgung geeignet ist." + }, + "accounts/fireworks/models/firellava-13b": { + "description": "fireworks-ai/FireLLaVA-13b ist ein visuelles Sprachmodell, das sowohl Bild- als auch Texteingaben verarbeiten kann und für multimodale Aufgaben geeignet ist, nachdem es mit hochwertigen Daten trainiert wurde." + }, + "accounts/fireworks/models/gemma2-9b-it": { + "description": "Das Gemma 2 9B Instruct-Modell basiert auf früheren Google-Technologien und eignet sich für eine Vielzahl von Textgenerierungsaufgaben wie Fragen beantworten, Zusammenfassen und Schlussfolgern." + }, + "accounts/fireworks/models/llama-v3-70b-instruct": { + "description": "Das Llama 3 70B Instruct-Modell ist speziell für mehrsprachige Dialoge und natürliche Sprachverständnis optimiert und übertrifft die meisten Wettbewerbsmodelle." + }, + "accounts/fireworks/models/llama-v3-70b-instruct-hf": { + "description": "Das Llama 3 70B Instruct-Modell (HF-Version) entspricht den offiziellen Ergebnissen und eignet sich für hochwertige Anweisungsverfolgungsaufgaben." + }, + "accounts/fireworks/models/llama-v3-8b-instruct": { + "description": "Das Llama 3 8B Instruct-Modell ist für Dialoge und mehrsprachige Aufgaben optimiert und bietet hervorragende und effiziente Leistungen." + }, + "accounts/fireworks/models/llama-v3-8b-instruct-hf": { + "description": "Das Llama 3 8B Instruct-Modell (HF-Version) stimmt mit den offiziellen Ergebnissen überein und bietet hohe Konsistenz und plattformübergreifende Kompatibilität." + }, + "accounts/fireworks/models/llama-v3p1-405b-instruct": { + "description": "Das Llama 3.1 405B Instruct-Modell verfügt über eine extrem große Anzahl von Parametern und eignet sich für komplexe Aufgaben und Anweisungsverfolgung in hochbelasteten Szenarien." + }, + "accounts/fireworks/models/llama-v3p1-70b-instruct": { + "description": "Das Llama 3.1 70B Instruct-Modell bietet hervorragende natürliche Sprachverständnis- und Generierungsfähigkeiten und ist die ideale Wahl für Dialog- und Analyseaufgaben." + }, + "accounts/fireworks/models/llama-v3p1-8b-instruct": { + "description": "Das Llama 3.1 8B Instruct-Modell ist speziell für mehrsprachige Dialoge optimiert und kann die meisten Open-Source- und Closed-Source-Modelle in gängigen Branchenbenchmarks übertreffen." + }, + "accounts/fireworks/models/mixtral-8x22b-instruct": { + "description": "Das Mixtral MoE 8x22B Instruct-Modell unterstützt durch seine große Anzahl an Parametern und Multi-Expert-Architektur die effiziente Verarbeitung komplexer Aufgaben." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct": { + "description": "Das Mixtral MoE 8x7B Instruct-Modell bietet durch seine Multi-Expert-Architektur effiziente Anweisungsverfolgung und -ausführung." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct-hf": { + "description": "Das Mixtral MoE 8x7B Instruct-Modell (HF-Version) bietet die gleiche Leistung wie die offizielle Implementierung und eignet sich für verschiedene effiziente Anwendungsszenarien." + }, + "accounts/fireworks/models/mythomax-l2-13b": { + "description": "Das MythoMax L2 13B-Modell kombiniert neuartige Kombinations-Technologien und ist besonders gut in Erzählungen und Rollenspielen." + }, + "accounts/fireworks/models/phi-3-vision-128k-instruct": { + "description": "Das Phi 3 Vision Instruct-Modell ist ein leichtgewichtiges multimodales Modell, das komplexe visuelle und textuelle Informationen verarbeiten kann und über starke Schlussfolgerungsfähigkeiten verfügt." + }, + "accounts/fireworks/models/starcoder-16b": { + "description": "Das StarCoder 15.5B-Modell unterstützt fortgeschrittene Programmieraufgaben und hat verbesserte mehrsprachige Fähigkeiten, die sich für komplexe Codegenerierung und -verständnis eignen." + }, + "accounts/fireworks/models/starcoder-7b": { + "description": "Das StarCoder 7B-Modell wurde für über 80 Programmiersprachen trainiert und bietet hervorragende Programmierausfüllfähigkeiten und Kontextverständnis." + }, + "accounts/yi-01-ai/models/yi-large": { + "description": "Das Yi-Large-Modell bietet hervorragende mehrsprachige Verarbeitungsfähigkeiten und kann für verschiedene Sprachgenerierungs- und Verständnisaufgaben eingesetzt werden." + }, + "anthropic.claude-3-5-sonnet-20240620-v1:0": { + "description": "Claude 3.5 Sonnet hebt den Branchenstandard an, übertrifft die Konkurrenzmodelle und Claude 3 Opus und zeigt in umfassenden Bewertungen hervorragende Leistungen, während es die Geschwindigkeit und Kosten unserer mittleren Modelle beibehält." + }, + "anthropic.claude-3-haiku-20240307-v1:0": { + "description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic und bietet nahezu sofortige Reaktionsgeschwindigkeiten. Es kann schnell einfache Anfragen und Anforderungen beantworten. Kunden werden in der Lage sein, nahtlose AI-Erlebnisse zu schaffen, die menschliche Interaktionen nachahmen. Claude 3 Haiku kann Bilder verarbeiten und Textausgaben zurückgeben, mit einem Kontextfenster von 200K." + }, + "anthropic.claude-3-opus-20240229-v1:0": { + "description": "Claude 3 Opus ist das leistungsstärkste AI-Modell von Anthropic mit fortschrittlicher Leistung bei hochkomplexen Aufgaben. Es kann offene Eingaben und unbekannte Szenarien verarbeiten und zeigt hervorragende Flüssigkeit und menschenähnliches Verständnis. Claude 3 Opus demonstriert die Grenzen der Möglichkeiten generativer AI. Claude 3 Opus kann Bilder verarbeiten und Textausgaben zurückgeben, mit einem Kontextfenster von 200K." + }, + "anthropic.claude-3-sonnet-20240229-v1:0": { + "description": "Anthropic's Claude 3 Sonnet erreicht ein ideales Gleichgewicht zwischen Intelligenz und Geschwindigkeit – besonders geeignet für Unternehmensarbeitslasten. Es bietet maximalen Nutzen zu einem Preis, der unter dem der Konkurrenz liegt, und wurde als zuverlässiges, langlebiges Hauptmodell für skalierbare AI-Implementierungen konzipiert. Claude 3 Sonnet kann Bilder verarbeiten und Textausgaben zurückgeben, mit einem Kontextfenster von 200K." + }, + "anthropic.claude-instant-v1": { + "description": "Ein schnelles, kostengünstiges und dennoch sehr leistungsfähiges Modell, das eine Reihe von Aufgaben bewältigen kann, darunter alltägliche Gespräche, Textanalysen, Zusammenfassungen und Dokumentenfragen." + }, + "anthropic.claude-v2": { + "description": "Anthropic zeigt in einer Vielzahl von Aufgaben, von komplexen Dialogen und kreativer Inhaltserstellung bis hin zu detaillierten Anweisungen, ein hohes Maß an Fähigkeiten." + }, + "anthropic.claude-v2:1": { + "description": "Die aktualisierte Version von Claude 2 bietet ein doppelt so großes Kontextfenster sowie Verbesserungen in der Zuverlässigkeit, der Halluzinationsrate und der evidenzbasierten Genauigkeit in langen Dokumenten und RAG-Kontexten." + }, + "anthropic/claude-3-haiku": { + "description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, das darauf ausgelegt ist, nahezu sofortige Antworten zu liefern. Es bietet schnelle und präzise zielgerichtete Leistungen." + }, + "anthropic/claude-3-opus": { + "description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic zur Bearbeitung hochkomplexer Aufgaben. Es zeichnet sich durch hervorragende Leistung, Intelligenz, Flüssigkeit und Verständnis aus." + }, + "anthropic/claude-3.5-sonnet": { + "description": "Claude 3.5 Sonnet bietet Fähigkeiten, die über Opus hinausgehen, und eine schnellere Geschwindigkeit als Sonnet, während es den gleichen Preis wie Sonnet beibehält. Sonnet ist besonders gut in Programmierung, Datenwissenschaft, visueller Verarbeitung und Agentenaufgaben." + }, + "aya": { + "description": "Aya 23 ist ein mehrsprachiges Modell von Cohere, das 23 Sprachen unterstützt und die Anwendung in einer Vielzahl von Sprachen erleichtert." + }, + "aya:35b": { + "description": "Aya 23 ist ein mehrsprachiges Modell von Cohere, das 23 Sprachen unterstützt und die Anwendung in einer Vielzahl von Sprachen erleichtert." + }, + "charglm-3": { + "description": "CharGLM-3 ist für Rollenspiele und emotionale Begleitung konzipiert und unterstützt extrem lange Mehrfachgedächtnisse und personalisierte Dialoge, mit breiter Anwendung." + }, + "chatgpt-4o-latest": { + "description": "ChatGPT-4o ist ein dynamisches Modell, das in Echtzeit aktualisiert wird, um die neueste Version zu gewährleisten. Es kombiniert starke Sprachverständnis- und Generierungsfähigkeiten und eignet sich für großangelegte Anwendungsszenarien, einschließlich Kundenservice, Bildung und technische Unterstützung." + }, + "claude-2.0": { + "description": "Claude 2 bietet Unternehmen Fortschritte in kritischen Fähigkeiten, einschließlich branchenführenden 200K Token Kontext, erheblich reduzierter Häufigkeit von Modellillusionen, Systemaufforderungen und einer neuen Testfunktion: Werkzeugaufrufe." + }, + "claude-2.1": { + "description": "Claude 2 bietet Unternehmen Fortschritte in kritischen Fähigkeiten, einschließlich branchenführenden 200K Token Kontext, erheblich reduzierter Häufigkeit von Modellillusionen, Systemaufforderungen und einer neuen Testfunktion: Werkzeugaufrufe." + }, + "claude-3-5-sonnet-20240620": { + "description": "Claude 3.5 Sonnet bietet Fähigkeiten, die über Opus hinausgehen, und ist schneller als Sonnet, während es den gleichen Preis wie Sonnet beibehält. Sonnet ist besonders gut in Programmierung, Datenwissenschaft, visueller Verarbeitung und Agenturaufgaben." + }, + "claude-3-haiku-20240307": { + "description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, das darauf abzielt, nahezu sofortige Antworten zu liefern. Es bietet schnelle und präzise zielgerichtete Leistungen." + }, + "claude-3-opus-20240229": { + "description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für die Verarbeitung hochkomplexer Aufgaben. Es bietet herausragende Leistungen in Bezug auf Leistung, Intelligenz, Flüssigkeit und Verständnis." + }, + "claude-3-sonnet-20240229": { + "description": "Claude 3 Sonnet bietet eine ideale Balance zwischen Intelligenz und Geschwindigkeit für Unternehmensarbeitslasten. Es bietet maximalen Nutzen zu einem niedrigeren Preis, ist zuverlässig und für großflächige Bereitstellungen geeignet." + }, + "claude-instant-1.2": { + "description": "Das Modell von Anthropic wird für latenzarme, hochdurchsatzfähige Textgenerierung verwendet und unterstützt die Generierung von Hunderten von Seiten Text." + }, + "codegeex-4": { + "description": "CodeGeeX-4 ist ein leistungsstarker AI-Programmierassistent, der intelligente Fragen und Codevervollständigung in verschiedenen Programmiersprachen unterstützt und die Entwicklungseffizienz steigert." + }, + "codegemma": { + "description": "CodeGemma ist ein leichtgewichtiges Sprachmodell, das speziell für verschiedene Programmieraufgaben entwickelt wurde und schnelle Iterationen und Integrationen unterstützt." + }, + "codegemma:2b": { + "description": "CodeGemma ist ein leichtgewichtiges Sprachmodell, das speziell für verschiedene Programmieraufgaben entwickelt wurde und schnelle Iterationen und Integrationen unterstützt." + }, + "codellama": { + "description": "Code Llama ist ein LLM, das sich auf die Codegenerierung und -diskussion konzentriert und eine breite Unterstützung für Programmiersprachen bietet, die sich für Entwicklerumgebungen eignet." + }, + "codellama:13b": { + "description": "Code Llama ist ein LLM, das sich auf die Codegenerierung und -diskussion konzentriert und eine breite Unterstützung für Programmiersprachen bietet, die sich für Entwicklerumgebungen eignet." + }, + "codellama:34b": { + "description": "Code Llama ist ein LLM, das sich auf die Codegenerierung und -diskussion konzentriert und eine breite Unterstützung für Programmiersprachen bietet, die sich für Entwicklerumgebungen eignet." + }, + "codellama:70b": { + "description": "Code Llama ist ein LLM, das sich auf die Codegenerierung und -diskussion konzentriert und eine breite Unterstützung für Programmiersprachen bietet, die sich für Entwicklerumgebungen eignet." + }, + "codeqwen": { + "description": "CodeQwen1.5 ist ein großes Sprachmodell, das auf einer umfangreichen Code-Datenbasis trainiert wurde und speziell für die Lösung komplexer Programmieraufgaben entwickelt wurde." + }, + "codestral": { + "description": "Codestral ist das erste Code-Modell von Mistral AI und bietet hervorragende Unterstützung für Aufgaben der Codegenerierung." + }, + "codestral-latest": { + "description": "Codestral ist ein hochmodernes Generierungsmodell, das sich auf die Codegenerierung konzentriert und für Aufgaben wie das Ausfüllen von Zwischenräumen und die Codevervollständigung optimiert wurde." + }, + "cognitivecomputations/dolphin-mixtral-8x22b": { + "description": "Dolphin Mixtral 8x22B ist ein Modell, das für die Befolgung von Anweisungen, Dialoge und Programmierung entwickelt wurde." + }, + "command-r": { + "description": "Command R ist ein LLM, das für Dialoge und Aufgaben mit langen Kontexten optimiert ist und sich besonders gut für dynamische Interaktionen und Wissensmanagement eignet." + }, + "command-r-plus": { + "description": "Command R+ ist ein leistungsstarkes großes Sprachmodell, das speziell für reale Unternehmensszenarien und komplexe Anwendungen entwickelt wurde." + }, + "databricks/dbrx-instruct": { + "description": "DBRX Instruct bietet zuverlässige Anweisungsverarbeitungsfähigkeiten und unterstützt Anwendungen in verschiedenen Branchen." + }, + "deepseek-ai/DeepSeek-Coder-V2-Instruct": { + "description": "DeepSeek Coder V2 ist für Programmieraufgaben konzipiert und konzentriert sich auf effiziente Codegenerierung." + }, + "deepseek-ai/DeepSeek-V2-Chat": { + "description": "DeepSeek V2 hat 6,7 Milliarden Parameter und unterstützt die Verarbeitung von englischen und chinesischen Texten." + }, + "deepseek-ai/DeepSeek-V2.5": { + "description": "DeepSeek V2.5 vereint die hervorragenden Merkmale früherer Versionen und verbessert die allgemeinen und kodierenden Fähigkeiten." + }, + "deepseek-ai/deepseek-llm-67b-chat": { + "description": "DeepSeek 67B ist ein fortschrittliches Modell, das für komplexe Dialoge trainiert wurde." + }, + "deepseek-chat": { + "description": "Ein neues Open-Source-Modell, das allgemeine und Codefähigkeiten kombiniert. Es bewahrt nicht nur die allgemeinen Dialogfähigkeiten des ursprünglichen Chat-Modells und die leistungsstarken Codeverarbeitungsfähigkeiten des Coder-Modells, sondern stimmt auch besser mit menschlichen Präferenzen überein. Darüber hinaus hat DeepSeek-V2.5 in mehreren Bereichen wie Schreibaufgaben und Befolgung von Anweisungen erhebliche Verbesserungen erzielt." + }, + "deepseek-coder-v2": { + "description": "DeepSeek Coder V2 ist ein Open-Source-Mischexperten-Code-Modell, das in Codeaufgaben hervorragende Leistungen erbringt und mit GPT4-Turbo vergleichbar ist." + }, + "deepseek-coder-v2:236b": { + "description": "DeepSeek Coder V2 ist ein Open-Source-Mischexperten-Code-Modell, das in Codeaufgaben hervorragende Leistungen erbringt und mit GPT4-Turbo vergleichbar ist." + }, + "deepseek-v2": { + "description": "DeepSeek V2 ist ein effizientes Mixture-of-Experts-Sprachmodell, das für wirtschaftliche Verarbeitungsanforderungen geeignet ist." + }, + "deepseek-v2:236b": { + "description": "DeepSeek V2 236B ist das Design-Code-Modell von DeepSeek und bietet starke Fähigkeiten zur Codegenerierung." + }, + "deepseek/deepseek-chat": { + "description": "Ein neues Open-Source-Modell, das allgemeine und Codefähigkeiten vereint. Es behält nicht nur die allgemeinen Dialogfähigkeiten des ursprünglichen Chat-Modells und die leistungsstarken Codeverarbeitungsfähigkeiten des Coder-Modells bei, sondern stimmt auch besser mit menschlichen Vorlieben überein. Darüber hinaus hat DeepSeek-V2.5 in vielen Bereichen wie Schreibaufgaben und Befehlsbefolgung erhebliche Verbesserungen erzielt." + }, + "emohaa": { + "description": "Emohaa ist ein psychologisches Modell mit professionellen Beratungsfähigkeiten, das den Nutzern hilft, emotionale Probleme zu verstehen." + }, + "gemini-1.0-pro-001": { + "description": "Gemini 1.0 Pro 001 (Tuning) bietet stabile und anpassbare Leistung und ist die ideale Wahl für Lösungen komplexer Aufgaben." + }, + "gemini-1.0-pro-002": { + "description": "Gemini 1.0 Pro 002 (Tuning) bietet hervorragende multimodale Unterstützung und konzentriert sich auf die effektive Lösung komplexer Aufgaben." + }, + "gemini-1.0-pro-latest": { + "description": "Gemini 1.0 Pro ist Googles leistungsstarkes KI-Modell, das für die Skalierung einer Vielzahl von Aufgaben konzipiert ist." + }, + "gemini-1.5-flash-001": { + "description": "Gemini 1.5 Flash 001 ist ein effizientes multimodales Modell, das eine breite Anwendbarkeit unterstützt." + }, + "gemini-1.5-flash-8b-exp-0827": { + "description": "Gemini 1.5 Flash 8B 0827 ist für die Verarbeitung großangelegter Aufgabenszenarien konzipiert und bietet unvergleichliche Verarbeitungsgeschwindigkeit." + }, + "gemini-1.5-flash-exp-0827": { + "description": "Gemini 1.5 Flash 0827 bietet optimierte multimodale Verarbeitungsfähigkeiten, die für verschiedene komplexe Aufgabenszenarien geeignet sind." + }, + "gemini-1.5-flash-latest": { + "description": "Gemini 1.5 Flash ist Googles neuestes multimodales KI-Modell, das über schnelle Verarbeitungsfähigkeiten verfügt und Text-, Bild- und Videoeingaben unterstützt, um eine effiziente Skalierung für verschiedene Aufgaben zu ermöglichen." + }, + "gemini-1.5-pro-001": { + "description": "Gemini 1.5 Pro 001 ist eine skalierbare multimodale KI-Lösung, die eine breite Palette komplexer Aufgaben unterstützt." + }, + "gemini-1.5-pro-exp-0801": { + "description": "Gemini 1.5 Pro 0801 bietet hervorragende multimodale Verarbeitungsfähigkeiten und bringt mehr Flexibilität in die Anwendungsentwicklung." + }, + "gemini-1.5-pro-exp-0827": { + "description": "Gemini 1.5 Pro 0827 kombiniert die neuesten Optimierungstechniken und bietet eine effizientere multimodale Datenverarbeitung." + }, + "gemini-1.5-pro-latest": { + "description": "Gemini 1.5 Pro unterstützt bis zu 2 Millionen Tokens und ist die ideale Wahl für mittelgroße multimodale Modelle, die umfassende Unterstützung für komplexe Aufgaben bieten." + }, + "gemma-7b-it": { + "description": "Gemma 7B eignet sich für die Verarbeitung von mittelgroßen Aufgaben und bietet ein gutes Kosten-Nutzen-Verhältnis." + }, + "gemma2": { + "description": "Gemma 2 ist ein effizientes Modell von Google, das eine Vielzahl von Anwendungsszenarien von kleinen Anwendungen bis hin zu komplexen Datenverarbeitungen abdeckt." + }, + "gemma2-9b-it": { + "description": "Gemma 2 9B ist ein Modell, das für spezifische Aufgaben und die Integration von Werkzeugen optimiert wurde." + }, + "gemma2:27b": { + "description": "Gemma 2 ist ein effizientes Modell von Google, das eine Vielzahl von Anwendungsszenarien von kleinen Anwendungen bis hin zu komplexen Datenverarbeitungen abdeckt." + }, + "gemma2:2b": { + "description": "Gemma 2 ist ein effizientes Modell von Google, das eine Vielzahl von Anwendungsszenarien von kleinen Anwendungen bis hin zu komplexen Datenverarbeitungen abdeckt." + }, + "general": { + "description": "Spark Lite ist ein leichtgewichtiges großes Sprachmodell mit extrem niedriger Latenz und hoher Verarbeitungsfähigkeit, das vollständig kostenlos und offen ist und eine Echtzeitsuchfunktion unterstützt. Seine schnelle Reaktionsfähigkeit macht es in der Inferenzanwendung und Modellanpassung auf Geräten mit geringer Rechenleistung besonders effektiv und bietet den Nutzern ein hervorragendes Kosten-Nutzen-Verhältnis und intelligente Erfahrungen, insbesondere in den Bereichen Wissensabfrage, Inhaltserstellung und Suchszenarien." + }, + "generalv3": { + "description": "Spark Pro ist ein hochleistungsfähiges großes Sprachmodell, das für professionelle Bereiche optimiert ist und sich auf Mathematik, Programmierung, Medizin, Bildung und andere Bereiche konzentriert, und unterstützt die Online-Suche sowie integrierte Plugins für Wetter, Datum usw. Das optimierte Modell zeigt hervorragende Leistungen und hohe Effizienz in komplexen Wissensabfragen, Sprachverständnis und hochrangiger Textgenerierung und ist die ideale Wahl für professionelle Anwendungsszenarien." + }, + "generalv3.5": { + "description": "Spark3.5 Max ist die umfassendste Version, die Online-Suche und zahlreiche integrierte Plugins unterstützt. Ihre umfassend optimierten Kernfähigkeiten sowie die Systemrolleneinstellungen und Funktionsaufrufmöglichkeiten ermöglichen eine außergewöhnliche Leistung in verschiedenen komplexen Anwendungsszenarien." + }, + "glm-4": { + "description": "GLM-4 ist die alte Flaggschiffversion, die im Januar 2024 veröffentlicht wurde und mittlerweile durch das leistungsstärkere GLM-4-0520 ersetzt wurde." + }, + "glm-4-0520": { + "description": "GLM-4-0520 ist die neueste Modellversion, die für hochkomplexe und vielfältige Aufgaben konzipiert wurde und hervorragende Leistungen zeigt." + }, + "glm-4-air": { + "description": "GLM-4-Air ist eine kosteneffiziente Version, die in der Leistung nahe am GLM-4 liegt und schnelle Geschwindigkeiten zu einem erschwinglichen Preis bietet." + }, + "glm-4-airx": { + "description": "GLM-4-AirX bietet eine effiziente Version von GLM-4-Air mit einer Inferenzgeschwindigkeit von bis zu 2,6-fach." + }, + "glm-4-alltools": { + "description": "GLM-4-AllTools ist ein multifunktionales Agentenmodell, das optimiert wurde, um komplexe Anweisungsplanung und Werkzeugaufrufe zu unterstützen, wie z. B. Web-Browsing, Code-Interpretation und Textgenerierung, geeignet für die Ausführung mehrerer Aufgaben." + }, + "glm-4-flash": { + "description": "GLM-4-Flash ist die ideale Wahl für die Verarbeitung einfacher Aufgaben, mit der schnellsten Geschwindigkeit und dem besten Preis." + }, + "glm-4-long": { + "description": "GLM-4-Long unterstützt extrem lange Texteingaben und eignet sich für Gedächtnisaufgaben und die Verarbeitung großer Dokumente." + }, + "glm-4-plus": { + "description": "GLM-4-Plus ist das hochintelligente Flaggschiffmodell mit starken Fähigkeiten zur Verarbeitung langer Texte und komplexer Aufgaben, mit umfassenden Leistungsverbesserungen." + }, + "glm-4v": { + "description": "GLM-4V bietet starke Fähigkeiten zur Bildverständnis und -schlussfolgerung und unterstützt eine Vielzahl visueller Aufgaben." + }, + "glm-4v-plus": { + "description": "GLM-4V-Plus hat die Fähigkeit, Videoinhalte und mehrere Bilder zu verstehen und eignet sich für multimodale Aufgaben." + }, + "google/gemini-flash-1.5-exp": { + "description": "Gemini 1.5 Flash 0827 bietet optimierte multimodale Verarbeitungsfähigkeiten und ist für eine Vielzahl komplexer Aufgaben geeignet." + }, + "google/gemini-pro-1.5-exp": { + "description": "Gemini 1.5 Pro 0827 kombiniert die neuesten Optimierungstechnologien und bietet effizientere multimodale Datenverarbeitungsfähigkeiten." + }, + "google/gemma-2-27b-it": { + "description": "Gemma 2 setzt das Designkonzept von Leichtbau und Effizienz fort." + }, + "google/gemma-2-9b-it": { + "description": "Gemma 2 ist eine leichtgewichtige Open-Source-Textmodellreihe von Google." + }, + "google/gemma-2-9b-it:free": { + "description": "Gemma 2 ist eine leichtgewichtige Open-Source-Textmodellreihe von Google." + }, + "google/gemma-2b-it": { + "description": "Gemma Instruct (2B) bietet grundlegende Anweisungsverarbeitungsfähigkeiten und eignet sich für leichte Anwendungen." + }, + "gpt-3.5-turbo": { + "description": "GPT 3.5 Turbo eignet sich für eine Vielzahl von Textgenerierungs- und Verständnisaufgaben. Derzeit verweist es auf gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-0125": { + "description": "GPT 3.5 Turbo eignet sich für eine Vielzahl von Textgenerierungs- und Verständnisaufgaben. Derzeit verweist es auf gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-1106": { + "description": "GPT 3.5 Turbo eignet sich für eine Vielzahl von Textgenerierungs- und Verständnisaufgaben. Derzeit verweist es auf gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-instruct": { + "description": "GPT 3.5 Turbo eignet sich für eine Vielzahl von Textgenerierungs- und Verständnisaufgaben. Derzeit verweist es auf gpt-3.5-turbo-0125." + }, + "gpt-4": { + "description": "GPT-4 bietet ein größeres Kontextfenster, das in der Lage ist, längere Texteingaben zu verarbeiten, und eignet sich für Szenarien, die eine umfassende Informationsintegration und Datenanalyse erfordern." + }, + "gpt-4-0125-preview": { + "description": "Das neueste GPT-4 Turbo-Modell verfügt über visuelle Funktionen. Jetzt können visuelle Anfragen im JSON-Format und durch Funktionsaufrufe gestellt werden. GPT-4 Turbo ist eine verbesserte Version, die kosteneffiziente Unterstützung für multimodale Aufgaben bietet. Es findet ein Gleichgewicht zwischen Genauigkeit und Effizienz und eignet sich für Anwendungen, die Echtzeitanpassungen erfordern." + }, + "gpt-4-0613": { + "description": "GPT-4 bietet ein größeres Kontextfenster, das in der Lage ist, längere Texteingaben zu verarbeiten, und eignet sich für Szenarien, die eine umfassende Informationsintegration und Datenanalyse erfordern." + }, + "gpt-4-1106-preview": { + "description": "Das neueste GPT-4 Turbo-Modell verfügt über visuelle Funktionen. Jetzt können visuelle Anfragen im JSON-Format und durch Funktionsaufrufe gestellt werden. GPT-4 Turbo ist eine verbesserte Version, die kosteneffiziente Unterstützung für multimodale Aufgaben bietet. Es findet ein Gleichgewicht zwischen Genauigkeit und Effizienz und eignet sich für Anwendungen, die Echtzeitanpassungen erfordern." + }, + "gpt-4-1106-vision-preview": { + "description": "Das neueste GPT-4 Turbo-Modell verfügt über visuelle Funktionen. Jetzt können visuelle Anfragen im JSON-Format und durch Funktionsaufrufe gestellt werden. GPT-4 Turbo ist eine verbesserte Version, die kosteneffiziente Unterstützung für multimodale Aufgaben bietet. Es findet ein Gleichgewicht zwischen Genauigkeit und Effizienz und eignet sich für Anwendungen, die Echtzeitanpassungen erfordern." + }, + "gpt-4-32k": { + "description": "GPT-4 bietet ein größeres Kontextfenster, das in der Lage ist, längere Texteingaben zu verarbeiten, und eignet sich für Szenarien, die eine umfassende Informationsintegration und Datenanalyse erfordern." + }, + "gpt-4-32k-0613": { + "description": "GPT-4 bietet ein größeres Kontextfenster, das in der Lage ist, längere Texteingaben zu verarbeiten, und eignet sich für Szenarien, die eine umfassende Informationsintegration und Datenanalyse erfordern." + }, + "gpt-4-turbo": { + "description": "Das neueste GPT-4 Turbo-Modell verfügt über visuelle Funktionen. Jetzt können visuelle Anfragen im JSON-Format und durch Funktionsaufrufe gestellt werden. GPT-4 Turbo ist eine verbesserte Version, die kosteneffiziente Unterstützung für multimodale Aufgaben bietet. Es findet ein Gleichgewicht zwischen Genauigkeit und Effizienz und eignet sich für Anwendungen, die Echtzeitanpassungen erfordern." + }, + "gpt-4-turbo-2024-04-09": { + "description": "Das neueste GPT-4 Turbo-Modell verfügt über visuelle Funktionen. Jetzt können visuelle Anfragen im JSON-Format und durch Funktionsaufrufe gestellt werden. GPT-4 Turbo ist eine verbesserte Version, die kosteneffiziente Unterstützung für multimodale Aufgaben bietet. Es findet ein Gleichgewicht zwischen Genauigkeit und Effizienz und eignet sich für Anwendungen, die Echtzeitanpassungen erfordern." + }, + "gpt-4-turbo-preview": { + "description": "Das neueste GPT-4 Turbo-Modell verfügt über visuelle Funktionen. Jetzt können visuelle Anfragen im JSON-Format und durch Funktionsaufrufe gestellt werden. GPT-4 Turbo ist eine verbesserte Version, die kosteneffiziente Unterstützung für multimodale Aufgaben bietet. Es findet ein Gleichgewicht zwischen Genauigkeit und Effizienz und eignet sich für Anwendungen, die Echtzeitanpassungen erfordern." + }, + "gpt-4-vision-preview": { + "description": "Das neueste GPT-4 Turbo-Modell verfügt über visuelle Funktionen. Jetzt können visuelle Anfragen im JSON-Format und durch Funktionsaufrufe gestellt werden. GPT-4 Turbo ist eine verbesserte Version, die kosteneffiziente Unterstützung für multimodale Aufgaben bietet. Es findet ein Gleichgewicht zwischen Genauigkeit und Effizienz und eignet sich für Anwendungen, die Echtzeitanpassungen erfordern." + }, + "gpt-4o": { + "description": "ChatGPT-4o ist ein dynamisches Modell, das in Echtzeit aktualisiert wird, um die neueste Version zu gewährleisten. Es kombiniert starke Sprachverständnis- und Generierungsfähigkeiten und eignet sich für großangelegte Anwendungsszenarien, einschließlich Kundenservice, Bildung und technische Unterstützung." + }, + "gpt-4o-2024-05-13": { + "description": "ChatGPT-4o ist ein dynamisches Modell, das in Echtzeit aktualisiert wird, um die neueste Version zu gewährleisten. Es kombiniert starke Sprachverständnis- und Generierungsfähigkeiten und eignet sich für großangelegte Anwendungsszenarien, einschließlich Kundenservice, Bildung und technische Unterstützung." + }, + "gpt-4o-2024-08-06": { + "description": "ChatGPT-4o ist ein dynamisches Modell, das in Echtzeit aktualisiert wird, um die neueste Version zu gewährleisten. Es kombiniert starke Sprachverständnis- und Generierungsfähigkeiten und eignet sich für großangelegte Anwendungsszenarien, einschließlich Kundenservice, Bildung und technische Unterstützung." + }, + "gpt-4o-mini": { + "description": "GPT-4o mini ist das neueste Modell von OpenAI, das nach GPT-4 Omni veröffentlicht wurde und sowohl Text- als auch Bildinput unterstützt. Als ihr fortschrittlichstes kleines Modell ist es viel günstiger als andere neueste Modelle und kostet über 60 % weniger als GPT-3.5 Turbo. Es behält die fortschrittliche Intelligenz bei und bietet gleichzeitig ein hervorragendes Preis-Leistungs-Verhältnis. GPT-4o mini erzielte 82 % im MMLU-Test und rangiert derzeit in den Chat-Präferenzen über GPT-4." + }, + "gryphe/mythomax-l2-13b": { + "description": "MythoMax l2 13B ist ein Sprachmodell, das Kreativität und Intelligenz kombiniert und mehrere führende Modelle integriert." + }, + "internlm/internlm2_5-20b-chat": { + "description": "Das innovative Open-Source-Modell InternLM2.5 hat durch eine große Anzahl von Parametern die Dialogintelligenz erhöht." + }, + "internlm/internlm2_5-7b-chat": { + "description": "InternLM2.5 bietet intelligente Dialoglösungen in mehreren Szenarien." + }, + "llama-3.1-70b-instruct": { + "description": "Das Llama 3.1 70B Instruct-Modell hat 70B Parameter und bietet herausragende Leistungen bei der Generierung großer Texte und Anweisungsaufgaben." + }, + "llama-3.1-70b-versatile": { + "description": "Llama 3.1 70B bietet leistungsstarke KI-Schlussfolgerungsfähigkeiten, die für komplexe Anwendungen geeignet sind und eine hohe Rechenverarbeitung bei gleichzeitiger Effizienz und Genauigkeit unterstützen." + }, + "llama-3.1-8b-instant": { + "description": "Llama 3.1 8B ist ein leistungsstarkes Modell, das schnelle Textgenerierungsfähigkeiten bietet und sich hervorragend für Anwendungen eignet, die große Effizienz und Kosteneffektivität erfordern." + }, + "llama-3.1-8b-instruct": { + "description": "Das Llama 3.1 8B Instruct-Modell hat 8B Parameter und unterstützt die effiziente Ausführung von bildbasierten Anweisungsaufgaben und bietet hochwertige Textgenerierungsfähigkeiten." + }, + "llama-3.1-sonar-huge-128k-online": { + "description": "Das Llama 3.1 Sonar Huge Online-Modell hat 405B Parameter und unterstützt eine Kontextlänge von etwa 127.000 Markierungen, es wurde für komplexe Online-Chat-Anwendungen entwickelt." + }, + "llama-3.1-sonar-large-128k-chat": { + "description": "Das Llama 3.1 Sonar Large Chat-Modell hat 70B Parameter und unterstützt eine Kontextlänge von etwa 127.000 Markierungen, es eignet sich für komplexe Offline-Chat-Aufgaben." + }, + "llama-3.1-sonar-large-128k-online": { + "description": "Das Llama 3.1 Sonar Large Online-Modell hat 70B Parameter und unterstützt eine Kontextlänge von etwa 127.000 Markierungen, es eignet sich für hochvolumige und vielfältige Chat-Aufgaben." + }, + "llama-3.1-sonar-small-128k-chat": { + "description": "Das Llama 3.1 Sonar Small Chat-Modell hat 8B Parameter und wurde speziell für Offline-Chat entwickelt, es unterstützt eine Kontextlänge von etwa 127.000 Markierungen." + }, + "llama-3.1-sonar-small-128k-online": { + "description": "Das Llama 3.1 Sonar Small Online-Modell hat 8B Parameter und unterstützt eine Kontextlänge von etwa 127.000 Markierungen, es wurde speziell für Online-Chat entwickelt und kann verschiedene Textinteraktionen effizient verarbeiten." + }, + "llama3-70b-8192": { + "description": "Meta Llama 3 70B bietet unvergleichliche Fähigkeiten zur Verarbeitung von Komplexität und ist maßgeschneidert für Projekte mit hohen Anforderungen." + }, + "llama3-8b-8192": { + "description": "Meta Llama 3 8B bietet hervorragende Schlussfolgerungsfähigkeiten und eignet sich für eine Vielzahl von Anwendungsanforderungen." + }, + "llama3-groq-70b-8192-tool-use-preview": { + "description": "Llama 3 Groq 70B Tool Use bietet leistungsstarke Werkzeugaufruf-Fähigkeiten und unterstützt die effiziente Verarbeitung komplexer Aufgaben." + }, + "llama3-groq-8b-8192-tool-use-preview": { + "description": "Llama 3 Groq 8B Tool Use ist ein Modell, das für die effiziente Nutzung von Werkzeugen optimiert ist und schnelle parallele Berechnungen unterstützt." + }, + "llama3.1": { + "description": "Llama 3.1 ist ein führendes Modell von Meta, das bis zu 405B Parameter unterstützt und in den Bereichen komplexe Dialoge, mehrsprachige Übersetzungen und Datenanalysen eingesetzt werden kann." + }, + "llama3.1:405b": { + "description": "Llama 3.1 ist ein führendes Modell von Meta, das bis zu 405B Parameter unterstützt und in den Bereichen komplexe Dialoge, mehrsprachige Übersetzungen und Datenanalysen eingesetzt werden kann." + }, + "llama3.1:70b": { + "description": "Llama 3.1 ist ein führendes Modell von Meta, das bis zu 405B Parameter unterstützt und in den Bereichen komplexe Dialoge, mehrsprachige Übersetzungen und Datenanalysen eingesetzt werden kann." + }, + "llava": { + "description": "LLaVA ist ein multimodales Modell, das visuelle Encoder und Vicuna kombiniert und für starke visuelle und sprachliche Verständnisse sorgt." + }, + "llava-v1.5-7b-4096-preview": { + "description": "LLaVA 1.5 7B bietet integrierte visuelle Verarbeitungsfähigkeiten, um komplexe Ausgaben aus visuellen Informationen zu generieren." + }, + "llava:13b": { + "description": "LLaVA ist ein multimodales Modell, das visuelle Encoder und Vicuna kombiniert und für starke visuelle und sprachliche Verständnisse sorgt." + }, + "llava:34b": { + "description": "LLaVA ist ein multimodales Modell, das visuelle Encoder und Vicuna kombiniert und für starke visuelle und sprachliche Verständnisse sorgt." + }, + "mathstral": { + "description": "MathΣtral ist für wissenschaftliche Forschung und mathematische Schlussfolgerungen konzipiert und bietet effektive Rechenfähigkeiten und Ergebnisinterpretationen." + }, + "meta-llama/Llama-2-13b-chat-hf": { + "description": "LLaMA-2 Chat (13B) bietet hervorragende Sprachverarbeitungsfähigkeiten und ein ausgezeichnetes Interaktionserlebnis." + }, + "meta-llama/Llama-3-70b-chat-hf": { + "description": "LLaMA-3 Chat (70B) ist ein leistungsstarkes Chat-Modell, das komplexe Dialoganforderungen unterstützt." + }, + "meta-llama/Llama-3-8b-chat-hf": { + "description": "LLaMA-3 Chat (8B) bietet mehrsprachige Unterstützung und deckt ein breites Spektrum an Fachwissen ab." + }, + "meta-llama/Meta-Llama-3-70B-Instruct": { + "description": "LLaMA 3 unterstützt die Generierung großer Textmengen und die Analyse von Anweisungen." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { + "description": "Llama 3 70B Instruct Lite ist für Umgebungen geeignet, die hohe Leistung und niedrige Latenz erfordern." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": { + "description": "Llama 3 70B Instruct Turbo bietet hervorragende Sprachverständnis- und Generierungsfähigkeiten und eignet sich für die anspruchsvollsten Rechenaufgaben." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Lite": { + "description": "Llama 3 8B Instruct Lite ist für ressourcenbeschränkte Umgebungen geeignet und bietet eine hervorragende Balance zwischen Leistung und Effizienz." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": { + "description": "Llama 3 8B Instruct Turbo ist ein leistungsstarkes großes Sprachmodell, das eine breite Palette von Anwendungsszenarien unterstützt." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct": { + "description": "LLaMA 3.1 405B ist ein leistungsstarkes Modell für Vortraining und Anweisungsanpassung." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": { + "description": "Das 405B Llama 3.1 Turbo-Modell bietet eine enorme Kapazität zur Unterstützung von Kontexten für die Verarbeitung großer Datenmengen und zeigt herausragende Leistungen in groß angelegten KI-Anwendungen." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct": { + "description": "LLaMA 3.1 70B bietet effiziente Dialogunterstützung in mehreren Sprachen." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": { + "description": "Das Llama 3.1 70B-Modell wurde feinabgestimmt und eignet sich für hochbelastete Anwendungen, die auf FP8 quantisiert wurden, um eine effizientere Rechenleistung und Genauigkeit zu bieten und in komplexen Szenarien hervorragende Leistungen zu gewährleisten." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct": { + "description": "LLaMA 3.1 bietet Unterstützung für mehrere Sprachen und ist eines der führenden Generierungsmodelle der Branche." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": { + "description": "Das Llama 3.1 8B-Modell verwendet FP8-Quantisierung und unterstützt bis zu 131.072 Kontextmarkierungen, es ist eines der besten Open-Source-Modelle, das sich für komplexe Aufgaben eignet und in vielen Branchenbenchmarks übertrifft." + }, + "meta-llama/llama-3-70b-instruct": { + "description": "Llama 3 70B Instruct ist optimiert für qualitativ hochwertige Dialogszenarien und zeigt hervorragende Leistungen in verschiedenen menschlichen Bewertungen." + }, + "meta-llama/llama-3-8b-instruct": { + "description": "Llama 3 8B Instruct optimiert qualitativ hochwertige Dialogszenarien und bietet bessere Leistungen als viele geschlossene Modelle." + }, + "meta-llama/llama-3.1-405b-instruct": { + "description": "Llama 3.1 405B Instruct ist die neueste Version von Meta, optimiert zur Generierung qualitativ hochwertiger Dialoge und übertrifft viele führende geschlossene Modelle." + }, + "meta-llama/llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct ist speziell für qualitativ hochwertige Dialoge konzipiert und zeigt herausragende Leistungen in menschlichen Bewertungen, besonders geeignet für hochinteraktive Szenarien." + }, + "meta-llama/llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct ist die neueste Version von Meta, optimiert für qualitativ hochwertige Dialogszenarien und übertrifft viele führende geschlossene Modelle." + }, + "meta-llama/llama-3.1-8b-instruct:free": { + "description": "LLaMA 3.1 bietet Unterstützung für mehrere Sprachen und gehört zu den führenden generativen Modellen der Branche." + }, + "meta.llama3-1-405b-instruct-v1:0": { + "description": "Meta Llama 3.1 405B Instruct ist das größte und leistungsstärkste Modell innerhalb des Llama 3.1 Instruct Modells. Es handelt sich um ein hochentwickeltes Modell für dialogbasierte Schlussfolgerungen und die Generierung synthetischer Daten, das auch als Grundlage für die professionelle kontinuierliche Vorab- und Feinabstimmung in bestimmten Bereichen verwendet werden kann. Die mehrsprachigen großen Sprachmodelle (LLMs) von Llama 3.1 sind eine Gruppe von vortrainierten, anweisungsoptimierten Generierungsmodellen, die in den Größen 8B, 70B und 405B (Text-Eingabe/Ausgabe) verfügbar sind. Die anweisungsoptimierten Textmodelle (8B, 70B, 405B) sind speziell für mehrsprachige Dialoganwendungen optimiert und haben in gängigen Branchenbenchmarks viele verfügbare Open-Source-Chat-Modelle übertroffen. Llama 3.1 ist für kommerzielle und Forschungszwecke in mehreren Sprachen konzipiert. Die anweisungsoptimierten Textmodelle eignen sich für assistentengleiche Chats, während die vortrainierten Modelle für verschiedene Aufgaben der natürlichen Sprachgenerierung angepasst werden können. Das Llama 3.1 Modell unterstützt auch die Nutzung seiner Ausgaben zur Verbesserung anderer Modelle, einschließlich der Generierung synthetischer Daten und der Verfeinerung. Llama 3.1 ist ein autoregressives Sprachmodell, das auf einer optimierten Transformer-Architektur basiert. Die angepasste Version verwendet überwachte Feinabstimmung (SFT) und verstärkendes Lernen mit menschlichem Feedback (RLHF), um den menschlichen Präferenzen für Hilfsbereitschaft und Sicherheit zu entsprechen." + }, + "meta.llama3-1-70b-instruct-v1:0": { + "description": "Die aktualisierte Version von Meta Llama 3.1 70B Instruct umfasst eine erweiterte Kontextlänge von 128K, Mehrsprachigkeit und verbesserte Schlussfolgerungsfähigkeiten. Die von Llama 3.1 bereitgestellten mehrsprachigen großen Sprachmodelle (LLMs) sind eine Gruppe von vortrainierten, anweisungsoptimierten Generierungsmodellen, einschließlich Größen von 8B, 70B und 405B (Textinput/-output). Die anweisungsoptimierten Textmodelle (8B, 70B, 405B) sind für mehrsprachige Dialoganwendungen optimiert und übertreffen viele verfügbare Open-Source-Chat-Modelle in gängigen Branchenbenchmarks. Llama 3.1 ist für kommerzielle und Forschungszwecke in mehreren Sprachen konzipiert. Die anweisungsoptimierten Textmodelle eignen sich für assistentengleiche Chats, während die vortrainierten Modelle für eine Vielzahl von Aufgaben der natürlichen Sprachgenerierung angepasst werden können. Llama 3.1-Modelle unterstützen auch die Nutzung ihrer Ausgaben zur Verbesserung anderer Modelle, einschließlich der Generierung synthetischer Daten und der Verfeinerung. Llama 3.1 ist ein autoregressives Sprachmodell, das mit einer optimierten Transformer-Architektur entwickelt wurde. Die angepassten Versionen verwenden überwachte Feinabstimmung (SFT) und verstärkendes Lernen mit menschlichem Feedback (RLHF), um den menschlichen Präferenzen für Hilfsbereitschaft und Sicherheit zu entsprechen." + }, + "meta.llama3-1-8b-instruct-v1:0": { + "description": "Die aktualisierte Version von Meta Llama 3.1 8B Instruct umfasst eine erweiterte Kontextlänge von 128K, Mehrsprachigkeit und verbesserte Schlussfolgerungsfähigkeiten. Die von Llama 3.1 bereitgestellten mehrsprachigen großen Sprachmodelle (LLMs) sind eine Gruppe von vortrainierten, anweisungsoptimierten Generierungsmodellen, einschließlich Größen von 8B, 70B und 405B (Textinput/-output). Die anweisungsoptimierten Textmodelle (8B, 70B, 405B) sind für mehrsprachige Dialoganwendungen optimiert und übertreffen viele verfügbare Open-Source-Chat-Modelle in gängigen Branchenbenchmarks. Llama 3.1 ist für kommerzielle und Forschungszwecke in mehreren Sprachen konzipiert. Die anweisungsoptimierten Textmodelle eignen sich für assistentengleiche Chats, während die vortrainierten Modelle für eine Vielzahl von Aufgaben der natürlichen Sprachgenerierung angepasst werden können. Llama 3.1-Modelle unterstützen auch die Nutzung ihrer Ausgaben zur Verbesserung anderer Modelle, einschließlich der Generierung synthetischer Daten und der Verfeinerung. Llama 3.1 ist ein autoregressives Sprachmodell, das mit einer optimierten Transformer-Architektur entwickelt wurde. Die angepassten Versionen verwenden überwachte Feinabstimmung (SFT) und verstärkendes Lernen mit menschlichem Feedback (RLHF), um den menschlichen Präferenzen für Hilfsbereitschaft und Sicherheit zu entsprechen." + }, + "meta.llama3-70b-instruct-v1:0": { + "description": "Meta Llama 3 ist ein offenes großes Sprachmodell (LLM), das sich an Entwickler, Forscher und Unternehmen richtet und ihnen hilft, ihre Ideen für generative KI zu entwickeln, zu experimentieren und verantwortungsbewusst zu skalieren. Als Teil eines globalen Innovationssystems ist es besonders geeignet für die Erstellung von Inhalten, Dialog-KI, Sprachverständnis, Forschung und Unternehmensanwendungen." + }, + "meta.llama3-8b-instruct-v1:0": { + "description": "Meta Llama 3 ist ein offenes großes Sprachmodell (LLM), das sich an Entwickler, Forscher und Unternehmen richtet und ihnen hilft, ihre Ideen für generative KI zu entwickeln, zu experimentieren und verantwortungsbewusst zu skalieren. Als Teil eines globalen Innovationssystems ist es besonders geeignet für Umgebungen mit begrenzter Rechenleistung und Ressourcen, für Edge-Geräte und schnellere Trainingszeiten." + }, + "microsoft/wizardlm 2-7b": { + "description": "WizardLM 2 7B ist das neueste schnelle und leichte Modell von Microsoft AI, dessen Leistung fast zehnmal so hoch ist wie die bestehender führender Open-Source-Modelle." + }, + "microsoft/wizardlm-2-8x22b": { + "description": "WizardLM-2 8x22B ist das fortschrittlichste Wizard-Modell von Microsoft AI und zeigt äußerst wettbewerbsfähige Leistungen." + }, + "minicpm-v": { + "description": "MiniCPM-V ist das neue multimodale Großmodell von OpenBMB, das über hervorragende OCR-Erkennungs- und multimodale Verständnisfähigkeiten verfügt und eine Vielzahl von Anwendungsszenarien unterstützt." + }, + "mistral": { + "description": "Mistral ist ein 7B-Modell von Mistral AI, das sich für vielfältige Anforderungen an die Sprachverarbeitung eignet." + }, + "mistral-large": { + "description": "Mixtral Large ist das Flaggschiff-Modell von Mistral, das die Fähigkeiten zur Codegenerierung, Mathematik und Schlussfolgerungen kombiniert und ein Kontextfenster von 128k unterstützt." + }, + "mistral-large-latest": { + "description": "Mistral Large ist das Flaggschiff-Modell, das sich gut für mehrsprachige Aufgaben, komplexe Schlussfolgerungen und Codegenerierung eignet und die ideale Wahl für hochentwickelte Anwendungen ist." + }, + "mistral-nemo": { + "description": "Mistral Nemo wurde in Zusammenarbeit mit Mistral AI und NVIDIA entwickelt und ist ein leistungsstarkes 12B-Modell." + }, + "mistralai/Mistral-7B-Instruct-v0.1": { + "description": "Mistral (7B) Instruct ist bekannt für seine hohe Leistung und eignet sich für eine Vielzahl von Sprachaufgaben." + }, + "mistralai/Mistral-7B-Instruct-v0.2": { + "description": "Mistral 7B ist ein nach Bedarf feinabgestimmtes Modell, das optimierte Antworten auf Aufgaben bietet." + }, + "mistralai/Mistral-7B-Instruct-v0.3": { + "description": "Mistral (7B) Instruct v0.3 bietet effiziente Rechenleistung und natürliche Sprachverständnisfähigkeiten und eignet sich für eine Vielzahl von Anwendungen." + }, + "mistralai/Mixtral-8x22B-Instruct-v0.1": { + "description": "Mixtral-8x22B Instruct (141B) ist ein super großes Sprachmodell, das extrem hohe Verarbeitungsanforderungen unterstützt." + }, + "mistralai/Mixtral-8x7B-Instruct-v0.1": { + "description": "Mixtral 8x7B ist ein vortrainiertes sparsames Mischmodell, das für allgemeine Textaufgaben verwendet wird." + }, + "mistralai/mistral-7b-instruct": { + "description": "Mistral 7B Instruct ist ein hochleistungsfähiges Branchenstandardmodell mit Geschwindigkeitsoptimierung und Unterstützung für lange Kontexte." + }, + "mistralai/mistral-nemo": { + "description": "Mistral Nemo ist ein 7,3B-Parameter-Modell mit Unterstützung für mehrere Sprachen und hoher Programmierleistung." + }, + "mixtral": { + "description": "Mixtral ist das Expertenmodell von Mistral AI, das über Open-Source-Gewichte verfügt und Unterstützung bei der Codegenerierung und Sprachverständnis bietet." + }, + "mixtral-8x7b-32768": { + "description": "Mixtral 8x7B bietet hochgradig fehlertolerante parallele Berechnungsfähigkeiten und eignet sich für komplexe Aufgaben." + }, + "mixtral:8x22b": { + "description": "Mixtral ist das Expertenmodell von Mistral AI, das über Open-Source-Gewichte verfügt und Unterstützung bei der Codegenerierung und Sprachverständnis bietet." + }, + "moonshot-v1-128k": { + "description": "Moonshot V1 128K ist ein Modell mit überragenden Fähigkeiten zur Verarbeitung von langen Kontexten, das für die Generierung von sehr langen Texten geeignet ist und die Anforderungen komplexer Generierungsaufgaben erfüllt. Es kann Inhalte mit bis zu 128.000 Tokens verarbeiten und eignet sich hervorragend für Anwendungen in der Forschung, Wissenschaft und der Erstellung großer Dokumente." + }, + "moonshot-v1-32k": { + "description": "Moonshot V1 32K bietet die Fähigkeit zur Verarbeitung von mittellangen Kontexten und kann 32.768 Tokens verarbeiten, was es besonders geeignet für die Generierung verschiedener langer Dokumente und komplexer Dialoge macht, die in den Bereichen Inhaltserstellung, Berichtsgenerierung und Dialogsysteme eingesetzt werden." + }, + "moonshot-v1-8k": { + "description": "Moonshot V1 8K ist für die Generierung von Kurztextaufgaben konzipiert und bietet eine effiziente Verarbeitungsleistung, die 8.192 Tokens verarbeiten kann. Es eignet sich hervorragend für kurze Dialoge, Notizen und schnelle Inhaltserstellung." + }, + "nousresearch/hermes-2-pro-llama-3-8b": { + "description": "Hermes 2 Pro Llama 3 8B ist die aktualisierte Version von Nous Hermes 2 und enthält die neuesten intern entwickelten Datensätze." + }, + "o1-mini": { + "description": "o1-mini ist ein schnelles und kosteneffizientes Inferenzmodell, das für Programmier-, Mathematik- und Wissenschaftsanwendungen entwickelt wurde. Das Modell hat einen Kontext von 128K und einen Wissensstand bis Oktober 2023." + }, + "o1-preview": { + "description": "o1 ist OpenAIs neues Inferenzmodell, das für komplexe Aufgaben geeignet ist, die umfangreiches Allgemeinwissen erfordern. Das Modell hat einen Kontext von 128K und einen Wissensstand bis Oktober 2023." + }, + "open-codestral-mamba": { + "description": "Codestral Mamba ist ein auf die Codegenerierung spezialisiertes Mamba 2-Sprachmodell, das starke Unterstützung für fortschrittliche Code- und Schlussfolgerungsaufgaben bietet." + }, + "open-mistral-7b": { + "description": "Mistral 7B ist ein kompaktes, aber leistungsstarkes Modell, das sich gut für Batch-Verarbeitung und einfache Aufgaben wie Klassifizierung und Textgenerierung eignet und über gute Schlussfolgerungsfähigkeiten verfügt." + }, + "open-mistral-nemo": { + "description": "Mistral Nemo ist ein 12B-Modell, das in Zusammenarbeit mit Nvidia entwickelt wurde und hervorragende Schlussfolgerungs- und Codierungsfähigkeiten bietet, die leicht zu integrieren und zu ersetzen sind." + }, + "open-mixtral-8x22b": { + "description": "Mixtral 8x22B ist ein größeres Expertenmodell, das sich auf komplexe Aufgaben konzentriert und hervorragende Schlussfolgerungsfähigkeiten sowie eine höhere Durchsatzrate bietet." + }, + "open-mixtral-8x7b": { + "description": "Mixtral 8x7B ist ein spärliches Expertenmodell, das mehrere Parameter nutzt, um die Schlussfolgerungsgeschwindigkeit zu erhöhen und sich für die Verarbeitung mehrsprachiger und Codegenerierungsaufgaben eignet." + }, + "openai/gpt-4o-2024-08-06": { + "description": "ChatGPT-4o ist ein dynamisches Modell, das in Echtzeit aktualisiert wird, um die neueste Version zu gewährleisten. Es kombiniert starke Sprachverständnis- und Generierungsfähigkeiten und eignet sich für großangelegte Anwendungsszenarien, einschließlich Kundenservice, Bildung und technische Unterstützung." + }, + "openai/gpt-4o-mini": { + "description": "GPT-4o mini ist das neueste Modell von OpenAI, das nach GPT-4 Omni veröffentlicht wurde und Text- und Bild-Eingaben unterstützt. Als ihr fortschrittlichstes kleines Modell ist es viel günstiger als andere neueste Modelle und über 60 % günstiger als GPT-3.5 Turbo. Es behält die fortschrittlichste Intelligenz bei und bietet gleichzeitig ein hervorragendes Preis-Leistungs-Verhältnis. GPT-4o mini erzielte 82 % im MMLU-Test und rangiert derzeit in den Chat-Präferenzen über GPT-4." + }, + "openai/o1-mini": { + "description": "o1-mini ist ein schnelles und kosteneffizientes Inferenzmodell, das für Programmier-, Mathematik- und Wissenschaftsanwendungen entwickelt wurde. Das Modell hat einen Kontext von 128K und einen Wissensstand bis Oktober 2023." + }, + "openai/o1-preview": { + "description": "o1 ist OpenAIs neues Inferenzmodell, das für komplexe Aufgaben geeignet ist, die umfangreiches Allgemeinwissen erfordern. Das Modell hat einen Kontext von 128K und einen Wissensstand bis Oktober 2023." + }, + "openchat/openchat-7b": { + "description": "OpenChat 7B ist eine Open-Source-Sprachmodellbibliothek, die mit der Strategie „C-RLFT (Conditional Reinforcement Learning Fine-Tuning)“ optimiert wurde." + }, + "openrouter/auto": { + "description": "Je nach Kontextlänge, Thema und Komplexität wird Ihre Anfrage an Llama 3 70B Instruct, Claude 3.5 Sonnet (selbstregulierend) oder GPT-4o gesendet." + }, + "phi3": { + "description": "Phi-3 ist ein leichtgewichtiges offenes Modell von Microsoft, das für effiziente Integration und großangelegte Wissensschlüsse geeignet ist." + }, + "phi3:14b": { + "description": "Phi-3 ist ein leichtgewichtiges offenes Modell von Microsoft, das für effiziente Integration und großangelegte Wissensschlüsse geeignet ist." + }, + "qwen-long": { + "description": "Qwen ist ein groß angelegtes Sprachmodell, das lange Textkontexte unterstützt und Dialogfunktionen für verschiedene Szenarien wie lange Dokumente und mehrere Dokumente bietet." + }, + "qwen-max": { + "description": "Qwen ist ein groß angelegtes Sprachmodell mit Billionen von Parametern, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt. Es ist das API-Modell hinter der aktuellen Version 2.5 von Qwen." + }, + "qwen-max-longcontext": { + "description": "Qwen ist ein groß angelegtes Sprachmodell mit Billionen von Parametern, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt und das Kontextfenster erweitert hat." + }, + "qwen-plus": { + "description": "Qwen ist eine verbesserte Version des groß angelegten Sprachmodells, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt." + }, + "qwen-turbo": { + "description": "Qwen ist ein groß angelegtes Sprachmodell, das Eingaben in verschiedenen Sprachen wie Chinesisch und Englisch unterstützt." + }, + "qwen-vl-chat-v1": { + "description": "Qwen VL unterstützt flexible Interaktionsmethoden, einschließlich Mehrbild-, Mehrfachfragen und kreativen Fähigkeiten." + }, + "qwen-vl-max": { + "description": "Qwen ist ein groß angelegtes visuelles Sprachmodell. Im Vergleich zur verbesserten Version hat es die visuelle Schlussfolgerungsfähigkeit und die Befolgung von Anweisungen weiter verbessert und bietet ein höheres Maß an visueller Wahrnehmung und Kognition." + }, + "qwen-vl-plus": { + "description": "Qwen ist eine verbesserte Version des groß angelegten visuellen Sprachmodells. Es verbessert erheblich die Fähigkeit zur Detailerkennung und Texterkennung und unterstützt Bilder mit über einer Million Pixeln und beliebigen Seitenverhältnissen." + }, + "qwen-vl-v1": { + "description": "Initiiert mit dem Qwen-7B-Sprachmodell, fügt es ein Bildmodell hinzu, das für Bildeingaben mit einer Auflösung von 448 vortrainiert wurde." + }, + "qwen/qwen-2-7b-instruct:free": { + "description": "Qwen2 ist eine neue Serie großer Sprachmodelle mit stärkeren Verständnis- und Generierungsfähigkeiten." + }, + "qwen2": { + "description": "Qwen2 ist das neue große Sprachmodell von Alibaba, das mit hervorragender Leistung eine Vielzahl von Anwendungsanforderungen unterstützt." + }, + "qwen2-57b-a14b-instruct": { + "description": "Qwen2 ist ein 57B-Modell mit 14B aktivierten Parametern, das von Qwen2 öffentlich zugänglich gemacht wurde." + }, + "qwen2-72b-instruct": { + "description": "Qwen2 ist ein 72B-Modell, das von Qwen2 öffentlich zugänglich gemacht wurde." + }, + "qwen2-7b-instruct": { + "description": "Qwen2 ist ein 7B-Modell, das von Qwen2 öffentlich zugänglich gemacht wurde." + }, + "qwen2-math-72b-instruct": { + "description": "Das Qwen2-Math-Modell hat starke Fähigkeiten zur Lösung mathematischer Probleme." + }, + "qwen2:0.5b": { + "description": "Qwen2 ist das neue große Sprachmodell von Alibaba, das mit hervorragender Leistung eine Vielzahl von Anwendungsanforderungen unterstützt." + }, + "qwen2:1.5b": { + "description": "Qwen2 ist das neue große Sprachmodell von Alibaba, das mit hervorragender Leistung eine Vielzahl von Anwendungsanforderungen unterstützt." + }, + "qwen2:72b": { + "description": "Qwen2 ist das neue große Sprachmodell von Alibaba, das mit hervorragender Leistung eine Vielzahl von Anwendungsanforderungen unterstützt." + }, + "solar-1-mini-chat": { + "description": "Solar Mini ist ein kompaktes LLM, das besser als GPT-3.5 abschneidet und über starke Mehrsprachigkeitsfähigkeiten verfügt, unterstützt Englisch und Koreanisch und bietet eine effiziente, kompakte Lösung." + }, + "solar-1-mini-chat-ja": { + "description": "Solar Mini (Ja) erweitert die Fähigkeiten von Solar Mini und konzentriert sich auf Japanisch, während es gleichzeitig in der Nutzung von Englisch und Koreanisch effizient und leistungsstark bleibt." + }, + "solar-pro": { + "description": "Solar Pro ist ein hochintelligentes LLM, das von Upstage entwickelt wurde und sich auf die Befolgung von Anweisungen mit einer einzigen GPU konzentriert, mit einem IFEval-Score von über 80. Derzeit unterstützt es Englisch, die offizielle Version ist für November 2024 geplant und wird die Sprachunterstützung und Kontextlänge erweitern." + }, + "step-1-128k": { + "description": "Bietet ein ausgewogenes Verhältnis zwischen Leistung und Kosten, geeignet für allgemeine Szenarien." + }, + "step-1-256k": { + "description": "Verfügt über die Fähigkeit zur Verarbeitung ultra-langer Kontexte, besonders geeignet für die Analyse langer Dokumente." + }, + "step-1-32k": { + "description": "Unterstützt mittellange Dialoge und eignet sich für verschiedene Anwendungsszenarien." + }, + "step-1-8k": { + "description": "Kleinmodell, geeignet für leichte Aufgaben." + }, + "step-1-flash": { + "description": "Hochgeschwindigkeitsmodell, geeignet für Echtzeitdialoge." + }, + "step-1v-32k": { + "description": "Unterstützt visuelle Eingaben und verbessert die multimodale Interaktionserfahrung." + }, + "step-1v-8k": { + "description": "Kleinvisualmodell, geeignet für grundlegende Text- und Bildaufgaben." + }, + "step-2-16k": { + "description": "Unterstützt groß angelegte Kontextinteraktionen und eignet sich für komplexe Dialogszenarien." + }, + "taichu_llm": { + "description": "Das Zīdōng Taichu Sprachmodell verfügt über außergewöhnliche Sprachverständnisfähigkeiten sowie Fähigkeiten in Textgenerierung, Wissensabfrage, Programmierung, mathematischen Berechnungen, logischem Denken, Sentimentanalyse und Textzusammenfassung. Es kombiniert innovativ große Datenvortrainings mit reichhaltigem Wissen aus mehreren Quellen, verfeinert kontinuierlich die Algorithmen und absorbiert ständig neues Wissen aus umfangreichen Textdaten in Bezug auf Vokabular, Struktur, Grammatik und Semantik, um die Leistung des Modells kontinuierlich zu verbessern. Es bietet den Nutzern bequemere Informationen und Dienstleistungen sowie ein intelligenteres Erlebnis." + }, + "togethercomputer/StripedHyena-Nous-7B": { + "description": "StripedHyena Nous (7B) bietet durch effiziente Strategien und Modellarchitekturen verbesserte Rechenfähigkeiten." + }, + "upstage/SOLAR-10.7B-Instruct-v1.0": { + "description": "Upstage SOLAR Instruct v1 (11B) eignet sich für präzise Anweisungsaufgaben und bietet hervorragende Sprachverarbeitungsfähigkeiten." + }, + "wizardlm2": { + "description": "WizardLM 2 ist ein Sprachmodell von Microsoft AI, das in komplexen Dialogen, mehrsprachigen Anwendungen, Schlussfolgerungen und intelligenten Assistenten besonders gut abschneidet." + }, + "wizardlm2:8x22b": { + "description": "WizardLM 2 ist ein Sprachmodell von Microsoft AI, das in komplexen Dialogen, mehrsprachigen Anwendungen, Schlussfolgerungen und intelligenten Assistenten besonders gut abschneidet." + }, + "yi-large": { + "description": "Das brandneue Modell mit einer Billion Parametern bietet außergewöhnliche Frage- und Textgenerierungsfähigkeiten." + }, + "yi-large-fc": { + "description": "Basierend auf dem yi-large-Modell unterstützt und verstärkt es die Fähigkeit zu Werkzeugaufrufen und eignet sich für verschiedene Geschäftsszenarien, die den Aufbau von Agenten oder Workflows erfordern." + }, + "yi-large-preview": { + "description": "Frühe Version, empfohlen wird die Verwendung von yi-large (neue Version)." + }, + "yi-large-rag": { + "description": "Ein fortgeschrittener Dienst, der auf dem leistungsstarken yi-large-Modell basiert und präzise Antworten durch die Kombination von Abruf- und Generierungstechnologien bietet, sowie Echtzeit-Informationsdienste aus dem gesamten Web." + }, + "yi-large-turbo": { + "description": "Hervorragendes Preis-Leistungs-Verhältnis und außergewöhnliche Leistung. Hochpräzise Feinabstimmung basierend auf Leistung, Schlussfolgerungsgeschwindigkeit und Kosten." + }, + "yi-medium": { + "description": "Mittelgroßes Modell mit verbesserten Feinabstimmungen, ausgewogene Fähigkeiten und gutes Preis-Leistungs-Verhältnis. Tiefgehende Optimierung der Anweisungsbefolgung." + }, + "yi-medium-200k": { + "description": "200K ultra-lange Kontextfenster bieten tiefes Verständnis und Generierungsfähigkeiten für lange Texte." + }, + "yi-spark": { + "description": "Klein und kompakt, ein leichtgewichtiges und schnelles Modell. Bietet verbesserte mathematische Berechnungs- und Programmierfähigkeiten." + }, + "yi-vision": { + "description": "Modell für komplexe visuelle Aufgaben, das hohe Leistungsfähigkeit bei der Bildverarbeitung und -analyse bietet." + } +} diff --git a/locales/de-DE/providers.json b/locales/de-DE/providers.json new file mode 100644 index 000000000000..fece067cb521 --- /dev/null +++ b/locales/de-DE/providers.json @@ -0,0 +1,80 @@ +{ + "ai360": { + "description": "360 AI ist die von der 360 Company eingeführte Plattform für KI-Modelle und -Dienste, die eine Vielzahl fortschrittlicher Modelle zur Verarbeitung natürlicher Sprache anbietet, darunter 360GPT2 Pro, 360GPT Pro, 360GPT Turbo und 360GPT Turbo Responsibility 8K. Diese Modelle kombinieren große Parameter mit multimodalen Fähigkeiten und finden breite Anwendung in den Bereichen Textgenerierung, semantisches Verständnis, Dialogsysteme und Codegenerierung. Durch flexible Preisstrategien erfüllt 360 AI die vielfältigen Bedürfnisse der Nutzer, unterstützt Entwickler bei der Integration und fördert die Innovation und Entwicklung intelligenter Anwendungen." + }, + "anthropic": { + "description": "Anthropic ist ein Unternehmen, das sich auf Forschung und Entwicklung im Bereich der künstlichen Intelligenz spezialisiert hat und eine Reihe fortschrittlicher Sprachmodelle anbietet, darunter Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus und Claude 3 Haiku. Diese Modelle erreichen ein ideales Gleichgewicht zwischen Intelligenz, Geschwindigkeit und Kosten und sind für eine Vielzahl von Anwendungsszenarien geeignet, von unternehmensweiten Arbeitslasten bis hin zu schnellen Reaktionen. Claude 3.5 Sonnet, als neuestes Modell, hat in mehreren Bewertungen hervorragend abgeschnitten und bietet gleichzeitig ein hohes Preis-Leistungs-Verhältnis." + }, + "azure": { + "description": "Azure bietet eine Vielzahl fortschrittlicher KI-Modelle, darunter GPT-3.5 und die neueste GPT-4-Serie, die verschiedene Datentypen und komplexe Aufgaben unterstützen und sich auf sichere, zuverlässige und nachhaltige KI-Lösungen konzentrieren." + }, + "baichuan": { + "description": "Baichuan Intelligent ist ein Unternehmen, das sich auf die Forschung und Entwicklung großer KI-Modelle spezialisiert hat. Ihre Modelle zeigen hervorragende Leistungen in chinesischen Aufgaben wie Wissensdatenbanken, Verarbeitung langer Texte und kreative Generierung und übertreffen die gängigen Modelle im Ausland. Baichuan Intelligent verfügt auch über branchenführende multimodale Fähigkeiten und hat in mehreren renommierten Bewertungen hervorragend abgeschnitten. Ihre Modelle umfassen Baichuan 4, Baichuan 3 Turbo und Baichuan 3 Turbo 128k, die jeweils für unterschiedliche Anwendungsszenarien optimiert sind und kosteneffiziente Lösungen bieten." + }, + "bedrock": { + "description": "Bedrock ist ein Service von Amazon AWS, der sich darauf konzentriert, Unternehmen fortschrittliche KI-Sprach- und visuelle Modelle bereitzustellen. Die Modellfamilie umfasst die Claude-Serie von Anthropic, die Llama 3.1-Serie von Meta und mehr, und bietet eine Vielzahl von Optionen von leichtgewichtig bis hochleistungsfähig, die Textgenerierung, Dialoge, Bildverarbeitung und andere Aufgaben unterstützen und für Unternehmensanwendungen unterschiedlicher Größen und Anforderungen geeignet sind." + }, + "deepseek": { + "description": "DeepSeek ist ein Unternehmen, das sich auf die Forschung und Anwendung von KI-Technologien spezialisiert hat. Ihr neuestes Modell, DeepSeek-V2.5, kombiniert allgemeine Dialog- und Codeverarbeitungsfähigkeiten und hat signifikante Fortschritte in den Bereichen menschliche Präferenzanpassung, Schreibaufgaben und Befehlsbefolgung erzielt." + }, + "fireworksai": { + "description": "Fireworks AI ist ein führender Anbieter von fortschrittlichen Sprachmodellen, der sich auf Funktionsaufrufe und multimodale Verarbeitung spezialisiert hat. Ihr neuestes Modell, Firefunction V2, basiert auf Llama-3 und ist für Funktionsaufrufe, Dialoge und Befehlsbefolgung optimiert. Das visuelle Sprachmodell FireLLaVA-13B unterstützt gemischte Eingaben von Bildern und Text. Weitere bemerkenswerte Modelle sind die Llama-Serie und die Mixtral-Serie, die effiziente mehrsprachige Befehlsbefolgung und Generierungsunterstützung bieten." + }, + "google": { + "description": "Die Gemini-Serie von Google ist ihr fortschrittlichstes, universelles KI-Modell, das von Google DeepMind entwickelt wurde und speziell für multimodale Anwendungen konzipiert ist. Es unterstützt nahtlose Verständnis- und Verarbeitungsprozesse für Text, Code, Bilder, Audio und Video. Es ist für eine Vielzahl von Umgebungen geeignet, von Rechenzentren bis hin zu mobilen Geräten, und verbessert erheblich die Effizienz und Anwendbarkeit von KI-Modellen." + }, + "groq": { + "description": "Der LPU-Inferenz-Engine von Groq hat in den neuesten unabhängigen Benchmark-Tests für große Sprachmodelle (LLM) hervorragende Leistungen gezeigt und definiert mit seiner erstaunlichen Geschwindigkeit und Effizienz die Standards für KI-Lösungen neu. Groq ist ein Beispiel für sofortige Inferenzgeschwindigkeit und zeigt in cloudbasierten Bereitstellungen eine gute Leistung." + }, + "minimax": { + "description": "MiniMax ist ein im Jahr 2021 gegründetes Unternehmen für allgemeine künstliche Intelligenz, das sich der gemeinsamen Schaffung von Intelligenz mit den Nutzern widmet. MiniMax hat verschiedene multimodale allgemeine große Modelle entwickelt, darunter ein Textmodell mit Billionen von Parametern, ein Sprachmodell und ein Bildmodell. Außerdem wurden Anwendungen wie Conch AI eingeführt." + }, + "mistral": { + "description": "Mistral bietet fortschrittliche allgemeine, spezialisierte und forschungsorientierte Modelle an, die in Bereichen wie komplexe Schlussfolgerungen, mehrsprachige Aufgaben und Code-Generierung weit verbreitet sind. Durch Funktionsaufrufschnittstellen können Benutzer benutzerdefinierte Funktionen integrieren und spezifische Anwendungen realisieren." + }, + "moonshot": { + "description": "Moonshot ist eine Open-Source-Plattform, die von Beijing Dark Side Technology Co., Ltd. eingeführt wurde und eine Vielzahl von Modellen zur Verarbeitung natürlicher Sprache anbietet, die in vielen Bereichen Anwendung finden, darunter, aber nicht beschränkt auf, Inhaltserstellung, akademische Forschung, intelligente Empfehlungen und medizinische Diagnosen, und unterstützt die Verarbeitung langer Texte und komplexer Generierungsaufgaben." + }, + "novita": { + "description": "Novita AI ist eine Plattform, die eine Vielzahl von großen Sprachmodellen und API-Diensten für die KI-Bilderzeugung anbietet, die flexibel, zuverlässig und kosteneffektiv ist. Sie unterstützt die neuesten Open-Source-Modelle wie Llama3 und Mistral und bietet umfassende, benutzerfreundliche und automatisch skalierbare API-Lösungen für die Entwicklung generativer KI-Anwendungen, die für das schnelle Wachstum von KI-Startups geeignet sind." + }, + "ollama": { + "description": "Die von Ollama angebotenen Modelle decken ein breites Spektrum ab, darunter Code-Generierung, mathematische Berechnungen, mehrsprachige Verarbeitung und dialogbasierte Interaktionen, und unterstützen die vielfältigen Anforderungen an unternehmensgerechte und lokal angepasste Bereitstellungen." + }, + "openai": { + "description": "OpenAI ist eine weltweit führende Forschungsinstitution im Bereich der künstlichen Intelligenz, deren entwickelte Modelle wie die GPT-Serie die Grenzen der Verarbeitung natürlicher Sprache vorantreiben. OpenAI setzt sich dafür ein, durch innovative und effiziente KI-Lösungen verschiedene Branchen zu transformieren. Ihre Produkte zeichnen sich durch herausragende Leistung und Wirtschaftlichkeit aus und finden breite Anwendung in Forschung, Wirtschaft und innovativen Anwendungen." + }, + "openrouter": { + "description": "OpenRouter ist eine Serviceplattform, die eine Vielzahl von Schnittstellen für fortschrittliche große Modelle anbietet und OpenAI, Anthropic, LLaMA und mehr unterstützt, um vielfältige Entwicklungs- und Anwendungsbedürfnisse zu erfüllen. Benutzer können je nach ihren Anforderungen flexibel das optimale Modell und den Preis auswählen, um das KI-Erlebnis zu verbessern." + }, + "perplexity": { + "description": "Perplexity ist ein führender Anbieter von Dialoggenerierungsmodellen und bietet eine Vielzahl fortschrittlicher Llama 3.1-Modelle an, die sowohl für Online- als auch Offline-Anwendungen geeignet sind und sich besonders für komplexe Aufgaben der Verarbeitung natürlicher Sprache eignen." + }, + "qwen": { + "description": "Tongyi Qianwen ist ein von Alibaba Cloud selbst entwickeltes, groß angelegtes Sprachmodell mit starken Fähigkeiten zur Verarbeitung und Generierung natürlicher Sprache. Es kann eine Vielzahl von Fragen beantworten, Texte erstellen, Meinungen äußern und Code schreiben und spielt in mehreren Bereichen eine Rolle." + }, + "siliconcloud": { + "description": "SiliconFlow hat sich zum Ziel gesetzt, AGI zu beschleunigen, um der Menschheit zu dienen, und die Effizienz großangelegter KI durch eine benutzerfreundliche und kostengünstige GenAI-Stack zu steigern." + }, + "spark": { + "description": "Der Xinghuo-Großmodell von iFLYTEK bietet leistungsstarke KI-Fähigkeiten in mehreren Bereichen und Sprachen und nutzt fortschrittliche Technologien zur Verarbeitung natürlicher Sprache, um innovative Anwendungen für intelligente Hardware, intelligente Medizin, intelligente Finanzen und andere vertikale Szenarien zu entwickeln." + }, + "stepfun": { + "description": "Das StepFun-Großmodell verfügt über branchenführende multimodale und komplexe Schlussfolgerungsfähigkeiten und unterstützt das Verständnis von sehr langen Texten sowie leistungsstarke, autonome Suchmaschinenfunktionen." + }, + "taichu": { + "description": "Das Institut für Automatisierung der Chinesischen Akademie der Wissenschaften und das Wuhan Institute of Artificial Intelligence haben ein neues Generation multimodales großes Modell eingeführt, das umfassende Frage-Antwort-Aufgaben unterstützt, darunter mehrstufige Fragen, Textgenerierung, Bildgenerierung, 3D-Verständnis und Signalverarbeitung, mit stärkeren kognitiven, verstehenden und kreativen Fähigkeiten, die ein neues interaktives Erlebnis bieten." + }, + "togetherai": { + "description": "Together AI strebt an, durch innovative KI-Modelle führende Leistungen zu erzielen und bietet umfangreiche Anpassungsmöglichkeiten, einschließlich schneller Skalierungsunterstützung und intuitiver Bereitstellungsprozesse, um den unterschiedlichen Anforderungen von Unternehmen gerecht zu werden." + }, + "upstage": { + "description": "Upstage konzentriert sich auf die Entwicklung von KI-Modellen für verschiedene geschäftliche Anforderungen, einschließlich Solar LLM und Dokumenten-KI, mit dem Ziel, künstliche allgemeine Intelligenz (AGI) zu erreichen. Es ermöglicht die Erstellung einfacher Dialogagenten über die Chat-API und unterstützt Funktionsaufrufe, Übersetzungen, Einbettungen und spezifische Anwendungsbereiche." + }, + "zeroone": { + "description": "01.AI konzentriert sich auf die künstliche Intelligenz-Technologie der AI 2.0-Ära und fördert aktiv die Innovation und Anwendung von 'Mensch + künstliche Intelligenz', indem sie leistungsstarke Modelle und fortschrittliche KI-Technologien einsetzt, um die Produktivität der Menschen zu steigern und technologische Befähigung zu erreichen." + }, + "zhipu": { + "description": "Zhipu AI bietet eine offene Plattform für multimodale und Sprachmodelle, die eine breite Palette von KI-Anwendungsszenarien unterstützt, darunter Textverarbeitung, Bildverständnis und Programmierhilfe." + } +} diff --git a/locales/en-US/common.json b/locales/en-US/common.json index 2e403708ef5e..38194dccdf1b 100644 --- a/locales/en-US/common.json +++ b/locales/en-US/common.json @@ -195,8 +195,8 @@ }, "tab": { "chat": "Chat", + "discover": "Discover", "files": "Files", - "market": "Discover", "me": "Me", "setting": "Settings" }, diff --git a/locales/en-US/discover.json b/locales/en-US/discover.json new file mode 100644 index 000000000000..84e71d0f6c36 --- /dev/null +++ b/locales/en-US/discover.json @@ -0,0 +1,204 @@ +{ + "assistants": { + "addAgent": "Add Assistant", + "addAgentAndConverse": "Add Assistant and Converse", + "addAgentSuccess": "Added Successfully", + "conversation": { + "l1": "Hello, I am **{{name}}**, you can ask me any questions, and I will do my best to answer you ~", + "l2": "Here are my capabilities: ", + "l3": "Let's start the conversation!" + }, + "description": "Assistant Introduction", + "detail": "Details", + "list": "Assistant List", + "more": "More", + "plugins": "Integrated Plugins", + "recentSubmits": "Recent Updates", + "suggestions": "Related Recommendations", + "systemRole": "Assistant Settings", + "try": "Try It Out" + }, + "back": "Back to Discovery", + "category": { + "assistant": { + "academic": "Academic", + "all": "All", + "career": "Career", + "copywriting": "Copywriting", + "design": "Design", + "education": "Education", + "emotions": "Emotions", + "entertainment": "Entertainment", + "games": "Games", + "general": "General", + "life": "Life", + "marketing": "Marketing", + "office": "Office", + "programming": "Programming", + "translation": "Translation" + }, + "plugin": { + "all": "All", + "gaming-entertainment": "Gaming & Entertainment", + "life-style": "Lifestyle", + "media-generate": "Media Generation", + "science-education": "Science & Education", + "social": "Social Media", + "stocks-finance": "Stocks & Finance", + "tools": "Utility Tools", + "web-search": "Web Search" + } + }, + "cleanFilter": "Clear Filter", + "create": "Create", + "createGuide": { + "func1": { + "desc1": "Access the settings page for the assistant you want to submit through the settings in the upper right corner of the conversation window;", + "desc2": "Click the 'Submit to Assistant Marketplace' button in the upper right corner.", + "tag": "Method One", + "title": "Submit via LobeChat" + }, + "func2": { + "button": "Go to GitHub Assistant Repository", + "desc": "If you want to add the assistant to the index, create an entry using agent-template.json or agent-template-full.json in the plugins directory, write a brief description, tag appropriately, and then create a pull request.", + "tag": "Method Two", + "title": "Submit via GitHub" + } + }, + "dislike": "Dislike", + "filter": "Filter", + "filterBy": { + "authorRange": { + "everyone": "All Authors", + "followed": "Followed Authors", + "title": "Author Range" + }, + "contentLength": "Minimum Context Length", + "maxToken": { + "title": "Set Maximum Length (Token)", + "unlimited": "Unlimited" + }, + "other": { + "functionCall": "Supports Function Calls", + "title": "Other", + "vision": "Supports Visual Recognition", + "withKnowledge": "Includes Knowledge Base", + "withTool": "Includes Plugins" + }, + "pricing": "Model Pricing", + "timePeriod": { + "all": "All Time", + "day": "Last 24 Hours", + "month": "Last 30 Days", + "title": "Time Range", + "week": "Last 7 Days", + "year": "Last Year" + } + }, + "home": { + "featuredAssistants": "Featured Assistants", + "featuredModels": "Featured Models", + "featuredProviders": "Featured Model Providers", + "featuredTools": "Featured Plugins", + "more": "Discover More" + }, + "like": "Like", + "models": { + "chat": "Start Conversation", + "contentLength": "Maximum Context Length", + "free": "Free", + "guide": "Configuration Guide", + "list": "Model List", + "more": "More", + "parameterList": { + "defaultValue": "Default Value", + "docs": "View Documentation", + "frequency_penalty": { + "desc": "This setting adjusts the frequency at which the model reuses specific vocabulary that has already appeared in the input. Higher values reduce the likelihood of such repetition, while negative values have the opposite effect. Vocabulary penalties do not increase with frequency of occurrence. Negative values encourage vocabulary reuse.", + "title": "Frequency Penalty" + }, + "max_tokens": { + "desc": "This setting defines the maximum length that the model can generate in a single response. Setting a higher value allows the model to produce longer replies, while a lower value restricts the length of the response, making it more concise. Adjusting this value appropriately based on different application scenarios can help achieve the desired response length and level of detail.", + "title": "Single Response Limit" + }, + "presence_penalty": { + "desc": "This setting aims to control the reuse of vocabulary based on its frequency in the input. It attempts to use less of those words that appear more frequently in the input, with usage frequency proportional to occurrence frequency. Vocabulary penalties increase with frequency of occurrence. Negative values encourage vocabulary reuse.", + "title": "Topic Freshness" + }, + "range": "Range", + "temperature": { + "desc": "This setting affects the diversity of the model's responses. Lower values lead to more predictable and typical responses, while higher values encourage more diverse and less common responses. When set to 0, the model always gives the same response to a given input.", + "title": "Randomness" + }, + "title": "Model Parameters", + "top_p": { + "desc": "This setting limits the model's selection to a certain proportion of the most likely vocabulary: only selecting those top words whose cumulative probability reaches P. Lower values make the model's responses more predictable, while the default setting allows the model to choose from the entire range of vocabulary.", + "title": "Nucleus Sampling" + }, + "type": "Type" + }, + "providerInfo": { + "apiTooltip": "LobeChat supports using a custom API key for this provider.", + "input": "Input Price", + "inputTooltip": "Cost per million tokens", + "latency": "Latency", + "latencyTooltip": "Average response time for the provider to send the first token", + "maxOutput": "Maximum Output Length", + "maxOutputTooltip": "Maximum number of tokens this endpoint can generate", + "officialTooltip": "LobeHub Official Service", + "output": "Output Price", + "outputTooltip": "Cost per million tokens", + "streamCancellationTooltip": "This provider supports stream cancellation.", + "throughput": "Throughput", + "throughputTooltip": "Average number of tokens transmitted per second for stream requests" + }, + "suggestions": "Related Models", + "supportedProviders": "Providers Supporting This Model" + }, + "plugins": { + "community": "Community Plugins", + "install": "Install Plugin", + "installed": "Installed", + "list": "Plugin List", + "meta": { + "description": "Description", + "parameter": "Parameter", + "title": "Tool Parameters", + "type": "Type" + }, + "more": "More", + "official": "Official Plugins", + "recentSubmits": "Recently Updated", + "suggestions": "Related Recommendations" + }, + "providers": { + "config": "Configure Provider", + "list": "Model Provider List", + "modelCount": "{{count}} models", + "modelSite": "Model Documentation", + "more": "More", + "officialSite": "Official Website", + "showAllModels": "Show All Models", + "suggestions": "Related Providers", + "supportedModels": "Supported Models" + }, + "search": { + "placeholder": "Search by name, description, or keywords...", + "result": "{{count}} results about {{keyword}}", + "searching": "Searching..." + }, + "sort": { + "mostLiked": "Most Liked", + "mostUsed": "Most Used", + "newest": "Newest First", + "oldest": "Oldest First", + "recommended": "Recommended" + }, + "tab": { + "assistants": "Assistants", + "home": "Home", + "models": "Models", + "plugins": "Plugins", + "providers": "Model Providers" + } +} diff --git a/locales/en-US/metadata.json b/locales/en-US/metadata.json index 6924a1d34048..ce088925446b 100644 --- a/locales/en-US/metadata.json +++ b/locales/en-US/metadata.json @@ -3,9 +3,26 @@ "description": "{{appName}} brings you the best UI experience for ChatGPT, Claude, Gemini, and OLLaMA.", "title": "{{appName}}: Your personal AI productivity tool for a smarter brain." }, - "market": { - "description": "Content creation, copywriting, Q&A, image generation, video generation, voice generation, intelligent agents, automated workflows—customize your own AI assistant.", - "title": "Assistant Marketplace" + "discover": { + "assistants": { + "description": "Content creation, copywriting, Q&A, image generation, video generation, voice generation, intelligent agents, automated workflows, customize your own AI / GPTs / OLLaMA intelligent assistant", + "title": "AI Assistants" + }, + "description": "Content creation, copywriting, Q&A, image generation, video generation, voice generation, intelligent agents, automated workflows, custom AI applications, customize your own AI application workspace", + "models": { + "description": "Explore mainstream AI models OpenAI / GPT / Claude 3 / Gemini / Ollama / Azure / DeepSeek", + "title": "AI Models" + }, + "plugins": { + "description": "Explore chart generation, academic tools, image generation, video generation, voice generation, and automated workflows to integrate rich plugin capabilities into your assistant.", + "title": "AI Plugins" + }, + "providers": { + "description": "Explore leading model providers OpenAI / Qwen / Ollama / Anthropic / DeepSeek / Google Gemini / OpenRouter", + "title": "AI Model Providers" + }, + "search": "Search", + "title": "Discover" }, "plugins": { "description": "Search, chart generation, academic tools, image generation, video generation, voice generation, automated workflows—customize Tools Calling plugin capabilities for ChatGPT / Claude.", diff --git a/locales/en-US/models.json b/locales/en-US/models.json new file mode 100644 index 000000000000..12b365495b63 --- /dev/null +++ b/locales/en-US/models.json @@ -0,0 +1,845 @@ +{ + "01-ai/Yi-1.5-34B-Chat-16K": { + "description": "Yi-1.5 34B delivers superior performance in industry applications with a wealth of training samples." + }, + "01-ai/Yi-1.5-6B-Chat": { + "description": "Yi-1.5 is an evolved version of the Yi series, featuring high-quality pre-training and rich fine-tuning data." + }, + "01-ai/Yi-1.5-9B-Chat-16K": { + "description": "Yi-1.5 9B supports 16K tokens, providing efficient and smooth language generation capabilities." + }, + "360gpt-pro": { + "description": "360GPT Pro, as an important member of the 360 AI model series, meets diverse natural language application scenarios with efficient text processing capabilities, supporting long text understanding and multi-turn dialogue." + }, + "360gpt-turbo": { + "description": "360GPT Turbo offers powerful computation and dialogue capabilities, with excellent semantic understanding and generation efficiency, making it an ideal intelligent assistant solution for enterprises and developers." + }, + "360gpt-turbo-responsibility-8k": { + "description": "360GPT Turbo Responsibility 8K emphasizes semantic safety and responsibility, designed specifically for applications with high content safety requirements, ensuring accuracy and robustness in user experience." + }, + "360gpt2-pro": { + "description": "360GPT2 Pro is an advanced natural language processing model launched by 360, featuring exceptional text generation and understanding capabilities, particularly excelling in generation and creative tasks, capable of handling complex language transformations and role-playing tasks." + }, + "4.0Ultra": { + "description": "Spark4.0 Ultra is the most powerful version in the Spark large model series, enhancing text content understanding and summarization capabilities while upgrading online search links. It is a comprehensive solution for improving office productivity and accurately responding to demands, leading the industry as an intelligent product." + }, + "Baichuan2-Turbo": { + "description": "Utilizes search enhancement technology to achieve comprehensive links between large models and domain knowledge, as well as knowledge from the entire web. Supports uploads of various documents such as PDF and Word, and URL input, providing timely and comprehensive information retrieval with accurate and professional output." + }, + "Baichuan3-Turbo": { + "description": "Optimized for high-frequency enterprise scenarios, significantly improving performance and cost-effectiveness. Compared to the Baichuan2 model, content creation improves by 20%, knowledge Q&A by 17%, and role-playing ability by 40%. Overall performance is superior to GPT-3.5." + }, + "Baichuan3-Turbo-128k": { + "description": "Features a 128K ultra-long context window, optimized for high-frequency enterprise scenarios, significantly improving performance and cost-effectiveness. Compared to the Baichuan2 model, content creation improves by 20%, knowledge Q&A by 17%, and role-playing ability by 40%. Overall performance is superior to GPT-3.5." + }, + "Baichuan4": { + "description": "The model is the best in the country, surpassing mainstream foreign models in Chinese tasks such as knowledge encyclopedias, long texts, and creative generation. It also boasts industry-leading multimodal capabilities, excelling in multiple authoritative evaluation benchmarks." + }, + "Gryphe/MythoMax-L2-13b": { + "description": "MythoMax-L2 (13B) is an innovative model suitable for multi-domain applications and complex tasks." + }, + "Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Hermes 2 Mixtral 8x7B DPO is a highly flexible multi-model fusion designed to provide an exceptional creative experience." + }, + "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) is a high-precision instruction model suitable for complex computations." + }, + "NousResearch/Nous-Hermes-2-Yi-34B": { + "description": "Nous Hermes-2 Yi (34B) provides optimized language output and diverse application possibilities." + }, + "Pro-128k": { + "description": "Spark Pro-128K is configured with ultra-large context processing capabilities, able to handle up to 128K of contextual information, particularly suitable for long texts requiring comprehensive analysis and long-term logical connections, providing smooth and consistent logic and diverse citation support in complex text communication." + }, + "Qwen/Qwen1.5-110B-Chat": { + "description": "As a beta version of Qwen2, Qwen1.5 utilizes large-scale data to achieve more precise conversational capabilities." + }, + "Qwen/Qwen1.5-14B-Chat": { + "description": "Qwen1.5 is trained on a large-scale dataset, excelling in complex language tasks." + }, + "Qwen/Qwen1.5-32B-Chat": { + "description": "Qwen1.5 possesses capabilities for multi-domain Q&A and text generation." + }, + "Qwen/Qwen1.5-72B-Chat": { + "description": "Qwen 1.5 Chat (72B) provides quick responses and natural conversational abilities, suitable for multilingual environments." + }, + "Qwen/Qwen1.5-7B-Chat": { + "description": "Qwen1.5 enhances dialogue expression capabilities by combining advanced pre-training and fine-tuning." + }, + "Qwen/Qwen2-1.5B-Instruct": { + "description": "Qwen2 is a brand new large language model series aimed at optimizing the handling of instruction-based tasks." + }, + "Qwen/Qwen2-57B-A14B-Instruct": { + "description": "Qwen2 is a new series, with the 57B A14B model excelling in instruction tasks." + }, + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 is an advanced general-purpose language model that supports various types of instructions." + }, + "Qwen/Qwen2-7B-Instruct": { + "description": "Qwen2 is a brand new large language model series with enhanced understanding and generation capabilities." + }, + "Qwen/Qwen2-Math-72B-Instruct": { + "description": "Qwen2-Math focuses on problem-solving in the field of mathematics, providing professional answers to high-difficulty questions." + }, + "THUDM/chatglm3-6b": { + "description": "As a bilingual conversational language model, ChatGLM3 can handle Chinese and English conversion tasks." + }, + "THUDM/glm-4-9b-chat": { + "description": "GLM-4 9B is an open-source version that provides an optimized conversational experience for chat applications." + }, + "abab5.5-chat": { + "description": "Targeted at productivity scenarios, supporting complex task processing and efficient text generation, suitable for professional applications." + }, + "abab5.5s-chat": { + "description": "Designed for Chinese persona dialogue scenarios, providing high-quality Chinese dialogue generation capabilities, suitable for various application contexts." + }, + "abab6.5g-chat": { + "description": "Designed for multilingual persona dialogue, supporting high-quality dialogue generation in English and other languages." + }, + "abab6.5s-chat": { + "description": "Suitable for a wide range of natural language processing tasks, including text generation and dialogue systems." + }, + "abab6.5t-chat": { + "description": "Optimized for Chinese persona dialogue scenarios, providing smooth dialogue generation that aligns with Chinese expression habits." + }, + "accounts/fireworks/models/firefunction-v1": { + "description": "Fireworks open-source function-calling model provides excellent instruction execution capabilities and customizable features." + }, + "accounts/fireworks/models/firefunction-v2": { + "description": "Fireworks' latest Firefunction-v2 is a high-performance function-calling model developed based on Llama-3, optimized for function calls, dialogues, and instruction following." + }, + "accounts/fireworks/models/firellava-13b": { + "description": "fireworks-ai/FireLLaVA-13b is a visual language model that can accept both image and text inputs, trained on high-quality data, suitable for multimodal tasks." + }, + "accounts/fireworks/models/gemma2-9b-it": { + "description": "Gemma 2 9B instruction model, based on previous Google technology, suitable for answering questions, summarizing, and reasoning across various text generation tasks." + }, + "accounts/fireworks/models/llama-v3-70b-instruct": { + "description": "Llama 3 70B instruction model, optimized for multilingual dialogues and natural language understanding, outperforming most competitive models." + }, + "accounts/fireworks/models/llama-v3-70b-instruct-hf": { + "description": "Llama 3 70B instruction model (HF version), aligned with official implementation results, suitable for high-quality instruction following tasks." + }, + "accounts/fireworks/models/llama-v3-8b-instruct": { + "description": "Llama 3 8B instruction model, optimized for dialogues and multilingual tasks, delivering outstanding and efficient performance." + }, + "accounts/fireworks/models/llama-v3-8b-instruct-hf": { + "description": "Llama 3 8B instruction model (HF version), consistent with official implementation results, featuring high consistency and cross-platform compatibility." + }, + "accounts/fireworks/models/llama-v3p1-405b-instruct": { + "description": "Llama 3.1 405B instruction model, equipped with massive parameters, suitable for complex tasks and instruction following in high-load scenarios." + }, + "accounts/fireworks/models/llama-v3p1-70b-instruct": { + "description": "Llama 3.1 70B instruction model provides exceptional natural language understanding and generation capabilities, making it an ideal choice for dialogue and analysis tasks." + }, + "accounts/fireworks/models/llama-v3p1-8b-instruct": { + "description": "Llama 3.1 8B instruction model, optimized for multilingual dialogues, capable of surpassing most open-source and closed-source models on common industry benchmarks." + }, + "accounts/fireworks/models/mixtral-8x22b-instruct": { + "description": "Mixtral MoE 8x22B instruction model, featuring large-scale parameters and a multi-expert architecture, fully supporting efficient processing of complex tasks." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct": { + "description": "Mixtral MoE 8x7B instruction model, with a multi-expert architecture providing efficient instruction following and execution." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct-hf": { + "description": "Mixtral MoE 8x7B instruction model (HF version), performance consistent with official implementation, suitable for various efficient task scenarios." + }, + "accounts/fireworks/models/mythomax-l2-13b": { + "description": "MythoMax L2 13B model, combining novel merging techniques, excels in narrative and role-playing." + }, + "accounts/fireworks/models/phi-3-vision-128k-instruct": { + "description": "Phi 3 Vision instruction model, a lightweight multimodal model capable of handling complex visual and textual information, with strong reasoning abilities." + }, + "accounts/fireworks/models/starcoder-16b": { + "description": "StarCoder 15.5B model supports advanced programming tasks, enhanced multilingual capabilities, suitable for complex code generation and understanding." + }, + "accounts/fireworks/models/starcoder-7b": { + "description": "StarCoder 7B model, trained on over 80 programming languages, boasts excellent code completion capabilities and contextual understanding." + }, + "accounts/yi-01-ai/models/yi-large": { + "description": "Yi-Large model, featuring exceptional multilingual processing capabilities, suitable for various language generation and understanding tasks." + }, + "anthropic.claude-3-5-sonnet-20240620-v1:0": { + "description": "Claude 3.5 Sonnet raises the industry standard, outperforming competitor models and Claude 3 Opus, excelling in a wide range of evaluations while maintaining the speed and cost of our mid-tier models." + }, + "anthropic.claude-3-haiku-20240307-v1:0": { + "description": "Claude 3 Haiku is Anthropic's fastest and most compact model, providing near-instantaneous response times. It can quickly answer simple queries and requests. Customers will be able to build seamless AI experiences that mimic human interaction. Claude 3 Haiku can process images and return text output, with a context window of 200K." + }, + "anthropic.claude-3-opus-20240229-v1:0": { + "description": "Claude 3 Opus is Anthropic's most powerful AI model, featuring state-of-the-art performance on highly complex tasks. It can handle open-ended prompts and unseen scenarios, demonstrating exceptional fluency and human-like understanding. Claude 3 Opus showcases the forefront of generative AI possibilities. Claude 3 Opus can process images and return text output, with a context window of 200K." + }, + "anthropic.claude-3-sonnet-20240229-v1:0": { + "description": "Anthropic's Claude 3 Sonnet strikes an ideal balance between intelligence and speed—especially suited for enterprise workloads. It offers maximum utility at a price lower than competitors and is designed to be a reliable, durable workhorse for scalable AI deployments. Claude 3 Sonnet can process images and return text output, with a context window of 200K." + }, + "anthropic.claude-instant-v1": { + "description": "A fast, economical, yet still highly capable model that can handle a range of tasks, including everyday conversations, text analysis, summarization, and document Q&A." + }, + "anthropic.claude-v2": { + "description": "Anthropic's model demonstrates high capability across a wide range of tasks, from complex conversations and creative content generation to detailed instruction following." + }, + "anthropic.claude-v2:1": { + "description": "An updated version of Claude 2, featuring double the context window and improvements in reliability, hallucination rates, and evidence-based accuracy in long documents and RAG contexts." + }, + "anthropic/claude-3-haiku": { + "description": "Claude 3 Haiku is Anthropic's fastest and most compact model, designed for near-instantaneous responses. It features quick and accurate directional performance." + }, + "anthropic/claude-3-opus": { + "description": "Claude 3 Opus is Anthropic's most powerful model for handling highly complex tasks. It excels in performance, intelligence, fluency, and comprehension." + }, + "anthropic/claude-3.5-sonnet": { + "description": "Claude 3.5 Sonnet offers capabilities that surpass Opus and faster speeds than Sonnet, while maintaining the same pricing as Sonnet. Sonnet excels particularly in programming, data science, visual processing, and agent tasks." + }, + "aya": { + "description": "Aya 23 is a multilingual model launched by Cohere, supporting 23 languages, facilitating diverse language applications." + }, + "aya:35b": { + "description": "Aya 23 is a multilingual model launched by Cohere, supporting 23 languages, facilitating diverse language applications." + }, + "charglm-3": { + "description": "CharGLM-3 is designed for role-playing and emotional companionship, supporting ultra-long multi-turn memory and personalized dialogue, with wide applications." + }, + "chatgpt-4o-latest": { + "description": "ChatGPT-4o is a dynamic model that updates in real-time to stay current with the latest version. It combines powerful language understanding and generation capabilities, making it suitable for large-scale applications, including customer service, education, and technical support." + }, + "claude-2.0": { + "description": "Claude 2 provides advancements in key capabilities for enterprises, including industry-leading 200K token context, significantly reducing the occurrence of model hallucinations, system prompts, and a new testing feature: tool invocation." + }, + "claude-2.1": { + "description": "Claude 2 provides advancements in key capabilities for enterprises, including industry-leading 200K token context, significantly reducing the occurrence of model hallucinations, system prompts, and a new testing feature: tool invocation." + }, + "claude-3-5-sonnet-20240620": { + "description": "Claude 3.5 Sonnet offers capabilities that surpass Opus and faster speeds than Sonnet, while maintaining the same price as Sonnet. Sonnet excels particularly in programming, data science, visual processing, and agent tasks." + }, + "claude-3-haiku-20240307": { + "description": "Claude 3 Haiku is Anthropic's fastest and most compact model, designed for near-instantaneous responses. It features rapid and accurate directional performance." + }, + "claude-3-opus-20240229": { + "description": "Claude 3 Opus is Anthropic's most powerful model for handling highly complex tasks. It excels in performance, intelligence, fluency, and comprehension." + }, + "claude-3-sonnet-20240229": { + "description": "Claude 3 Sonnet provides an ideal balance of intelligence and speed for enterprise workloads. It offers maximum utility at a lower price, reliable and suitable for large-scale deployment." + }, + "claude-instant-1.2": { + "description": "Anthropic's model for low-latency, high-throughput text generation, capable of generating hundreds of pages of text." + }, + "codegeex-4": { + "description": "CodeGeeX-4 is a powerful AI programming assistant that supports intelligent Q&A and code completion in various programming languages, enhancing development efficiency." + }, + "codegemma": { + "description": "CodeGemma is a lightweight language model dedicated to various programming tasks, supporting rapid iteration and integration." + }, + "codegemma:2b": { + "description": "CodeGemma is a lightweight language model dedicated to various programming tasks, supporting rapid iteration and integration." + }, + "codellama": { + "description": "Code Llama is an LLM focused on code generation and discussion, combining extensive programming language support, suitable for developer environments." + }, + "codellama:13b": { + "description": "Code Llama is an LLM focused on code generation and discussion, combining extensive programming language support, suitable for developer environments." + }, + "codellama:34b": { + "description": "Code Llama is an LLM focused on code generation and discussion, combining extensive programming language support, suitable for developer environments." + }, + "codellama:70b": { + "description": "Code Llama is an LLM focused on code generation and discussion, combining extensive programming language support, suitable for developer environments." + }, + "codeqwen": { + "description": "CodeQwen1.5 is a large language model trained on extensive code data, specifically designed to solve complex programming tasks." + }, + "codestral": { + "description": "Codestral is Mistral AI's first code model, providing excellent support for code generation tasks." + }, + "codestral-latest": { + "description": "Codestral is a cutting-edge generative model focused on code generation, optimized for intermediate filling and code completion tasks." + }, + "cognitivecomputations/dolphin-mixtral-8x22b": { + "description": "Dolphin Mixtral 8x22B is a model designed for instruction following, dialogue, and programming." + }, + "command-r": { + "description": "Command R is an LLM optimized for dialogue and long context tasks, particularly suitable for dynamic interactions and knowledge management." + }, + "command-r-plus": { + "description": "Command R+ is a high-performance large language model designed for real enterprise scenarios and complex applications." + }, + "databricks/dbrx-instruct": { + "description": "DBRX Instruct provides highly reliable instruction processing capabilities, supporting applications across multiple industries." + }, + "deepseek-ai/DeepSeek-Coder-V2-Instruct": { + "description": "DeepSeek Coder V2 is designed for coding tasks, focusing on efficient code generation." + }, + "deepseek-ai/DeepSeek-V2-Chat": { + "description": "DeepSeek V2 has 6.7 billion parameters and supports English and Chinese text processing." + }, + "deepseek-ai/DeepSeek-V2.5": { + "description": "DeepSeek V2.5 combines the excellent features of previous versions, enhancing general and coding capabilities." + }, + "deepseek-ai/deepseek-llm-67b-chat": { + "description": "DeepSeek 67B is an advanced model trained for highly complex conversations." + }, + "deepseek-chat": { + "description": "A new open-source model that integrates general and coding capabilities, retaining the general conversational abilities of the original Chat model and the powerful code handling capabilities of the Coder model, while better aligning with human preferences. Additionally, DeepSeek-V2.5 has achieved significant improvements in writing tasks, instruction following, and more." + }, + "deepseek-coder-v2": { + "description": "DeepSeek Coder V2 is an open-source hybrid expert code model that performs excellently in coding tasks, comparable to GPT4-Turbo." + }, + "deepseek-coder-v2:236b": { + "description": "DeepSeek Coder V2 is an open-source hybrid expert code model that performs excellently in coding tasks, comparable to GPT4-Turbo." + }, + "deepseek-v2": { + "description": "DeepSeek V2 is an efficient Mixture-of-Experts language model, suitable for cost-effective processing needs." + }, + "deepseek-v2:236b": { + "description": "DeepSeek V2 236B is the design code model of DeepSeek, providing powerful code generation capabilities." + }, + "deepseek/deepseek-chat": { + "description": "A new open-source model that integrates general and coding capabilities, retaining the general conversational abilities of the original Chat model and the powerful code handling capabilities of the Coder model, while better aligning with human preferences. Additionally, DeepSeek-V2.5 has achieved significant improvements in writing tasks, instruction following, and more." + }, + "emohaa": { + "description": "Emohaa is a psychological model with professional counseling capabilities, helping users understand emotional issues." + }, + "gemini-1.0-pro-001": { + "description": "Gemini 1.0 Pro 001 (Tuning) offers stable and tunable performance, making it an ideal choice for complex task solutions." + }, + "gemini-1.0-pro-002": { + "description": "Gemini 1.0 Pro 002 (Tuning) provides excellent multimodal support, focusing on effective solutions for complex tasks." + }, + "gemini-1.0-pro-latest": { + "description": "Gemini 1.0 Pro is Google's high-performance AI model, designed for extensive task scaling." + }, + "gemini-1.5-flash-001": { + "description": "Gemini 1.5 Flash 001 is an efficient multimodal model that supports extensive application scaling." + }, + "gemini-1.5-flash-8b-exp-0827": { + "description": "Gemini 1.5 Flash 8B 0827 is designed for handling large-scale task scenarios, providing unparalleled processing speed." + }, + "gemini-1.5-flash-exp-0827": { + "description": "Gemini 1.5 Flash 0827 offers optimized multimodal processing capabilities, suitable for a variety of complex task scenarios." + }, + "gemini-1.5-flash-latest": { + "description": "Gemini 1.5 Flash is Google's latest multimodal AI model, featuring fast processing capabilities and supporting text, image, and video inputs, making it suitable for efficient scaling across various tasks." + }, + "gemini-1.5-pro-001": { + "description": "Gemini 1.5 Pro 001 is a scalable multimodal AI solution that supports a wide range of complex tasks." + }, + "gemini-1.5-pro-exp-0801": { + "description": "Gemini 1.5 Pro 0801 offers excellent multimodal processing capabilities, providing greater flexibility for application development." + }, + "gemini-1.5-pro-exp-0827": { + "description": "Gemini 1.5 Pro 0827 combines the latest optimization technologies to deliver more efficient multimodal data processing capabilities." + }, + "gemini-1.5-pro-latest": { + "description": "Gemini 1.5 Pro supports up to 2 million tokens, making it an ideal choice for medium-sized multimodal models, providing multifaceted support for complex tasks." + }, + "gemma-7b-it": { + "description": "Gemma 7B is suitable for medium to small-scale task processing, offering cost-effectiveness." + }, + "gemma2": { + "description": "Gemma 2 is an efficient model launched by Google, covering a variety of application scenarios from small applications to complex data processing." + }, + "gemma2-9b-it": { + "description": "Gemma 2 9B is a model optimized for specific tasks and tool integration." + }, + "gemma2:27b": { + "description": "Gemma 2 is an efficient model launched by Google, covering a variety of application scenarios from small applications to complex data processing." + }, + "gemma2:2b": { + "description": "Gemma 2 is an efficient model launched by Google, covering a variety of application scenarios from small applications to complex data processing." + }, + "general": { + "description": "Spark Lite is a lightweight large language model with extremely low latency and efficient processing capabilities, completely free and open, supporting real-time online search functionality. Its fast response characteristics make it excel in inference applications and model fine-tuning on low-power devices, providing users with excellent cost-effectiveness and intelligent experiences, particularly in knowledge Q&A, content generation, and search scenarios." + }, + "generalv3": { + "description": "Spark Pro is a high-performance large language model optimized for professional fields, focusing on mathematics, programming, healthcare, education, and more, supporting online search and built-in plugins for weather, dates, etc. Its optimized model demonstrates excellent performance and efficiency in complex knowledge Q&A, language understanding, and high-level text creation, making it an ideal choice for professional application scenarios." + }, + "generalv3.5": { + "description": "Spark3.5 Max is the most comprehensive version, supporting online search and numerous built-in plugins. Its fully optimized core capabilities, along with system role settings and function calling features, enable it to perform exceptionally well in various complex application scenarios." + }, + "glm-4": { + "description": "GLM-4 is the old flagship version released in January 2024, currently replaced by the more powerful GLM-4-0520." + }, + "glm-4-0520": { + "description": "GLM-4-0520 is the latest model version designed for highly complex and diverse tasks, demonstrating outstanding performance." + }, + "glm-4-air": { + "description": "GLM-4-Air is a cost-effective version with performance close to GLM-4, offering fast speed at an affordable price." + }, + "glm-4-airx": { + "description": "GLM-4-AirX provides an efficient version of GLM-4-Air, with inference speeds up to 2.6 times faster." + }, + "glm-4-alltools": { + "description": "GLM-4-AllTools is a multifunctional intelligent agent model optimized to support complex instruction planning and tool invocation, such as web browsing, code interpretation, and text generation, suitable for multitasking." + }, + "glm-4-flash": { + "description": "GLM-4-Flash is the ideal choice for handling simple tasks, being the fastest and most cost-effective." + }, + "glm-4-long": { + "description": "GLM-4-Long supports ultra-long text inputs, suitable for memory-based tasks and large-scale document processing." + }, + "glm-4-plus": { + "description": "GLM-4-Plus, as a high-intelligence flagship, possesses strong capabilities for processing long texts and complex tasks, with overall performance improvements." + }, + "glm-4v": { + "description": "GLM-4V provides strong image understanding and reasoning capabilities, supporting various visual tasks." + }, + "glm-4v-plus": { + "description": "GLM-4V-Plus has the ability to understand video content and multiple images, suitable for multimodal tasks." + }, + "google/gemini-flash-1.5-exp": { + "description": "Gemini 1.5 Flash 0827 provides optimized multimodal processing capabilities, suitable for various complex task scenarios." + }, + "google/gemini-pro-1.5-exp": { + "description": "Gemini 1.5 Pro 0827 combines the latest optimization technologies to deliver more efficient multimodal data processing capabilities." + }, + "google/gemma-2-27b-it": { + "description": "Gemma 2 continues the design philosophy of being lightweight and efficient." + }, + "google/gemma-2-9b-it": { + "description": "Gemma 2 is Google's lightweight open-source text model series." + }, + "google/gemma-2-9b-it:free": { + "description": "Gemma 2 is Google's lightweight open-source text model series." + }, + "google/gemma-2b-it": { + "description": "Gemma Instruct (2B) provides basic instruction processing capabilities, suitable for lightweight applications." + }, + "gpt-3.5-turbo": { + "description": "GPT 3.5 Turbo is suitable for various text generation and understanding tasks. Currently points to gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-0125": { + "description": "GPT 3.5 Turbo is suitable for various text generation and understanding tasks. Currently points to gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-1106": { + "description": "GPT 3.5 Turbo is suitable for various text generation and understanding tasks. Currently points to gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-instruct": { + "description": "GPT 3.5 Turbo is suitable for various text generation and understanding tasks. Currently points to gpt-3.5-turbo-0125." + }, + "gpt-4": { + "description": "GPT-4 offers a larger context window, capable of handling longer text inputs, making it suitable for scenarios that require extensive information integration and data analysis." + }, + "gpt-4-0125-preview": { + "description": "The latest GPT-4 Turbo model features visual capabilities. Now, visual requests can be made using JSON format and function calls. GPT-4 Turbo is an enhanced version that provides cost-effective support for multimodal tasks. It strikes a balance between accuracy and efficiency, making it suitable for applications requiring real-time interaction." + }, + "gpt-4-0613": { + "description": "GPT-4 offers a larger context window, capable of handling longer text inputs, making it suitable for scenarios that require extensive information integration and data analysis." + }, + "gpt-4-1106-preview": { + "description": "The latest GPT-4 Turbo model features visual capabilities. Now, visual requests can be made using JSON format and function calls. GPT-4 Turbo is an enhanced version that provides cost-effective support for multimodal tasks. It strikes a balance between accuracy and efficiency, making it suitable for applications requiring real-time interaction." + }, + "gpt-4-1106-vision-preview": { + "description": "The latest GPT-4 Turbo model features visual capabilities. Now, visual requests can be made using JSON format and function calls. GPT-4 Turbo is an enhanced version that provides cost-effective support for multimodal tasks. It strikes a balance between accuracy and efficiency, making it suitable for applications requiring real-time interaction." + }, + "gpt-4-32k": { + "description": "GPT-4 offers a larger context window, capable of handling longer text inputs, making it suitable for scenarios that require extensive information integration and data analysis." + }, + "gpt-4-32k-0613": { + "description": "GPT-4 offers a larger context window, capable of handling longer text inputs, making it suitable for scenarios that require extensive information integration and data analysis." + }, + "gpt-4-turbo": { + "description": "The latest GPT-4 Turbo model features visual capabilities. Now, visual requests can be made using JSON format and function calls. GPT-4 Turbo is an enhanced version that provides cost-effective support for multimodal tasks. It strikes a balance between accuracy and efficiency, making it suitable for applications requiring real-time interaction." + }, + "gpt-4-turbo-2024-04-09": { + "description": "The latest GPT-4 Turbo model features visual capabilities. Now, visual requests can be made using JSON format and function calls. GPT-4 Turbo is an enhanced version that provides cost-effective support for multimodal tasks. It strikes a balance between accuracy and efficiency, making it suitable for applications requiring real-time interaction." + }, + "gpt-4-turbo-preview": { + "description": "The latest GPT-4 Turbo model features visual capabilities. Now, visual requests can be made using JSON format and function calls. GPT-4 Turbo is an enhanced version that provides cost-effective support for multimodal tasks. It strikes a balance between accuracy and efficiency, making it suitable for applications requiring real-time interaction." + }, + "gpt-4-vision-preview": { + "description": "The latest GPT-4 Turbo model features visual capabilities. Now, visual requests can be made using JSON format and function calls. GPT-4 Turbo is an enhanced version that provides cost-effective support for multimodal tasks. It strikes a balance between accuracy and efficiency, making it suitable for applications requiring real-time interaction." + }, + "gpt-4o": { + "description": "ChatGPT-4o is a dynamic model that updates in real-time to stay current with the latest version. It combines powerful language understanding and generation capabilities, making it suitable for large-scale applications, including customer service, education, and technical support." + }, + "gpt-4o-2024-05-13": { + "description": "ChatGPT-4o is a dynamic model that updates in real-time to stay current with the latest version. It combines powerful language understanding and generation capabilities, making it suitable for large-scale applications, including customer service, education, and technical support." + }, + "gpt-4o-2024-08-06": { + "description": "ChatGPT-4o is a dynamic model that updates in real-time to stay current with the latest version. It combines powerful language understanding and generation capabilities, making it suitable for large-scale applications, including customer service, education, and technical support." + }, + "gpt-4o-mini": { + "description": "GPT-4o mini is the latest model released by OpenAI after GPT-4 Omni, supporting both image and text input while outputting text. As their most advanced small model, it is significantly cheaper than other recent cutting-edge models, costing over 60% less than GPT-3.5 Turbo. It maintains state-of-the-art intelligence while offering remarkable cost-effectiveness. GPT-4o mini scored 82% on the MMLU test and currently ranks higher than GPT-4 in chat preferences." + }, + "gryphe/mythomax-l2-13b": { + "description": "MythoMax l2 13B is a language model that combines creativity and intelligence by merging multiple top models." + }, + "internlm/internlm2_5-20b-chat": { + "description": "The innovative open-source model InternLM2.5 enhances dialogue intelligence through a large number of parameters." + }, + "internlm/internlm2_5-7b-chat": { + "description": "InternLM2.5 offers intelligent dialogue solutions across multiple scenarios." + }, + "llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct model, featuring 70B parameters, delivers outstanding performance in large text generation and instruction tasks." + }, + "llama-3.1-70b-versatile": { + "description": "Llama 3.1 70B provides enhanced AI reasoning capabilities, suitable for complex applications, supporting extensive computational processing while ensuring efficiency and accuracy." + }, + "llama-3.1-8b-instant": { + "description": "Llama 3.1 8B is a high-performance model that offers rapid text generation capabilities, making it ideal for applications requiring large-scale efficiency and cost-effectiveness." + }, + "llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct model, featuring 8B parameters, supports efficient execution of visual instruction tasks, providing high-quality text generation capabilities." + }, + "llama-3.1-sonar-huge-128k-online": { + "description": "Llama 3.1 Sonar Huge Online model, featuring 405B parameters, supports a context length of approximately 127,000 tokens, designed for complex online chat applications." + }, + "llama-3.1-sonar-large-128k-chat": { + "description": "Llama 3.1 Sonar Large Chat model, featuring 70B parameters, supports a context length of approximately 127,000 tokens, suitable for complex offline chat tasks." + }, + "llama-3.1-sonar-large-128k-online": { + "description": "Llama 3.1 Sonar Large Online model, featuring 70B parameters, supports a context length of approximately 127,000 tokens, suitable for high-capacity and diverse chat tasks." + }, + "llama-3.1-sonar-small-128k-chat": { + "description": "Llama 3.1 Sonar Small Chat model, featuring 8B parameters, designed for offline chat, supports a context length of approximately 127,000 tokens." + }, + "llama-3.1-sonar-small-128k-online": { + "description": "Llama 3.1 Sonar Small Online model, featuring 8B parameters, supports a context length of approximately 127,000 tokens, designed for online chat, efficiently handling various text interactions." + }, + "llama3-70b-8192": { + "description": "Meta Llama 3 70B provides unparalleled complexity handling capabilities, tailored for high-demand projects." + }, + "llama3-8b-8192": { + "description": "Meta Llama 3 8B delivers high-quality reasoning performance, suitable for diverse application needs." + }, + "llama3-groq-70b-8192-tool-use-preview": { + "description": "Llama 3 Groq 70B Tool Use offers powerful tool invocation capabilities, supporting efficient processing of complex tasks." + }, + "llama3-groq-8b-8192-tool-use-preview": { + "description": "Llama 3 Groq 8B Tool Use is a model optimized for efficient tool usage, supporting fast parallel computation." + }, + "llama3.1": { + "description": "Llama 3.1 is a leading model launched by Meta, supporting up to 405B parameters, applicable in complex dialogues, multilingual translation, and data analysis." + }, + "llama3.1:405b": { + "description": "Llama 3.1 is a leading model launched by Meta, supporting up to 405B parameters, applicable in complex dialogues, multilingual translation, and data analysis." + }, + "llama3.1:70b": { + "description": "Llama 3.1 is a leading model launched by Meta, supporting up to 405B parameters, applicable in complex dialogues, multilingual translation, and data analysis." + }, + "llava": { + "description": "LLaVA is a multimodal model that combines a visual encoder with Vicuna for powerful visual and language understanding." + }, + "llava-v1.5-7b-4096-preview": { + "description": "LLaVA 1.5 7B offers integrated visual processing capabilities, generating complex outputs from visual information inputs." + }, + "llava:13b": { + "description": "LLaVA is a multimodal model that combines a visual encoder with Vicuna for powerful visual and language understanding." + }, + "llava:34b": { + "description": "LLaVA is a multimodal model that combines a visual encoder with Vicuna for powerful visual and language understanding." + }, + "mathstral": { + "description": "MathΣtral is designed for scientific research and mathematical reasoning, providing effective computational capabilities and result interpretation." + }, + "meta-llama/Llama-2-13b-chat-hf": { + "description": "LLaMA-2 Chat (13B) offers excellent language processing capabilities and outstanding interactive experiences." + }, + "meta-llama/Llama-3-70b-chat-hf": { + "description": "LLaMA-3 Chat (70B) is a powerful chat model that supports complex conversational needs." + }, + "meta-llama/Llama-3-8b-chat-hf": { + "description": "LLaMA-3 Chat (8B) provides multilingual support, covering a rich array of domain knowledge." + }, + "meta-llama/Meta-Llama-3-70B-Instruct": { + "description": "LLaMA 3 supports large-scale text generation and instruction parsing." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { + "description": "Llama 3 70B Instruct Lite is suitable for environments requiring high performance and low latency." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": { + "description": "Llama 3 70B Instruct Turbo offers exceptional language understanding and generation capabilities, suitable for the most demanding computational tasks." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Lite": { + "description": "Llama 3 8B Instruct Lite is designed for resource-constrained environments, providing excellent balanced performance." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": { + "description": "Llama 3 8B Instruct Turbo is a high-performance large language model, supporting a wide range of application scenarios." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct": { + "description": "LLaMA 3.1 405B is a powerful model for pre-training and instruction tuning." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": { + "description": "The 405B Llama 3.1 Turbo model provides massive context support for big data processing, excelling in large-scale AI applications." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct": { + "description": "LLaMA 3.1 70B offers efficient conversational support in multiple languages." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": { + "description": "Llama 3.1 70B model is finely tuned for high-load applications, quantized to FP8 for enhanced computational efficiency and accuracy, ensuring outstanding performance in complex scenarios." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct": { + "description": "LLaMA 3.1 provides multilingual support and is one of the industry's leading generative models." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": { + "description": "Llama 3.1 8B model utilizes FP8 quantization, supporting up to 131,072 context tokens, making it a standout in open-source models, excelling in complex tasks and outperforming many industry benchmarks." + }, + "meta-llama/llama-3-70b-instruct": { + "description": "Llama 3 70B Instruct is optimized for high-quality conversational scenarios, demonstrating excellent performance in various human evaluations." + }, + "meta-llama/llama-3-8b-instruct": { + "description": "Llama 3 8B Instruct is optimized for high-quality conversational scenarios, performing better than many closed-source models." + }, + "meta-llama/llama-3.1-405b-instruct": { + "description": "Llama 3.1 405B Instruct is the latest version from Meta, optimized for generating high-quality dialogues, surpassing many leading closed-source models." + }, + "meta-llama/llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct is designed for high-quality conversations, excelling in human evaluations, particularly in highly interactive scenarios." + }, + "meta-llama/llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct is the latest version released by Meta, optimized for high-quality conversational scenarios, outperforming many leading closed-source models." + }, + "meta-llama/llama-3.1-8b-instruct:free": { + "description": "LLaMA 3.1 offers multilingual support and is one of the industry's leading generative models." + }, + "meta.llama3-1-405b-instruct-v1:0": { + "description": "Meta Llama 3.1 405B Instruct is the largest and most powerful model in the Llama 3.1 Instruct series. It is a highly advanced conversational reasoning and synthetic data generation model, which can also serve as a foundation for specialized continuous pre-training or fine-tuning in specific domains. The multilingual large language models (LLMs) provided by Llama 3.1 are a set of pre-trained, instruction-tuned generative models, including sizes of 8B, 70B, and 405B (text input/output). The instruction-tuned text models (8B, 70B, 405B) are optimized for multilingual conversational use cases and have outperformed many available open-source chat models in common industry benchmarks. Llama 3.1 is designed for commercial and research purposes across multiple languages. The instruction-tuned text models are suitable for assistant-like chat, while the pre-trained models can adapt to various natural language generation tasks. The Llama 3.1 models also support improving other models using their outputs, including synthetic data generation and refinement. Llama 3.1 is an autoregressive language model built using an optimized transformer architecture. The tuned versions utilize supervised fine-tuning (SFT) and reinforcement learning with human feedback (RLHF) to align with human preferences for helpfulness and safety." + }, + "meta.llama3-1-70b-instruct-v1:0": { + "description": "The updated version of Meta Llama 3.1 70B Instruct includes an extended 128K context length, multilingual capabilities, and improved reasoning abilities. The multilingual large language models (LLMs) provided by Llama 3.1 are a set of pre-trained, instruction-tuned generative models, including sizes of 8B, 70B, and 405B (text input/output). The instruction-tuned text models (8B, 70B, 405B) are optimized for multilingual dialogue use cases and have surpassed many available open-source chat models in common industry benchmarks. Llama 3.1 is designed for commercial and research purposes in multiple languages. The instruction-tuned text models are suitable for assistant-like chat, while the pre-trained models can adapt to various natural language generation tasks. The Llama 3.1 model also supports using its outputs to improve other models, including synthetic data generation and refinement. Llama 3.1 is an autoregressive language model using optimized transformer architecture. The tuned versions use supervised fine-tuning (SFT) and reinforcement learning with human feedback (RLHF) to align with human preferences for helpfulness and safety." + }, + "meta.llama3-1-8b-instruct-v1:0": { + "description": "The updated version of Meta Llama 3.1 8B Instruct includes an extended 128K context length, multilingual capabilities, and improved reasoning abilities. The multilingual large language models (LLMs) provided by Llama 3.1 are a set of pre-trained, instruction-tuned generative models, including sizes of 8B, 70B, and 405B (text input/output). The instruction-tuned text models (8B, 70B, 405B) are optimized for multilingual dialogue use cases and have surpassed many available open-source chat models in common industry benchmarks. Llama 3.1 is designed for commercial and research purposes in multiple languages. The instruction-tuned text models are suitable for assistant-like chat, while the pre-trained models can adapt to various natural language generation tasks. The Llama 3.1 model also supports using its outputs to improve other models, including synthetic data generation and refinement. Llama 3.1 is an autoregressive language model using optimized transformer architecture. The tuned versions use supervised fine-tuning (SFT) and reinforcement learning with human feedback (RLHF) to align with human preferences for helpfulness and safety." + }, + "meta.llama3-70b-instruct-v1:0": { + "description": "Meta Llama 3 is an open large language model (LLM) aimed at developers, researchers, and enterprises, designed to help them build, experiment, and responsibly scale their generative AI ideas. As part of a foundational system for global community innovation, it is particularly suitable for content creation, conversational AI, language understanding, R&D, and enterprise applications." + }, + "meta.llama3-8b-instruct-v1:0": { + "description": "Meta Llama 3 is an open large language model (LLM) aimed at developers, researchers, and enterprises, designed to help them build, experiment, and responsibly scale their generative AI ideas. As part of a foundational system for global community innovation, it is particularly suitable for those with limited computational power and resources, edge devices, and faster training times." + }, + "microsoft/wizardlm 2-7b": { + "description": "WizardLM 2 7B is Microsoft's latest lightweight AI model, performing nearly ten times better than existing leading open-source models." + }, + "microsoft/wizardlm-2-8x22b": { + "description": "WizardLM-2 8x22B is Microsoft's state-of-the-art Wizard model, demonstrating extremely competitive performance." + }, + "minicpm-v": { + "description": "MiniCPM-V is a next-generation multimodal large model launched by OpenBMB, boasting exceptional OCR recognition and multimodal understanding capabilities, supporting a wide range of application scenarios." + }, + "mistral": { + "description": "Mistral is a 7B model released by Mistral AI, suitable for diverse language processing needs." + }, + "mistral-large": { + "description": "Mixtral Large is Mistral's flagship model, combining capabilities in code generation, mathematics, and reasoning, supporting a 128k context window." + }, + "mistral-large-latest": { + "description": "Mistral Large is the flagship model, excelling in multilingual tasks, complex reasoning, and code generation, making it an ideal choice for high-end applications." + }, + "mistral-nemo": { + "description": "Mistral Nemo, developed in collaboration with Mistral AI and NVIDIA, is a high-performance 12B model." + }, + "mistralai/Mistral-7B-Instruct-v0.1": { + "description": "Mistral (7B) Instruct is known for its high performance, suitable for various language tasks." + }, + "mistralai/Mistral-7B-Instruct-v0.2": { + "description": "Mistral 7B is a model fine-tuned on demand, providing optimized answers for tasks." + }, + "mistralai/Mistral-7B-Instruct-v0.3": { + "description": "Mistral (7B) Instruct v0.3 offers efficient computational power and natural language understanding, suitable for a wide range of applications." + }, + "mistralai/Mixtral-8x22B-Instruct-v0.1": { + "description": "Mixtral-8x22B Instruct (141B) is a super large language model that supports extremely high processing demands." + }, + "mistralai/Mixtral-8x7B-Instruct-v0.1": { + "description": "Mixtral 8x7B is a pre-trained sparse mixture of experts model for general text tasks." + }, + "mistralai/mistral-7b-instruct": { + "description": "Mistral 7B Instruct is a high-performance industry-standard model optimized for speed and long context support." + }, + "mistralai/mistral-nemo": { + "description": "Mistral Nemo is a multilingual model with 7.3 billion parameters, designed for high-performance programming." + }, + "mixtral": { + "description": "Mixtral is an expert model from Mistral AI, featuring open-source weights and providing support in code generation and language understanding." + }, + "mixtral-8x7b-32768": { + "description": "Mixtral 8x7B provides high fault-tolerant parallel computing capabilities, suitable for complex tasks." + }, + "mixtral:8x22b": { + "description": "Mixtral is an expert model from Mistral AI, featuring open-source weights and providing support in code generation and language understanding." + }, + "moonshot-v1-128k": { + "description": "Moonshot V1 128K is a model with ultra-long context processing capabilities, suitable for generating extremely long texts, meeting the demands of complex generation tasks, capable of handling up to 128,000 tokens, making it ideal for research, academia, and large document generation." + }, + "moonshot-v1-32k": { + "description": "Moonshot V1 32K offers medium-length context processing capabilities, able to handle 32,768 tokens, particularly suitable for generating various long documents and complex dialogues, applicable in content creation, report generation, and dialogue systems." + }, + "moonshot-v1-8k": { + "description": "Moonshot V1 8K is designed for generating short text tasks, featuring efficient processing performance, capable of handling 8,192 tokens, making it ideal for brief dialogues, note-taking, and rapid content generation." + }, + "nousresearch/hermes-2-pro-llama-3-8b": { + "description": "Hermes 2 Pro Llama 3 8B is an upgraded version of Nous Hermes 2, featuring the latest internally developed datasets." + }, + "o1-mini": { + "description": "o1-mini is a fast and cost-effective reasoning model designed for programming, mathematics, and scientific applications. This model features a 128K context and has a knowledge cutoff date of October 2023." + }, + "o1-preview": { + "description": "o1 is OpenAI's new reasoning model, suitable for complex tasks that require extensive general knowledge. This model features a 128K context and has a knowledge cutoff date of October 2023." + }, + "open-codestral-mamba": { + "description": "Codestral Mamba is a language model focused on code generation, providing strong support for advanced coding and reasoning tasks." + }, + "open-mistral-7b": { + "description": "Mistral 7B is a compact yet high-performance model, excelling in batch processing and simple tasks such as classification and text generation, with good reasoning capabilities." + }, + "open-mistral-nemo": { + "description": "Mistral Nemo is a 12B model developed in collaboration with Nvidia, offering outstanding reasoning and coding performance, easy to integrate and replace." + }, + "open-mixtral-8x22b": { + "description": "Mixtral 8x22B is a larger expert model focused on complex tasks, providing excellent reasoning capabilities and higher throughput." + }, + "open-mixtral-8x7b": { + "description": "Mixtral 8x7B is a sparse expert model that leverages multiple parameters to enhance reasoning speed, suitable for handling multilingual and code generation tasks." + }, + "openai/gpt-4o-2024-08-06": { + "description": "ChatGPT-4o is a dynamic model that updates in real-time to maintain the latest version. It combines powerful language understanding and generation capabilities, making it suitable for large-scale application scenarios, including customer service, education, and technical support." + }, + "openai/gpt-4o-mini": { + "description": "GPT-4o mini is the latest model released by OpenAI following GPT-4 Omni, supporting both text and image input while outputting text. As their most advanced small model, it is significantly cheaper than other recent cutting-edge models and over 60% cheaper than GPT-3.5 Turbo. It maintains state-of-the-art intelligence while offering remarkable cost-effectiveness. GPT-4o mini scored 82% on the MMLU test and currently ranks higher than GPT-4 in chat preferences." + }, + "openai/o1-mini": { + "description": "o1-mini is a fast and cost-effective reasoning model designed for programming, mathematics, and scientific applications. This model features a 128K context and has a knowledge cutoff date of October 2023." + }, + "openai/o1-preview": { + "description": "o1 is OpenAI's new reasoning model, suitable for complex tasks that require extensive general knowledge. This model features a 128K context and has a knowledge cutoff date of October 2023." + }, + "openchat/openchat-7b": { + "description": "OpenChat 7B is an open-source language model library fine-tuned using the 'C-RLFT (Conditional Reinforcement Learning Fine-Tuning)' strategy." + }, + "openrouter/auto": { + "description": "Based on context length, topic, and complexity, your request will be sent to Llama 3 70B Instruct, Claude 3.5 Sonnet (self-regulating), or GPT-4o." + }, + "phi3": { + "description": "Phi-3 is a lightweight open model launched by Microsoft, suitable for efficient integration and large-scale knowledge reasoning." + }, + "phi3:14b": { + "description": "Phi-3 is a lightweight open model launched by Microsoft, suitable for efficient integration and large-scale knowledge reasoning." + }, + "qwen-long": { + "description": "Qwen is a large-scale language model that supports long text contexts and dialogue capabilities based on long documents and multiple documents." + }, + "qwen-max": { + "description": "Qwen is a large-scale language model with hundreds of billions of parameters, supporting input in various languages, including Chinese and English, currently the API model behind the Qwen 2.5 product version." + }, + "qwen-max-longcontext": { + "description": "Qwen is a large-scale language model with hundreds of billions of parameters, supporting input in various languages, including Chinese and English, with an expanded context window." + }, + "qwen-plus": { + "description": "Qwen is an enhanced version of the large-scale language model that supports input in various languages, including Chinese and English." + }, + "qwen-turbo": { + "description": "Qwen is a large-scale language model that supports input in various languages, including Chinese and English." + }, + "qwen-vl-chat-v1": { + "description": "Qwen VL supports flexible interaction methods, including multi-image, multi-turn Q&A, and creative capabilities." + }, + "qwen-vl-max": { + "description": "Qwen is a large-scale visual language model. Compared to the enhanced version, it further improves visual reasoning and instruction-following capabilities, providing higher levels of visual perception and cognition." + }, + "qwen-vl-plus": { + "description": "Qwen is a large-scale visual language model enhanced version. It significantly improves detail recognition and text recognition capabilities, supporting images with resolutions over one million pixels and any aspect ratio." + }, + "qwen-vl-v1": { + "description": "Initialized with the Qwen-7B language model, this pre-trained model adds an image model with an input resolution of 448." + }, + "qwen/qwen-2-7b-instruct:free": { + "description": "Qwen2 is a brand new series of large language models with enhanced understanding and generation capabilities." + }, + "qwen2": { + "description": "Qwen2 is Alibaba's next-generation large-scale language model, supporting diverse application needs with excellent performance." + }, + "qwen2-57b-a14b-instruct": { + "description": "Qwen2 is an open-source 57B scale model with 14B active parameters in the MOE model." + }, + "qwen2-72b-instruct": { + "description": "Qwen2 is an open-source 72B scale model." + }, + "qwen2-7b-instruct": { + "description": "Qwen2 is an open-source 7B scale model." + }, + "qwen2-math-72b-instruct": { + "description": "Qwen2-Math model has strong mathematical problem-solving capabilities." + }, + "qwen2:0.5b": { + "description": "Qwen2 is Alibaba's next-generation large-scale language model, supporting diverse application needs with excellent performance." + }, + "qwen2:1.5b": { + "description": "Qwen2 is Alibaba's next-generation large-scale language model, supporting diverse application needs with excellent performance." + }, + "qwen2:72b": { + "description": "Qwen2 is Alibaba's next-generation large-scale language model, supporting diverse application needs with excellent performance." + }, + "solar-1-mini-chat": { + "description": "Solar Mini is a compact LLM that outperforms GPT-3.5, featuring strong multilingual capabilities, supporting English and Korean, and providing an efficient and compact solution." + }, + "solar-1-mini-chat-ja": { + "description": "Solar Mini (Ja) extends the capabilities of Solar Mini, focusing on Japanese while maintaining efficiency and excellent performance in English and Korean usage." + }, + "solar-pro": { + "description": "Solar Pro is a highly intelligent LLM launched by Upstage, focusing on single-GPU instruction-following capabilities, with an IFEval score above 80. Currently supports English, with a formal version planned for release in November 2024, which will expand language support and context length." + }, + "step-1-128k": { + "description": "Balances performance and cost, suitable for general scenarios." + }, + "step-1-256k": { + "description": "Equipped with ultra-long context processing capabilities, especially suitable for long document analysis." + }, + "step-1-32k": { + "description": "Supports medium-length dialogues, applicable to various application scenarios." + }, + "step-1-8k": { + "description": "Small model, suitable for lightweight tasks." + }, + "step-1-flash": { + "description": "High-speed model, suitable for real-time dialogues." + }, + "step-1v-32k": { + "description": "Supports visual input, enhancing multimodal interaction experiences." + }, + "step-1v-8k": { + "description": "A small visual model suitable for basic text and image tasks." + }, + "step-2-16k": { + "description": "Supports large-scale context interactions, suitable for complex dialogue scenarios." + }, + "taichu_llm": { + "description": "The ZD Taichu language model possesses strong language understanding capabilities and excels in text creation, knowledge Q&A, code programming, mathematical calculations, logical reasoning, sentiment analysis, and text summarization. It innovatively combines large-scale pre-training with rich knowledge from multiple sources, continuously refining algorithmic techniques and absorbing new knowledge in vocabulary, structure, grammar, and semantics from vast text data, resulting in an evolving model performance. It provides users with more convenient information and services, as well as a more intelligent experience." + }, + "togethercomputer/StripedHyena-Nous-7B": { + "description": "StripedHyena Nous (7B) provides enhanced computational capabilities through efficient strategies and model architecture." + }, + "upstage/SOLAR-10.7B-Instruct-v1.0": { + "description": "Upstage SOLAR Instruct v1 (11B) is suitable for refined instruction tasks, offering excellent language processing capabilities." + }, + "wizardlm2": { + "description": "WizardLM 2 is a language model provided by Microsoft AI, excelling in complex dialogues, multilingual capabilities, reasoning, and intelligent assistant applications." + }, + "wizardlm2:8x22b": { + "description": "WizardLM 2 is a language model provided by Microsoft AI, excelling in complex dialogues, multilingual capabilities, reasoning, and intelligent assistant applications." + }, + "yi-large": { + "description": "A new trillion-parameter model, providing super strong question-answering and text generation capabilities." + }, + "yi-large-fc": { + "description": "Based on the yi-large model, supports and enhances tool invocation capabilities, suitable for various business scenarios requiring agent or workflow construction." + }, + "yi-large-preview": { + "description": "Initial version, recommended to use yi-large (new version)." + }, + "yi-large-rag": { + "description": "High-level service based on the yi-large super strong model, combining retrieval and generation techniques to provide precise answers and real-time information retrieval services." + }, + "yi-large-turbo": { + "description": "Exceptional performance at a high cost-performance ratio. Conducts high-precision tuning based on performance, inference speed, and cost." + }, + "yi-medium": { + "description": "Medium-sized model upgraded and fine-tuned, balanced capabilities, and high cost-performance ratio. Deeply optimized instruction-following capabilities." + }, + "yi-medium-200k": { + "description": "200K ultra-long context window, providing deep understanding and generation capabilities for long texts." + }, + "yi-spark": { + "description": "Small yet powerful, lightweight and fast model. Provides enhanced mathematical computation and coding capabilities." + }, + "yi-vision": { + "description": "Model for complex visual tasks, providing high-performance image understanding and analysis capabilities." + } +} diff --git a/locales/en-US/providers.json b/locales/en-US/providers.json new file mode 100644 index 000000000000..99f00a190e90 --- /dev/null +++ b/locales/en-US/providers.json @@ -0,0 +1,80 @@ +{ + "ai360": { + "description": "360 AI is an AI model and service platform launched by 360 Company, offering various advanced natural language processing models, including 360GPT2 Pro, 360GPT Pro, 360GPT Turbo, and 360GPT Turbo Responsibility 8K. These models combine large-scale parameters and multimodal capabilities, widely applied in text generation, semantic understanding, dialogue systems, and code generation. With flexible pricing strategies, 360 AI meets diverse user needs, supports developer integration, and promotes the innovation and development of intelligent applications." + }, + "anthropic": { + "description": "Anthropic is a company focused on AI research and development, offering a range of advanced language models such as Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus, and Claude 3 Haiku. These models achieve an ideal balance between intelligence, speed, and cost, suitable for various applications from enterprise workloads to rapid-response scenarios. Claude 3.5 Sonnet, as their latest model, has excelled in multiple evaluations while maintaining a high cost-performance ratio." + }, + "azure": { + "description": "Azure offers a variety of advanced AI models, including GPT-3.5 and the latest GPT-4 series, supporting various data types and complex tasks, dedicated to secure, reliable, and sustainable AI solutions." + }, + "baichuan": { + "description": "Baichuan Intelligence is a company focused on the research and development of large AI models, with its models excelling in domestic knowledge encyclopedias, long text processing, and generative creation tasks in Chinese, surpassing mainstream foreign models. Baichuan Intelligence also possesses industry-leading multimodal capabilities, performing excellently in multiple authoritative evaluations. Its models include Baichuan 4, Baichuan 3 Turbo, and Baichuan 3 Turbo 128k, each optimized for different application scenarios, providing cost-effective solutions." + }, + "bedrock": { + "description": "Bedrock is a service provided by Amazon AWS, focusing on delivering advanced AI language and visual models for enterprises. Its model family includes Anthropic's Claude series, Meta's Llama 3.1 series, and more, offering a range of options from lightweight to high-performance, supporting tasks such as text generation, conversation, and image processing for businesses of varying scales and needs." + }, + "deepseek": { + "description": "DeepSeek is a company focused on AI technology research and application, with its latest model DeepSeek-V2.5 integrating general dialogue and code processing capabilities, achieving significant improvements in human preference alignment, writing tasks, and instruction following." + }, + "fireworksai": { + "description": "Fireworks AI is a leading provider of advanced language model services, focusing on functional calling and multimodal processing. Its latest model, Firefunction V2, is based on Llama-3, optimized for function calling, conversation, and instruction following. The visual language model FireLLaVA-13B supports mixed input of images and text. Other notable models include the Llama series and Mixtral series, providing efficient multilingual instruction following and generation support." + }, + "google": { + "description": "Google's Gemini series represents its most advanced, versatile AI models, developed by Google DeepMind, designed for multimodal capabilities, supporting seamless understanding and processing of text, code, images, audio, and video. Suitable for various environments from data centers to mobile devices, it significantly enhances the efficiency and applicability of AI models." + }, + "groq": { + "description": "Groq's LPU inference engine has excelled in the latest independent large language model (LLM) benchmarks, redefining the standards for AI solutions with its remarkable speed and efficiency. Groq represents instant inference speed, demonstrating strong performance in cloud-based deployments." + }, + "minimax": { + "description": "MiniMax is a general artificial intelligence technology company established in 2021, dedicated to co-creating intelligence with users. MiniMax has independently developed general large models of different modalities, including trillion-parameter MoE text models, voice models, and image models, and has launched applications such as Conch AI." + }, + "mistral": { + "description": "Mistral provides advanced general, specialized, and research models widely used in complex reasoning, multilingual tasks, and code generation. Through functional calling interfaces, users can integrate custom functionalities for specific applications." + }, + "moonshot": { + "description": "Moonshot is an open-source platform launched by Beijing Dark Side Technology Co., Ltd., providing various natural language processing models with a wide range of applications, including but not limited to content creation, academic research, intelligent recommendations, and medical diagnosis, supporting long text processing and complex generation tasks." + }, + "novita": { + "description": "Novita AI is a platform providing a variety of large language models and AI image generation API services, flexible, reliable, and cost-effective. It supports the latest open-source models like Llama3 and Mistral, offering a comprehensive, user-friendly, and auto-scaling API solution for generative AI application development, suitable for the rapid growth of AI startups." + }, + "ollama": { + "description": "Ollama provides models that cover a wide range of fields, including code generation, mathematical operations, multilingual processing, and conversational interaction, catering to diverse enterprise-level and localized deployment needs." + }, + "openai": { + "description": "OpenAI is a global leader in artificial intelligence research, with models like the GPT series pushing the frontiers of natural language processing. OpenAI is committed to transforming multiple industries through innovative and efficient AI solutions. Their products demonstrate significant performance and cost-effectiveness, widely used in research, business, and innovative applications." + }, + "openrouter": { + "description": "OpenRouter is a service platform providing access to various cutting-edge large model interfaces, supporting OpenAI, Anthropic, LLaMA, and more, suitable for diverse development and application needs. Users can flexibly choose the optimal model and pricing based on their requirements, enhancing the AI experience." + }, + "perplexity": { + "description": "Perplexity is a leading provider of conversational generation models, offering various advanced Llama 3.1 models that support both online and offline applications, particularly suited for complex natural language processing tasks." + }, + "qwen": { + "description": "Tongyi Qianwen is a large-scale language model independently developed by Alibaba Cloud, featuring strong natural language understanding and generation capabilities. It can answer various questions, create written content, express opinions, and write code, playing a role in multiple fields." + }, + "siliconcloud": { + "description": "SiliconFlow is dedicated to accelerating AGI for the benefit of humanity, enhancing large-scale AI efficiency through an easy-to-use and cost-effective GenAI stack." + }, + "spark": { + "description": "iFlytek's Spark model provides powerful AI capabilities across multiple domains and languages, utilizing advanced natural language processing technology to build innovative applications suitable for smart hardware, smart healthcare, smart finance, and other vertical scenarios." + }, + "stepfun": { + "description": "StepFun's large model possesses industry-leading multimodal and complex reasoning capabilities, supporting ultra-long text understanding and powerful autonomous scheduling search engine functions." + }, + "taichu": { + "description": "The Institute of Automation, Chinese Academy of Sciences, and Wuhan Artificial Intelligence Research Institute have launched a new generation of multimodal large models, supporting comprehensive question-answering tasks such as multi-turn Q&A, text creation, image generation, 3D understanding, and signal analysis, with stronger cognitive, understanding, and creative abilities, providing a new interactive experience." + }, + "togetherai": { + "description": "Together AI is dedicated to achieving leading performance through innovative AI models, offering extensive customization capabilities, including rapid scaling support and intuitive deployment processes to meet various enterprise needs." + }, + "upstage": { + "description": "Upstage focuses on developing AI models for various business needs, including Solar LLM and document AI, aiming to achieve artificial general intelligence (AGI) for work. It allows for the creation of simple conversational agents through Chat API and supports functional calling, translation, embedding, and domain-specific applications." + }, + "zeroone": { + "description": "01.AI focuses on AI 2.0 era technologies, vigorously promoting the innovation and application of 'human + artificial intelligence', using powerful models and advanced AI technologies to enhance human productivity and achieve technological empowerment." + }, + "zhipu": { + "description": "Zhipu AI offers an open platform for multimodal and language models, supporting a wide range of AI application scenarios, including text processing, image understanding, and programming assistance." + } +} diff --git a/locales/es-ES/common.json b/locales/es-ES/common.json index 637e27e224d6..f7742da3c676 100644 --- a/locales/es-ES/common.json +++ b/locales/es-ES/common.json @@ -195,8 +195,8 @@ }, "tab": { "chat": "Chat", + "discover": "Descubrir", "files": "Archivos", - "market": "Descubrir", "me": "Yo", "setting": "Configuración" }, diff --git a/locales/es-ES/discover.json b/locales/es-ES/discover.json new file mode 100644 index 000000000000..42386cb6e223 --- /dev/null +++ b/locales/es-ES/discover.json @@ -0,0 +1,204 @@ +{ + "assistants": { + "addAgent": "Agregar asistente", + "addAgentAndConverse": "Agregar asistente y conversar", + "addAgentSuccess": "Agregado con éxito", + "conversation": { + "l1": "Hola, soy **{{name}}**, puedes preguntarme cualquier cosa y haré lo posible por responderte ~", + "l2": "Aquí tienes una introducción a mis capacidades: ", + "l3": "¡Comencemos la conversación!" + }, + "description": "Introducción al asistente", + "detail": "Detalles", + "list": "Lista de asistentes", + "more": "Más", + "plugins": "Integrar complementos", + "recentSubmits": "Actualizaciones recientes", + "suggestions": "Recomendaciones relacionadas", + "systemRole": "Configuración del asistente", + "try": "Prueba" + }, + "back": "Volver a Descubrir", + "category": { + "assistant": { + "academic": "Académico", + "all": "Todo", + "career": "Carrera", + "copywriting": "Redacción", + "design": "Diseño", + "education": "Educación", + "emotions": "Emociones", + "entertainment": "Entretenimiento", + "games": "Juegos", + "general": "General", + "life": "Vida", + "marketing": "Marketing", + "office": "Oficina", + "programming": "Programación", + "translation": "Traducción" + }, + "plugin": { + "all": "Todo", + "gaming-entertainment": "Juegos y entretenimiento", + "life-style": "Estilo de vida", + "media-generate": "Generación de medios", + "science-education": "Ciencia y educación", + "social": "Redes sociales", + "stocks-finance": "Acciones y finanzas", + "tools": "Herramientas útiles", + "web-search": "Búsqueda en la web" + } + }, + "cleanFilter": "Limpiar filtro", + "create": "Crear", + "createGuide": { + "func1": { + "desc1": "En la ventana de conversación, accede a la página de configuración del asistente que deseas enviar a través de la esquina superior derecha;", + "desc2": "Haz clic en el botón de enviar al mercado de asistentes en la esquina superior derecha.", + "tag": "Método uno", + "title": "Enviar a través de LobeChat" + }, + "func2": { + "button": "Ir al repositorio de asistentes de Github", + "desc": "Si deseas agregar un asistente al índice, utiliza agent-template.json o agent-template-full.json para crear una entrada en el directorio de plugins, escribe una breve descripción y etiquétala adecuadamente, luego crea una solicitud de extracción.", + "tag": "Método dos", + "title": "Enviar a través de Github" + } + }, + "dislike": "No me gusta", + "filter": "Filtrar", + "filterBy": { + "authorRange": { + "everyone": "Todos los autores", + "followed": "Autores seguidos", + "title": "Rango de autores" + }, + "contentLength": "Longitud mínima del contexto", + "maxToken": { + "title": "Establecer longitud máxima (Token)", + "unlimited": "Sin límite" + }, + "other": { + "functionCall": "Soporte para llamadas a funciones", + "title": "Otros", + "vision": "Soporte para reconocimiento visual", + "withKnowledge": "Con base de conocimientos", + "withTool": "Con plugins" + }, + "pricing": "Precio del modelo", + "timePeriod": { + "all": "Todo el tiempo", + "day": "Últimas 24 horas", + "month": "Últimos 30 días", + "title": "Rango de tiempo", + "week": "Últimos 7 días", + "year": "Último año" + } + }, + "home": { + "featuredAssistants": "Asistentes recomendados", + "featuredModels": "Modelos recomendados", + "featuredProviders": "Proveedores de modelos recomendados", + "featuredTools": "Plugins recomendados", + "more": "Descubre más" + }, + "like": "Me gusta", + "models": { + "chat": "Iniciar conversación", + "contentLength": "Longitud máxima del contexto", + "free": "Gratis", + "guide": "Guía de configuración", + "list": "Lista de modelos", + "more": "Más", + "parameterList": { + "defaultValue": "Valor por defecto", + "docs": "Ver documentación", + "frequency_penalty": { + "desc": "Esta configuración ajusta la frecuencia con la que el modelo reutiliza vocabulario específico que ya ha aparecido en la entrada. Un valor más alto reduce la probabilidad de que esto ocurra, mientras que un valor negativo produce el efecto contrario. La penalización de vocabulario no aumenta con la frecuencia de aparición. Un valor negativo alentará la reutilización del vocabulario.", + "title": "Penalización de frecuencia" + }, + "max_tokens": { + "desc": "Esta configuración define la longitud máxima que el modelo puede generar en una sola respuesta. Establecer un valor más alto permite al modelo generar respuestas más largas, mientras que un valor más bajo limita la longitud de la respuesta, haciéndola más concisa. Ajustar este valor de manera razonable según el contexto de la aplicación puede ayudar a alcanzar la longitud y el nivel de detalle de respuesta deseados.", + "title": "Límite de Respuesta Única" + }, + "presence_penalty": { + "desc": "Esta configuración está diseñada para controlar la reutilización del vocabulario según la frecuencia con la que aparece en la entrada. Intenta usar menos aquellas palabras que aparecen con más frecuencia en la entrada, siendo su uso proporcional a la frecuencia de aparición. La penalización de vocabulario aumenta con la frecuencia de aparición. Un valor negativo alentará la reutilización del vocabulario.", + "title": "Novedad del tema" + }, + "range": "Rango", + "temperature": { + "desc": "Esta configuración afecta la diversidad de las respuestas del modelo. Un valor más bajo resultará en respuestas más predecibles y típicas, mientras que un valor más alto alentará respuestas más diversas y menos comunes. Cuando el valor se establece en 0, el modelo siempre dará la misma respuesta para una entrada dada.", + "title": "Aleatoriedad" + }, + "title": "Parámetros del modelo", + "top_p": { + "desc": "Esta configuración limita la selección del modelo a un cierto porcentaje de vocabulario con la mayor probabilidad: solo selecciona aquellas palabras que alcanzan una probabilidad acumulativa de P. Un valor más bajo hace que las respuestas del modelo sean más predecibles, mientras que la configuración predeterminada permite al modelo elegir de todo el rango de vocabulario.", + "title": "Muestreo de núcleo" + }, + "type": "Tipo" + }, + "providerInfo": { + "apiTooltip": "LobeChat admite el uso de claves API personalizadas para este proveedor.", + "input": "Precio de entrada", + "inputTooltip": "Costo por millón de Tokens", + "latency": "Latencia", + "latencyTooltip": "Tiempo promedio de respuesta del proveedor para enviar el primer Token", + "maxOutput": "Longitud máxima de salida", + "maxOutputTooltip": "Número máximo de Tokens que este punto final puede generar", + "officialTooltip": "Servicio oficial de LobeHub", + "output": "Precio de salida", + "outputTooltip": "Costo por millón de Tokens", + "streamCancellationTooltip": "Este proveedor admite la función de cancelación de flujo.", + "throughput": "Rendimiento", + "throughputTooltip": "Número promedio de Tokens transmitidos por segundo en solicitudes de flujo" + }, + "suggestions": "Modelos relacionados", + "supportedProviders": "Proveedores que admiten este modelo" + }, + "plugins": { + "community": "Complementos de la comunidad", + "install": "Instalar complemento", + "installed": "Instalado", + "list": "Lista de complementos", + "meta": { + "description": "Descripción", + "parameter": "Parámetro", + "title": "Parámetros de la herramienta", + "type": "Tipo" + }, + "more": "Más", + "official": "Complementos oficiales", + "recentSubmits": "Actualizaciones recientes", + "suggestions": "Recomendaciones relacionadas" + }, + "providers": { + "config": "Configurar proveedor", + "list": "Lista de proveedores de modelos", + "modelCount": "{{count}} modelos", + "modelSite": "Documentación del modelo", + "more": "Más", + "officialSite": "Sitio web oficial", + "showAllModels": "Mostrar todos los modelos", + "suggestions": "Proveedores relacionados", + "supportedModels": "Modelos soportados" + }, + "search": { + "placeholder": "Buscar nombre, descripción o palabras clave...", + "result": "{{count}} resultados de búsqueda sobre {{keyword}}", + "searching": "Buscando..." + }, + "sort": { + "mostLiked": "Más gustados", + "mostUsed": "Más utilizados", + "newest": "De nuevo a viejo", + "oldest": "De viejo a nuevo", + "recommended": "Recomendado" + }, + "tab": { + "assistants": "Asistentes", + "home": "Inicio", + "models": "Modelos", + "plugins": "Complementos", + "providers": "Proveedores de modelos" + } +} diff --git a/locales/es-ES/metadata.json b/locales/es-ES/metadata.json index 7c9108890db3..f7fb5943a90c 100644 --- a/locales/es-ES/metadata.json +++ b/locales/es-ES/metadata.json @@ -3,9 +3,26 @@ "description": "{{appName}} te ofrece la mejor experiencia de uso de ChatGPT, Claude, Gemini y OLLaMA WebUI", "title": "{{appName}}: Herramienta de productividad personal de IA, dale a tu cerebro un impulso más inteligente" }, - "market": { - "description": "Creación de contenido, redacción, preguntas y respuestas, generación de imágenes, generación de videos, generación de voz, agentes inteligentes, flujos de trabajo automatizados, personaliza tu asistente inteligente de IA exclusivo", - "title": "Mercado de Asistentes" + "discover": { + "assistants": { + "description": "Creación de contenido, redacción, preguntas y respuestas, generación de imágenes, generación de videos, generación de voz, Agentes inteligentes, flujos de trabajo automatizados, personaliza tu asistente inteligente AI / GPTs / OLLaMA", + "title": "Asistentes de IA" + }, + "description": "Creación de contenido, redacción, preguntas y respuestas, generación de imágenes, generación de videos, generación de voz, Agentes inteligentes, flujos de trabajo automatizados, aplicaciones de IA personalizadas, personaliza tu espacio de trabajo de aplicaciones AI", + "models": { + "description": "Explora los modelos de IA más populares OpenAI / GPT / Claude 3 / Gemini / Ollama / Azure / DeepSeek", + "title": "Modelos de IA" + }, + "plugins": { + "description": "Explora la generación de gráficos, académicos, imágenes, videos, voces y flujos de trabajo automatizados, integrando capacidades ricas de plugins para tu asistente.", + "title": "Complementos de IA" + }, + "providers": { + "description": "Explora los principales proveedores de modelos OpenAI / Qwen / Ollama / Anthropic / DeepSeek / Google Gemini / OpenRouter", + "title": "Proveedores de servicios de modelos de IA" + }, + "search": "Buscar", + "title": "Descubrir" }, "plugins": { "description": "Búsqueda, generación de gráficos, académico, generación de imágenes, generación de videos, generación de voz, flujos de trabajo automatizados, personaliza las capacidades de los plugins ToolCall exclusivos de ChatGPT / Claude", diff --git a/locales/es-ES/models.json b/locales/es-ES/models.json new file mode 100644 index 000000000000..fa53a67a480c --- /dev/null +++ b/locales/es-ES/models.json @@ -0,0 +1,845 @@ +{ + "01-ai/Yi-1.5-34B-Chat-16K": { + "description": "Yi-1.5 34B, con un rico conjunto de muestras de entrenamiento, ofrece un rendimiento superior en aplicaciones industriales." + }, + "01-ai/Yi-1.5-6B-Chat": { + "description": "Yi-1.5 es la versión evolucionada de la serie Yi, con un preentrenamiento de alta calidad y un conjunto de datos de ajuste fino rico." + }, + "01-ai/Yi-1.5-9B-Chat-16K": { + "description": "Yi-1.5 9B soporta 16K Tokens, proporcionando una capacidad de generación de lenguaje eficiente y fluida." + }, + "360gpt-pro": { + "description": "360GPT Pro, como un miembro importante de la serie de modelos de IA de 360, satisface diversas aplicaciones de procesamiento de lenguaje natural con su eficiente capacidad de manejo de textos, soportando la comprensión de textos largos y funciones de diálogo en múltiples turnos." + }, + "360gpt-turbo": { + "description": "360GPT Turbo ofrece potentes capacidades de cálculo y diálogo, con una excelente comprensión semántica y eficiencia de generación, siendo la solución ideal para empresas y desarrolladores como asistente inteligente." + }, + "360gpt-turbo-responsibility-8k": { + "description": "360GPT Turbo Responsibility 8K enfatiza la seguridad semántica y la responsabilidad, diseñado específicamente para aplicaciones que requieren altos estándares de seguridad de contenido, asegurando la precisión y robustez de la experiencia del usuario." + }, + "360gpt2-pro": { + "description": "360GPT2 Pro es un modelo avanzado de procesamiento de lenguaje natural lanzado por la empresa 360, con una excelente capacidad de generación y comprensión de textos, destacándose especialmente en la generación y creación de contenido, capaz de manejar tareas complejas de conversión de lenguaje y representación de roles." + }, + "4.0Ultra": { + "description": "Spark4.0 Ultra es la versión más poderosa de la serie de modelos grandes de Xinghuo, mejorando la comprensión y capacidad de resumen de contenido textual al actualizar la conexión de búsqueda en línea. Es una solución integral para mejorar la productividad en la oficina y responder con precisión a las necesidades, siendo un producto inteligente líder en la industria." + }, + "Baichuan2-Turbo": { + "description": "Utiliza tecnología de búsqueda mejorada para lograr un enlace completo entre el gran modelo y el conocimiento del dominio, así como el conocimiento de toda la red. Soporta la carga de documentos en PDF, Word y otros formatos, así como la entrada de URL, proporcionando información oportuna y completa, con resultados precisos y profesionales." + }, + "Baichuan3-Turbo": { + "description": "Optimizado para escenarios de alta frecuencia empresarial, con mejoras significativas en el rendimiento y una excelente relación calidad-precio. En comparación con el modelo Baichuan2, la creación de contenido mejora un 20%, las preguntas y respuestas de conocimiento un 17%, y la capacidad de interpretación de roles un 40%. En general, su rendimiento es superior al de GPT-3.5." + }, + "Baichuan3-Turbo-128k": { + "description": "Con una ventana de contexto ultra larga de 128K, optimizado para escenarios de alta frecuencia empresarial, con mejoras significativas en el rendimiento y una excelente relación calidad-precio. En comparación con el modelo Baichuan2, la creación de contenido mejora un 20%, las preguntas y respuestas de conocimiento un 17%, y la capacidad de interpretación de roles un 40%. En general, su rendimiento es superior al de GPT-3.5." + }, + "Baichuan4": { + "description": "El modelo tiene la mejor capacidad en el país, superando a los modelos principales extranjeros en tareas en chino como enciclopedias, textos largos y creación generativa. También cuenta con capacidades multimodales líderes en la industria, destacándose en múltiples evaluaciones de referencia autorizadas." + }, + "Gryphe/MythoMax-L2-13b": { + "description": "MythoMax-L2 (13B) es un modelo innovador, adecuado para aplicaciones en múltiples campos y tareas complejas." + }, + "Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Hermes 2 Mixtral 8x7B DPO es una fusión de múltiples modelos altamente flexible, diseñada para ofrecer una experiencia creativa excepcional." + }, + "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) es un modelo de instrucciones de alta precisión, adecuado para cálculos complejos." + }, + "NousResearch/Nous-Hermes-2-Yi-34B": { + "description": "Nous Hermes-2 Yi (34B) ofrece salidas de lenguaje optimizadas y diversas posibilidades de aplicación." + }, + "Pro-128k": { + "description": "Spark Pro-128K está configurado con una capacidad de procesamiento de contexto extremadamente grande, capaz de manejar hasta 128K de información contextual, especialmente adecuado para contenido largo que requiere análisis completo y manejo de relaciones lógicas a largo plazo, proporcionando una lógica fluida y consistente y un soporte diverso de citas en comunicaciones de texto complejas." + }, + "Qwen/Qwen1.5-110B-Chat": { + "description": "Como versión beta de Qwen2, Qwen1.5 utiliza datos a gran escala para lograr funciones de conversación más precisas." + }, + "Qwen/Qwen1.5-14B-Chat": { + "description": "Qwen1.5, entrenado con un conjunto de datos a gran escala, es experto en tareas de lenguaje complejas." + }, + "Qwen/Qwen1.5-32B-Chat": { + "description": "Qwen1.5 tiene la capacidad de responder preguntas y generar textos en múltiples dominios." + }, + "Qwen/Qwen1.5-72B-Chat": { + "description": "Qwen 1.5 Chat (72B) ofrece respuestas rápidas y capacidades de conversación natural, adecuado para entornos multilingües." + }, + "Qwen/Qwen1.5-7B-Chat": { + "description": "Qwen1.5 mejora la capacidad de expresión en diálogos mediante la combinación de preentrenamiento avanzado y ajuste fino." + }, + "Qwen/Qwen2-1.5B-Instruct": { + "description": "Qwen2 es una nueva serie de modelos de lenguaje de gran tamaño, diseñada para optimizar el manejo de tareas de instrucción." + }, + "Qwen/Qwen2-57B-A14B-Instruct": { + "description": "Qwen2 es una nueva serie, el modelo 57B A14B se destaca en tareas de instrucción." + }, + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 es un modelo de lenguaje general avanzado, que soporta múltiples tipos de instrucciones." + }, + "Qwen/Qwen2-7B-Instruct": { + "description": "Qwen2 es una nueva serie de modelos de lenguaje de gran tamaño, con una mayor capacidad de comprensión y generación." + }, + "Qwen/Qwen2-Math-72B-Instruct": { + "description": "Qwen2-Math se centra en la resolución de problemas en el ámbito matemático, proporcionando respuestas profesionales a preguntas de alta dificultad." + }, + "THUDM/chatglm3-6b": { + "description": "Como modelo de lenguaje para conversaciones bilingües, ChatGLM3 puede manejar tareas de conversión entre chino e inglés." + }, + "THUDM/glm-4-9b-chat": { + "description": "GLM-4 9B es una versión de código abierto, que proporciona una experiencia de conversación optimizada para aplicaciones de diálogo." + }, + "abab5.5-chat": { + "description": "Orientado a escenarios de productividad, admite el procesamiento de tareas complejas y la generación eficiente de texto, adecuado para aplicaciones en campos profesionales." + }, + "abab5.5s-chat": { + "description": "Diseñado para escenarios de diálogo de personajes en chino, ofrece capacidades de generación de diálogos de alta calidad en chino, adecuado para diversas aplicaciones." + }, + "abab6.5g-chat": { + "description": "Diseñado para diálogos de personajes multilingües, admite generación de diálogos de alta calidad en inglés y otros idiomas." + }, + "abab6.5s-chat": { + "description": "Adecuado para una amplia gama de tareas de procesamiento de lenguaje natural, incluyendo generación de texto, sistemas de diálogo, etc." + }, + "abab6.5t-chat": { + "description": "Optimizado para escenarios de diálogo de personajes en chino, ofrece capacidades de generación de diálogos fluidos y acordes con las expresiones chinas." + }, + "accounts/fireworks/models/firefunction-v1": { + "description": "Modelo de llamada de función de código abierto de Fireworks, que ofrece capacidades de ejecución de instrucciones sobresalientes y características personalizables." + }, + "accounts/fireworks/models/firefunction-v2": { + "description": "Firefunction-v2, lanzado por Fireworks, es un modelo de llamada de función de alto rendimiento, desarrollado sobre Llama-3 y optimizado para escenarios como llamadas de función, diálogos y seguimiento de instrucciones." + }, + "accounts/fireworks/models/firellava-13b": { + "description": "fireworks-ai/FireLLaVA-13b es un modelo de lenguaje visual que puede recibir entradas de imagen y texto simultáneamente, entrenado con datos de alta calidad, adecuado para tareas multimodales." + }, + "accounts/fireworks/models/gemma2-9b-it": { + "description": "El modelo de instrucciones Gemma 2 9B, basado en la tecnología anterior de Google, es adecuado para responder preguntas, resumir y razonar en diversas tareas de generación de texto." + }, + "accounts/fireworks/models/llama-v3-70b-instruct": { + "description": "El modelo de instrucciones Llama 3 70B está optimizado para diálogos multilingües y comprensión del lenguaje natural, superando el rendimiento de la mayoría de los modelos competidores." + }, + "accounts/fireworks/models/llama-v3-70b-instruct-hf": { + "description": "El modelo de instrucciones Llama 3 70B (versión HF) es consistente con los resultados de la implementación oficial, adecuado para tareas de seguimiento de instrucciones de alta calidad." + }, + "accounts/fireworks/models/llama-v3-8b-instruct": { + "description": "El modelo de instrucciones Llama 3 8B está optimizado para diálogos y tareas multilingües, ofreciendo un rendimiento excepcional y eficiente." + }, + "accounts/fireworks/models/llama-v3-8b-instruct-hf": { + "description": "El modelo de instrucciones Llama 3 8B (versión HF) es consistente con los resultados de la implementación oficial, ofreciendo alta consistencia y compatibilidad multiplataforma." + }, + "accounts/fireworks/models/llama-v3p1-405b-instruct": { + "description": "El modelo de instrucciones Llama 3.1 405B, con parámetros de gran escala, es adecuado para tareas complejas y seguimiento de instrucciones en escenarios de alta carga." + }, + "accounts/fireworks/models/llama-v3p1-70b-instruct": { + "description": "El modelo de instrucciones Llama 3.1 70B ofrece una capacidad excepcional de comprensión y generación de lenguaje, siendo la elección ideal para tareas de diálogo y análisis." + }, + "accounts/fireworks/models/llama-v3p1-8b-instruct": { + "description": "El modelo de instrucciones Llama 3.1 8B está optimizado para diálogos multilingües, capaz de superar la mayoría de los modelos de código abierto y cerrado en estándares de la industria." + }, + "accounts/fireworks/models/mixtral-8x22b-instruct": { + "description": "El modelo de instrucciones Mixtral MoE 8x22B, con parámetros a gran escala y arquitectura de múltiples expertos, soporta de manera integral el procesamiento eficiente de tareas complejas." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct": { + "description": "El modelo de instrucciones Mixtral MoE 8x7B, con una arquitectura de múltiples expertos, ofrece un seguimiento y ejecución de instrucciones eficientes." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct-hf": { + "description": "El modelo de instrucciones Mixtral MoE 8x7B (versión HF) tiene un rendimiento consistente con la implementación oficial, adecuado para una variedad de escenarios de tareas eficientes." + }, + "accounts/fireworks/models/mythomax-l2-13b": { + "description": "El modelo MythoMax L2 13B combina técnicas de fusión innovadoras, destacándose en narración y juegos de rol." + }, + "accounts/fireworks/models/phi-3-vision-128k-instruct": { + "description": "El modelo de instrucciones Phi 3 Vision es un modelo multimodal ligero, capaz de manejar información visual y textual compleja, con una fuerte capacidad de razonamiento." + }, + "accounts/fireworks/models/starcoder-16b": { + "description": "El modelo StarCoder 15.5B soporta tareas de programación avanzadas, con capacidades multilingües mejoradas, adecuado para la generación y comprensión de código complejo." + }, + "accounts/fireworks/models/starcoder-7b": { + "description": "El modelo StarCoder 7B está entrenado en más de 80 lenguajes de programación, con una excelente capacidad de completado de código y comprensión del contexto." + }, + "accounts/yi-01-ai/models/yi-large": { + "description": "El modelo Yi-Large ofrece una capacidad de procesamiento multilingüe excepcional, adecuado para diversas tareas de generación y comprensión de lenguaje." + }, + "anthropic.claude-3-5-sonnet-20240620-v1:0": { + "description": "Claude 3.5 Sonnet eleva el estándar de la industria, superando a modelos competidores y a Claude 3 Opus, destacándose en evaluaciones amplias, mientras mantiene la velocidad y costo de nuestros modelos de nivel medio." + }, + "anthropic.claude-3-haiku-20240307-v1:0": { + "description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, ofreciendo una velocidad de respuesta casi instantánea. Puede responder rápidamente a consultas y solicitudes simples. Los clientes podrán construir experiencias de IA sin costuras que imiten la interacción humana. Claude 3 Haiku puede manejar imágenes y devolver salidas de texto, con una ventana de contexto de 200K." + }, + "anthropic.claude-3-opus-20240229-v1:0": { + "description": "Claude 3 Opus es el modelo de IA más potente de Anthropic, con un rendimiento de vanguardia en tareas altamente complejas. Puede manejar indicaciones abiertas y escenarios no vistos, con una fluidez y comprensión humana excepcionales. Claude 3 Opus muestra la vanguardia de las posibilidades de la IA generativa. Claude 3 Opus puede manejar imágenes y devolver salidas de texto, con una ventana de contexto de 200K." + }, + "anthropic.claude-3-sonnet-20240229-v1:0": { + "description": "Claude 3 Sonnet de Anthropic logra un equilibrio ideal entre inteligencia y velocidad, especialmente adecuado para cargas de trabajo empresariales. Ofrece la máxima utilidad a un costo inferior al de los competidores, diseñado para ser un modelo confiable y duradero, apto para implementaciones de IA a gran escala. Claude 3 Sonnet puede manejar imágenes y devolver salidas de texto, con una ventana de contexto de 200K." + }, + "anthropic.claude-instant-v1": { + "description": "Un modelo rápido, económico y aún muy capaz, que puede manejar una variedad de tareas, incluyendo conversaciones cotidianas, análisis de texto, resúmenes y preguntas y respuestas de documentos." + }, + "anthropic.claude-v2": { + "description": "Anthropic muestra un modelo con alta capacidad en una amplia gama de tareas, desde diálogos complejos y generación de contenido creativo hasta el seguimiento detallado de instrucciones." + }, + "anthropic.claude-v2:1": { + "description": "La versión actualizada de Claude 2, con el doble de ventana de contexto, así como mejoras en la fiabilidad, tasa de alucinaciones y precisión basada en evidencia en contextos de documentos largos y RAG." + }, + "anthropic/claude-3-haiku": { + "description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para lograr respuestas casi instantáneas. Tiene un rendimiento de orientación rápido y preciso." + }, + "anthropic/claude-3-opus": { + "description": "Claude 3 Opus es el modelo más potente de Anthropic para manejar tareas altamente complejas. Destaca en rendimiento, inteligencia, fluidez y comprensión." + }, + "anthropic/claude-3.5-sonnet": { + "description": "Claude 3.5 Sonnet ofrece capacidades que superan a Opus y una velocidad más rápida que Sonnet, manteniendo el mismo precio que Sonnet. Sonnet es especialmente hábil en programación, ciencia de datos, procesamiento visual y tareas de agente." + }, + "aya": { + "description": "Aya 23 es un modelo multilingüe lanzado por Cohere, que admite 23 idiomas, facilitando aplicaciones de lenguaje diversas." + }, + "aya:35b": { + "description": "Aya 23 es un modelo multilingüe lanzado por Cohere, que admite 23 idiomas, facilitando aplicaciones de lenguaje diversas." + }, + "charglm-3": { + "description": "CharGLM-3 está diseñado para juegos de rol y acompañamiento emocional, soportando memoria de múltiples rondas y diálogos personalizados, con aplicaciones amplias." + }, + "chatgpt-4o-latest": { + "description": "ChatGPT-4o es un modelo dinámico que se actualiza en tiempo real para mantener la versión más actual. Combina una poderosa comprensión y generación de lenguaje, adecuado para aplicaciones a gran escala, incluyendo servicio al cliente, educación y soporte técnico." + }, + "claude-2.0": { + "description": "Claude 2 ofrece avances en capacidades clave para empresas, incluyendo un contexto líder en la industria de 200K tokens, una reducción significativa en la tasa de alucinaciones del modelo, indicaciones del sistema y una nueva función de prueba: llamadas a herramientas." + }, + "claude-2.1": { + "description": "Claude 2 ofrece avances en capacidades clave para empresas, incluyendo un contexto líder en la industria de 200K tokens, una reducción significativa en la tasa de alucinaciones del modelo, indicaciones del sistema y una nueva función de prueba: llamadas a herramientas." + }, + "claude-3-5-sonnet-20240620": { + "description": "Claude 3.5 Sonnet ofrece capacidades que superan a Opus y una velocidad más rápida que Sonnet, manteniendo el mismo precio que Sonnet. Sonnet es especialmente bueno en programación, ciencia de datos, procesamiento visual y tareas de agentes." + }, + "claude-3-haiku-20240307": { + "description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para lograr respuestas casi instantáneas. Tiene un rendimiento de orientación rápido y preciso." + }, + "claude-3-opus-20240229": { + "description": "Claude 3 Opus es el modelo más potente de Anthropic para manejar tareas altamente complejas. Destaca en rendimiento, inteligencia, fluidez y comprensión." + }, + "claude-3-sonnet-20240229": { + "description": "Claude 3 Sonnet proporciona un equilibrio ideal entre inteligencia y velocidad para cargas de trabajo empresariales. Ofrece la máxima utilidad a un costo más bajo, siendo fiable y adecuado para implementaciones a gran escala." + }, + "claude-instant-1.2": { + "description": "El modelo de Anthropic está diseñado para generación de texto de baja latencia y alto rendimiento, soportando la generación de cientos de páginas de texto." + }, + "codegeex-4": { + "description": "CodeGeeX-4 es un potente asistente de programación AI, que admite preguntas y respuestas inteligentes y autocompletado de código en varios lenguajes de programación, mejorando la eficiencia del desarrollo." + }, + "codegemma": { + "description": "CodeGemma es un modelo de lenguaje ligero especializado en diversas tareas de programación, que admite iteraciones rápidas e integración." + }, + "codegemma:2b": { + "description": "CodeGemma es un modelo de lenguaje ligero especializado en diversas tareas de programación, que admite iteraciones rápidas e integración." + }, + "codellama": { + "description": "Code Llama es un LLM enfocado en la generación y discusión de código, combinando un amplio soporte para lenguajes de programación, adecuado para entornos de desarrolladores." + }, + "codellama:13b": { + "description": "Code Llama es un LLM enfocado en la generación y discusión de código, combinando un amplio soporte para lenguajes de programación, adecuado para entornos de desarrolladores." + }, + "codellama:34b": { + "description": "Code Llama es un LLM enfocado en la generación y discusión de código, combinando un amplio soporte para lenguajes de programación, adecuado para entornos de desarrolladores." + }, + "codellama:70b": { + "description": "Code Llama es un LLM enfocado en la generación y discusión de código, combinando un amplio soporte para lenguajes de programación, adecuado para entornos de desarrolladores." + }, + "codeqwen": { + "description": "CodeQwen1.5 es un modelo de lenguaje a gran escala entrenado con una gran cantidad de datos de código, diseñado para resolver tareas de programación complejas." + }, + "codestral": { + "description": "Codestral es el primer modelo de código de Mistral AI, que proporciona un excelente soporte para tareas de generación de código." + }, + "codestral-latest": { + "description": "Codestral es un modelo generativo de vanguardia enfocado en la generación de código, optimizado para tareas de completado de código y relleno intermedio." + }, + "cognitivecomputations/dolphin-mixtral-8x22b": { + "description": "Dolphin Mixtral 8x22B es un modelo diseñado para seguir instrucciones, diálogos y programación." + }, + "command-r": { + "description": "Command R es un LLM optimizado para tareas de diálogo y contexto largo, especialmente adecuado para interacciones dinámicas y gestión del conocimiento." + }, + "command-r-plus": { + "description": "Command R+ es un modelo de lenguaje de gran tamaño de alto rendimiento, diseñado para escenarios empresariales reales y aplicaciones complejas." + }, + "databricks/dbrx-instruct": { + "description": "DBRX Instruct ofrece capacidades de procesamiento de instrucciones de alta fiabilidad, soportando aplicaciones en múltiples industrias." + }, + "deepseek-ai/DeepSeek-Coder-V2-Instruct": { + "description": "DeepSeek Coder V2 está diseñado para tareas de código, enfocándose en la generación de código eficiente." + }, + "deepseek-ai/DeepSeek-V2-Chat": { + "description": "DeepSeek V2 tiene 6.7 mil millones de parámetros y soporta el procesamiento de textos en inglés y chino." + }, + "deepseek-ai/DeepSeek-V2.5": { + "description": "DeepSeek V2.5 combina las excelentes características de versiones anteriores, mejorando la capacidad general y de codificación." + }, + "deepseek-ai/deepseek-llm-67b-chat": { + "description": "DeepSeek 67B es un modelo avanzado entrenado para diálogos de alta complejidad." + }, + "deepseek-chat": { + "description": "Un nuevo modelo de código abierto que fusiona capacidades generales y de codificación, que no solo conserva la capacidad de diálogo general del modelo Chat original y la potente capacidad de procesamiento de código del modelo Coder, sino que también se alinea mejor con las preferencias humanas. Además, DeepSeek-V2.5 ha logrado mejoras significativas en tareas de escritura, seguimiento de instrucciones y más." + }, + "deepseek-coder-v2": { + "description": "DeepSeek Coder V2 es un modelo de código de expertos híbrido de código abierto, que destaca en tareas de codificación, comparable a GPT4-Turbo." + }, + "deepseek-coder-v2:236b": { + "description": "DeepSeek Coder V2 es un modelo de código de expertos híbrido de código abierto, que destaca en tareas de codificación, comparable a GPT4-Turbo." + }, + "deepseek-v2": { + "description": "DeepSeek V2 es un modelo de lenguaje Mixture-of-Experts eficiente, adecuado para necesidades de procesamiento económico." + }, + "deepseek-v2:236b": { + "description": "DeepSeek V2 236B es el modelo de código de diseño de DeepSeek, que ofrece una potente capacidad de generación de código." + }, + "deepseek/deepseek-chat": { + "description": "Un nuevo modelo de código abierto que fusiona capacidades generales y de codificación, no solo conserva la capacidad de diálogo general del modelo Chat original y la potente capacidad de procesamiento de código del modelo Coder, sino que también se alinea mejor con las preferencias humanas. Además, DeepSeek-V2.5 ha logrado mejoras significativas en tareas de escritura, seguimiento de instrucciones y más." + }, + "emohaa": { + "description": "Emohaa es un modelo psicológico con capacidades de consulta profesional, ayudando a los usuarios a comprender problemas emocionales." + }, + "gemini-1.0-pro-001": { + "description": "Gemini 1.0 Pro 001 (Ajuste) ofrece un rendimiento estable y ajustable, siendo una opción ideal para soluciones de tareas complejas." + }, + "gemini-1.0-pro-002": { + "description": "Gemini 1.0 Pro 002 (Ajuste) proporciona un excelente soporte multimodal, centrado en la resolución efectiva de tareas complejas." + }, + "gemini-1.0-pro-latest": { + "description": "Gemini 1.0 Pro es el modelo de IA de alto rendimiento de Google, diseñado para la escalabilidad en una amplia gama de tareas." + }, + "gemini-1.5-flash-001": { + "description": "Gemini 1.5 Flash 001 es un modelo multimodal eficiente, que admite la escalabilidad para aplicaciones amplias." + }, + "gemini-1.5-flash-8b-exp-0827": { + "description": "Gemini 1.5 Flash 8B 0827 está diseñado para manejar escenarios de tareas a gran escala, ofreciendo una velocidad de procesamiento inigualable." + }, + "gemini-1.5-flash-exp-0827": { + "description": "Gemini 1.5 Flash 0827 ofrece capacidades de procesamiento multimodal optimizadas, adecuadas para una variedad de escenarios de tareas complejas." + }, + "gemini-1.5-flash-latest": { + "description": "Gemini 1.5 Flash es el último modelo de IA multimodal de Google, con capacidades de procesamiento rápido, que admite entradas de texto, imagen y video, adecuado para la escalabilidad eficiente en diversas tareas." + }, + "gemini-1.5-pro-001": { + "description": "Gemini 1.5 Pro 001 es una solución de IA multimodal escalable, que admite una amplia gama de tareas complejas." + }, + "gemini-1.5-pro-exp-0801": { + "description": "Gemini 1.5 Pro 0801 ofrece una excelente capacidad de procesamiento multimodal, brindando mayor flexibilidad para el desarrollo de aplicaciones." + }, + "gemini-1.5-pro-exp-0827": { + "description": "Gemini 1.5 Pro 0827 combina las últimas tecnologías de optimización, ofreciendo una capacidad de procesamiento de datos multimodal más eficiente." + }, + "gemini-1.5-pro-latest": { + "description": "Gemini 1.5 Pro admite hasta 2 millones de tokens, siendo una opción ideal para modelos multimodales de tamaño medio, adecuados para un soporte multifacético en tareas complejas." + }, + "gemma-7b-it": { + "description": "Gemma 7B es adecuado para el procesamiento de tareas de pequeña y mediana escala, combinando rentabilidad." + }, + "gemma2": { + "description": "Gemma 2 es un modelo eficiente lanzado por Google, que abarca una variedad de escenarios de aplicación desde aplicaciones pequeñas hasta procesamiento de datos complejos." + }, + "gemma2-9b-it": { + "description": "Gemma 2 9B es un modelo optimizado para la integración de tareas y herramientas específicas." + }, + "gemma2:27b": { + "description": "Gemma 2 es un modelo eficiente lanzado por Google, que abarca una variedad de escenarios de aplicación desde aplicaciones pequeñas hasta procesamiento de datos complejos." + }, + "gemma2:2b": { + "description": "Gemma 2 es un modelo eficiente lanzado por Google, que abarca una variedad de escenarios de aplicación desde aplicaciones pequeñas hasta procesamiento de datos complejos." + }, + "general": { + "description": "Spark Lite es un modelo de lenguaje grande y ligero, con una latencia extremadamente baja y una capacidad de procesamiento eficiente, completamente gratuito y abierto, que soporta funciones de búsqueda en línea en tiempo real. Su característica de respuesta rápida lo hace destacar en aplicaciones de inferencia y ajuste de modelos en dispositivos de baja potencia, brindando a los usuarios una excelente relación costo-beneficio y una experiencia inteligente, especialmente en escenarios de preguntas y respuestas, generación de contenido y búsqueda." + }, + "generalv3": { + "description": "Spark Pro es un modelo de lenguaje grande de alto rendimiento optimizado para campos profesionales, enfocado en matemáticas, programación, medicina, educación y más, y soporta búsqueda en línea y plugins integrados como clima y fecha. Su modelo optimizado muestra un rendimiento excepcional y eficiente en preguntas y respuestas complejas, comprensión del lenguaje y creación de textos de alto nivel, siendo la opción ideal para escenarios de aplicación profesional." + }, + "generalv3.5": { + "description": "Spark3.5 Max es la versión más completa, soportando búsqueda en línea y numerosos plugins integrados. Su capacidad central completamente optimizada, así como la configuración de roles del sistema y la función de llamada a funciones, hacen que su rendimiento en diversos escenarios de aplicación complejos sea excepcional y sobresaliente." + }, + "glm-4": { + "description": "GLM-4 es la versión anterior lanzada en enero de 2024, actualmente ha sido reemplazada por el más potente GLM-4-0520." + }, + "glm-4-0520": { + "description": "GLM-4-0520 es la última versión del modelo, diseñada para tareas altamente complejas y diversas, con un rendimiento excepcional." + }, + "glm-4-air": { + "description": "GLM-4-Air es una versión de alto costo-beneficio, con un rendimiento cercano al GLM-4, ofreciendo velocidad y precios asequibles." + }, + "glm-4-airx": { + "description": "GLM-4-AirX ofrece una versión eficiente de GLM-4-Air, con velocidades de inferencia de hasta 2.6 veces." + }, + "glm-4-alltools": { + "description": "GLM-4-AllTools es un modelo de agente multifuncional, optimizado para soportar planificación de instrucciones complejas y llamadas a herramientas, como navegación web, interpretación de código y generación de texto, adecuado para la ejecución de múltiples tareas." + }, + "glm-4-flash": { + "description": "GLM-4-Flash es la opción ideal para tareas simples, con la velocidad más rápida y el precio más bajo." + }, + "glm-4-long": { + "description": "GLM-4-Long admite entradas de texto extremadamente largas, adecuado para tareas de memoria y procesamiento de documentos a gran escala." + }, + "glm-4-plus": { + "description": "GLM-4-Plus, como buque insignia de alta inteligencia, tiene una poderosa capacidad para manejar textos largos y tareas complejas, con un rendimiento mejorado en general." + }, + "glm-4v": { + "description": "GLM-4V proporciona una poderosa capacidad de comprensión e inferencia de imágenes, soportando diversas tareas visuales." + }, + "glm-4v-plus": { + "description": "GLM-4V-Plus tiene la capacidad de entender contenido de video y múltiples imágenes, adecuado para tareas multimodales." + }, + "google/gemini-flash-1.5-exp": { + "description": "Gemini 1.5 Flash 0827 ofrece capacidades de procesamiento multimodal optimizadas, adecuadas para una variedad de escenarios de tareas complejas." + }, + "google/gemini-pro-1.5-exp": { + "description": "Gemini 1.5 Pro 0827 combina las últimas tecnologías de optimización, ofreciendo una capacidad de procesamiento de datos multimodal más eficiente." + }, + "google/gemma-2-27b-it": { + "description": "Gemma 2 continúa con el concepto de diseño ligero y eficiente." + }, + "google/gemma-2-9b-it": { + "description": "Gemma 2 es una serie de modelos de texto de código abierto y ligeros de Google." + }, + "google/gemma-2-9b-it:free": { + "description": "Gemma 2 es una serie de modelos de texto de código abierto y livianos de Google." + }, + "google/gemma-2b-it": { + "description": "Gemma Instruct (2B) ofrece capacidades básicas de procesamiento de instrucciones, adecuado para aplicaciones ligeras." + }, + "gpt-3.5-turbo": { + "description": "GPT 3.5 Turbo, adecuado para diversas tareas de generación y comprensión de texto, actualmente apunta a gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-0125": { + "description": "GPT 3.5 Turbo, adecuado para diversas tareas de generación y comprensión de texto, actualmente apunta a gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-1106": { + "description": "GPT 3.5 Turbo, adecuado para diversas tareas de generación y comprensión de texto, actualmente apunta a gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-instruct": { + "description": "GPT 3.5 Turbo, adecuado para diversas tareas de generación y comprensión de texto, actualmente apunta a gpt-3.5-turbo-0125." + }, + "gpt-4": { + "description": "GPT-4 ofrece una ventana de contexto más grande, capaz de manejar entradas de texto más largas, adecuado para escenarios que requieren integración de información amplia y análisis de datos." + }, + "gpt-4-0125-preview": { + "description": "El último modelo GPT-4 Turbo cuenta con funciones visuales. Ahora, las solicitudes visuales pueden utilizar el modo JSON y llamadas a funciones. GPT-4 Turbo es una versión mejorada que ofrece soporte rentable para tareas multimodales. Encuentra un equilibrio entre precisión y eficiencia, adecuado para aplicaciones que requieren interacción en tiempo real." + }, + "gpt-4-0613": { + "description": "GPT-4 ofrece una ventana de contexto más grande, capaz de manejar entradas de texto más largas, adecuado para escenarios que requieren integración de información amplia y análisis de datos." + }, + "gpt-4-1106-preview": { + "description": "El último modelo GPT-4 Turbo cuenta con funciones visuales. Ahora, las solicitudes visuales pueden utilizar el modo JSON y llamadas a funciones. GPT-4 Turbo es una versión mejorada que ofrece soporte rentable para tareas multimodales. Encuentra un equilibrio entre precisión y eficiencia, adecuado para aplicaciones que requieren interacción en tiempo real." + }, + "gpt-4-1106-vision-preview": { + "description": "El último modelo GPT-4 Turbo cuenta con funciones visuales. Ahora, las solicitudes visuales pueden utilizar el modo JSON y llamadas a funciones. GPT-4 Turbo es una versión mejorada que ofrece soporte rentable para tareas multimodales. Encuentra un equilibrio entre precisión y eficiencia, adecuado para aplicaciones que requieren interacción en tiempo real." + }, + "gpt-4-32k": { + "description": "GPT-4 ofrece una ventana de contexto más grande, capaz de manejar entradas de texto más largas, adecuado para escenarios que requieren integración de información amplia y análisis de datos." + }, + "gpt-4-32k-0613": { + "description": "GPT-4 ofrece una ventana de contexto más grande, capaz de manejar entradas de texto más largas, adecuado para escenarios que requieren integración de información amplia y análisis de datos." + }, + "gpt-4-turbo": { + "description": "El último modelo GPT-4 Turbo cuenta con funciones visuales. Ahora, las solicitudes visuales pueden utilizar el modo JSON y llamadas a funciones. GPT-4 Turbo es una versión mejorada que ofrece soporte rentable para tareas multimodales. Encuentra un equilibrio entre precisión y eficiencia, adecuado para aplicaciones que requieren interacción en tiempo real." + }, + "gpt-4-turbo-2024-04-09": { + "description": "El último modelo GPT-4 Turbo cuenta con funciones visuales. Ahora, las solicitudes visuales pueden utilizar el modo JSON y llamadas a funciones. GPT-4 Turbo es una versión mejorada que ofrece soporte rentable para tareas multimodales. Encuentra un equilibrio entre precisión y eficiencia, adecuado para aplicaciones que requieren interacción en tiempo real." + }, + "gpt-4-turbo-preview": { + "description": "El último modelo GPT-4 Turbo cuenta con funciones visuales. Ahora, las solicitudes visuales pueden utilizar el modo JSON y llamadas a funciones. GPT-4 Turbo es una versión mejorada que ofrece soporte rentable para tareas multimodales. Encuentra un equilibrio entre precisión y eficiencia, adecuado para aplicaciones que requieren interacción en tiempo real." + }, + "gpt-4-vision-preview": { + "description": "El último modelo GPT-4 Turbo cuenta con funciones visuales. Ahora, las solicitudes visuales pueden utilizar el modo JSON y llamadas a funciones. GPT-4 Turbo es una versión mejorada que ofrece soporte rentable para tareas multimodales. Encuentra un equilibrio entre precisión y eficiencia, adecuado para aplicaciones que requieren interacción en tiempo real." + }, + "gpt-4o": { + "description": "ChatGPT-4o es un modelo dinámico que se actualiza en tiempo real para mantener la versión más actual. Combina una poderosa comprensión y generación de lenguaje, adecuado para aplicaciones a gran escala, incluyendo servicio al cliente, educación y soporte técnico." + }, + "gpt-4o-2024-05-13": { + "description": "ChatGPT-4o es un modelo dinámico que se actualiza en tiempo real para mantener la versión más actual. Combina una poderosa comprensión y generación de lenguaje, adecuado para aplicaciones a gran escala, incluyendo servicio al cliente, educación y soporte técnico." + }, + "gpt-4o-2024-08-06": { + "description": "ChatGPT-4o es un modelo dinámico que se actualiza en tiempo real para mantener la versión más actual. Combina una poderosa comprensión y generación de lenguaje, adecuado para aplicaciones a gran escala, incluyendo servicio al cliente, educación y soporte técnico." + }, + "gpt-4o-mini": { + "description": "GPT-4o mini es el último modelo lanzado por OpenAI después de GPT-4 Omni, que admite entradas de texto e imagen y genera texto como salida. Como su modelo más avanzado de menor tamaño, es mucho más económico que otros modelos de vanguardia recientes y es más de un 60% más barato que GPT-3.5 Turbo. Mantiene una inteligencia de vanguardia mientras ofrece una relación calidad-precio significativa. GPT-4o mini obtuvo un puntaje del 82% en la prueba MMLU y actualmente se clasifica por encima de GPT-4 en preferencias de chat." + }, + "gryphe/mythomax-l2-13b": { + "description": "MythoMax l2 13B es un modelo de lenguaje que combina creatividad e inteligencia, fusionando múltiples modelos de vanguardia." + }, + "internlm/internlm2_5-20b-chat": { + "description": "El innovador modelo de código abierto InternLM2.5 mejora la inteligencia del diálogo mediante un gran número de parámetros." + }, + "internlm/internlm2_5-7b-chat": { + "description": "InternLM2.5 ofrece soluciones de diálogo inteligente en múltiples escenarios." + }, + "llama-3.1-70b-instruct": { + "description": "El modelo Llama 3.1 70B Instruct, con 70B de parámetros, puede ofrecer un rendimiento excepcional en tareas de generación de texto y de instrucciones a gran escala." + }, + "llama-3.1-70b-versatile": { + "description": "Llama 3.1 70B ofrece una capacidad de razonamiento AI más potente, adecuada para aplicaciones complejas, soportando un procesamiento computacional extenso y garantizando eficiencia y precisión." + }, + "llama-3.1-8b-instant": { + "description": "Llama 3.1 8B es un modelo de alto rendimiento que ofrece una rápida capacidad de generación de texto, ideal para aplicaciones que requieren eficiencia a gran escala y rentabilidad." + }, + "llama-3.1-8b-instruct": { + "description": "El modelo Llama 3.1 8B Instruct, con 8B de parámetros, soporta la ejecución eficiente de tareas de instrucciones visuales, ofreciendo una excelente capacidad de generación de texto." + }, + "llama-3.1-sonar-huge-128k-online": { + "description": "El modelo Llama 3.1 Sonar Huge Online, con 405B de parámetros, soporta una longitud de contexto de aproximadamente 127,000 tokens, diseñado para aplicaciones de chat en línea complejas." + }, + "llama-3.1-sonar-large-128k-chat": { + "description": "El modelo Llama 3.1 Sonar Large Chat, con 70B de parámetros, soporta una longitud de contexto de aproximadamente 127,000 tokens, adecuado para tareas de chat fuera de línea complejas." + }, + "llama-3.1-sonar-large-128k-online": { + "description": "El modelo Llama 3.1 Sonar Large Online, con 70B de parámetros, soporta una longitud de contexto de aproximadamente 127,000 tokens, adecuado para tareas de chat de alta capacidad y diversidad." + }, + "llama-3.1-sonar-small-128k-chat": { + "description": "El modelo Llama 3.1 Sonar Small Chat, con 8B de parámetros, está diseñado para chat fuera de línea, soportando una longitud de contexto de aproximadamente 127,000 tokens." + }, + "llama-3.1-sonar-small-128k-online": { + "description": "El modelo Llama 3.1 Sonar Small Online, con 8B de parámetros, soporta una longitud de contexto de aproximadamente 127,000 tokens, diseñado para chat en línea, capaz de manejar eficientemente diversas interacciones textuales." + }, + "llama3-70b-8192": { + "description": "Meta Llama 3 70B proporciona una capacidad de procesamiento de complejidad inigualable, diseñado a medida para proyectos de alta demanda." + }, + "llama3-8b-8192": { + "description": "Meta Llama 3 8B ofrece un rendimiento de razonamiento de alta calidad, adecuado para diversas necesidades de aplicación." + }, + "llama3-groq-70b-8192-tool-use-preview": { + "description": "Llama 3 Groq 70B Tool Use ofrece una potente capacidad de invocación de herramientas, apoyando el procesamiento eficiente de tareas complejas." + }, + "llama3-groq-8b-8192-tool-use-preview": { + "description": "Llama 3 Groq 8B Tool Use es un modelo optimizado para el uso eficiente de herramientas, que admite cálculos paralelos rápidos." + }, + "llama3.1": { + "description": "Llama 3.1 es el modelo líder lanzado por Meta, que admite hasta 405B de parámetros, aplicable en diálogos complejos, traducción multilingüe y análisis de datos." + }, + "llama3.1:405b": { + "description": "Llama 3.1 es el modelo líder lanzado por Meta, que admite hasta 405B de parámetros, aplicable en diálogos complejos, traducción multilingüe y análisis de datos." + }, + "llama3.1:70b": { + "description": "Llama 3.1 es el modelo líder lanzado por Meta, que admite hasta 405B de parámetros, aplicable en diálogos complejos, traducción multilingüe y análisis de datos." + }, + "llava": { + "description": "LLaVA es un modelo multimodal que combina un codificador visual y Vicuna, utilizado para una poderosa comprensión visual y lingüística." + }, + "llava-v1.5-7b-4096-preview": { + "description": "LLaVA 1.5 7B proporciona capacidades de procesamiento visual integradas, generando salidas complejas a partir de entradas de información visual." + }, + "llava:13b": { + "description": "LLaVA es un modelo multimodal que combina un codificador visual y Vicuna, utilizado para una poderosa comprensión visual y lingüística." + }, + "llava:34b": { + "description": "LLaVA es un modelo multimodal que combina un codificador visual y Vicuna, utilizado para una poderosa comprensión visual y lingüística." + }, + "mathstral": { + "description": "MathΣtral está diseñado para la investigación científica y el razonamiento matemático, proporcionando capacidades de cálculo efectivas y explicación de resultados." + }, + "meta-llama/Llama-2-13b-chat-hf": { + "description": "LLaMA-2 Chat (13B) ofrece una excelente capacidad de procesamiento de lenguaje y una experiencia de interacción sobresaliente." + }, + "meta-llama/Llama-3-70b-chat-hf": { + "description": "LLaMA-3 Chat (70B) es un modelo de chat potente, que soporta necesidades de conversación complejas." + }, + "meta-llama/Llama-3-8b-chat-hf": { + "description": "LLaMA-3 Chat (8B) ofrece soporte multilingüe, abarcando un amplio conocimiento en diversos campos." + }, + "meta-llama/Meta-Llama-3-70B-Instruct": { + "description": "LLaMA 3 soporta la generación de textos de gran capacidad y el análisis de instrucciones." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { + "description": "Llama 3 70B Instruct Lite es ideal para entornos que requieren alto rendimiento y baja latencia." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": { + "description": "Llama 3 70B Instruct Turbo ofrece una capacidad excepcional de comprensión y generación de lenguaje, ideal para las tareas de cálculo más exigentes." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Lite": { + "description": "Llama 3 8B Instruct Lite es adecuado para entornos con recursos limitados, ofreciendo un excelente equilibrio de rendimiento." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": { + "description": "Llama 3 8B Instruct Turbo es un modelo de lenguaje de alto rendimiento, adecuado para una amplia gama de escenarios de aplicación." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct": { + "description": "LLaMA 3.1 405B es un potente modelo de preentrenamiento y ajuste de instrucciones." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": { + "description": "El modelo Llama 3.1 Turbo de 405B proporciona un soporte de contexto de gran capacidad para el procesamiento de grandes datos, destacándose en aplicaciones de inteligencia artificial a gran escala." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct": { + "description": "LLaMA 3.1 70B proporciona soporte de conversación eficiente en múltiples idiomas." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": { + "description": "El modelo Llama 3.1 70B está finamente ajustado para aplicaciones de alta carga, cuantificado a FP8 para ofrecer una capacidad de cálculo y precisión más eficientes, asegurando un rendimiento excepcional en escenarios complejos." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct": { + "description": "LLaMA 3.1 ofrece soporte multilingüe y es uno de los modelos generativos líderes en la industria." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": { + "description": "El modelo Llama 3.1 8B utiliza cuantificación FP8, soportando hasta 131,072 tokens de contexto, destacándose entre los modelos de código abierto, ideal para tareas complejas y superando muchos estándares de la industria." + }, + "meta-llama/llama-3-70b-instruct": { + "description": "Llama 3 70B Instruct está optimizado para escenarios de conversación de alta calidad, destacándose en diversas evaluaciones humanas." + }, + "meta-llama/llama-3-8b-instruct": { + "description": "Llama 3 8B Instruct optimiza los escenarios de conversación de alta calidad, con un rendimiento superior a muchos modelos cerrados." + }, + "meta-llama/llama-3.1-405b-instruct": { + "description": "Llama 3.1 405B Instruct es la última versión lanzada por Meta, optimizada para generar diálogos de alta calidad, superando a muchos modelos cerrados líderes." + }, + "meta-llama/llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct está diseñado para conversaciones de alta calidad, destacándose en evaluaciones humanas, especialmente en escenarios de alta interacción." + }, + "meta-llama/llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct es la última versión lanzada por Meta, optimizada para escenarios de conversación de alta calidad, superando a muchos modelos cerrados líderes." + }, + "meta-llama/llama-3.1-8b-instruct:free": { + "description": "LLaMA 3.1 ofrece soporte multilingüe y es uno de los modelos generativos más avanzados de la industria." + }, + "meta.llama3-1-405b-instruct-v1:0": { + "description": "Meta Llama 3.1 405B Instruct es el modelo más grande y potente de la serie Llama 3.1 Instruct, un modelo de generación de datos de diálogo y razonamiento altamente avanzado, que también puede servir como base para un preentrenamiento o ajuste fino especializado en dominios específicos. Los modelos de lenguaje de gran tamaño (LLMs) multilingües que ofrece Llama 3.1 son un conjunto de modelos generativos preentrenados y ajustados por instrucciones, que incluyen tamaños de 8B, 70B y 405B (entrada/salida de texto). Los modelos de texto ajustados por instrucciones de Llama 3.1 (8B, 70B, 405B) están optimizados para casos de uso de diálogo multilingüe y superan a muchos modelos de chat de código abierto disponibles en pruebas de referencia de la industria. Llama 3.1 está diseñado para usos comerciales y de investigación en múltiples idiomas. Los modelos de texto ajustados por instrucciones son adecuados para chats similares a asistentes, mientras que los modelos preentrenados pueden adaptarse a diversas tareas de generación de lenguaje natural. El modelo Llama 3.1 también admite el uso de su salida para mejorar otros modelos, incluida la generación de datos sintéticos y el refinamiento. Llama 3.1 es un modelo de lenguaje autorregresivo que utiliza una arquitectura de transformador optimizada. Las versiones ajustadas utilizan ajuste fino supervisado (SFT) y aprendizaje por refuerzo con retroalimentación humana (RLHF) para alinearse con las preferencias humanas de ayuda y seguridad." + }, + "meta.llama3-1-70b-instruct-v1:0": { + "description": "La versión actualizada de Meta Llama 3.1 70B Instruct incluye una longitud de contexto ampliada de 128K, multilingüismo y capacidades de razonamiento mejoradas. Los modelos de lenguaje a gran escala (LLMs) de Llama 3.1 son un conjunto de modelos generativos preentrenados y ajustados por instrucciones, que incluyen tamaños de 8B, 70B y 405B (entrada/salida de texto). Los modelos de texto ajustados por instrucciones de Llama 3.1 (8B, 70B, 405B) están optimizados para casos de uso de diálogo multilingüe y superan muchos modelos de chat de código abierto disponibles en pruebas de referencia de la industria comunes. Llama 3.1 está diseñado para usos comerciales y de investigación en múltiples idiomas. Los modelos de texto ajustados por instrucciones son adecuados para chats similares a asistentes, mientras que los modelos preentrenados pueden adaptarse a diversas tareas de generación de lenguaje natural. El modelo Llama 3.1 también admite el uso de su salida de modelo para mejorar otros modelos, incluyendo la generación de datos sintéticos y refinamiento. Llama 3.1 es un modelo de lenguaje autoregresivo utilizando una arquitectura de transformador optimizada. La versión ajustada utiliza ajuste fino supervisado (SFT) y aprendizaje por refuerzo con retroalimentación humana (RLHF) para alinearse con las preferencias humanas de utilidad y seguridad." + }, + "meta.llama3-1-8b-instruct-v1:0": { + "description": "La versión actualizada de Meta Llama 3.1 8B Instruct incluye una longitud de contexto ampliada de 128K, multilingüismo y capacidades de razonamiento mejoradas. Los modelos de lenguaje a gran escala (LLMs) de Llama 3.1 son un conjunto de modelos generativos preentrenados y ajustados por instrucciones, que incluyen tamaños de 8B, 70B y 405B (entrada/salida de texto). Los modelos de texto ajustados por instrucciones de Llama 3.1 (8B, 70B, 405B) están optimizados para casos de uso de diálogo multilingüe y superan muchos modelos de chat de código abierto disponibles en pruebas de referencia de la industria comunes. Llama 3.1 está diseñado para usos comerciales y de investigación en múltiples idiomas. Los modelos de texto ajustados por instrucciones son adecuados para chats similares a asistentes, mientras que los modelos preentrenados pueden adaptarse a diversas tareas de generación de lenguaje natural. El modelo Llama 3.1 también admite el uso de su salida de modelo para mejorar otros modelos, incluyendo la generación de datos sintéticos y refinamiento. Llama 3.1 es un modelo de lenguaje autoregresivo utilizando una arquitectura de transformador optimizada. La versión ajustada utiliza ajuste fino supervisado (SFT) y aprendizaje por refuerzo con retroalimentación humana (RLHF) para alinearse con las preferencias humanas de utilidad y seguridad." + }, + "meta.llama3-70b-instruct-v1:0": { + "description": "Meta Llama 3 es un modelo de lenguaje de gran tamaño (LLM) abierto dirigido a desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable sus ideas de IA generativa. Como parte de un sistema base para la innovación de la comunidad global, es ideal para la creación de contenido, IA de diálogo, comprensión del lenguaje, I+D y aplicaciones empresariales." + }, + "meta.llama3-8b-instruct-v1:0": { + "description": "Meta Llama 3 es un modelo de lenguaje de gran tamaño (LLM) abierto dirigido a desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable sus ideas de IA generativa. Como parte de un sistema base para la innovación de la comunidad global, es ideal para dispositivos de borde con recursos y capacidades computacionales limitadas, así como para tiempos de entrenamiento más rápidos." + }, + "microsoft/wizardlm 2-7b": { + "description": "WizardLM 2 7B es el último modelo ligero y rápido de Microsoft AI, con un rendimiento cercano a 10 veces el de los modelos líderes de código abierto existentes." + }, + "microsoft/wizardlm-2-8x22b": { + "description": "WizardLM-2 8x22B es el modelo Wizard más avanzado de Microsoft AI, mostrando un rendimiento extremadamente competitivo." + }, + "minicpm-v": { + "description": "MiniCPM-V es la nueva generación de modelos multimodales lanzada por OpenBMB, que cuenta con una excelente capacidad de reconocimiento OCR y comprensión multimodal, soportando una amplia gama de escenarios de aplicación." + }, + "mistral": { + "description": "Mistral es un modelo de 7B lanzado por Mistral AI, adecuado para necesidades de procesamiento de lenguaje variables." + }, + "mistral-large": { + "description": "Mixtral Large es el modelo insignia de Mistral, combinando capacidades de generación de código, matemáticas y razonamiento, soportando una ventana de contexto de 128k." + }, + "mistral-large-latest": { + "description": "Mistral Large es el modelo insignia, especializado en tareas multilingües, razonamiento complejo y generación de código, ideal para aplicaciones de alta gama." + }, + "mistral-nemo": { + "description": "Mistral Nemo, desarrollado en colaboración entre Mistral AI y NVIDIA, es un modelo de 12B de alto rendimiento." + }, + "mistralai/Mistral-7B-Instruct-v0.1": { + "description": "Mistral (7B) Instruct es conocido por su alto rendimiento, adecuado para diversas tareas de lenguaje." + }, + "mistralai/Mistral-7B-Instruct-v0.2": { + "description": "Mistral 7B es un modelo ajustado bajo demanda, proporcionando respuestas optimizadas para tareas." + }, + "mistralai/Mistral-7B-Instruct-v0.3": { + "description": "Mistral (7B) Instruct v0.3 ofrece una capacidad de cálculo eficiente y comprensión del lenguaje natural, adecuado para una amplia gama de aplicaciones." + }, + "mistralai/Mixtral-8x22B-Instruct-v0.1": { + "description": "Mixtral-8x22B Instruct (141B) es un modelo de lenguaje de gran tamaño, que soporta demandas de procesamiento extremadamente altas." + }, + "mistralai/Mixtral-8x7B-Instruct-v0.1": { + "description": "Mixtral 8x7B es un modelo de expertos dispersos preentrenado, utilizado para tareas de texto de uso general." + }, + "mistralai/mistral-7b-instruct": { + "description": "Mistral 7B Instruct es un modelo de estándar industrial de alto rendimiento, optimizado para velocidad y soporte de contexto largo." + }, + "mistralai/mistral-nemo": { + "description": "Mistral Nemo es un modelo de 7.3B parámetros con soporte multilingüe y programación de alto rendimiento." + }, + "mixtral": { + "description": "Mixtral es el modelo de expertos de Mistral AI, con pesos de código abierto, que ofrece soporte en generación de código y comprensión del lenguaje." + }, + "mixtral-8x7b-32768": { + "description": "Mixtral 8x7B ofrece una capacidad de cálculo paralelo de alta tolerancia a fallos, adecuada para tareas complejas." + }, + "mixtral:8x22b": { + "description": "Mixtral es el modelo de expertos de Mistral AI, con pesos de código abierto, que ofrece soporte en generación de código y comprensión del lenguaje." + }, + "moonshot-v1-128k": { + "description": "Moonshot V1 128K es un modelo con capacidad de procesamiento de contexto ultra largo, adecuado para generar textos extensos, satisfaciendo las demandas de tareas de generación complejas, capaz de manejar hasta 128,000 tokens, ideal para aplicaciones en investigación, académicas y generación de documentos grandes." + }, + "moonshot-v1-32k": { + "description": "Moonshot V1 32K ofrece capacidad de procesamiento de contexto de longitud media, capaz de manejar 32,768 tokens, especialmente adecuado para generar diversos documentos largos y diálogos complejos, aplicable en creación de contenido, generación de informes y sistemas de diálogo." + }, + "moonshot-v1-8k": { + "description": "Moonshot V1 8K está diseñado para tareas de generación de texto corto, con un rendimiento de procesamiento eficiente, capaz de manejar 8,192 tokens, ideal para diálogos breves, toma de notas y generación rápida de contenido." + }, + "nousresearch/hermes-2-pro-llama-3-8b": { + "description": "Hermes 2 Pro Llama 3 8B es una versión mejorada de Nous Hermes 2, que incluye los conjuntos de datos más recientes desarrollados internamente." + }, + "o1-mini": { + "description": "o1-mini es un modelo de inferencia rápido y rentable diseñado para aplicaciones de programación, matemáticas y ciencias. Este modelo tiene un contexto de 128K y una fecha de corte de conocimiento en octubre de 2023." + }, + "o1-preview": { + "description": "o1 es el nuevo modelo de inferencia de OpenAI, adecuado para tareas complejas que requieren un amplio conocimiento general. Este modelo tiene un contexto de 128K y una fecha de corte de conocimiento en octubre de 2023." + }, + "open-codestral-mamba": { + "description": "Codestral Mamba es un modelo de lenguaje Mamba 2 enfocado en la generación de código, que proporciona un fuerte apoyo para tareas avanzadas de codificación y razonamiento." + }, + "open-mistral-7b": { + "description": "Mistral 7B es un modelo compacto pero de alto rendimiento, especializado en el procesamiento por lotes y tareas simples, como clasificación y generación de texto, con buenas capacidades de razonamiento." + }, + "open-mistral-nemo": { + "description": "Mistral Nemo es un modelo de 12B desarrollado en colaboración con Nvidia, que ofrece un rendimiento de razonamiento y codificación excepcional, fácil de integrar y reemplazar." + }, + "open-mixtral-8x22b": { + "description": "Mixtral 8x22B es un modelo de expertos más grande, enfocado en tareas complejas, que ofrece una excelente capacidad de razonamiento y un mayor rendimiento." + }, + "open-mixtral-8x7b": { + "description": "Mixtral 8x7B es un modelo de expertos dispersos que utiliza múltiples parámetros para mejorar la velocidad de razonamiento, adecuado para el procesamiento de tareas de múltiples idiomas y generación de código." + }, + "openai/gpt-4o-2024-08-06": { + "description": "ChatGPT-4o es un modelo dinámico que se actualiza en tiempo real para mantener la versión más actual. Combina una poderosa capacidad de comprensión y generación de lenguaje, adecuado para escenarios de aplicación a gran escala, incluyendo servicio al cliente, educación y soporte técnico." + }, + "openai/gpt-4o-mini": { + "description": "GPT-4o mini es el modelo más reciente de OpenAI, lanzado después de GPT-4 Omni, que admite entradas de texto e imagen y genera texto como salida. Como su modelo más avanzado de tamaño pequeño, es mucho más económico que otros modelos de vanguardia recientes y más de un 60% más barato que GPT-3.5 Turbo. Mantiene una inteligencia de vanguardia mientras ofrece una relación calidad-precio notable. GPT-4o mini obtuvo un puntaje del 82% en la prueba MMLU y actualmente se clasifica por encima de GPT-4 en preferencias de chat." + }, + "openai/o1-mini": { + "description": "o1-mini es un modelo de inferencia rápido y rentable diseñado para aplicaciones de programación, matemáticas y ciencias. Este modelo tiene un contexto de 128K y una fecha de corte de conocimiento en octubre de 2023." + }, + "openai/o1-preview": { + "description": "o1 es el nuevo modelo de inferencia de OpenAI, adecuado para tareas complejas que requieren un amplio conocimiento general. Este modelo tiene un contexto de 128K y una fecha de corte de conocimiento en octubre de 2023." + }, + "openchat/openchat-7b": { + "description": "OpenChat 7B es una biblioteca de modelos de lenguaje de código abierto ajustada mediante la estrategia de 'C-RLFT (ajuste fino de refuerzo condicional)'." + }, + "openrouter/auto": { + "description": "Según la longitud del contexto, el tema y la complejidad, tu solicitud se enviará a Llama 3 70B Instruct, Claude 3.5 Sonnet (autoajuste) o GPT-4o." + }, + "phi3": { + "description": "Phi-3 es un modelo abierto ligero lanzado por Microsoft, adecuado para una integración eficiente y razonamiento de conocimiento a gran escala." + }, + "phi3:14b": { + "description": "Phi-3 es un modelo abierto ligero lanzado por Microsoft, adecuado para una integración eficiente y razonamiento de conocimiento a gran escala." + }, + "qwen-long": { + "description": "Qwen es un modelo de lenguaje a gran escala que admite contextos de texto largos y funciones de conversación basadas en documentos largos y múltiples." + }, + "qwen-max": { + "description": "Qwen es un modelo de lenguaje a gran escala de nivel de mil millones que admite entradas en diferentes idiomas, incluyendo chino e inglés, actualmente es el modelo API detrás de la versión del producto Qwen 2.5." + }, + "qwen-max-longcontext": { + "description": "Qwen es un modelo de lenguaje a gran escala de nivel de mil millones que admite entradas en diferentes idiomas, incluyendo chino e inglés, y ha ampliado su ventana de contexto." + }, + "qwen-plus": { + "description": "Qwen es una versión mejorada del modelo de lenguaje a gran escala que admite entradas en diferentes idiomas, incluyendo chino e inglés." + }, + "qwen-turbo": { + "description": "Qwen es un modelo de lenguaje a gran escala que admite entradas en diferentes idiomas, incluyendo chino e inglés." + }, + "qwen-vl-chat-v1": { + "description": "Qwen VL admite formas de interacción flexibles, incluyendo múltiples imágenes, preguntas y respuestas en múltiples rondas, y capacidades creativas." + }, + "qwen-vl-max": { + "description": "Qwen es un modelo de lenguaje visual a gran escala. En comparación con la versión mejorada, mejora aún más la capacidad de razonamiento visual y la capacidad de seguir instrucciones, proporcionando un mayor nivel de percepción y cognición visual." + }, + "qwen-vl-plus": { + "description": "Qwen es una versión mejorada del modelo de lenguaje visual a gran escala. Mejora significativamente la capacidad de reconocimiento de detalles y de texto, admite imágenes con resolución de más de un millón de píxeles y proporciones de aspecto de cualquier tamaño." + }, + "qwen-vl-v1": { + "description": "Iniciado con el modelo de lenguaje Qwen-7B, se añade un modelo de imagen, un modelo preentrenado con una resolución de entrada de imagen de 448." + }, + "qwen/qwen-2-7b-instruct:free": { + "description": "Qwen2 es una nueva serie de modelos de lenguaje de gran tamaño, con una mayor capacidad de comprensión y generación." + }, + "qwen2": { + "description": "Qwen2 es el nuevo modelo de lenguaje a gran escala de Alibaba, que ofrece un rendimiento excepcional para satisfacer diversas necesidades de aplicación." + }, + "qwen2-57b-a14b-instruct": { + "description": "Qwen2 es un modelo de 57B de código abierto con 14B de parámetros activados en MOE." + }, + "qwen2-72b-instruct": { + "description": "Qwen2 es un modelo de 72B de código abierto." + }, + "qwen2-7b-instruct": { + "description": "Qwen2 es un modelo de 7B de código abierto." + }, + "qwen2-math-72b-instruct": { + "description": "El modelo Qwen2-Math tiene una poderosa capacidad para resolver problemas matemáticos." + }, + "qwen2:0.5b": { + "description": "Qwen2 es el nuevo modelo de lenguaje a gran escala de Alibaba, que ofrece un rendimiento excepcional para satisfacer diversas necesidades de aplicación." + }, + "qwen2:1.5b": { + "description": "Qwen2 es el nuevo modelo de lenguaje a gran escala de Alibaba, que ofrece un rendimiento excepcional para satisfacer diversas necesidades de aplicación." + }, + "qwen2:72b": { + "description": "Qwen2 es el nuevo modelo de lenguaje a gran escala de Alibaba, que ofrece un rendimiento excepcional para satisfacer diversas necesidades de aplicación." + }, + "solar-1-mini-chat": { + "description": "Solar Mini es un LLM compacto, con un rendimiento superior al de GPT-3.5, que cuenta con potentes capacidades multilingües, soportando inglés y coreano, ofreciendo una solución eficiente y compacta." + }, + "solar-1-mini-chat-ja": { + "description": "Solar Mini (Ja) amplía las capacidades de Solar Mini, enfocándose en el japonés, mientras mantiene un rendimiento eficiente y sobresaliente en el uso del inglés y el coreano." + }, + "solar-pro": { + "description": "Solar Pro es un LLM de alta inteligencia lanzado por Upstage, enfocado en la capacidad de seguimiento de instrucciones en un solo GPU, con una puntuación IFEval superior a 80. Actualmente soporta inglés, y se planea lanzar la versión oficial en noviembre de 2024, ampliando el soporte de idiomas y la longitud del contexto." + }, + "step-1-128k": { + "description": "Equilibrio entre rendimiento y costo, adecuado para escenarios generales." + }, + "step-1-256k": { + "description": "Capacidad de procesamiento de contexto de longitud ultra larga, especialmente adecuada para análisis de documentos largos." + }, + "step-1-32k": { + "description": "Soporta diálogos de longitud media, adecuado para diversas aplicaciones." + }, + "step-1-8k": { + "description": "Modelo pequeño, adecuado para tareas ligeras." + }, + "step-1-flash": { + "description": "Modelo de alta velocidad, adecuado para diálogos en tiempo real." + }, + "step-1v-32k": { + "description": "Soporta entradas visuales, mejorando la experiencia de interacción multimodal." + }, + "step-1v-8k": { + "description": "Modelo visual pequeño, adecuado para tareas básicas de texto e imagen." + }, + "step-2-16k": { + "description": "Soporta interacciones de contexto a gran escala, adecuado para escenarios de diálogo complejos." + }, + "taichu_llm": { + "description": "El modelo de lenguaje Taichu de Zīdōng tiene una poderosa capacidad de comprensión del lenguaje, así como habilidades en creación de textos, preguntas y respuestas, programación de código, cálculos matemáticos, razonamiento lógico, análisis de sentimientos y resúmenes de texto. Combina de manera innovadora el preentrenamiento con grandes datos y un conocimiento rico de múltiples fuentes, perfeccionando continuamente la tecnología algorítmica y absorbiendo nuevos conocimientos en vocabulario, estructura, gramática y semántica de grandes volúmenes de datos textuales, logrando una evolución constante del modelo. Proporciona a los usuarios información y servicios más convenientes, así como una experiencia más inteligente." + }, + "togethercomputer/StripedHyena-Nous-7B": { + "description": "StripedHyena Nous (7B) proporciona una capacidad de cálculo mejorada a través de estrategias y arquitecturas de modelos eficientes." + }, + "upstage/SOLAR-10.7B-Instruct-v1.0": { + "description": "Upstage SOLAR Instruct v1 (11B) es adecuado para tareas de instrucciones detalladas, ofreciendo una excelente capacidad de procesamiento de lenguaje." + }, + "wizardlm2": { + "description": "WizardLM 2 es un modelo de lenguaje proporcionado por Microsoft AI, que destaca en diálogos complejos, multilingües, razonamiento y asistentes inteligentes." + }, + "wizardlm2:8x22b": { + "description": "WizardLM 2 es un modelo de lenguaje proporcionado por Microsoft AI, que destaca en diálogos complejos, multilingües, razonamiento y asistentes inteligentes." + }, + "yi-large": { + "description": "Modelo de mil millones de parámetros completamente nuevo, que ofrece capacidades excepcionales de preguntas y respuestas y generación de texto." + }, + "yi-large-fc": { + "description": "Basado en el modelo yi-large, soporta y refuerza la capacidad de llamadas a herramientas, adecuado para diversos escenarios de negocio que requieren la construcción de agentes o flujos de trabajo." + }, + "yi-large-preview": { + "description": "Versión inicial, se recomienda usar yi-large (nueva versión)." + }, + "yi-large-rag": { + "description": "Servicio de alto nivel basado en el modelo yi-large, combinando técnicas de recuperación y generación para proporcionar respuestas precisas y servicios de búsqueda de información en tiempo real." + }, + "yi-large-turbo": { + "description": "Excelente relación calidad-precio y rendimiento excepcional. Ajuste de alta precisión basado en el rendimiento, velocidad de razonamiento y costo." + }, + "yi-medium": { + "description": "Modelo de tamaño mediano, ajustado y equilibrado, con una buena relación calidad-precio. Optimización profunda de la capacidad de seguimiento de instrucciones." + }, + "yi-medium-200k": { + "description": "Ventana de contexto de 200K, que ofrece una profunda comprensión y generación de texto de largo formato." + }, + "yi-spark": { + "description": "Pequeño y ágil, modelo ligero y rápido. Ofrece capacidades mejoradas de cálculo matemático y escritura de código." + }, + "yi-vision": { + "description": "Modelo para tareas visuales complejas, que ofrece un alto rendimiento en comprensión y análisis de imágenes." + } +} diff --git a/locales/es-ES/providers.json b/locales/es-ES/providers.json new file mode 100644 index 000000000000..e5117fb28ca1 --- /dev/null +++ b/locales/es-ES/providers.json @@ -0,0 +1,80 @@ +{ + "ai360": { + "description": "360 AI es una plataforma de modelos y servicios de IA lanzada por la empresa 360, que ofrece una variedad de modelos avanzados de procesamiento del lenguaje natural, incluidos 360GPT2 Pro, 360GPT Pro, 360GPT Turbo y 360GPT Turbo Responsibility 8K. Estos modelos combinan parámetros a gran escala y capacidades multimodales, siendo ampliamente utilizados en generación de texto, comprensión semántica, sistemas de diálogo y generación de código. A través de una estrategia de precios flexible, 360 AI satisface diversas necesidades de los usuarios, apoyando la integración de desarrolladores y promoviendo la innovación y desarrollo de aplicaciones inteligentes." + }, + "anthropic": { + "description": "Anthropic es una empresa centrada en la investigación y desarrollo de inteligencia artificial, que ofrece una serie de modelos de lenguaje avanzados, como Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus y Claude 3 Haiku. Estos modelos logran un equilibrio ideal entre inteligencia, velocidad y costo, adecuados para una variedad de escenarios de aplicación, desde cargas de trabajo empresariales hasta respuestas rápidas. Claude 3.5 Sonnet, como su modelo más reciente, ha demostrado un rendimiento excepcional en múltiples evaluaciones, manteniendo una alta relación calidad-precio." + }, + "azure": { + "description": "Azure ofrece una variedad de modelos de IA avanzados, incluidos GPT-3.5 y la última serie GPT-4, que admiten múltiples tipos de datos y tareas complejas, comprometidos con soluciones de IA seguras, confiables y sostenibles." + }, + "baichuan": { + "description": "Baichuan Intelligent es una empresa centrada en el desarrollo de modelos de gran tamaño de inteligencia artificial, cuyos modelos han demostrado un rendimiento excepcional en tareas en chino como enciclopedias de conocimiento, procesamiento de textos largos y creación de contenido, superando a los modelos principales extranjeros. Baichuan Intelligent también posee capacidades multimodales líderes en la industria, destacándose en múltiples evaluaciones de autoridad. Sus modelos incluyen Baichuan 4, Baichuan 3 Turbo y Baichuan 3 Turbo 128k, optimizados para diferentes escenarios de aplicación, ofreciendo soluciones de alta relación calidad-precio." + }, + "bedrock": { + "description": "Bedrock es un servicio proporcionado por Amazon AWS, enfocado en ofrecer modelos de lenguaje y visuales avanzados para empresas. Su familia de modelos incluye la serie Claude de Anthropic, la serie Llama 3.1 de Meta, entre otros, abarcando una variedad de opciones desde ligeras hasta de alto rendimiento, apoyando tareas como generación de texto, diálogos y procesamiento de imágenes, adecuadas para aplicaciones empresariales de diferentes escalas y necesidades." + }, + "deepseek": { + "description": "DeepSeek es una empresa centrada en la investigación y aplicación de tecnologías de inteligencia artificial, cuyo modelo más reciente, DeepSeek-V2.5, combina capacidades de diálogo general y procesamiento de código, logrando mejoras significativas en alineación con preferencias humanas, tareas de escritura y seguimiento de instrucciones." + }, + "fireworksai": { + "description": "Fireworks AI es un proveedor líder de servicios de modelos de lenguaje avanzados, enfocado en la llamada de funciones y el procesamiento multimodal. Su modelo más reciente, Firefunction V2, basado en Llama-3, está optimizado para llamadas de funciones, diálogos y seguimiento de instrucciones. El modelo de lenguaje visual FireLLaVA-13B admite entradas mixtas de imágenes y texto. Otros modelos notables incluyen la serie Llama y la serie Mixtral, que ofrecen un soporte eficiente para el seguimiento y generación de instrucciones multilingües." + }, + "google": { + "description": "La serie Gemini de Google es su modelo de IA más avanzado y versátil, desarrollado por Google DeepMind, diseñado para ser multimodal, apoyando la comprensión y procesamiento sin fisuras de texto, código, imágenes, audio y video. Es adecuado para una variedad de entornos, desde centros de datos hasta dispositivos móviles, mejorando enormemente la eficiencia y la aplicabilidad de los modelos de IA." + }, + "groq": { + "description": "El motor de inferencia LPU de Groq ha demostrado un rendimiento excepcional en las pruebas de referencia de modelos de lenguaje de gran tamaño (LLM), redefiniendo los estándares de soluciones de IA con su asombrosa velocidad y eficiencia. Groq es un referente en velocidad de inferencia instantánea, mostrando un buen rendimiento en implementaciones basadas en la nube." + }, + "minimax": { + "description": "MiniMax es una empresa de tecnología de inteligencia artificial general fundada en 2021, dedicada a co-crear inteligencia con los usuarios. MiniMax ha desarrollado de forma independiente modelos de gran tamaño de diferentes modalidades, que incluyen un modelo de texto MoE de un billón de parámetros, un modelo de voz y un modelo de imagen. También ha lanzado aplicaciones como Conch AI." + }, + "mistral": { + "description": "Mistral ofrece modelos avanzados generales, especializados y de investigación, ampliamente utilizados en razonamiento complejo, tareas multilingües, generación de código, etc. A través de interfaces de llamada de funciones, los usuarios pueden integrar funciones personalizadas para aplicaciones específicas." + }, + "moonshot": { + "description": "Moonshot es una plataforma de código abierto lanzada por Beijing Dark Side Technology Co., que ofrece una variedad de modelos de procesamiento del lenguaje natural, con aplicaciones en campos amplios, incluyendo pero no limitado a creación de contenido, investigación académica, recomendaciones inteligentes y diagnóstico médico, apoyando el procesamiento de textos largos y tareas de generación complejas." + }, + "novita": { + "description": "Novita AI es una plataforma que ofrece servicios API para múltiples modelos de lenguaje de gran tamaño y generación de imágenes de IA, siendo flexible, confiable y rentable. Soporta los últimos modelos de código abierto como Llama3 y Mistral, proporcionando soluciones API completas, amigables para el usuario y autoescalables para el desarrollo de aplicaciones de IA, adecuadas para el rápido crecimiento de startups de IA." + }, + "ollama": { + "description": "Los modelos ofrecidos por Ollama abarcan ampliamente áreas como la generación de código, cálculos matemáticos, procesamiento multilingüe e interacciones conversacionales, apoyando diversas necesidades de implementación empresarial y local." + }, + "openai": { + "description": "OpenAI es una de las principales instituciones de investigación en inteligencia artificial a nivel mundial, cuyos modelos, como la serie GPT, están a la vanguardia del procesamiento del lenguaje natural. OpenAI se dedica a transformar múltiples industrias a través de soluciones de IA innovadoras y eficientes. Sus productos ofrecen un rendimiento y una rentabilidad significativos, siendo ampliamente utilizados en investigación, negocios y aplicaciones innovadoras." + }, + "openrouter": { + "description": "OpenRouter es una plataforma de servicio que ofrece interfaces para diversos modelos de vanguardia, apoyando OpenAI, Anthropic, LLaMA y más, adecuada para diversas necesidades de desarrollo y aplicación. Los usuarios pueden elegir de manera flexible el modelo y precio óptimos según sus necesidades, mejorando la experiencia de IA." + }, + "perplexity": { + "description": "Perplexity es un proveedor líder de modelos de generación de diálogos, ofreciendo varios modelos avanzados de Llama 3.1, que son adecuados para aplicaciones en línea y fuera de línea, especialmente para tareas complejas de procesamiento del lenguaje natural." + }, + "qwen": { + "description": "Tongyi Qianwen es un modelo de lenguaje de gran escala desarrollado de forma independiente por Alibaba Cloud, con potentes capacidades de comprensión y generación de lenguaje natural. Puede responder a diversas preguntas, crear contenido escrito, expresar opiniones y redactar código, desempeñando un papel en múltiples campos." + }, + "siliconcloud": { + "description": "SiliconFlow se dedica a acelerar la AGI para beneficiar a la humanidad, mejorando la eficiencia de la IA a gran escala a través de un stack GenAI fácil de usar y de bajo costo." + }, + "spark": { + "description": "El modelo de gran tamaño Xinghuo de iFlytek ofrece potentes capacidades de IA en múltiples campos y lenguajes, utilizando tecnologías avanzadas de procesamiento del lenguaje natural para construir aplicaciones innovadoras adecuadas para diversos escenarios verticales como hardware inteligente, atención médica inteligente y finanzas inteligentes." + }, + "stepfun": { + "description": "El modelo de gran tamaño de StepFun cuenta con capacidades de razonamiento complejo y multimodal líderes en la industria, apoyando la comprensión de textos extremadamente largos y funciones potentes de motor de búsqueda autónomo." + }, + "taichu": { + "description": "El Instituto de Automatización de la Academia de Ciencias de China y el Instituto de Investigación de Inteligencia Artificial de Wuhan han lanzado una nueva generación de modelos de gran tamaño multimodal, que apoyan tareas de preguntas y respuestas de múltiples rondas, creación de texto, generación de imágenes, comprensión 3D, análisis de señales y más, con capacidades de cognición, comprensión y creación más fuertes, ofreciendo una nueva experiencia de interacción." + }, + "togetherai": { + "description": "Together AI se dedica a lograr un rendimiento líder a través de modelos de IA innovadores, ofreciendo amplias capacidades de personalización, incluyendo soporte para escalado rápido y procesos de implementación intuitivos, satisfaciendo diversas necesidades empresariales." + }, + "upstage": { + "description": "Upstage se centra en desarrollar modelos de IA para diversas necesidades comerciales, incluidos Solar LLM y Document AI, con el objetivo de lograr una inteligencia general artificial (AGI) que trabaje para las personas. Crea agentes de diálogo simples a través de la API de Chat y admite llamadas de funciones, traducción, incrustaciones y aplicaciones de dominio específico." + }, + "zeroone": { + "description": "01.AI se centra en la tecnología de inteligencia artificial de la era 2.0, promoviendo enérgicamente la innovación y aplicación de 'humano + inteligencia artificial', utilizando modelos extremadamente potentes y tecnologías de IA avanzadas para mejorar la productividad humana y lograr el empoderamiento tecnológico." + }, + "zhipu": { + "description": "Zhipu AI ofrece una plataforma abierta para modelos multimodales y de lenguaje, apoyando una amplia gama de escenarios de aplicación de IA, incluyendo procesamiento de texto, comprensión de imágenes y asistencia en programación." + } +} diff --git a/locales/fr-FR/common.json b/locales/fr-FR/common.json index 231df3778524..f65b73349be2 100644 --- a/locales/fr-FR/common.json +++ b/locales/fr-FR/common.json @@ -195,8 +195,8 @@ }, "tab": { "chat": "Conversation", + "discover": "Découvrir", "files": "Fichiers", - "market": "Découvrir", "me": "moi", "setting": "Paramètre" }, diff --git a/locales/fr-FR/discover.json b/locales/fr-FR/discover.json new file mode 100644 index 000000000000..508b8d010bb0 --- /dev/null +++ b/locales/fr-FR/discover.json @@ -0,0 +1,204 @@ +{ + "assistants": { + "addAgent": "Ajouter un assistant", + "addAgentAndConverse": "Ajouter un assistant et discuter", + "addAgentSuccess": "Ajout réussi", + "conversation": { + "l1": "Bonjour, je suis **{{name}}**, vous pouvez me poser n'importe quelle question, je ferai de mon mieux pour y répondre ~", + "l2": "Voici un aperçu de mes capacités : ", + "l3": "Commençons la conversation !" + }, + "description": "Présentation de l'assistant", + "detail": "Détails", + "list": "Liste des assistants", + "more": "Plus", + "plugins": "Intégrer des plugins", + "recentSubmits": "Mises à jour récentes", + "suggestions": "Suggestions connexes", + "systemRole": "Paramètres de l'assistant", + "try": "Essayer" + }, + "back": "Retour à la découverte", + "category": { + "assistant": { + "academic": "Académique", + "all": "Tout", + "career": "Carrière", + "copywriting": "Rédaction", + "design": "Design", + "education": "Éducation", + "emotions": "Émotions", + "entertainment": "Divertissement", + "games": "Jeux", + "general": "Général", + "life": "Vie", + "marketing": "Marketing", + "office": "Bureau", + "programming": "Programmation", + "translation": "Traduction" + }, + "plugin": { + "all": "Tout", + "gaming-entertainment": "Jeux et divertissement", + "life-style": "Style de vie", + "media-generate": "Génération de médias", + "science-education": "Science et éducation", + "social": "Médias sociaux", + "stocks-finance": "Actions et finances", + "tools": "Outils pratiques", + "web-search": "Recherche sur le web" + } + }, + "cleanFilter": "Effacer le filtre", + "create": "Créer", + "createGuide": { + "func1": { + "desc1": "Accédez à la page de paramètres de l'assistant que vous souhaitez soumettre via le coin supérieur droit de la fenêtre de conversation ;", + "desc2": "Cliquez sur le bouton de soumission au marché des assistants dans le coin supérieur droit.", + "tag": "Méthode un", + "title": "Soumettre via LobeChat" + }, + "func2": { + "button": "Aller au dépôt d'assistants Github", + "desc": "Si vous souhaitez ajouter un assistant à l'index, créez une entrée dans le répertoire plugins avec agent-template.json ou agent-template-full.json, rédigez une brève description et marquez-la de manière appropriée, puis créez une demande de tirage.", + "tag": "Méthode deux", + "title": "Soumettre via Github" + } + }, + "dislike": "Je n'aime pas", + "filter": "Filtrer", + "filterBy": { + "authorRange": { + "everyone": "Tous les auteurs", + "followed": "Auteurs suivis", + "title": "Plage d'auteurs" + }, + "contentLength": "Longueur minimale du contexte", + "maxToken": { + "title": "Définir la longueur maximale (Token)", + "unlimited": "Illimité" + }, + "other": { + "functionCall": "Appel de fonction pris en charge", + "title": "Autres", + "vision": "Reconnaissance visuelle prise en charge", + "withKnowledge": "Avec base de connaissances", + "withTool": "Avec plugin" + }, + "pricing": "Prix du modèle", + "timePeriod": { + "all": "Tout le temps", + "day": "Dernières 24 heures", + "month": "Derniers 30 jours", + "title": "Plage de temps", + "week": "Dernières 7 jours", + "year": "Dernière année" + } + }, + "home": { + "featuredAssistants": "Assistants recommandés", + "featuredModels": "Modèles recommandés", + "featuredProviders": "Fournisseurs de modèles recommandés", + "featuredTools": "Plugins recommandés", + "more": "Découvrez plus" + }, + "like": "J'aime", + "models": { + "chat": "Commencer la conversation", + "contentLength": "Longueur maximale du contexte", + "free": "Gratuit", + "guide": "Guide de configuration", + "list": "Liste des modèles", + "more": "Plus", + "parameterList": { + "defaultValue": "Valeur par défaut", + "docs": "Voir la documentation", + "frequency_penalty": { + "desc": "Ce paramètre ajuste la fréquence à laquelle le modèle réutilise des mots spécifiques déjà présents dans l'entrée. Des valeurs plus élevées réduisent la probabilité de répétition, tandis que des valeurs négatives produisent l'effet inverse. La pénalité de vocabulaire n'augmente pas avec le nombre d'occurrences. Les valeurs négatives encouragent la réutilisation des mots.", + "title": "Pénalité de fréquence" + }, + "max_tokens": { + "desc": "Ce paramètre définit la longueur maximale que le modèle peut générer dans une seule réponse. Un réglage plus élevé permet au modèle de produire des réponses plus longues, tandis qu'un réglage plus bas limite la longueur de la réponse, la rendant plus concise. Ajuster ce paramètre de manière appropriée en fonction des différents scénarios d'application peut aider à atteindre la longueur et le niveau de détail souhaités dans la réponse.", + "title": "Limite de réponse unique" + }, + "presence_penalty": { + "desc": "Ce paramètre vise à contrôler la réutilisation des mots en fonction de leur fréquence d'apparition dans l'entrée. Il essaie d'utiliser moins de mots qui apparaissent fréquemment dans l'entrée, en proportion de leur fréquence d'apparition. La pénalité de vocabulaire augmente avec le nombre d'occurrences. Les valeurs négatives encouragent la réutilisation des mots.", + "title": "Fraîcheur des sujets" + }, + "range": "Plage", + "temperature": { + "desc": "Ce paramètre influence la diversité des réponses du modèle. Des valeurs plus basses entraînent des réponses plus prévisibles et typiques, tandis que des valeurs plus élevées encouragent des réponses plus variées et moins courantes. Lorsque la valeur est fixée à 0, le modèle donne toujours la même réponse pour une entrée donnée.", + "title": "Aléatoire" + }, + "title": "Paramètres du modèle", + "top_p": { + "desc": "Ce paramètre limite le choix du modèle à un certain pourcentage de mots ayant la plus haute probabilité : seuls les mots de pointe dont la probabilité cumulée atteint P sont sélectionnés. Des valeurs plus basses rendent les réponses du modèle plus prévisibles, tandis que les paramètres par défaut permettent au modèle de choisir parmi l'ensemble du vocabulaire.", + "title": "Échantillonnage nucléaire" + }, + "type": "Type" + }, + "providerInfo": { + "apiTooltip": "LobeChat prend en charge l'utilisation de clés API personnalisées pour ce fournisseur.", + "input": "Prix d'entrée", + "inputTooltip": "Coût par million de tokens", + "latency": "Latence", + "latencyTooltip": "Temps de réponse moyen pour que le fournisseur envoie le premier token", + "maxOutput": "Longueur de sortie maximale", + "maxOutputTooltip": "Nombre maximal de tokens que ce point de terminaison peut générer", + "officialTooltip": "Service officiel de LobeHub", + "output": "Prix de sortie", + "outputTooltip": "Coût par million de tokens", + "streamCancellationTooltip": "Ce fournisseur prend en charge la fonction d'annulation de flux.", + "throughput": "Débit", + "throughputTooltip": "Nombre moyen de tokens transmis par seconde pour les requêtes de flux" + }, + "suggestions": "Modèles connexes", + "supportedProviders": "Fournisseurs prenant en charge ce modèle" + }, + "plugins": { + "community": "Plugins communautaires", + "install": "Installer le plugin", + "installed": "Installé", + "list": "Liste des plugins", + "meta": { + "description": "Description", + "parameter": "Paramètre", + "title": "Paramètres de l'outil", + "type": "Type" + }, + "more": "Plus", + "official": "Plugins officiels", + "recentSubmits": "Mises à jour récentes", + "suggestions": "Suggestions connexes" + }, + "providers": { + "config": "Configurer le fournisseur", + "list": "Liste des fournisseurs de modèles", + "modelCount": "{{count}} modèles", + "modelSite": "Documentation des modèles", + "more": "Plus", + "officialSite": "Site officiel", + "showAllModels": "Afficher tous les modèles", + "suggestions": "Fournisseurs connexes", + "supportedModels": "Modèles pris en charge" + }, + "search": { + "placeholder": "Rechercher par nom, description ou mot-clé...", + "result": "{{count}} résultats de recherche concernant {{keyword}}", + "searching": "Recherche en cours..." + }, + "sort": { + "mostLiked": "Le plus aimé", + "mostUsed": "Le plus utilisé", + "newest": "Du plus récent au plus ancien", + "oldest": "Du plus ancien au plus récent", + "recommended": "Recommandé" + }, + "tab": { + "assistants": "Assistants", + "home": "Accueil", + "models": "Modèles", + "plugins": "Plugins", + "providers": "Fournisseurs de modèles" + } +} diff --git a/locales/fr-FR/metadata.json b/locales/fr-FR/metadata.json index a6b27f09a999..ca1d97690462 100644 --- a/locales/fr-FR/metadata.json +++ b/locales/fr-FR/metadata.json @@ -3,9 +3,26 @@ "description": "{{appName}} vous offre la meilleure expérience d'utilisation de ChatGPT, Claude, Gemini et OLLaMA WebUI", "title": "{{appName}} : un outil d'efficacité personnelle en IA pour vous donner un cerveau plus intelligent" }, - "market": { - "description": "Création de contenu, rédaction, questions-réponses, génération d'images, génération de vidéos, génération de voix, agents intelligents, flux de travail automatisés, personnalisez votre assistant intelligent IA", - "title": "Marché des assistants" + "discover": { + "assistants": { + "description": "Création de contenu, rédaction, questions-réponses, génération d'images, génération de vidéos, génération de voix, agents intelligents, flux de travail automatisés, personnalisez votre assistant intelligent AI / GPTs / OLLaMA.", + "title": "Assistants IA" + }, + "description": "Création de contenu, rédaction, questions-réponses, génération d'images, génération de vidéos, génération de voix, agents intelligents, flux de travail automatisés, applications AI personnalisées, personnalisez votre espace de travail AI.", + "models": { + "description": "Explorez les modèles AI populaires OpenAI / GPT / Claude 3 / Gemini / Ollama / Azure / DeepSeek.", + "title": "Modèles IA" + }, + "plugins": { + "description": "Découvrez des capacités enrichies pour votre assistant avec des plugins pour la génération de graphiques, la recherche académique, la génération d'images, la génération de vidéos, la génération de voix et l'automatisation des flux de travail.", + "title": "Plugins IA" + }, + "providers": { + "description": "Explorez les principaux fournisseurs de modèles OpenAI / Qwen / Ollama / Anthropic / DeepSeek / Google Gemini / OpenRouter.", + "title": "Fournisseurs de services de modèles IA" + }, + "search": "Recherche", + "title": "Découvrir" }, "plugins": { "description": "Recherche, génération de graphiques, académique, génération d'images, génération de vidéos, génération de voix, flux de travail automatisés, personnalisez les capacités de plugins ToolCall pour ChatGPT / Claude", diff --git a/locales/fr-FR/models.json b/locales/fr-FR/models.json new file mode 100644 index 000000000000..befc76bee1e8 --- /dev/null +++ b/locales/fr-FR/models.json @@ -0,0 +1,845 @@ +{ + "01-ai/Yi-1.5-34B-Chat-16K": { + "description": "Yi-1.5 34B, avec un ensemble d'échantillons d'entraînement riche, offre des performances supérieures dans les applications sectorielles." + }, + "01-ai/Yi-1.5-6B-Chat": { + "description": "Yi-1.5 est une version évoluée de la série Yi, avec un pré-entraînement de haute qualité et un ensemble de données d'ajustement riche." + }, + "01-ai/Yi-1.5-9B-Chat-16K": { + "description": "Yi-1.5 9B supporte 16K Tokens, offrant une capacité de génération de langage efficace et fluide." + }, + "360gpt-pro": { + "description": "360GPT Pro, en tant que membre important de la série de modèles AI de 360, répond à des applications variées de traitement de texte avec une efficacité élevée, supportant la compréhension de longs textes et les dialogues multi-tours." + }, + "360gpt-turbo": { + "description": "360GPT Turbo offre de puissantes capacités de calcul et de dialogue, avec une excellente compréhension sémantique et une efficacité de génération, ce qui en fait une solution idéale pour les entreprises et les développeurs." + }, + "360gpt-turbo-responsibility-8k": { + "description": "360GPT Turbo Responsibility 8K met l'accent sur la sécurité sémantique et l'orientation vers la responsabilité, conçu pour des scénarios d'application exigeant une sécurité de contenu élevée, garantissant l'exactitude et la robustesse de l'expérience utilisateur." + }, + "360gpt2-pro": { + "description": "360GPT2 Pro est un modèle avancé de traitement du langage naturel lancé par la société 360, offrant d'excellentes capacités de génération et de compréhension de texte, en particulier dans le domaine de la création et de la génération." + }, + "4.0Ultra": { + "description": "Spark4.0 Ultra est la version la plus puissante de la série de grands modèles Xinghuo, améliorant la compréhension et la capacité de résumé du contenu textuel tout en mettant à jour le lien de recherche en ligne. C'est une solution complète pour améliorer la productivité au bureau et répondre avec précision aux besoins, représentant un produit intelligent de premier plan dans l'industrie." + }, + "Baichuan2-Turbo": { + "description": "Utilise une technologie d'amélioration de recherche pour relier complètement le grand modèle aux connaissances sectorielles et aux connaissances du web. Supporte le téléchargement de divers documents tels que PDF, Word, et l'entrée d'URL, permettant une acquisition d'informations rapide et complète, avec des résultats précis et professionnels." + }, + "Baichuan3-Turbo": { + "description": "Optimisé pour des scénarios d'entreprise à haute fréquence, avec des améliorations significatives et un excellent rapport qualité-prix. Par rapport au modèle Baichuan2, la création de contenu a augmenté de 20%, les questions-réponses de 17%, et les capacités de jeu de rôle de 40%. Les performances globales surpassent celles de GPT-3.5." + }, + "Baichuan3-Turbo-128k": { + "description": "Doté d'une fenêtre de contexte ultra-longue de 128K, optimisé pour des scénarios d'entreprise à haute fréquence, avec des améliorations significatives et un excellent rapport qualité-prix. Par rapport au modèle Baichuan2, la création de contenu a augmenté de 20%, les questions-réponses de 17%, et les capacités de jeu de rôle de 40%. Les performances globales surpassent celles de GPT-3.5." + }, + "Baichuan4": { + "description": "Le modèle est le meilleur en Chine, surpassant les modèles étrangers dans des tâches en chinois telles que l'encyclopédie, les longs textes et la création. Il possède également des capacités multimodales de pointe, avec d'excellentes performances dans plusieurs évaluations de référence." + }, + "Gryphe/MythoMax-L2-13b": { + "description": "MythoMax-L2 (13B) est un modèle innovant, adapté à des applications dans plusieurs domaines et à des tâches complexes." + }, + "Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Hermes 2 Mixtral 8x7B DPO est une fusion de modèles hautement flexible, visant à offrir une expérience créative exceptionnelle." + }, + "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) est un modèle d'instructions de haute précision, adapté aux calculs complexes." + }, + "NousResearch/Nous-Hermes-2-Yi-34B": { + "description": "Nous Hermes-2 Yi (34B) offre une sortie linguistique optimisée et des possibilités d'application diversifiées." + }, + "Pro-128k": { + "description": "Spark Pro-128K est configuré avec une capacité de traitement de contexte exceptionnel, capable de gérer jusqu'à 128K d'informations contextuelles, particulièrement adapté pour l'analyse complète et le traitement des relations logiques à long terme dans des contenus longs, offrant une logique fluide et cohérente ainsi qu'un support varié pour les références dans des communications textuelles complexes." + }, + "Qwen/Qwen1.5-110B-Chat": { + "description": "En tant que version bêta de Qwen2, Qwen1.5 utilise des données à grande échelle pour réaliser des fonctionnalités de dialogue plus précises." + }, + "Qwen/Qwen1.5-14B-Chat": { + "description": "Qwen1.5, formé sur un ensemble de données massif, excelle dans des tâches linguistiques complexes." + }, + "Qwen/Qwen1.5-32B-Chat": { + "description": "Qwen1.5 possède des capacités de questions-réponses multi-domaines et de génération de texte." + }, + "Qwen/Qwen1.5-72B-Chat": { + "description": "Qwen 1.5 Chat (72B) offre des réponses rapides et des capacités de dialogue naturel, adapté aux environnements multilingues." + }, + "Qwen/Qwen1.5-7B-Chat": { + "description": "Qwen1.5 améliore la capacité d'expression des dialogues en combinant un pré-entraînement avancé et un ajustement fin." + }, + "Qwen/Qwen2-1.5B-Instruct": { + "description": "Qwen2 est une toute nouvelle série de modèles de langage de grande taille, visant à optimiser le traitement des tâches d'instruction." + }, + "Qwen/Qwen2-57B-A14B-Instruct": { + "description": "Qwen2 est une toute nouvelle série, le modèle 57B A14B se distingue dans les tâches d'instruction." + }, + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 est un modèle de langage général avancé, prenant en charge divers types d'instructions." + }, + "Qwen/Qwen2-7B-Instruct": { + "description": "Qwen2 est une toute nouvelle série de modèles de langage de grande taille, avec des capacités de compréhension et de génération renforcées." + }, + "Qwen/Qwen2-Math-72B-Instruct": { + "description": "Qwen2-Math se concentre sur la résolution de problèmes dans le domaine des mathématiques, fournissant des réponses professionnelles pour des questions difficiles." + }, + "THUDM/chatglm3-6b": { + "description": "En tant que modèle de langage pour les conversations bilingues, ChatGLM3 peut traiter des tâches de conversion entre le chinois et l'anglais." + }, + "THUDM/glm-4-9b-chat": { + "description": "GLM-4 9B est une version open source, offrant une expérience de dialogue optimisée pour les applications de conversation." + }, + "abab5.5-chat": { + "description": "Orienté vers des scénarios de productivité, prenant en charge le traitement de tâches complexes et la génération de texte efficace, adapté aux applications professionnelles." + }, + "abab5.5s-chat": { + "description": "Conçu pour des scénarios de dialogue en chinois, offrant une capacité de génération de dialogues en chinois de haute qualité, adaptée à divers scénarios d'application." + }, + "abab6.5g-chat": { + "description": "Conçu pour des dialogues de personnages multilingues, prenant en charge la génération de dialogues de haute qualité en anglais et dans d'autres langues." + }, + "abab6.5s-chat": { + "description": "Adapté à une large gamme de tâches de traitement du langage naturel, y compris la génération de texte, les systèmes de dialogue, etc." + }, + "abab6.5t-chat": { + "description": "Optimisé pour des scénarios de dialogue en chinois, offrant une capacité de génération de dialogues fluide et conforme aux habitudes d'expression en chinois." + }, + "accounts/fireworks/models/firefunction-v1": { + "description": "Le modèle d'appel de fonction open source de Fireworks offre d'excellentes capacités d'exécution d'instructions et des caractéristiques personnalisables." + }, + "accounts/fireworks/models/firefunction-v2": { + "description": "Firefunction-v2, récemment lancé par Fireworks, est un modèle d'appel de fonction performant, développé sur la base de Llama-3 et optimisé pour des scénarios tels que les appels de fonction, les dialogues et le suivi d'instructions." + }, + "accounts/fireworks/models/firellava-13b": { + "description": "fireworks-ai/FireLLaVA-13b est un modèle de langage visuel capable de recevoir simultanément des entrées d'images et de texte, entraîné sur des données de haute qualité, adapté aux tâches multimodales." + }, + "accounts/fireworks/models/gemma2-9b-it": { + "description": "Le modèle d'instructions Gemma 2 9B, basé sur la technologie antérieure de Google, est adapté à diverses tâches de génération de texte telles que la réponse aux questions, le résumé et le raisonnement." + }, + "accounts/fireworks/models/llama-v3-70b-instruct": { + "description": "Le modèle d'instructions Llama 3 70B est optimisé pour les dialogues multilingues et la compréhension du langage naturel, surpassant la plupart des modèles concurrents." + }, + "accounts/fireworks/models/llama-v3-70b-instruct-hf": { + "description": "Le modèle d'instructions Llama 3 70B (version HF) est conforme aux résultats de l'implémentation officielle, adapté aux tâches de suivi d'instructions de haute qualité." + }, + "accounts/fireworks/models/llama-v3-8b-instruct": { + "description": "Le modèle d'instructions Llama 3 8B est optimisé pour les dialogues et les tâches multilingues, offrant des performances exceptionnelles et efficaces." + }, + "accounts/fireworks/models/llama-v3-8b-instruct-hf": { + "description": "Le modèle d'instructions Llama 3 8B (version HF) est conforme aux résultats de l'implémentation officielle, offrant une grande cohérence et une compatibilité multiplateforme." + }, + "accounts/fireworks/models/llama-v3p1-405b-instruct": { + "description": "Le modèle d'instructions Llama 3.1 405B, avec des paramètres de très grande échelle, est adapté aux tâches complexes et au suivi d'instructions dans des scénarios à forte charge." + }, + "accounts/fireworks/models/llama-v3p1-70b-instruct": { + "description": "Le modèle d'instructions Llama 3.1 70B offre une compréhension et une génération de langage exceptionnelles, idéal pour les tâches de dialogue et d'analyse." + }, + "accounts/fireworks/models/llama-v3p1-8b-instruct": { + "description": "Le modèle d'instructions Llama 3.1 8B est optimisé pour les dialogues multilingues, capable de surpasser la plupart des modèles open source et fermés sur des benchmarks industriels courants." + }, + "accounts/fireworks/models/mixtral-8x22b-instruct": { + "description": "Le modèle d'instructions Mixtral MoE 8x22B, avec des paramètres à grande échelle et une architecture multi-experts, prend en charge efficacement le traitement de tâches complexes." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct": { + "description": "Le modèle d'instructions Mixtral MoE 8x7B, avec une architecture multi-experts, offre un suivi et une exécution d'instructions efficaces." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct-hf": { + "description": "Le modèle d'instructions Mixtral MoE 8x7B (version HF) offre des performances conformes à l'implémentation officielle, adapté à divers scénarios de tâches efficaces." + }, + "accounts/fireworks/models/mythomax-l2-13b": { + "description": "Le modèle MythoMax L2 13B, combinant des techniques de fusion novatrices, excelle dans la narration et le jeu de rôle." + }, + "accounts/fireworks/models/phi-3-vision-128k-instruct": { + "description": "Le modèle d'instructions Phi 3 Vision est un modèle multimodal léger, capable de traiter des informations visuelles et textuelles complexes, avec une forte capacité de raisonnement." + }, + "accounts/fireworks/models/starcoder-16b": { + "description": "Le modèle StarCoder 15.5B prend en charge des tâches de programmation avancées, avec des capacités multilingues améliorées, adapté à la génération et à la compréhension de code complexes." + }, + "accounts/fireworks/models/starcoder-7b": { + "description": "Le modèle StarCoder 7B est entraîné sur plus de 80 langages de programmation, offrant d'excellentes capacités de complétion de code et de compréhension contextuelle." + }, + "accounts/yi-01-ai/models/yi-large": { + "description": "Le modèle Yi-Large offre d'excellentes capacités de traitement multilingue, adapté à diverses tâches de génération et de compréhension de langage." + }, + "anthropic.claude-3-5-sonnet-20240620-v1:0": { + "description": "Claude 3.5 Sonnet élève les normes de l'industrie, surpassant les modèles concurrents et Claude 3 Opus, avec d'excellentes performances dans une large gamme d'évaluations, tout en offrant la vitesse et le coût de nos modèles de niveau intermédiaire." + }, + "anthropic.claude-3-haiku-20240307-v1:0": { + "description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d'Anthropic, offrant une vitesse de réponse quasi instantanée. Il peut répondre rapidement à des requêtes et demandes simples. Les clients pourront construire une expérience AI transparente imitant l'interaction humaine. Claude 3 Haiku peut traiter des images et retourner des sorties textuelles, avec une fenêtre contextuelle de 200K." + }, + "anthropic.claude-3-opus-20240229-v1:0": { + "description": "Claude 3 Opus est le modèle AI le plus puissant d'Anthropic, avec des performances de pointe sur des tâches hautement complexes. Il peut traiter des invites ouvertes et des scénarios non vus, avec une fluidité et une compréhension humaine exceptionnelles. Claude 3 Opus démontre les possibilités de génération AI à la pointe. Claude 3 Opus peut traiter des images et retourner des sorties textuelles, avec une fenêtre contextuelle de 200K." + }, + "anthropic.claude-3-sonnet-20240229-v1:0": { + "description": "Claude 3 Sonnet d'Anthropic atteint un équilibre idéal entre intelligence et vitesse, particulièrement adapté aux charges de travail d'entreprise. Il offre une utilité maximale à un prix inférieur à celui des concurrents, conçu pour être un modèle fiable et durable, adapté aux déploiements AI à grande échelle. Claude 3 Sonnet peut traiter des images et retourner des sorties textuelles, avec une fenêtre contextuelle de 200K." + }, + "anthropic.claude-instant-v1": { + "description": "Un modèle rapide, économique et toujours très capable, capable de traiter une série de tâches, y compris des conversations quotidiennes, l'analyse de texte, le résumé et les questions-réponses sur des documents." + }, + "anthropic.claude-v2": { + "description": "Anthropic a démontré une grande capacité dans une large gamme de tâches, allant des dialogues complexes à la génération de contenu créatif, en passant par le suivi détaillé des instructions." + }, + "anthropic.claude-v2:1": { + "description": "Version mise à jour de Claude 2, avec une fenêtre contextuelle doublée, ainsi que des améliorations en fiabilité, taux d'hallucination et précision basée sur des preuves dans des documents longs et des contextes RAG." + }, + "anthropic/claude-3-haiku": { + "description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d'Anthropic, conçu pour offrir des réponses quasi instantanées. Il présente des performances directionnelles rapides et précises." + }, + "anthropic/claude-3-opus": { + "description": "Claude 3 Opus est le modèle le plus puissant d'Anthropic pour traiter des tâches hautement complexes. Il excelle en termes de performance, d'intelligence, de fluidité et de compréhension." + }, + "anthropic/claude-3.5-sonnet": { + "description": "Claude 3.5 Sonnet offre des capacités supérieures à celles d'Opus et une vitesse plus rapide que Sonnet, tout en maintenant le même prix que Sonnet. Sonnet excelle particulièrement dans la programmation, la science des données, le traitement visuel et les tâches d'agent." + }, + "aya": { + "description": "Aya 23 est un modèle multilingue lancé par Cohere, prenant en charge 23 langues, facilitant les applications linguistiques diversifiées." + }, + "aya:35b": { + "description": "Aya 23 est un modèle multilingue lancé par Cohere, prenant en charge 23 langues, facilitant les applications linguistiques diversifiées." + }, + "charglm-3": { + "description": "CharGLM-3 est conçu pour le jeu de rôle et l'accompagnement émotionnel, prenant en charge une mémoire multi-tours ultra-longue et des dialogues personnalisés, avec des applications variées." + }, + "chatgpt-4o-latest": { + "description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension et une génération de langage puissantes, adapté à des scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique." + }, + "claude-2.0": { + "description": "Claude 2 offre des avancées clés pour les entreprises, y compris un contexte de 200K jetons, une réduction significative du taux d'illusion du modèle, des invites système et une nouvelle fonctionnalité de test : l'appel d'outils." + }, + "claude-2.1": { + "description": "Claude 2 offre des avancées clés pour les entreprises, y compris un contexte de 200K jetons, une réduction significative du taux d'illusion du modèle, des invites système et une nouvelle fonctionnalité de test : l'appel d'outils." + }, + "claude-3-5-sonnet-20240620": { + "description": "Claude 3.5 Sonnet offre des capacités dépassant celles d'Opus et une vitesse plus rapide que Sonnet, tout en maintenant le même prix que Sonnet. Sonnet excelle particulièrement dans la programmation, la science des données, le traitement visuel et les tâches d'agent." + }, + "claude-3-haiku-20240307": { + "description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d'Anthropic, conçu pour des réponses quasi instantanées. Il présente des performances directionnelles rapides et précises." + }, + "claude-3-opus-20240229": { + "description": "Claude 3 Opus est le modèle le plus puissant d'Anthropic pour traiter des tâches hautement complexes. Il excelle en performance, intelligence, fluidité et compréhension." + }, + "claude-3-sonnet-20240229": { + "description": "Claude 3 Sonnet offre un équilibre idéal entre intelligence et vitesse pour les charges de travail d'entreprise. Il fournit une utilité maximale à un coût inférieur, fiable et adapté à un déploiement à grande échelle." + }, + "claude-instant-1.2": { + "description": "Le modèle d'Anthropic est conçu pour une génération de texte à faible latence et à haut débit, prenant en charge la génération de centaines de pages de texte." + }, + "codegeex-4": { + "description": "CodeGeeX-4 est un puissant assistant de programmation AI, prenant en charge des questions intelligentes et l'achèvement de code dans divers langages de programmation, améliorant l'efficacité du développement." + }, + "codegemma": { + "description": "CodeGemma est un modèle de langage léger dédié à différentes tâches de programmation, prenant en charge une itération et une intégration rapides." + }, + "codegemma:2b": { + "description": "CodeGemma est un modèle de langage léger dédié à différentes tâches de programmation, prenant en charge une itération et une intégration rapides." + }, + "codellama": { + "description": "Code Llama est un LLM axé sur la génération et la discussion de code, combinant un large support de langages de programmation, adapté aux environnements de développement." + }, + "codellama:13b": { + "description": "Code Llama est un LLM axé sur la génération et la discussion de code, combinant un large support de langages de programmation, adapté aux environnements de développement." + }, + "codellama:34b": { + "description": "Code Llama est un LLM axé sur la génération et la discussion de code, combinant un large support de langages de programmation, adapté aux environnements de développement." + }, + "codellama:70b": { + "description": "Code Llama est un LLM axé sur la génération et la discussion de code, combinant un large support de langages de programmation, adapté aux environnements de développement." + }, + "codeqwen": { + "description": "CodeQwen1.5 est un modèle de langage à grande échelle entraîné sur une grande quantité de données de code, conçu pour résoudre des tâches de programmation complexes." + }, + "codestral": { + "description": "Codestral est le premier modèle de code de Mistral AI, offrant un excellent soutien pour les tâches de génération de code." + }, + "codestral-latest": { + "description": "Codestral est un modèle de génération de pointe axé sur la génération de code, optimisé pour les tâches de remplissage intermédiaire et de complétion de code." + }, + "cognitivecomputations/dolphin-mixtral-8x22b": { + "description": "Dolphin Mixtral 8x22B est un modèle conçu pour le suivi des instructions, le dialogue et la programmation." + }, + "command-r": { + "description": "Command R est un LLM optimisé pour les tâches de dialogue et de long contexte, particulièrement adapté à l'interaction dynamique et à la gestion des connaissances." + }, + "command-r-plus": { + "description": "Command R+ est un modèle de langage de grande taille à haute performance, conçu pour des scénarios d'entreprise réels et des applications complexes." + }, + "databricks/dbrx-instruct": { + "description": "DBRX Instruct offre des capacités de traitement d'instructions hautement fiables, prenant en charge des applications dans divers secteurs." + }, + "deepseek-ai/DeepSeek-Coder-V2-Instruct": { + "description": "DeepSeek Coder V2 est conçu pour les tâches de codage, se concentrant sur la génération de code efficace." + }, + "deepseek-ai/DeepSeek-V2-Chat": { + "description": "DeepSeek V2 possède 6,7 milliards de paramètres, supportant le traitement de texte en anglais et en chinois." + }, + "deepseek-ai/DeepSeek-V2.5": { + "description": "DeepSeek V2.5 intègre les excellentes caractéristiques des versions précédentes, renforçant les capacités générales et de codage." + }, + "deepseek-ai/deepseek-llm-67b-chat": { + "description": "DeepSeek 67B est un modèle avancé formé pour des dialogues de haute complexité." + }, + "deepseek-chat": { + "description": "Un nouveau modèle open source qui fusionne des capacités générales et de code, conservant non seulement la capacité de dialogue général du modèle Chat d'origine et la puissante capacité de traitement de code du modèle Coder, mais s'alignant également mieux sur les préférences humaines. De plus, DeepSeek-V2.5 a réalisé des améliorations significatives dans plusieurs domaines tels que les tâches d'écriture et le suivi des instructions." + }, + "deepseek-coder-v2": { + "description": "DeepSeek Coder V2 est un modèle de code open source de type expert mixte, performant dans les tâches de code, rivalisant avec GPT4-Turbo." + }, + "deepseek-coder-v2:236b": { + "description": "DeepSeek Coder V2 est un modèle de code open source de type expert mixte, performant dans les tâches de code, rivalisant avec GPT4-Turbo." + }, + "deepseek-v2": { + "description": "DeepSeek V2 est un modèle de langage Mixture-of-Experts efficace, adapté aux besoins de traitement économique." + }, + "deepseek-v2:236b": { + "description": "DeepSeek V2 236B est le modèle de code de conception de DeepSeek, offrant de puissantes capacités de génération de code." + }, + "deepseek/deepseek-chat": { + "description": "Un nouveau modèle open source fusionnant des capacités générales et de codage, qui non seulement conserve les capacités de dialogue général du modèle Chat d'origine et la puissante capacité de traitement de code du modèle Coder, mais s'aligne également mieux sur les préférences humaines. De plus, DeepSeek-V2.5 a également réalisé des améliorations significatives dans plusieurs domaines tels que les tâches d'écriture et le suivi d'instructions." + }, + "emohaa": { + "description": "Emohaa est un modèle psychologique, doté de compétences de conseil professionnel, aidant les utilisateurs à comprendre les problèmes émotionnels." + }, + "gemini-1.0-pro-001": { + "description": "Gemini 1.0 Pro 001 (Ajustement) offre des performances stables et ajustables, ce qui en fait un choix idéal pour des solutions de tâches complexes." + }, + "gemini-1.0-pro-002": { + "description": "Gemini 1.0 Pro 002 (Ajustement) offre un excellent soutien multimodal, se concentrant sur la résolution efficace de tâches complexes." + }, + "gemini-1.0-pro-latest": { + "description": "Gemini 1.0 Pro est le modèle d'IA haute performance de Google, conçu pour une large extension des tâches." + }, + "gemini-1.5-flash-001": { + "description": "Gemini 1.5 Flash 001 est un modèle multimodal efficace, prenant en charge l'extension d'applications variées." + }, + "gemini-1.5-flash-8b-exp-0827": { + "description": "Gemini 1.5 Flash 8B 0827 est conçu pour traiter des scénarios de tâches à grande échelle, offrant une vitesse de traitement inégalée." + }, + "gemini-1.5-flash-exp-0827": { + "description": "Gemini 1.5 Flash 0827 offre des capacités de traitement multimodal optimisées, adaptées à divers scénarios de tâches complexes." + }, + "gemini-1.5-flash-latest": { + "description": "Gemini 1.5 Flash est le dernier modèle d'IA multimodal de Google, doté de capacités de traitement rapide, prenant en charge les entrées de texte, d'images et de vidéos, adapté à une large gamme de tâches pour une extension efficace." + }, + "gemini-1.5-pro-001": { + "description": "Gemini 1.5 Pro 001 est une solution d'IA multimodale extensible, prenant en charge une large gamme de tâches complexes." + }, + "gemini-1.5-pro-exp-0801": { + "description": "Gemini 1.5 Pro 0801 offre d'excellentes capacités de traitement multimodal, apportant une plus grande flexibilité au développement d'applications." + }, + "gemini-1.5-pro-exp-0827": { + "description": "Gemini 1.5 Pro 0827 combine les dernières technologies d'optimisation, offrant une capacité de traitement de données multimodales plus efficace." + }, + "gemini-1.5-pro-latest": { + "description": "Gemini 1.5 Pro prend en charge jusqu'à 2 millions de tokens, ce qui en fait un choix idéal pour un modèle multimodal de taille moyenne, adapté à un soutien polyvalent pour des tâches complexes." + }, + "gemma-7b-it": { + "description": "Gemma 7B est adapté au traitement de tâches de taille moyenne, alliant coût et efficacité." + }, + "gemma2": { + "description": "Gemma 2 est un modèle efficace lancé par Google, couvrant une variété de scénarios d'application allant des petites applications au traitement de données complexes." + }, + "gemma2-9b-it": { + "description": "Gemma 2 9B est un modèle optimisé pour des tâches spécifiques et l'intégration d'outils." + }, + "gemma2:27b": { + "description": "Gemma 2 est un modèle efficace lancé par Google, couvrant une variété de scénarios d'application allant des petites applications au traitement de données complexes." + }, + "gemma2:2b": { + "description": "Gemma 2 est un modèle efficace lancé par Google, couvrant une variété de scénarios d'application allant des petites applications au traitement de données complexes." + }, + "general": { + "description": "Spark Lite est un modèle de langage léger, offrant une latence extrêmement faible et une capacité de traitement efficace, entièrement gratuit et ouvert, supportant une fonction de recherche en temps réel. Sa rapidité de réponse le rend exceptionnel dans les applications d'inférence sur des appareils à faible puissance de calcul et dans l'ajustement des modèles, offrant aux utilisateurs un excellent rapport coût-efficacité et une expérience intelligente, en particulier dans les scénarios de questions-réponses, de génération de contenu et de recherche." + }, + "generalv3": { + "description": "Spark Pro est un modèle de langage de haute performance optimisé pour des domaines professionnels, se concentrant sur les mathématiques, la programmation, la médecine, l'éducation, etc., et supportant la recherche en ligne ainsi que des plugins intégrés pour la météo, la date, etc. Son modèle optimisé affiche d'excellentes performances et une efficacité dans des tâches complexes de questions-réponses, de compréhension linguistique et de création de textes de haut niveau, en faisant un choix idéal pour des applications professionnelles." + }, + "generalv3.5": { + "description": "Spark3.5 Max est la version la plus complète, supportant la recherche en ligne et de nombreux plugins intégrés. Ses capacités centrales entièrement optimisées, ainsi que la définition des rôles système et la fonction d'appel de fonctions, lui permettent d'exceller dans divers scénarios d'application complexes." + }, + "glm-4": { + "description": "GLM-4 est l'ancienne version phare publiée en janvier 2024, actuellement remplacée par le plus puissant GLM-4-0520." + }, + "glm-4-0520": { + "description": "GLM-4-0520 est la dernière version du modèle, conçue pour des tâches hautement complexes et diversifiées, avec des performances exceptionnelles." + }, + "glm-4-air": { + "description": "GLM-4-Air est une version économique, offrant des performances proches de GLM-4, avec une rapidité et un prix abordable." + }, + "glm-4-airx": { + "description": "GLM-4-AirX offre une version efficace de GLM-4-Air, avec une vitesse d'inférence pouvant atteindre 2,6 fois celle de la version standard." + }, + "glm-4-alltools": { + "description": "GLM-4-AllTools est un modèle d'agent multifonctionnel, optimisé pour prendre en charge la planification d'instructions complexes et les appels d'outils, tels que la navigation sur le web, l'interprétation de code et la génération de texte, adapté à l'exécution de multiples tâches." + }, + "glm-4-flash": { + "description": "GLM-4-Flash est le choix idéal pour traiter des tâches simples, avec la vitesse la plus rapide et le prix le plus avantageux." + }, + "glm-4-long": { + "description": "GLM-4-Long prend en charge des entrées de texte ultra-longues, adapté aux tâches de mémoire et au traitement de documents à grande échelle." + }, + "glm-4-plus": { + "description": "GLM-4-Plus, en tant que modèle phare de haute intelligence, possède de puissantes capacités de traitement de longs textes et de tâches complexes, avec des performances globalement améliorées." + }, + "glm-4v": { + "description": "GLM-4V offre de puissantes capacités de compréhension et de raisonnement d'image, prenant en charge diverses tâches visuelles." + }, + "glm-4v-plus": { + "description": "GLM-4V-Plus possède la capacité de comprendre le contenu vidéo et plusieurs images, adapté aux tâches multimodales." + }, + "google/gemini-flash-1.5-exp": { + "description": "Gemini 1.5 Flash 0827 offre des capacités de traitement multimodal optimisées, adaptées à divers scénarios de tâches complexes." + }, + "google/gemini-pro-1.5-exp": { + "description": "Gemini 1.5 Pro 0827 combine les dernières technologies d'optimisation pour offrir des capacités de traitement de données multimodales plus efficaces." + }, + "google/gemma-2-27b-it": { + "description": "Gemma 2 poursuit le concept de conception légère et efficace." + }, + "google/gemma-2-9b-it": { + "description": "Gemma 2 est une série de modèles de texte open source allégés de Google." + }, + "google/gemma-2-9b-it:free": { + "description": "Gemma 2 est une série de modèles de texte open source allégés de Google." + }, + "google/gemma-2b-it": { + "description": "Gemma Instruct (2B) offre des capacités de traitement d'instructions de base, adapté aux applications légères." + }, + "gpt-3.5-turbo": { + "description": "GPT 3.5 Turbo, adapté à diverses tâches de génération et de compréhension de texte, pointe actuellement vers gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-0125": { + "description": "GPT 3.5 Turbo, adapté à diverses tâches de génération et de compréhension de texte, pointe actuellement vers gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-1106": { + "description": "GPT 3.5 Turbo, adapté à diverses tâches de génération et de compréhension de texte, pointe actuellement vers gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-instruct": { + "description": "GPT 3.5 Turbo, adapté à diverses tâches de génération et de compréhension de texte, pointe actuellement vers gpt-3.5-turbo-0125." + }, + "gpt-4": { + "description": "GPT-4 offre une fenêtre contextuelle plus grande, capable de traiter des entrées textuelles plus longues, adapté aux scénarios nécessitant une intégration d'informations étendue et une analyse de données." + }, + "gpt-4-0125-preview": { + "description": "Le dernier modèle GPT-4 Turbo dispose de fonctionnalités visuelles. Désormais, les requêtes visuelles peuvent être effectuées en utilisant le mode JSON et les appels de fonction. GPT-4 Turbo est une version améliorée, offrant un soutien rentable pour les tâches multimodales. Il trouve un équilibre entre précision et efficacité, adapté aux applications nécessitant des interactions en temps réel." + }, + "gpt-4-0613": { + "description": "GPT-4 offre une fenêtre contextuelle plus grande, capable de traiter des entrées textuelles plus longues, adapté aux scénarios nécessitant une intégration d'informations étendue et une analyse de données." + }, + "gpt-4-1106-preview": { + "description": "Le dernier modèle GPT-4 Turbo dispose de fonctionnalités visuelles. Désormais, les requêtes visuelles peuvent être effectuées en utilisant le mode JSON et les appels de fonction. GPT-4 Turbo est une version améliorée, offrant un soutien rentable pour les tâches multimodales. Il trouve un équilibre entre précision et efficacité, adapté aux applications nécessitant des interactions en temps réel." + }, + "gpt-4-1106-vision-preview": { + "description": "Le dernier modèle GPT-4 Turbo dispose de fonctionnalités visuelles. Désormais, les requêtes visuelles peuvent être effectuées en utilisant le mode JSON et les appels de fonction. GPT-4 Turbo est une version améliorée, offrant un soutien rentable pour les tâches multimodales. Il trouve un équilibre entre précision et efficacité, adapté aux applications nécessitant des interactions en temps réel." + }, + "gpt-4-32k": { + "description": "GPT-4 offre une fenêtre contextuelle plus grande, capable de traiter des entrées textuelles plus longues, adapté aux scénarios nécessitant une intégration d'informations étendue et une analyse de données." + }, + "gpt-4-32k-0613": { + "description": "GPT-4 offre une fenêtre contextuelle plus grande, capable de traiter des entrées textuelles plus longues, adapté aux scénarios nécessitant une intégration d'informations étendue et une analyse de données." + }, + "gpt-4-turbo": { + "description": "Le dernier modèle GPT-4 Turbo dispose de fonctionnalités visuelles. Désormais, les requêtes visuelles peuvent être effectuées en utilisant le mode JSON et les appels de fonction. GPT-4 Turbo est une version améliorée, offrant un soutien rentable pour les tâches multimodales. Il trouve un équilibre entre précision et efficacité, adapté aux applications nécessitant des interactions en temps réel." + }, + "gpt-4-turbo-2024-04-09": { + "description": "Le dernier modèle GPT-4 Turbo dispose de fonctionnalités visuelles. Désormais, les requêtes visuelles peuvent être effectuées en utilisant le mode JSON et les appels de fonction. GPT-4 Turbo est une version améliorée, offrant un soutien rentable pour les tâches multimodales. Il trouve un équilibre entre précision et efficacité, adapté aux applications nécessitant des interactions en temps réel." + }, + "gpt-4-turbo-preview": { + "description": "Le dernier modèle GPT-4 Turbo dispose de fonctionnalités visuelles. Désormais, les requêtes visuelles peuvent être effectuées en utilisant le mode JSON et les appels de fonction. GPT-4 Turbo est une version améliorée, offrant un soutien rentable pour les tâches multimodales. Il trouve un équilibre entre précision et efficacité, adapté aux applications nécessitant des interactions en temps réel." + }, + "gpt-4-vision-preview": { + "description": "Le dernier modèle GPT-4 Turbo dispose de fonctionnalités visuelles. Désormais, les requêtes visuelles peuvent être effectuées en utilisant le mode JSON et les appels de fonction. GPT-4 Turbo est une version améliorée, offrant un soutien rentable pour les tâches multimodales. Il trouve un équilibre entre précision et efficacité, adapté aux applications nécessitant des interactions en temps réel." + }, + "gpt-4o": { + "description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension et une génération de langage puissantes, adapté à des scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique." + }, + "gpt-4o-2024-05-13": { + "description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension et une génération de langage puissantes, adapté à des scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique." + }, + "gpt-4o-2024-08-06": { + "description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension et une génération de langage puissantes, adapté à des scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique." + }, + "gpt-4o-mini": { + "description": "GPT-4o mini est le dernier modèle lancé par OpenAI après le GPT-4 Omni, prenant en charge les entrées multimodales et produisant des sorties textuelles. En tant que leur modèle compact le plus avancé, il est beaucoup moins cher que d'autres modèles de pointe récents et coûte plus de 60 % de moins que le GPT-3.5 Turbo. Il maintient une intelligence de pointe tout en offrant un rapport qualité-prix significatif. Le GPT-4o mini a obtenu un score de 82 % au test MMLU et se classe actuellement au-dessus du GPT-4 en termes de préférences de chat." + }, + "gryphe/mythomax-l2-13b": { + "description": "MythoMax l2 13B est un modèle linguistique combinant créativité et intelligence, intégrant plusieurs modèles de pointe." + }, + "internlm/internlm2_5-20b-chat": { + "description": "Le modèle open source innovant InternLM2.5 améliore l'intelligence des dialogues grâce à un grand nombre de paramètres." + }, + "internlm/internlm2_5-7b-chat": { + "description": "InternLM2.5 fournit des solutions de dialogue intelligent dans divers scénarios." + }, + "llama-3.1-70b-instruct": { + "description": "Le modèle Llama 3.1 70B Instruct, avec 70B de paramètres, offre des performances exceptionnelles dans la génération de texte et les tâches d'instructions." + }, + "llama-3.1-70b-versatile": { + "description": "Llama 3.1 70B offre une capacité de raisonnement AI plus puissante, adaptée aux applications complexes, prenant en charge un traitement de calcul intensif tout en garantissant efficacité et précision." + }, + "llama-3.1-8b-instant": { + "description": "Llama 3.1 8B est un modèle à haute performance, offrant une capacité de génération de texte rapide, particulièrement adapté aux scénarios d'application nécessitant une efficacité à grande échelle et un rapport coût-efficacité." + }, + "llama-3.1-8b-instruct": { + "description": "Le modèle Llama 3.1 8B Instruct, avec 8B de paramètres, prend en charge l'exécution efficace des tâches d'instructions visuelles, offrant d'excellentes capacités de génération de texte." + }, + "llama-3.1-sonar-huge-128k-online": { + "description": "Le modèle Llama 3.1 Sonar Huge Online, avec 405B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, conçu pour des applications de chat en ligne complexes." + }, + "llama-3.1-sonar-large-128k-chat": { + "description": "Le modèle Llama 3.1 Sonar Large Chat, avec 70B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, adapté aux tâches de chat hors ligne complexes." + }, + "llama-3.1-sonar-large-128k-online": { + "description": "Le modèle Llama 3.1 Sonar Large Online, avec 70B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, adapté aux tâches de chat à haute capacité et diversifiées." + }, + "llama-3.1-sonar-small-128k-chat": { + "description": "Le modèle Llama 3.1 Sonar Small Chat, avec 8B de paramètres, est conçu pour le chat hors ligne, prenant en charge une longueur de contexte d'environ 127 000 jetons." + }, + "llama-3.1-sonar-small-128k-online": { + "description": "Le modèle Llama 3.1 Sonar Small Online, avec 8B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, conçu pour le chat en ligne, capable de traiter efficacement diverses interactions textuelles." + }, + "llama3-70b-8192": { + "description": "Meta Llama 3 70B offre une capacité de traitement de complexité inégalée, sur mesure pour des projets exigeants." + }, + "llama3-8b-8192": { + "description": "Meta Llama 3 8B offre d'excellentes performances de raisonnement, adaptées à des besoins d'application variés." + }, + "llama3-groq-70b-8192-tool-use-preview": { + "description": "Llama 3 Groq 70B Tool Use offre de puissantes capacités d'appel d'outils, prenant en charge le traitement efficace de tâches complexes." + }, + "llama3-groq-8b-8192-tool-use-preview": { + "description": "Llama 3 Groq 8B Tool Use est un modèle optimisé pour une utilisation efficace des outils, prenant en charge un calcul parallèle rapide." + }, + "llama3.1": { + "description": "Llama 3.1 est le modèle de pointe lancé par Meta, prenant en charge jusqu'à 405B de paramètres, applicable dans les domaines des dialogues complexes, de la traduction multilingue et de l'analyse de données." + }, + "llama3.1:405b": { + "description": "Llama 3.1 est le modèle de pointe lancé par Meta, prenant en charge jusqu'à 405B de paramètres, applicable dans les domaines des dialogues complexes, de la traduction multilingue et de l'analyse de données." + }, + "llama3.1:70b": { + "description": "Llama 3.1 est le modèle de pointe lancé par Meta, prenant en charge jusqu'à 405B de paramètres, applicable dans les domaines des dialogues complexes, de la traduction multilingue et de l'analyse de données." + }, + "llava": { + "description": "LLaVA est un modèle multimodal combinant un encodeur visuel et Vicuna, utilisé pour une compréhension puissante du visuel et du langage." + }, + "llava-v1.5-7b-4096-preview": { + "description": "LLaVA 1.5 7B offre une capacité de traitement visuel intégrée, générant des sorties complexes à partir d'entrées d'informations visuelles." + }, + "llava:13b": { + "description": "LLaVA est un modèle multimodal combinant un encodeur visuel et Vicuna, utilisé pour une compréhension puissante du visuel et du langage." + }, + "llava:34b": { + "description": "LLaVA est un modèle multimodal combinant un encodeur visuel et Vicuna, utilisé pour une compréhension puissante du visuel et du langage." + }, + "mathstral": { + "description": "MathΣtral est conçu pour la recherche scientifique et le raisonnement mathématique, offrant des capacités de calcul efficaces et des interprétations de résultats." + }, + "meta-llama/Llama-2-13b-chat-hf": { + "description": "LLaMA-2 Chat (13B) offre d'excellentes capacités de traitement du langage et une expérience interactive exceptionnelle." + }, + "meta-llama/Llama-3-70b-chat-hf": { + "description": "LLaMA-3 Chat (70B) est un modèle de chat puissant, prenant en charge des besoins de dialogue complexes." + }, + "meta-llama/Llama-3-8b-chat-hf": { + "description": "LLaMA-3 Chat (8B) offre un support multilingue, couvrant un large éventail de connaissances." + }, + "meta-llama/Meta-Llama-3-70B-Instruct": { + "description": "LLaMA 3 supporte la génération de texte de grande capacité et l'analyse des instructions." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { + "description": "Llama 3 70B Instruct Lite est adapté aux environnements nécessitant une haute performance et une faible latence." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": { + "description": "Llama 3 70B Instruct Turbo offre une compréhension et une génération de langage exceptionnelles, adapté aux tâches de calcul les plus exigeantes." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Lite": { + "description": "Llama 3 8B Instruct Lite est adapté aux environnements à ressources limitées, offrant un excellent équilibre de performance." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": { + "description": "Llama 3 8B Instruct Turbo est un modèle de langage à haute performance, prenant en charge une large gamme de scénarios d'application." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct": { + "description": "LLaMA 3.1 405B est un modèle puissant pour le pré-entraînement et l'ajustement des instructions." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": { + "description": "Le modèle Llama 3.1 Turbo 405B offre un support de contexte de très grande capacité pour le traitement de grandes données, se distinguant dans les applications d'intelligence artificielle à très grande échelle." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct": { + "description": "LLaMA 3.1 70B offre un support de dialogue efficace en plusieurs langues." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": { + "description": "Le modèle Llama 3.1 70B est finement ajusté pour des applications à forte charge, quantifié en FP8 pour offrir une capacité de calcul et une précision plus efficaces, garantissant des performances exceptionnelles dans des scénarios complexes." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct": { + "description": "LLaMA 3.1 offre un support multilingue, étant l'un des modèles génératifs les plus avancés de l'industrie." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": { + "description": "Le modèle Llama 3.1 8B utilise la quantification FP8, prenant en charge jusqu'à 131 072 jetons de contexte, se distinguant parmi les modèles open source, adapté aux tâches complexes, surpassant de nombreux benchmarks industriels." + }, + "meta-llama/llama-3-70b-instruct": { + "description": "Llama 3 70B Instruct est optimisé pour des scénarios de dialogue de haute qualité, affichant d'excellentes performances dans diverses évaluations humaines." + }, + "meta-llama/llama-3-8b-instruct": { + "description": "Llama 3 8B Instruct optimise les scénarios de dialogue de haute qualité, avec des performances supérieures à de nombreux modèles fermés." + }, + "meta-llama/llama-3.1-405b-instruct": { + "description": "Llama 3.1 405B Instruct est la dernière version lancée par Meta, optimisée pour générer des dialogues de haute qualité, surpassant de nombreux modèles fermés de premier plan." + }, + "meta-llama/llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct est conçu pour des dialogues de haute qualité, se distinguant dans les évaluations humaines, particulièrement adapté aux scénarios d'interaction élevée." + }, + "meta-llama/llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct est la dernière version lancée par Meta, optimisée pour des scénarios de dialogue de haute qualité, surpassant de nombreux modèles fermés de premier plan." + }, + "meta-llama/llama-3.1-8b-instruct:free": { + "description": "LLaMA 3.1 offre un support multilingue et est l'un des modèles génératifs les plus avancés de l'industrie." + }, + "meta.llama3-1-405b-instruct-v1:0": { + "description": "Meta Llama 3.1 405B Instruct est le modèle le plus grand et le plus puissant du modèle Llama 3.1 Instruct. C'est un modèle de génération de données de dialogue et de raisonnement hautement avancé, qui peut également servir de base pour un pré-entraînement ou un ajustement fin spécialisé dans des domaines spécifiques. Les modèles de langage multilingues (LLMs) fournis par Llama 3.1 sont un ensemble de modèles génératifs pré-entraînés et ajustés par instructions, comprenant des tailles de 8B, 70B et 405B (entrée/sortie de texte). Les modèles de texte ajustés par instructions de Llama 3.1 (8B, 70B, 405B) sont optimisés pour des cas d'utilisation de dialogue multilingue et ont surpassé de nombreux modèles de chat open source disponibles dans des benchmarks industriels courants. Llama 3.1 est conçu pour des usages commerciaux et de recherche dans plusieurs langues. Les modèles de texte ajustés par instructions conviennent aux chats de type assistant, tandis que les modèles pré-entraînés peuvent s'adapter à diverses tâches de génération de langage naturel. Le modèle Llama 3.1 prend également en charge l'amélioration d'autres modèles en utilisant sa sortie, y compris la génération de données synthétiques et le raffinement. Llama 3.1 est un modèle de langage autoregressif utilisant une architecture de transformateur optimisée. Les versions ajustées utilisent un ajustement fin supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF) pour répondre aux préférences humaines en matière d'utilité et de sécurité." + }, + "meta.llama3-1-70b-instruct-v1:0": { + "description": "Meta Llama 3.1 70B Instruct est une version mise à jour, incluant une longueur de contexte étendue de 128K, une multilinguisme et des capacités de raisonnement améliorées. Les modèles de langage à grande échelle (LLMs) fournis par Llama 3.1 sont un ensemble de modèles génératifs pré-entraînés et ajustés par instruction, comprenant des tailles de 8B, 70B et 405B (entrée/sortie de texte). Les modèles de texte ajustés par instruction de Llama 3.1 (8B, 70B, 405B) sont optimisés pour des cas d'utilisation de dialogue multilingue et ont surpassé de nombreux modèles de chat open source disponibles dans des benchmarks industriels courants. Llama 3.1 est conçu pour des usages commerciaux et de recherche dans plusieurs langues. Les modèles de texte ajustés par instruction sont adaptés aux chats de type assistant, tandis que les modèles pré-entraînés peuvent s'adapter à diverses tâches de génération de langage naturel. Le modèle Llama 3.1 prend également en charge l'utilisation de ses sorties pour améliorer d'autres modèles, y compris la génération de données synthétiques et le raffinement. Llama 3.1 est un modèle de langage autoregressif utilisant une architecture de transformateur optimisée. La version ajustée utilise un affinement supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF) pour répondre aux préférences humaines en matière d'utilité et de sécurité." + }, + "meta.llama3-1-8b-instruct-v1:0": { + "description": "Meta Llama 3.1 8B Instruct est une version mise à jour, incluant une longueur de contexte étendue de 128K, une multilinguisme et des capacités de raisonnement améliorées. Les modèles de langage à grande échelle (LLMs) fournis par Llama 3.1 sont un ensemble de modèles génératifs pré-entraînés et ajustés par instruction, comprenant des tailles de 8B, 70B et 405B (entrée/sortie de texte). Les modèles de texte ajustés par instruction de Llama 3.1 (8B, 70B, 405B) sont optimisés pour des cas d'utilisation de dialogue multilingue et ont surpassé de nombreux modèles de chat open source disponibles dans des benchmarks industriels courants. Llama 3.1 est conçu pour des usages commerciaux et de recherche dans plusieurs langues. Les modèles de texte ajustés par instruction sont adaptés aux chats de type assistant, tandis que les modèles pré-entraînés peuvent s'adapter à diverses tâches de génération de langage naturel. Le modèle Llama 3.1 prend également en charge l'utilisation de ses sorties pour améliorer d'autres modèles, y compris la génération de données synthétiques et le raffinement. Llama 3.1 est un modèle de langage autoregressif utilisant une architecture de transformateur optimisée. La version ajustée utilise un affinement supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF) pour répondre aux préférences humaines en matière d'utilité et de sécurité." + }, + "meta.llama3-70b-instruct-v1:0": { + "description": "Meta Llama 3 est un modèle de langage ouvert (LLM) destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à construire, expérimenter et étendre de manière responsable leurs idées d'IA générative. En tant que partie intégrante d'un système de base pour l'innovation de la communauté mondiale, il est particulièrement adapté à la création de contenu, à l'IA de dialogue, à la compréhension du langage, à la recherche et aux applications d'entreprise." + }, + "meta.llama3-8b-instruct-v1:0": { + "description": "Meta Llama 3 est un modèle de langage ouvert (LLM) destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à construire, expérimenter et étendre de manière responsable leurs idées d'IA générative. En tant que partie intégrante d'un système de base pour l'innovation de la communauté mondiale, il est particulièrement adapté aux appareils à capacité de calcul et de ressources limitées, ainsi qu'à des temps d'entraînement plus rapides." + }, + "microsoft/wizardlm 2-7b": { + "description": "WizardLM 2 7B est le dernier modèle léger et rapide de Microsoft AI, offrant des performances proches de dix fois celles des modèles leaders open source existants." + }, + "microsoft/wizardlm-2-8x22b": { + "description": "WizardLM-2 8x22B est le modèle Wizard le plus avancé de Microsoft AI, montrant des performances extrêmement compétitives." + }, + "minicpm-v": { + "description": "MiniCPM-V est un nouveau modèle multimodal de nouvelle génération lancé par OpenBMB, offrant d'excellentes capacités de reconnaissance OCR et de compréhension multimodale, prenant en charge une large gamme d'applications." + }, + "mistral": { + "description": "Mistral est le modèle 7B lancé par Mistral AI, adapté aux besoins variés de traitement du langage." + }, + "mistral-large": { + "description": "Mixtral Large est le modèle phare de Mistral, combinant des capacités de génération de code, de mathématiques et de raisonnement, prenant en charge une fenêtre de contexte de 128k." + }, + "mistral-large-latest": { + "description": "Mistral Large est le modèle phare, excellent pour les tâches multilingues, le raisonnement complexe et la génération de code, idéal pour des applications haut de gamme." + }, + "mistral-nemo": { + "description": "Mistral Nemo, développé en collaboration entre Mistral AI et NVIDIA, est un modèle de 12B à performance efficace." + }, + "mistralai/Mistral-7B-Instruct-v0.1": { + "description": "Mistral (7B) Instruct est réputé pour ses performances élevées, adapté à diverses tâches linguistiques." + }, + "mistralai/Mistral-7B-Instruct-v0.2": { + "description": "Mistral 7B est un modèle fine-tuné à la demande, offrant des réponses optimisées pour les tâches." + }, + "mistralai/Mistral-7B-Instruct-v0.3": { + "description": "Mistral (7B) Instruct v0.3 offre une capacité de calcul efficace et une compréhension du langage naturel, adapté à un large éventail d'applications." + }, + "mistralai/Mixtral-8x22B-Instruct-v0.1": { + "description": "Mixtral-8x22B Instruct (141B) est un super grand modèle de langage, prenant en charge des besoins de traitement extrêmement élevés." + }, + "mistralai/Mixtral-8x7B-Instruct-v0.1": { + "description": "Mixtral 8x7B est un modèle de mélange d'experts pré-entraîné, utilisé pour des tâches textuelles générales." + }, + "mistralai/mistral-7b-instruct": { + "description": "Mistral 7B Instruct est un modèle standard de l'industrie, alliant optimisation de la vitesse et support de longs contextes." + }, + "mistralai/mistral-nemo": { + "description": "Mistral Nemo est un modèle de 7,3 milliards de paramètres, offrant un support multilingue et une programmation haute performance." + }, + "mixtral": { + "description": "Mixtral est le modèle d'expert de Mistral AI, avec des poids open source, offrant un soutien dans la génération de code et la compréhension du langage." + }, + "mixtral-8x7b-32768": { + "description": "Mixtral 8x7B offre une capacité de calcul parallèle à haute tolérance aux pannes, adaptée aux tâches complexes." + }, + "mixtral:8x22b": { + "description": "Mixtral est le modèle d'expert de Mistral AI, avec des poids open source, offrant un soutien dans la génération de code et la compréhension du langage." + }, + "moonshot-v1-128k": { + "description": "Moonshot V1 128K est un modèle doté d'une capacité de traitement de contexte ultra-long, adapté à la génération de textes très longs, répondant aux besoins de tâches de génération complexes, capable de traiter jusqu'à 128 000 tokens, idéal pour la recherche, l'académie et la génération de documents volumineux." + }, + "moonshot-v1-32k": { + "description": "Moonshot V1 32K offre une capacité de traitement de contexte de longueur moyenne, capable de traiter 32 768 tokens, particulièrement adapté à la génération de divers documents longs et de dialogues complexes, utilisé dans la création de contenu, la génération de rapports et les systèmes de dialogue." + }, + "moonshot-v1-8k": { + "description": "Moonshot V1 8K est conçu pour des tâches de génération de courts textes, avec des performances de traitement efficaces, capable de traiter 8 192 tokens, idéal pour des dialogues courts, des prises de notes et une génération rapide de contenu." + }, + "nousresearch/hermes-2-pro-llama-3-8b": { + "description": "Hermes 2 Pro Llama 3 8B est une version améliorée de Nous Hermes 2, intégrant les derniers ensembles de données développés en interne." + }, + "o1-mini": { + "description": "o1-mini est un modèle de raisonnement rapide et économique conçu pour les applications de programmation, de mathématiques et de sciences. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023." + }, + "o1-preview": { + "description": "o1 est le nouveau modèle de raisonnement d'OpenAI, adapté aux tâches complexes nécessitant une vaste connaissance générale. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023." + }, + "open-codestral-mamba": { + "description": "Codestral Mamba est un modèle de langage Mamba 2 axé sur la génération de code, offrant un soutien puissant pour des tâches avancées de codage et de raisonnement." + }, + "open-mistral-7b": { + "description": "Mistral 7B est un modèle compact mais performant, excellent pour le traitement par lots et les tâches simples, telles que la classification et la génération de texte, avec de bonnes capacités de raisonnement." + }, + "open-mistral-nemo": { + "description": "Mistral Nemo est un modèle de 12B développé en collaboration avec Nvidia, offrant d'excellentes performances de raisonnement et de codage, facile à intégrer et à remplacer." + }, + "open-mixtral-8x22b": { + "description": "Mixtral 8x22B est un modèle d'expert plus grand, axé sur des tâches complexes, offrant d'excellentes capacités de raisonnement et un débit plus élevé." + }, + "open-mixtral-8x7b": { + "description": "Mixtral 8x7B est un modèle d'expert épars, utilisant plusieurs paramètres pour améliorer la vitesse de raisonnement, adapté au traitement de tâches multilingues et de génération de code." + }, + "openai/gpt-4o-2024-08-06": { + "description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension et une génération de langage puissantes, adapté à des scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique." + }, + "openai/gpt-4o-mini": { + "description": "GPT-4o mini est le dernier modèle d'OpenAI lancé après GPT-4 Omni, prenant en charge les entrées d'images et de texte et produisant du texte en sortie. En tant que leur modèle compact le plus avancé, il est beaucoup moins cher que d'autres modèles de pointe récents et coûte plus de 60 % de moins que GPT-3.5 Turbo. Il maintient une intelligence de pointe tout en offrant un rapport qualité-prix significatif. GPT-4o mini a obtenu un score de 82 % au test MMLU et se classe actuellement au-dessus de GPT-4 en termes de préférences de chat." + }, + "openai/o1-mini": { + "description": "o1-mini est un modèle de raisonnement rapide et économique conçu pour les applications de programmation, de mathématiques et de sciences. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023." + }, + "openai/o1-preview": { + "description": "o1 est le nouveau modèle de raisonnement d'OpenAI, adapté aux tâches complexes nécessitant une vaste connaissance générale. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023." + }, + "openchat/openchat-7b": { + "description": "OpenChat 7B est une bibliothèque de modèles linguistiques open source, affinée par la stratégie de 'C-RLFT (Conditionnal Reinforcement Learning Fine-Tuning)'." + }, + "openrouter/auto": { + "description": "En fonction de la longueur du contexte, du sujet et de la complexité, votre demande sera envoyée à Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-régulé) ou GPT-4o." + }, + "phi3": { + "description": "Phi-3 est un modèle ouvert léger lancé par Microsoft, adapté à une intégration efficace et à un raisonnement de connaissances à grande échelle." + }, + "phi3:14b": { + "description": "Phi-3 est un modèle ouvert léger lancé par Microsoft, adapté à une intégration efficace et à un raisonnement de connaissances à grande échelle." + }, + "qwen-long": { + "description": "Qwen est un modèle de langage à grande échelle, prenant en charge un contexte de texte long, ainsi que des fonctionnalités de dialogue basées sur des documents longs et multiples." + }, + "qwen-max": { + "description": "Qwen est un modèle de langage à grande échelle de niveau milliard, prenant en charge des entrées en différentes langues, y compris le chinois et l'anglais, actuellement le modèle API derrière la version 2.5 de Qwen." + }, + "qwen-max-longcontext": { + "description": "Qwen est un modèle de langage à grande échelle de niveau milliard, prenant en charge des entrées en différentes langues, y compris le chinois et l'anglais, avec une fenêtre contextuelle étendue." + }, + "qwen-plus": { + "description": "Qwen est une version améliorée du modèle de langage à grande échelle, prenant en charge des entrées en différentes langues, y compris le chinois et l'anglais." + }, + "qwen-turbo": { + "description": "Qwen est un modèle de langage à grande échelle, prenant en charge des entrées en différentes langues, y compris le chinois et l'anglais." + }, + "qwen-vl-chat-v1": { + "description": "Qwen VL prend en charge des modes d'interaction flexibles, y compris la capacité de poser des questions à plusieurs images, des dialogues multi-tours, et plus encore." + }, + "qwen-vl-max": { + "description": "Qwen est un modèle de langage visuel à grande échelle. Par rapport à la version améliorée, elle améliore encore la capacité de raisonnement visuel et de suivi des instructions, offrant un niveau de perception et de cognition visuelle plus élevé." + }, + "qwen-vl-plus": { + "description": "Qwen est une version améliorée du modèle de langage visuel à grande échelle. Elle améliore considérablement la capacité de reconnaissance des détails et de reconnaissance de texte, prenant en charge des images avec une résolution de plus d'un million de pixels et des spécifications de rapport d'aspect arbitraire." + }, + "qwen-vl-v1": { + "description": "Initialisé avec le modèle de langage Qwen-7B, ajoutant un modèle d'image, un modèle pré-entraîné avec une résolution d'entrée d'image de 448." + }, + "qwen/qwen-2-7b-instruct:free": { + "description": "Qwen2 est une toute nouvelle série de modèles de langage de grande taille, offrant des capacités de compréhension et de génération plus puissantes." + }, + "qwen2": { + "description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés." + }, + "qwen2-57b-a14b-instruct": { + "description": "Qwen2 est un modèle MOE à code source ouvert de 57B avec 14B de paramètres activés." + }, + "qwen2-72b-instruct": { + "description": "Qwen2 est un modèle de 72B à code source ouvert." + }, + "qwen2-7b-instruct": { + "description": "Qwen2 est un modèle de 7B à code source ouvert." + }, + "qwen2-math-72b-instruct": { + "description": "Le modèle Qwen2-Math possède de puissantes capacités de résolution de problèmes mathématiques." + }, + "qwen2:0.5b": { + "description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés." + }, + "qwen2:1.5b": { + "description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés." + }, + "qwen2:72b": { + "description": "Qwen2 est le nouveau modèle de langage à grande échelle d'Alibaba, offrant d'excellentes performances pour des besoins d'application diversifiés." + }, + "solar-1-mini-chat": { + "description": "Solar Mini est un LLM compact, surpassant GPT-3.5, avec de puissantes capacités multilingues, supportant l'anglais et le coréen, offrant une solution efficace et compacte." + }, + "solar-1-mini-chat-ja": { + "description": "Solar Mini (Ja) étend les capacités de Solar Mini, se concentrant sur le japonais tout en maintenant une efficacité et des performances exceptionnelles en anglais et en coréen." + }, + "solar-pro": { + "description": "Solar Pro est un LLM hautement intelligent lancé par Upstage, axé sur la capacité de suivi des instructions sur un seul GPU, avec un score IFEval supérieur à 80. Actuellement, il supporte l'anglais, et la version officielle est prévue pour novembre 2024, avec une extension du support linguistique et de la longueur du contexte." + }, + "step-1-128k": { + "description": "Équilibre entre performance et coût, adapté à des scénarios généraux." + }, + "step-1-256k": { + "description": "Capacité de traitement de contexte ultra long, particulièrement adapté à l'analyse de documents longs." + }, + "step-1-32k": { + "description": "Prend en charge des dialogues de longueur moyenne, adapté à divers scénarios d'application." + }, + "step-1-8k": { + "description": "Modèle de petite taille, adapté aux tâches légères." + }, + "step-1-flash": { + "description": "Modèle à haute vitesse, adapté aux dialogues en temps réel." + }, + "step-1v-32k": { + "description": "Prend en charge les entrées visuelles, améliorant l'expérience d'interaction multimodale." + }, + "step-1v-8k": { + "description": "Modèle visuel compact, adapté aux tâches de base en texte et image." + }, + "step-2-16k": { + "description": "Prend en charge des interactions contextuelles à grande échelle, adapté aux scénarios de dialogue complexes." + }, + "taichu_llm": { + "description": "Le modèle de langage Taichu Zidong possède une forte capacité de compréhension linguistique ainsi que des compétences en création de texte, questions-réponses, programmation, calcul mathématique, raisonnement logique, analyse des sentiments, et résumé de texte. Il combine de manière innovante le pré-entraînement sur de grandes données avec des connaissances riches provenant de multiples sources, en perfectionnant continuellement la technologie algorithmique et en intégrant de nouvelles connaissances sur le vocabulaire, la structure, la grammaire et le sens à partir de vastes ensembles de données textuelles, offrant aux utilisateurs des informations et des services plus pratiques ainsi qu'une expérience plus intelligente." + }, + "togethercomputer/StripedHyena-Nous-7B": { + "description": "StripedHyena Nous (7B) offre une capacité de calcul améliorée grâce à des stratégies et une architecture de modèle efficaces." + }, + "upstage/SOLAR-10.7B-Instruct-v1.0": { + "description": "Upstage SOLAR Instruct v1 (11B) est adapté aux tâches d'instructions détaillées, offrant d'excellentes capacités de traitement du langage." + }, + "wizardlm2": { + "description": "WizardLM 2 est un modèle de langage proposé par Microsoft AI, particulièrement performant dans les domaines des dialogues complexes, du multilinguisme, du raisonnement et des assistants intelligents." + }, + "wizardlm2:8x22b": { + "description": "WizardLM 2 est un modèle de langage proposé par Microsoft AI, particulièrement performant dans les domaines des dialogues complexes, du multilinguisme, du raisonnement et des assistants intelligents." + }, + "yi-large": { + "description": "Un modèle de nouvelle génération avec des milliards de paramètres, offrant des capacités de question-réponse et de génération de texte exceptionnelles." + }, + "yi-large-fc": { + "description": "Basé sur le modèle yi-large, il prend en charge et renforce les capacités d'appel d'outils, adapté à divers scénarios d'affaires nécessitant la création d'agents ou de workflows." + }, + "yi-large-preview": { + "description": "Version préliminaire, il est recommandé d'utiliser yi-large (nouvelle version)." + }, + "yi-large-rag": { + "description": "Un service de haut niveau basé sur le modèle yi-large, combinant des techniques de recherche et de génération pour fournir des réponses précises, avec un service de recherche d'informations en temps réel sur le web." + }, + "yi-large-turbo": { + "description": "Un excellent rapport qualité-prix avec des performances exceptionnelles. Optimisé pour un équilibre de haute précision en fonction des performances, de la vitesse de raisonnement et des coûts." + }, + "yi-medium": { + "description": "Modèle de taille moyenne, optimisé et ajusté, offrant un équilibre de capacités et un bon rapport qualité-prix. Optimisation approfondie des capacités de suivi des instructions." + }, + "yi-medium-200k": { + "description": "Fenêtre de contexte ultra longue de 200K, offrant une compréhension et une génération de texte en profondeur." + }, + "yi-spark": { + "description": "Petit mais puissant, un modèle léger et rapide. Offre des capacités renforcées en calcul mathématique et en rédaction de code." + }, + "yi-vision": { + "description": "Modèle pour des tâches visuelles complexes, offrant des capacités de compréhension et d'analyse d'images de haute performance." + } +} diff --git a/locales/fr-FR/providers.json b/locales/fr-FR/providers.json new file mode 100644 index 000000000000..03dd1f1efad8 --- /dev/null +++ b/locales/fr-FR/providers.json @@ -0,0 +1,80 @@ +{ + "ai360": { + "description": "360 AI est une plateforme de modèles et de services IA lancée par la société 360, offrant divers modèles avancés de traitement du langage naturel, y compris 360GPT2 Pro, 360GPT Pro, 360GPT Turbo et 360GPT Turbo Responsibility 8K. Ces modèles combinent de grands paramètres et des capacités multimodales, largement utilisés dans la génération de texte, la compréhension sémantique, les systèmes de dialogue et la génération de code. Grâce à une stratégie de tarification flexible, 360 AI répond à des besoins variés des utilisateurs, soutenant l'intégration des développeurs et favorisant l'innovation et le développement des applications intelligentes." + }, + "anthropic": { + "description": "Anthropic est une entreprise axée sur la recherche et le développement en intelligence artificielle, offrant une gamme de modèles linguistiques avancés, tels que Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus et Claude 3 Haiku. Ces modèles atteignent un équilibre idéal entre intelligence, rapidité et coût, adaptés à divers scénarios d'application, allant des charges de travail d'entreprise aux réponses rapides. Claude 3.5 Sonnet, en tant que dernier modèle, a excellé dans plusieurs évaluations tout en maintenant un bon rapport qualité-prix." + }, + "azure": { + "description": "Azure propose une variété de modèles IA avancés, y compris GPT-3.5 et la dernière série GPT-4, prenant en charge divers types de données et tâches complexes, tout en s'engageant à fournir des solutions IA sécurisées, fiables et durables." + }, + "baichuan": { + "description": "Baichuan Intelligent est une entreprise spécialisée dans le développement de grands modèles d'intelligence artificielle, dont les modèles excellent dans les tâches en chinois telles que l'encyclopédie de connaissances, le traitement de longs textes et la création, surpassant les modèles dominants étrangers. Baichuan Intelligent possède également des capacités multimodales de premier plan, se distinguant dans plusieurs évaluations autorisées. Ses modèles incluent Baichuan 4, Baichuan 3 Turbo et Baichuan 3 Turbo 128k, chacun optimisé pour différents scénarios d'application, offrant des solutions à bon rapport qualité-prix." + }, + "bedrock": { + "description": "Bedrock est un service proposé par Amazon AWS, axé sur la fourniture de modèles linguistiques et visuels avancés pour les entreprises. Sa famille de modèles comprend la série Claude d'Anthropic, la série Llama 3.1 de Meta, etc., offrant une variété d'options allant des modèles légers aux modèles haute performance, prenant en charge des tâches telles que la génération de texte, les dialogues et le traitement d'images, adaptées aux applications d'entreprise de différentes tailles et besoins." + }, + "deepseek": { + "description": "DeepSeek est une entreprise spécialisée dans la recherche et l'application des technologies d'intelligence artificielle, dont le dernier modèle, DeepSeek-V2.5, combine des capacités de dialogue général et de traitement de code, réalisant des améliorations significatives dans l'alignement des préférences humaines, les tâches d'écriture et le suivi des instructions." + }, + "fireworksai": { + "description": "Fireworks AI est un fournisseur de services de modèles linguistiques avancés, axé sur les appels de fonction et le traitement multimodal. Son dernier modèle, Firefunction V2, basé sur Llama-3, est optimisé pour les appels de fonction, les dialogues et le suivi des instructions. Le modèle de langage visuel FireLLaVA-13B prend en charge les entrées mixtes d'images et de texte. D'autres modèles notables incluent la série Llama et la série Mixtral, offrant un support efficace pour le suivi et la génération d'instructions multilingues." + }, + "google": { + "description": "La série Gemini de Google est son modèle IA le plus avancé et polyvalent, développé par Google DeepMind, conçu pour le multimédia, prenant en charge la compréhension et le traitement sans couture de texte, code, images, audio et vidéo. Adapté à divers environnements, des centres de données aux appareils mobiles, il améliore considérablement l'efficacité et l'applicabilité des modèles IA." + }, + "groq": { + "description": "Le moteur d'inférence LPU de Groq a excellé dans les derniers tests de référence des grands modèles de langage (LLM), redéfinissant les normes des solutions IA grâce à sa vitesse et son efficacité impressionnantes. Groq représente une vitesse d'inférence instantanée, montrant de bonnes performances dans les déploiements basés sur le cloud." + }, + "minimax": { + "description": "MiniMax est une entreprise de technologie d'intelligence artificielle générale fondée en 2021, dédiée à la co-création d'intelligence avec les utilisateurs. MiniMax a développé de manière autonome différents modèles de grande taille, y compris un modèle de texte MoE à un trillion de paramètres, un modèle vocal et un modèle d'image. Elle a également lancé des applications telles que Conch AI." + }, + "mistral": { + "description": "Mistral propose des modèles avancés généraux, professionnels et de recherche, largement utilisés dans des domaines tels que le raisonnement complexe, les tâches multilingues et la génération de code. Grâce à une interface d'appel de fonction, les utilisateurs peuvent intégrer des fonctionnalités personnalisées pour des applications spécifiques." + }, + "moonshot": { + "description": "Moonshot est une plateforme open source lancée par Beijing Dark Side Technology Co., Ltd., offrant divers modèles de traitement du langage naturel, avec des applications dans des domaines variés, y compris mais sans s'y limiter, la création de contenu, la recherche académique, les recommandations intelligentes, le diagnostic médical, etc., prenant en charge le traitement de longs textes et des tâches de génération complexes." + }, + "novita": { + "description": "Novita AI est une plateforme offrant des services API pour divers grands modèles de langage et la génération d'images IA, flexible, fiable et rentable. Elle prend en charge les derniers modèles open source tels que Llama3, Mistral, et fournit des solutions API complètes, conviviales et évolutives pour le développement d'applications IA, adaptées à la croissance rapide des startups IA." + }, + "ollama": { + "description": "Les modèles proposés par Ollama couvrent largement des domaines tels que la génération de code, les calculs mathématiques, le traitement multilingue et les interactions conversationnelles, répondant à des besoins diversifiés pour le déploiement en entreprise et la localisation." + }, + "openai": { + "description": "OpenAI est un institut de recherche en intelligence artificielle de premier plan au monde, dont les modèles, tels que la série GPT, font progresser les frontières du traitement du langage naturel. OpenAI s'engage à transformer plusieurs secteurs grâce à des solutions IA innovantes et efficaces. Leurs produits offrent des performances et une rentabilité remarquables, largement utilisés dans la recherche, le commerce et les applications innovantes." + }, + "openrouter": { + "description": "OpenRouter est une plateforme de service fournissant des interfaces pour divers modèles de pointe, prenant en charge OpenAI, Anthropic, LLaMA et plus encore, adaptée à des besoins de développement et d'application diversifiés. Les utilisateurs peuvent choisir de manière flexible le modèle et le prix optimaux en fonction de leurs besoins, améliorant ainsi l'expérience IA." + }, + "perplexity": { + "description": "Perplexity est un fournisseur de modèles de génération de dialogue de premier plan, offrant divers modèles avancés Llama 3.1, prenant en charge les applications en ligne et hors ligne, particulièrement adaptés aux tâches complexes de traitement du langage naturel." + }, + "qwen": { + "description": "Tongyi Qianwen est un modèle de langage à grande échelle développé de manière autonome par Alibaba Cloud, doté de puissantes capacités de compréhension et de génération du langage naturel. Il peut répondre à diverses questions, créer du contenu écrit, exprimer des opinions, rédiger du code, etc., jouant un rôle dans plusieurs domaines." + }, + "siliconcloud": { + "description": "SiliconFlow s'engage à accélérer l'AGI pour le bénéfice de l'humanité, en améliorant l'efficacité de l'IA à grande échelle grâce à une pile GenAI facile à utiliser et à faible coût." + }, + "spark": { + "description": "Le modèle Spark de iFlytek offre de puissantes capacités IA dans plusieurs domaines et langues, utilisant des technologies avancées de traitement du langage naturel pour construire des applications innovantes adaptées à divers scénarios verticaux tels que le matériel intelligent, la santé intelligente et la finance intelligente." + }, + "stepfun": { + "description": "Le modèle StepFun est doté de capacités multimodales et de raisonnement complexe de premier plan dans l'industrie, prenant en charge la compréhension de textes très longs et des fonctionnalités puissantes de moteur de recherche autonome." + }, + "taichu": { + "description": "L'Institut d'automatisation de l'Académie chinoise des sciences et l'Institut de recherche en intelligence artificielle de Wuhan ont lancé une nouvelle génération de grands modèles multimodaux, prenant en charge des tâches de questions-réponses complètes, de création de texte, de génération d'images, de compréhension 3D, d'analyse de signaux, avec des capacités cognitives, de compréhension et de création renforcées, offrant une toute nouvelle expérience interactive." + }, + "togetherai": { + "description": "Together AI s'engage à réaliser des performances de pointe grâce à des modèles IA innovants, offrant une large capacité de personnalisation, y compris un support d'évolutivité rapide et un processus de déploiement intuitif, répondant à divers besoins d'entreprise." + }, + "upstage": { + "description": "Upstage se concentre sur le développement de modèles IA pour divers besoins commerciaux, y compris Solar LLM et Document AI, visant à réaliser une intelligence générale artificielle (AGI) pour le travail. Créez des agents de dialogue simples via l'API Chat, et prenez en charge les appels de fonction, la traduction, l'intégration et les applications spécifiques à un domaine." + }, + "zeroone": { + "description": "01.AI se concentre sur les technologies d'intelligence artificielle de l'ère IA 2.0, promouvant activement l'innovation et l'application de \"l'homme + l'intelligence artificielle\", utilisant des modèles puissants et des technologies IA avancées pour améliorer la productivité humaine et réaliser l'autonomisation technologique." + }, + "zhipu": { + "description": "Zhipu AI propose une plateforme ouverte de modèles multimodaux et linguistiques, prenant en charge une large gamme de scénarios d'application IA, y compris le traitement de texte, la compréhension d'images et l'assistance à la programmation." + } +} diff --git a/locales/it-IT/common.json b/locales/it-IT/common.json index 874f00c3d748..fe0f0c347555 100644 --- a/locales/it-IT/common.json +++ b/locales/it-IT/common.json @@ -195,8 +195,8 @@ }, "tab": { "chat": "Chat", + "discover": "Scopri", "files": "File", - "market": "Scopri", "me": "io", "setting": "Impostazioni" }, diff --git a/locales/it-IT/discover.json b/locales/it-IT/discover.json new file mode 100644 index 000000000000..ac7805a8e64f --- /dev/null +++ b/locales/it-IT/discover.json @@ -0,0 +1,204 @@ +{ + "assistants": { + "addAgent": "Aggiungi assistente", + "addAgentAndConverse": "Aggiungi assistente e inizia una conversazione", + "addAgentSuccess": "Aggiunta riuscita", + "conversation": { + "l1": "Ciao, sono **{{name}}**, puoi chiedermi qualsiasi cosa e farò del mio meglio per risponderti ~", + "l2": "Ecco una panoramica delle mie capacità: ", + "l3": "Iniziamo la conversazione!" + }, + "description": "Introduzione all'assistente", + "detail": "Dettagli", + "list": "Elenco assistenti", + "more": "Di più", + "plugins": "Plugin integrati", + "recentSubmits": "Aggiornamenti recenti", + "suggestions": "Suggerimenti correlati", + "systemRole": "Impostazioni assistente", + "try": "Prova" + }, + "back": "Torna alla scoperta", + "category": { + "assistant": { + "academic": "Accademico", + "all": "Tutti", + "career": "Carriera", + "copywriting": "Copywriting", + "design": "Design", + "education": "Educazione", + "emotions": "Emozioni", + "entertainment": "Intrattenimento", + "games": "Giochi", + "general": "Generale", + "life": "Vita", + "marketing": "Marketing", + "office": "Ufficio", + "programming": "Programmazione", + "translation": "Traduzione" + }, + "plugin": { + "all": "Tutti", + "gaming-entertainment": "Gioco e intrattenimento", + "life-style": "Stile di vita", + "media-generate": "Generazione media", + "science-education": "Scienza e istruzione", + "social": "Social media", + "stocks-finance": "Azioni e finanza", + "tools": "Strumenti utili", + "web-search": "Ricerca web" + } + }, + "cleanFilter": "Pulisci filtro", + "create": "Crea", + "createGuide": { + "func1": { + "desc1": "Accedi alla pagina delle impostazioni dell'assistente che desideri inviare tramite l'icona in alto a destra nella finestra di conversazione;", + "desc2": "Clicca sul pulsante per inviare al mercato degli assistenti in alto a destra.", + "tag": "Metodo uno", + "title": "Invia tramite LobeChat" + }, + "func2": { + "button": "Vai al repository degli assistenti su Github", + "desc": "Se desideri aggiungere un assistente all'indice, utilizza agent-template.json o agent-template-full.json per creare un'entrata nella directory plugins, scrivi una breve descrizione e contrassegnala adeguatamente, quindi crea una richiesta di pull.", + "tag": "Metodo due", + "title": "Invia tramite Github" + } + }, + "dislike": "Non mi piace", + "filter": "Filtra", + "filterBy": { + "authorRange": { + "everyone": "Tutti gli autori", + "followed": "Autori seguiti", + "title": "Intervallo autori" + }, + "contentLength": "Lunghezza minima del contenuto", + "maxToken": { + "title": "Imposta lunghezza massima (Token)", + "unlimited": "Illimitato" + }, + "other": { + "functionCall": "Supporta chiamate di funzione", + "title": "Altro", + "vision": "Supporta riconoscimento visivo", + "withKnowledge": "Con knowledge base", + "withTool": "Con plugin" + }, + "pricing": "Prezzo del modello", + "timePeriod": { + "all": "Tutto il tempo", + "day": "Ultime 24 ore", + "month": "Ultimi 30 giorni", + "title": "Intervallo di tempo", + "week": "Ultimi 7 giorni", + "year": "Ultimo anno" + } + }, + "home": { + "featuredAssistants": "Assistenti consigliati", + "featuredModels": "Modelli consigliati", + "featuredProviders": "Fornitori di modelli consigliati", + "featuredTools": "Plugin consigliati", + "more": "Scopri di più" + }, + "like": "Mi piace", + "models": { + "chat": "Inizia conversazione", + "contentLength": "Lunghezza massima del contenuto", + "free": "Gratuito", + "guide": "Guida alla configurazione", + "list": "Elenco modelli", + "more": "Di più", + "parameterList": { + "defaultValue": "Valore predefinito", + "docs": "Visualizza documentazione", + "frequency_penalty": { + "desc": "Questa impostazione regola la frequenza con cui il modello riutilizza vocaboli specifici già presenti nell'input. Valori più alti riducono la probabilità di ripetizione, mentre valori negativi producono l'effetto opposto. La penalità per il vocabolario non aumenta con il numero di apparizioni. Valori negativi incoraggiano il riutilizzo del vocabolario.", + "title": "Penalità di frequenza" + }, + "max_tokens": { + "desc": "Questa impostazione definisce la lunghezza massima che il modello può generare in una singola risposta. Impostare un valore più alto consente al modello di generare risposte più lunghe, mentre un valore più basso limita la lunghezza della risposta, rendendola più concisa. Regolare questo valore in base ai diversi scenari di applicazione può aiutare a raggiungere la lunghezza e il livello di dettaglio desiderati nella risposta.", + "title": "Limite di risposta singola" + }, + "presence_penalty": { + "desc": "Questa impostazione mira a controllare il riutilizzo del vocabolario in base alla frequenza con cui appare nell'input. Cerca di utilizzare meno vocaboli che appaiono frequentemente, in proporzione alla loro frequenza di apparizione. La penalità per il vocabolario aumenta con il numero di apparizioni. Valori negativi incoraggiano il riutilizzo del vocabolario.", + "title": "Freschezza del tema" + }, + "range": "Intervallo", + "temperature": { + "desc": "Questa impostazione influisce sulla diversità delle risposte del modello. Valori più bassi portano a risposte più prevedibili e tipiche, mentre valori più alti incoraggiano risposte più varie e insolite. Quando il valore è impostato a 0, il modello fornisce sempre la stessa risposta per un dato input.", + "title": "Casualità" + }, + "title": "Parametri del modello", + "top_p": { + "desc": "Questa impostazione limita le scelte del modello a una certa proporzione di vocaboli con la massima probabilità: seleziona solo i vocaboli di punta la cui probabilità cumulativa raggiunge P. Valori più bassi rendono le risposte del modello più prevedibili, mentre l'impostazione predefinita consente al modello di scegliere da tutto l'intervallo di vocaboli.", + "title": "Campionamento nucleare" + }, + "type": "Tipo" + }, + "providerInfo": { + "apiTooltip": "LobeChat supporta l'uso di chiavi API personalizzate per questo fornitore.", + "input": "Prezzo di input", + "inputTooltip": "Costo per milione di Token", + "latency": "Latenza", + "latencyTooltip": "Tempo medio di risposta del fornitore per il primo Token inviato", + "maxOutput": "Lunghezza massima di output", + "maxOutputTooltip": "Numero massimo di Token che questo endpoint può generare", + "officialTooltip": "Servizio ufficiale LobeHub", + "output": "Prezzo di output", + "outputTooltip": "Costo per milione di Token", + "streamCancellationTooltip": "Questo fornitore supporta la funzione di cancellazione dello streaming.", + "throughput": "Throughput", + "throughputTooltip": "Numero medio di Token trasmessi per secondo nelle richieste di streaming" + }, + "suggestions": "Modelli correlati", + "supportedProviders": "Fornitori supportati da questo modello" + }, + "plugins": { + "community": "Plugin della comunità", + "install": "Installa plugin", + "installed": "Installato", + "list": "Elenco plugin", + "meta": { + "description": "Descrizione", + "parameter": "Parametro", + "title": "Parametri dello strumento", + "type": "Tipo" + }, + "more": "Di più", + "official": "Plugin ufficiale", + "recentSubmits": "Aggiornamenti recenti", + "suggestions": "Suggerimenti correlati" + }, + "providers": { + "config": "Configurazione del fornitore", + "list": "Elenco fornitori di modelli", + "modelCount": "{{count}} modelli", + "modelSite": "Documentazione del modello", + "more": "Di più", + "officialSite": "Sito ufficiale", + "showAllModels": "Mostra tutti i modelli", + "suggestions": "Fornitori correlati", + "supportedModels": "Modelli supportati" + }, + "search": { + "placeholder": "Cerca nome, descrizione o parole chiave...", + "result": "{{count}} risultati di ricerca su {{keyword}}", + "searching": "Ricerca in corso..." + }, + "sort": { + "mostLiked": "Più apprezzati", + "mostUsed": "Più utilizzati", + "newest": "Dal più recente al più vecchio", + "oldest": "Dal più vecchio al più recente", + "recommended": "Consigliati" + }, + "tab": { + "assistants": "Assistenti", + "home": "Home", + "models": "Modelli", + "plugins": "Plugin", + "providers": "Fornitori di modelli" + } +} diff --git a/locales/it-IT/metadata.json b/locales/it-IT/metadata.json index 94458d872d9c..31549cc2110d 100644 --- a/locales/it-IT/metadata.json +++ b/locales/it-IT/metadata.json @@ -3,9 +3,26 @@ "description": "{{appName}} ti offre la migliore esperienza con ChatGPT, Claude, Gemini e OLLaMA WebUI", "title": "{{appName}}: strumento di efficienza personale AI, per darti un cervello più intelligente" }, - "market": { - "description": "Creazione di contenuti, copywriting, domande e risposte, generazione di immagini, generazione di video, generazione vocale, agenti intelligenti, flussi di lavoro automatizzati, personalizza il tuo assistente AI esclusivo", - "title": "Mercato degli assistenti" + "discover": { + "assistants": { + "description": "Creazione di contenuti, copywriting, domande e risposte, generazione di immagini, generazione di video, generazione vocale, agenti intelligenti, flussi di lavoro automatizzati, personalizza il tuo assistente AI / GPTs / OLLaMA", + "title": "Assistenti AI" + }, + "description": "Creazione di contenuti, copywriting, domande e risposte, generazione di immagini, generazione di video, generazione vocale, agenti intelligenti, flussi di lavoro automatizzati, applicazioni AI personalizzate, personalizza il tuo spazio di lavoro per le applicazioni AI", + "models": { + "description": "Esplora i modelli AI più diffusi: OpenAI / GPT / Claude 3 / Gemini / Ollama / Azure / DeepSeek", + "title": "Modelli AI" + }, + "plugins": { + "description": "Scopri la generazione di grafici, accademica, generazione di immagini, generazione di video, generazione vocale e flussi di lavoro automatizzati, integra capacità ricche di plugin per il tuo assistente.", + "title": "Plugin AI" + }, + "providers": { + "description": "Esplora i principali fornitori di modelli: OpenAI / Qwen / Ollama / Anthropic / DeepSeek / Google Gemini / OpenRouter", + "title": "Fornitori di servizi di modelli AI" + }, + "search": "Cerca", + "title": "Scopri" }, "plugins": { "description": "Ricerca, generazione di grafici, accademico, generazione di immagini, generazione di video, generazione vocale, flussi di lavoro automatizzati, personalizza le capacità dei plugin ToolCall esclusivi di ChatGPT / Claude", diff --git a/locales/it-IT/models.json b/locales/it-IT/models.json new file mode 100644 index 000000000000..7b9c32ffd3c4 --- /dev/null +++ b/locales/it-IT/models.json @@ -0,0 +1,845 @@ +{ + "01-ai/Yi-1.5-34B-Chat-16K": { + "description": "Yi-1.5 34B, con un ricco campione di addestramento, offre prestazioni superiori nelle applicazioni di settore." + }, + "01-ai/Yi-1.5-6B-Chat": { + "description": "Yi-1.5 è una versione evoluta della serie Yi, con pre-addestramento di alta qualità e un ricco set di dati di fine-tuning." + }, + "01-ai/Yi-1.5-9B-Chat-16K": { + "description": "Yi-1.5 9B supporta 16K Tokens, offrendo capacità di generazione linguistica efficienti e fluide." + }, + "360gpt-pro": { + "description": "360GPT Pro, come membro importante della serie di modelli AI di 360, soddisfa le diverse applicazioni del linguaggio naturale con un'efficace capacità di elaborazione del testo, supportando la comprensione di testi lunghi e conversazioni a più turni." + }, + "360gpt-turbo": { + "description": "360GPT Turbo offre potenti capacità di calcolo e dialogo, con un'eccellente comprensione semantica e efficienza di generazione, rappresentando una soluzione ideale per assistenti intelligenti per aziende e sviluppatori." + }, + "360gpt-turbo-responsibility-8k": { + "description": "360GPT Turbo Responsibility 8K enfatizza la sicurezza semantica e l'orientamento alla responsabilità, progettato specificamente per scenari applicativi con elevati requisiti di sicurezza dei contenuti, garantendo l'accuratezza e la robustezza dell'esperienza utente." + }, + "360gpt2-pro": { + "description": "360GPT2 Pro è un modello avanzato di elaborazione del linguaggio naturale lanciato da 360, con eccellenti capacità di generazione e comprensione del testo, in particolare nel campo della generazione e creazione, capace di gestire compiti complessi di conversione linguistica e interpretazione di ruoli." + }, + "4.0Ultra": { + "description": "Spark4.0 Ultra è la versione più potente della serie di modelli Spark, migliorando la comprensione e la sintesi del contenuto testuale mentre aggiorna il collegamento alla ricerca online. È una soluzione completa per migliorare la produttività lavorativa e rispondere con precisione alle esigenze, rappresentando un prodotto intelligente all'avanguardia nel settore." + }, + "Baichuan2-Turbo": { + "description": "Utilizza tecnologie di ricerca avanzate per collegare completamente il grande modello con la conoscenza di settore e la conoscenza globale. Supporta il caricamento di vari documenti come PDF, Word e l'immissione di URL, con acquisizione di informazioni tempestiva e completa, e risultati di output accurati e professionali." + }, + "Baichuan3-Turbo": { + "description": "Ottimizzato per scenari aziendali ad alta frequenza, con un notevole miglioramento delle prestazioni e un ottimo rapporto qualità-prezzo. Rispetto al modello Baichuan2, la creazione di contenuti è migliorata del 20%, le domande di conoscenza del 17% e le capacità di interpretazione di ruoli del 40%. Le prestazioni complessive superano quelle di GPT3.5." + }, + "Baichuan3-Turbo-128k": { + "description": "Dotato di una finestra di contesto ultra lunga di 128K, ottimizzato per scenari aziendali ad alta frequenza, con un notevole miglioramento delle prestazioni e un ottimo rapporto qualità-prezzo. Rispetto al modello Baichuan2, la creazione di contenuti è migliorata del 20%, le domande di conoscenza del 17% e le capacità di interpretazione di ruoli del 40%. Le prestazioni complessive superano quelle di GPT3.5." + }, + "Baichuan4": { + "description": "Il modello ha la migliore capacità in Cina, superando i modelli mainstream esteri in compiti cinesi come enciclopedie, testi lunghi e creazione di contenuti. Ha anche capacità multimodali leader nel settore, con prestazioni eccellenti in vari benchmark di valutazione." + }, + "Gryphe/MythoMax-L2-13b": { + "description": "MythoMax-L2 (13B) è un modello innovativo, adatto per applicazioni in più settori e compiti complessi." + }, + "Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Hermes 2 Mixtral 8x7B DPO è un modello altamente flessibile, progettato per offrire un'esperienza creativa eccezionale." + }, + "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) è un modello di istruzioni ad alta precisione, adatto per calcoli complessi." + }, + "NousResearch/Nous-Hermes-2-Yi-34B": { + "description": "Nous Hermes-2 Yi (34B) offre output linguistici ottimizzati e possibilità di applicazione diversificate." + }, + "Pro-128k": { + "description": "Spark Pro-128K è dotato di capacità di elaborazione del contesto eccezionalmente grandi, in grado di gestire fino a 128K di informazioni contestuali, particolarmente adatto per contenuti lunghi che richiedono analisi complete e gestione di associazioni logiche a lungo termine, fornendo logica fluida e coerenza in comunicazioni testuali complesse e supporto per citazioni varie." + }, + "Qwen/Qwen1.5-110B-Chat": { + "description": "Come versione beta di Qwen2, Qwen1.5 utilizza dati su larga scala per realizzare funzionalità di dialogo più precise." + }, + "Qwen/Qwen1.5-14B-Chat": { + "description": "Qwen1.5 è addestrato su un vasto dataset, eccellente in compiti linguistici complessi." + }, + "Qwen/Qwen1.5-32B-Chat": { + "description": "Qwen1.5 ha capacità di domande e risposte multi-dominio e generazione di testi." + }, + "Qwen/Qwen1.5-72B-Chat": { + "description": "Qwen 1.5 Chat (72B) offre risposte rapide e capacità di dialogo naturale, adatto per ambienti multilingue." + }, + "Qwen/Qwen1.5-7B-Chat": { + "description": "Qwen1.5 migliora la capacità di espressione del dialogo combinando pre-addestramento avanzato e fine-tuning." + }, + "Qwen/Qwen2-1.5B-Instruct": { + "description": "Qwen2 è una nuova serie di modelli linguistici di grandi dimensioni, progettata per ottimizzare l'elaborazione di compiti istruzionali." + }, + "Qwen/Qwen2-57B-A14B-Instruct": { + "description": "Qwen2 è una nuova serie, il modello 57B A14B si distingue per le sue prestazioni eccellenti nei compiti istruzionali." + }, + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 è un modello di linguaggio universale avanzato, supportando vari tipi di istruzioni." + }, + "Qwen/Qwen2-7B-Instruct": { + "description": "Qwen2 è una nuova serie di modelli linguistici di grandi dimensioni, con capacità di comprensione e generazione più forti." + }, + "Qwen/Qwen2-Math-72B-Instruct": { + "description": "Qwen2-Math si concentra sulla risoluzione di problemi nel campo della matematica, fornendo risposte professionali a domande di alta difficoltà." + }, + "THUDM/chatglm3-6b": { + "description": "Come modello linguistico per conversazioni bilingue, ChatGLM3 è in grado di gestire compiti di conversione tra cinese e inglese." + }, + "THUDM/glm-4-9b-chat": { + "description": "GLM-4 9B è una versione open source, progettata per fornire un'esperienza di dialogo ottimizzata per applicazioni conversazionali." + }, + "abab5.5-chat": { + "description": "Focalizzato su scenari di produttività, supporta l'elaborazione di compiti complessi e la generazione di testo efficiente, adatto per applicazioni professionali." + }, + "abab5.5s-chat": { + "description": "Progettato per scenari di dialogo con personaggi cinesi, offre capacità di generazione di dialoghi di alta qualità, adatto per vari scenari applicativi." + }, + "abab6.5g-chat": { + "description": "Progettato per dialoghi con personaggi multilingue, supporta la generazione di dialoghi di alta qualità in inglese e in molte altre lingue." + }, + "abab6.5s-chat": { + "description": "Adatto per una vasta gamma di compiti di elaborazione del linguaggio naturale, inclusa la generazione di testo e i sistemi di dialogo." + }, + "abab6.5t-chat": { + "description": "Ottimizzato per scenari di dialogo con personaggi cinesi, offre capacità di generazione di dialoghi fluida e conforme alle espressioni cinesi." + }, + "accounts/fireworks/models/firefunction-v1": { + "description": "Il modello open source di chiamata di funzione di Fireworks offre capacità di esecuzione di istruzioni eccezionali e caratteristiche personalizzabili." + }, + "accounts/fireworks/models/firefunction-v2": { + "description": "Firefunction-v2, l'ultima offerta di Fireworks, è un modello di chiamata di funzione ad alte prestazioni, sviluppato su Llama-3 e ottimizzato per scenari come chiamate di funzione, dialogo e seguimento di istruzioni." + }, + "accounts/fireworks/models/firellava-13b": { + "description": "fireworks-ai/FireLLaVA-13b è un modello di linguaggio visivo in grado di ricevere input sia visivi che testuali, addestrato su dati di alta qualità, adatto per compiti multimodali." + }, + "accounts/fireworks/models/gemma2-9b-it": { + "description": "Il modello di istruzioni Gemma 2 9B, basato sulla tecnologia Google precedente, è adatto per rispondere a domande, riassumere e generare testi in vari contesti." + }, + "accounts/fireworks/models/llama-v3-70b-instruct": { + "description": "Il modello di istruzioni Llama 3 70B è ottimizzato per dialoghi multilingue e comprensione del linguaggio naturale, superando le prestazioni della maggior parte dei modelli concorrenti." + }, + "accounts/fireworks/models/llama-v3-70b-instruct-hf": { + "description": "Il modello di istruzioni Llama 3 70B (versione HF) è allineato con i risultati dell'implementazione ufficiale, adatto per compiti di seguimento di istruzioni di alta qualità." + }, + "accounts/fireworks/models/llama-v3-8b-instruct": { + "description": "Il modello di istruzioni Llama 3 8B è ottimizzato per dialoghi e compiti multilingue, offrendo prestazioni eccellenti e alta efficienza." + }, + "accounts/fireworks/models/llama-v3-8b-instruct-hf": { + "description": "Il modello di istruzioni Llama 3 8B (versione HF) è coerente con i risultati dell'implementazione ufficiale, garantendo alta coerenza e compatibilità cross-platform." + }, + "accounts/fireworks/models/llama-v3p1-405b-instruct": { + "description": "Il modello di istruzioni Llama 3.1 405B ha parametri su scala estremamente grande, adatto per compiti complessi e seguimento di istruzioni in scenari ad alto carico." + }, + "accounts/fireworks/models/llama-v3p1-70b-instruct": { + "description": "Il modello di istruzioni Llama 3.1 70B offre capacità superiori di comprensione e generazione del linguaggio, ideale per compiti di dialogo e analisi." + }, + "accounts/fireworks/models/llama-v3p1-8b-instruct": { + "description": "Il modello di istruzioni Llama 3.1 8B è ottimizzato per dialoghi multilingue, in grado di superare la maggior parte dei modelli open e closed source su benchmark di settore comuni." + }, + "accounts/fireworks/models/mixtral-8x22b-instruct": { + "description": "Il modello di istruzioni Mixtral MoE 8x22B, con parametri su larga scala e architettura multi-esperto, supporta in modo completo l'elaborazione efficiente di compiti complessi." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct": { + "description": "Il modello di istruzioni Mixtral MoE 8x7B, con architettura multi-esperto, offre un'elevata efficienza nel seguire e eseguire istruzioni." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct-hf": { + "description": "Il modello di istruzioni Mixtral MoE 8x7B (versione HF) ha prestazioni coerenti con l'implementazione ufficiale, adatto per vari scenari di compiti efficienti." + }, + "accounts/fireworks/models/mythomax-l2-13b": { + "description": "Il modello MythoMax L2 13B combina tecnologie di fusione innovative, specializzandosi in narrazione e interpretazione di ruoli." + }, + "accounts/fireworks/models/phi-3-vision-128k-instruct": { + "description": "Il modello di istruzioni Phi 3 Vision è un modello multimodale leggero, in grado di gestire informazioni visive e testuali complesse, con forti capacità di ragionamento." + }, + "accounts/fireworks/models/starcoder-16b": { + "description": "Il modello StarCoder 15.5B supporta compiti di programmazione avanzati, con capacità multilingue potenziate, adatto per la generazione e comprensione di codice complesso." + }, + "accounts/fireworks/models/starcoder-7b": { + "description": "Il modello StarCoder 7B è addestrato su oltre 80 linguaggi di programmazione, con eccellenti capacità di completamento del codice e comprensione del contesto." + }, + "accounts/yi-01-ai/models/yi-large": { + "description": "Il modello Yi-Large offre capacità eccezionali di elaborazione multilingue, utilizzabile per vari compiti di generazione e comprensione del linguaggio." + }, + "anthropic.claude-3-5-sonnet-20240620-v1:0": { + "description": "Claude 3.5 Sonnet ha elevato gli standard del settore, superando i modelli concorrenti e Claude 3 Opus, dimostrando prestazioni eccezionali in una vasta gamma di valutazioni, mantenendo la velocità e i costi dei nostri modelli di livello medio." + }, + "anthropic.claude-3-haiku-20240307-v1:0": { + "description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, offrendo una velocità di risposta quasi istantanea. Può rispondere rapidamente a query e richieste semplici. I clienti saranno in grado di costruire un'esperienza AI senza soluzione di continuità che imita l'interazione umana. Claude 3 Haiku può gestire immagini e restituire output testuali, con una finestra di contesto di 200K." + }, + "anthropic.claude-3-opus-20240229-v1:0": { + "description": "Claude 3 Opus è il modello AI più potente di Anthropic, con prestazioni all'avanguardia in compiti altamente complessi. Può gestire prompt aperti e scenari mai visti prima, con un'eccellente fluidità e comprensione simile a quella umana. Claude 3 Opus mostra le possibilità all'avanguardia dell'AI generativa. Claude 3 Opus può gestire immagini e restituire output testuali, con una finestra di contesto di 200K." + }, + "anthropic.claude-3-sonnet-20240229-v1:0": { + "description": "Claude 3 Sonnet di Anthropic raggiunge un equilibrio ideale tra intelligenza e velocità, particolarmente adatto per carichi di lavoro aziendali. Offre la massima utilità a un prezzo inferiore rispetto ai concorrenti ed è progettato per essere un pilastro affidabile e durevole, adatto per implementazioni AI su larga scala. Claude 3 Sonnet può gestire immagini e restituire output testuali, con una finestra di contesto di 200K." + }, + "anthropic.claude-instant-v1": { + "description": "Un modello veloce, economico e comunque molto capace, in grado di gestire una serie di compiti, tra cui conversazioni quotidiane, analisi testuali, sintesi e domande e risposte su documenti." + }, + "anthropic.claude-v2": { + "description": "Un modello di Anthropic che dimostra elevate capacità in una vasta gamma di compiti, dalla conversazione complessa alla generazione di contenuti creativi, fino al seguire istruzioni dettagliate." + }, + "anthropic.claude-v2:1": { + "description": "Versione aggiornata di Claude 2, con una finestra di contesto doppia e miglioramenti nella affidabilità, nel tasso di allucinazione e nell'accuratezza basata su prove nei contesti di documenti lunghi e RAG." + }, + "anthropic/claude-3-haiku": { + "description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per fornire risposte quasi istantanee. Ha prestazioni direzionali rapide e accurate." + }, + "anthropic/claude-3-opus": { + "description": "Claude 3 Opus è il modello più potente di Anthropic per gestire compiti altamente complessi. Eccelle in prestazioni, intelligenza, fluidità e comprensione." + }, + "anthropic/claude-3.5-sonnet": { + "description": "Claude 3.5 Sonnet offre capacità superiori rispetto a Opus e una velocità maggiore rispetto a Sonnet, mantenendo lo stesso prezzo di Sonnet. Sonnet è particolarmente abile in programmazione, scienza dei dati, elaborazione visiva e compiti di agenzia." + }, + "aya": { + "description": "Aya 23 è un modello multilingue lanciato da Cohere, supporta 23 lingue, facilitando applicazioni linguistiche diversificate." + }, + "aya:35b": { + "description": "Aya 23 è un modello multilingue lanciato da Cohere, supporta 23 lingue, facilitando applicazioni linguistiche diversificate." + }, + "charglm-3": { + "description": "CharGLM-3 è progettato per il gioco di ruolo e la compagnia emotiva, supporta una memoria multi-turno ultra-lunga e dialoghi personalizzati, con ampie applicazioni." + }, + "chatgpt-4o-latest": { + "description": "ChatGPT-4o è un modello dinamico, aggiornato in tempo reale per mantenere la versione più recente. Combina una potente comprensione e generazione del linguaggio, adatta a scenari di applicazione su larga scala, inclusi servizi clienti, educazione e supporto tecnico." + }, + "claude-2.0": { + "description": "Claude 2 offre progressi nelle capacità chiave per le aziende, inclusi contesti leader del settore fino a 200K token, riduzione significativa della frequenza di allucinazioni del modello, suggerimenti di sistema e una nuova funzionalità di test: chiamate di strumenti." + }, + "claude-2.1": { + "description": "Claude 2 offre progressi nelle capacità chiave per le aziende, inclusi contesti leader del settore fino a 200K token, riduzione significativa della frequenza di allucinazioni del modello, suggerimenti di sistema e una nuova funzionalità di test: chiamate di strumenti." + }, + "claude-3-5-sonnet-20240620": { + "description": "Claude 3.5 Sonnet offre capacità superiori a Opus e velocità più elevate rispetto a Sonnet, mantenendo lo stesso prezzo. Sonnet è particolarmente abile in programmazione, scienza dei dati, elaborazione visiva e compiti di agenti." + }, + "claude-3-haiku-20240307": { + "description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee. Ha prestazioni di orientamento rapide e accurate." + }, + "claude-3-opus-20240229": { + "description": "Claude 3 Opus è il modello più potente di Anthropic per gestire compiti altamente complessi. Eccelle in prestazioni, intelligenza, fluidità e comprensione." + }, + "claude-3-sonnet-20240229": { + "description": "Claude 3 Sonnet offre un equilibrio ideale tra intelligenza e velocità per i carichi di lavoro aziendali. Fornisce la massima utilità a un prezzo inferiore, affidabile e adatto per distribuzioni su larga scala." + }, + "claude-instant-1.2": { + "description": "Il modello di Anthropic è progettato per generazione di testi a bassa latenza e alta capacità, supportando la generazione di centinaia di pagine di testo." + }, + "codegeex-4": { + "description": "CodeGeeX-4 è un potente assistente di programmazione AI, supporta domande intelligenti e completamento del codice in vari linguaggi di programmazione, migliorando l'efficienza dello sviluppo." + }, + "codegemma": { + "description": "CodeGemma è un modello linguistico leggero dedicato a vari compiti di programmazione, supporta iterazioni rapide e integrazione." + }, + "codegemma:2b": { + "description": "CodeGemma è un modello linguistico leggero dedicato a vari compiti di programmazione, supporta iterazioni rapide e integrazione." + }, + "codellama": { + "description": "Code Llama è un LLM focalizzato sulla generazione e discussione di codice, combinando un ampio supporto per i linguaggi di programmazione, adatto per ambienti di sviluppo." + }, + "codellama:13b": { + "description": "Code Llama è un LLM focalizzato sulla generazione e discussione di codice, combinando un ampio supporto per i linguaggi di programmazione, adatto per ambienti di sviluppo." + }, + "codellama:34b": { + "description": "Code Llama è un LLM focalizzato sulla generazione e discussione di codice, combinando un ampio supporto per i linguaggi di programmazione, adatto per ambienti di sviluppo." + }, + "codellama:70b": { + "description": "Code Llama è un LLM focalizzato sulla generazione e discussione di codice, combinando un ampio supporto per i linguaggi di programmazione, adatto per ambienti di sviluppo." + }, + "codeqwen": { + "description": "CodeQwen1.5 è un modello di linguaggio di grandi dimensioni addestrato su un ampio set di dati di codice, progettato per risolvere compiti di programmazione complessi." + }, + "codestral": { + "description": "Codestral è il primo modello di codice di Mistral AI, offre un supporto eccezionale per i compiti di generazione di codice." + }, + "codestral-latest": { + "description": "Codestral è un modello generativo all'avanguardia focalizzato sulla generazione di codice, ottimizzato per compiti di completamento e riempimento intermedio." + }, + "cognitivecomputations/dolphin-mixtral-8x22b": { + "description": "Dolphin Mixtral 8x22B è un modello progettato per seguire istruzioni, dialogo e programmazione." + }, + "command-r": { + "description": "Command R è un LLM ottimizzato per compiti di dialogo e contesti lunghi, particolarmente adatto per interazioni dinamiche e gestione della conoscenza." + }, + "command-r-plus": { + "description": "Command R+ è un modello di linguaggio di grandi dimensioni ad alte prestazioni, progettato per scenari aziendali reali e applicazioni complesse." + }, + "databricks/dbrx-instruct": { + "description": "DBRX Instruct offre capacità di elaborazione di istruzioni altamente affidabili, supportando applicazioni in vari settori." + }, + "deepseek-ai/DeepSeek-Coder-V2-Instruct": { + "description": "DeepSeek Coder V2 è progettato per compiti di codifica, focalizzandosi sulla generazione di codice efficiente." + }, + "deepseek-ai/DeepSeek-V2-Chat": { + "description": "DeepSeek V2 ha 6.7 miliardi di parametri e supporta l'elaborazione di testi in inglese e cinese." + }, + "deepseek-ai/DeepSeek-V2.5": { + "description": "DeepSeek V2.5 combina le eccellenti caratteristiche delle versioni precedenti, migliorando le capacità generali e di codifica." + }, + "deepseek-ai/deepseek-llm-67b-chat": { + "description": "DeepSeek 67B è un modello avanzato addestrato per dialoghi ad alta complessità." + }, + "deepseek-chat": { + "description": "Un nuovo modello open source che integra capacità generali e di codifica, mantenendo non solo le capacità conversazionali generali del modello Chat originale, ma anche la potente capacità di elaborazione del codice del modello Coder, allineandosi meglio alle preferenze umane. Inoltre, DeepSeek-V2.5 ha ottenuto notevoli miglioramenti in vari aspetti, come i compiti di scrittura e il rispetto delle istruzioni." + }, + "deepseek-coder-v2": { + "description": "DeepSeek Coder V2 è un modello di codice open source di esperti misti, eccelle nei compiti di codice, paragonabile a GPT4-Turbo." + }, + "deepseek-coder-v2:236b": { + "description": "DeepSeek Coder V2 è un modello di codice open source di esperti misti, eccelle nei compiti di codice, paragonabile a GPT4-Turbo." + }, + "deepseek-v2": { + "description": "DeepSeek V2 è un modello di linguaggio Mixture-of-Experts efficiente, adatto per esigenze di elaborazione economica." + }, + "deepseek-v2:236b": { + "description": "DeepSeek V2 236B è il modello di codice progettato di DeepSeek, offre potenti capacità di generazione di codice." + }, + "deepseek/deepseek-chat": { + "description": "Un nuovo modello open source che integra capacità generali e di codice, mantenendo non solo le capacità di dialogo generali del modello Chat originale e la potente capacità di elaborazione del codice del modello Coder, ma allineandosi anche meglio alle preferenze umane. Inoltre, DeepSeek-V2.5 ha ottenuto notevoli miglioramenti in vari aspetti, come compiti di scrittura e seguire istruzioni." + }, + "emohaa": { + "description": "Emohaa è un modello psicologico, con capacità di consulenza professionale, aiuta gli utenti a comprendere i problemi emotivi." + }, + "gemini-1.0-pro-001": { + "description": "Gemini 1.0 Pro 001 (Tuning) offre prestazioni stabili e ottimizzabili, è la scelta ideale per soluzioni a compiti complessi." + }, + "gemini-1.0-pro-002": { + "description": "Gemini 1.0 Pro 002 (Tuning) offre un'eccellente supporto multimodale, focalizzandosi sulla risoluzione efficace di compiti complessi." + }, + "gemini-1.0-pro-latest": { + "description": "Gemini 1.0 Pro è il modello AI ad alte prestazioni di Google, progettato per l'espansione su una vasta gamma di compiti." + }, + "gemini-1.5-flash-001": { + "description": "Gemini 1.5 Flash 001 è un modello multimodale efficiente, supporta l'espansione per applicazioni ampie." + }, + "gemini-1.5-flash-8b-exp-0827": { + "description": "Gemini 1.5 Flash 8B 0827 è progettato per gestire scenari di compiti su larga scala, offrendo una velocità di elaborazione senza pari." + }, + "gemini-1.5-flash-exp-0827": { + "description": "Gemini 1.5 Flash 0827 offre capacità di elaborazione multimodale ottimizzate, adatte a vari scenari di compiti complessi." + }, + "gemini-1.5-flash-latest": { + "description": "Gemini 1.5 Flash è il più recente modello AI multimodale di Google, dotato di capacità di elaborazione rapida, supporta input di testo, immagini e video, ed è adatto per un'ampia gamma di compiti di scalabilità efficiente." + }, + "gemini-1.5-pro-001": { + "description": "Gemini 1.5 Pro 001 è una soluzione AI multimodale scalabile, supporta un'ampia gamma di compiti complessi." + }, + "gemini-1.5-pro-exp-0801": { + "description": "Gemini 1.5 Pro 0801 offre eccellenti capacità di elaborazione multimodale, fornendo maggiore flessibilità per lo sviluppo delle applicazioni." + }, + "gemini-1.5-pro-exp-0827": { + "description": "Gemini 1.5 Pro 0827 combina le più recenti tecnologie ottimizzate, offrendo una capacità di elaborazione dei dati multimodali più efficiente." + }, + "gemini-1.5-pro-latest": { + "description": "Gemini 1.5 Pro supporta fino a 2 milioni di token, è la scelta ideale per modelli multimodali di medie dimensioni, adatta a un supporto multifunzionale per compiti complessi." + }, + "gemma-7b-it": { + "description": "Gemma 7B è adatto per l'elaborazione di compiti di piccole e medie dimensioni, combinando efficienza dei costi." + }, + "gemma2": { + "description": "Gemma 2 è un modello efficiente lanciato da Google, coprendo una vasta gamma di scenari applicativi, da applicazioni di piccole dimensioni a elaborazioni di dati complesse." + }, + "gemma2-9b-it": { + "description": "Gemma 2 9B è un modello ottimizzato per l'integrazione di compiti specifici e strumenti." + }, + "gemma2:27b": { + "description": "Gemma 2 è un modello efficiente lanciato da Google, coprendo una vasta gamma di scenari applicativi, da applicazioni di piccole dimensioni a elaborazioni di dati complesse." + }, + "gemma2:2b": { + "description": "Gemma 2 è un modello efficiente lanciato da Google, coprendo una vasta gamma di scenari applicativi, da applicazioni di piccole dimensioni a elaborazioni di dati complesse." + }, + "general": { + "description": "Spark Lite è un modello linguistico di grandi dimensioni leggero, con latenza estremamente bassa e capacità di elaborazione efficiente, completamente gratuito e aperto, supportando funzionalità di ricerca online in tempo reale. La sua caratteristica di risposta rapida lo rende eccellente per applicazioni di inferenza su dispositivi a bassa potenza e per il fine-tuning del modello, offrendo un ottimo rapporto costo-efficacia e un'esperienza intelligente, in particolare in scenari di domande e risposte, generazione di contenuti e ricerca." + }, + "generalv3": { + "description": "Spark Pro è un modello linguistico di grandi dimensioni ad alte prestazioni, ottimizzato per settori professionali, focalizzandosi su matematica, programmazione, medicina, educazione e altro, supportando la ricerca online e plugin integrati per meteo, data e altro. Il modello ottimizzato mostra prestazioni eccellenti e alta efficienza in domande e risposte complesse, comprensione del linguaggio e creazione di testi di alto livello, rendendolo una scelta ideale per scenari di applicazione professionale." + }, + "generalv3.5": { + "description": "Spark3.5 Max è la versione più completa, supportando la ricerca online e numerosi plugin integrati. Le sue capacità core completamente ottimizzate, insieme alla definizione dei ruoli di sistema e alla funzionalità di chiamata di funzioni, lo rendono estremamente eccellente e performante in vari scenari di applicazione complessi." + }, + "glm-4": { + "description": "GLM-4 è la versione flagship rilasciata a gennaio 2024, attualmente sostituita da GLM-4-0520, più potente." + }, + "glm-4-0520": { + "description": "GLM-4-0520 è l'ultima versione del modello, progettata per compiti altamente complessi e diversificati, con prestazioni eccezionali." + }, + "glm-4-air": { + "description": "GLM-4-Air è una versione economica, con prestazioni simili a GLM-4, che offre velocità elevate a un prezzo accessibile." + }, + "glm-4-airx": { + "description": "GLM-4-AirX offre una versione efficiente di GLM-4-Air, con velocità di inferenza fino a 2,6 volte superiore." + }, + "glm-4-alltools": { + "description": "GLM-4-AllTools è un modello di agente multifunzionale, ottimizzato per supportare la pianificazione di istruzioni complesse e le chiamate agli strumenti, come la navigazione web, l'interpretazione del codice e la generazione di testo, adatto per l'esecuzione di più compiti." + }, + "glm-4-flash": { + "description": "GLM-4-Flash è l'ideale per compiti semplici, con la massima velocità e il prezzo più conveniente." + }, + "glm-4-long": { + "description": "GLM-4-Long supporta input di testo ultra-lunghi, adatto per compiti di memoria e gestione di documenti su larga scala." + }, + "glm-4-plus": { + "description": "GLM-4-Plus, come flagship ad alta intelligenza, ha potenti capacità di elaborazione di testi lunghi e compiti complessi, con prestazioni complessive migliorate." + }, + "glm-4v": { + "description": "GLM-4V offre potenti capacità di comprensione e ragionamento visivo, supportando vari compiti visivi." + }, + "glm-4v-plus": { + "description": "GLM-4V-Plus ha la capacità di comprendere contenuti video e più immagini, adatto per compiti multimodali." + }, + "google/gemini-flash-1.5-exp": { + "description": "Gemini 1.5 Flash 0827 offre capacità di elaborazione multimodale ottimizzate, adatte a vari scenari di compiti complessi." + }, + "google/gemini-pro-1.5-exp": { + "description": "Gemini 1.5 Pro 0827 combina le più recenti tecnologie di ottimizzazione, offrendo capacità di elaborazione dei dati multimodali più efficienti." + }, + "google/gemma-2-27b-it": { + "description": "Gemma 2 continua il concetto di design leggero ed efficiente." + }, + "google/gemma-2-9b-it": { + "description": "Gemma 2 è una serie di modelli di testo open source leggeri di Google." + }, + "google/gemma-2-9b-it:free": { + "description": "Gemma 2 è la serie di modelli di testo open source leggeri di Google." + }, + "google/gemma-2b-it": { + "description": "Gemma Instruct (2B) offre capacità di elaborazione di istruzioni di base, adatta per applicazioni leggere." + }, + "gpt-3.5-turbo": { + "description": "GPT 3.5 Turbo, adatto a una varietà di compiti di generazione e comprensione del testo, attualmente punta a gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-0125": { + "description": "GPT 3.5 Turbo, adatto a una varietà di compiti di generazione e comprensione del testo, attualmente punta a gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-1106": { + "description": "GPT 3.5 Turbo, adatto a una varietà di compiti di generazione e comprensione del testo, attualmente punta a gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-instruct": { + "description": "GPT 3.5 Turbo, adatto a una varietà di compiti di generazione e comprensione del testo, attualmente punta a gpt-3.5-turbo-0125." + }, + "gpt-4": { + "description": "GPT-4 offre una finestra di contesto più ampia, in grado di gestire input testuali più lunghi, adatta a scenari che richiedono un'integrazione ampia delle informazioni e analisi dei dati." + }, + "gpt-4-0125-preview": { + "description": "L'ultimo modello GPT-4 Turbo ha funzionalità visive. Ora, le richieste visive possono essere effettuate utilizzando il formato JSON e le chiamate di funzione. GPT-4 Turbo è una versione potenziata che offre supporto economico per compiti multimodali. Trova un equilibrio tra accuratezza ed efficienza, adatta a scenari di applicazione che richiedono interazioni in tempo reale." + }, + "gpt-4-0613": { + "description": "GPT-4 offre una finestra di contesto più ampia, in grado di gestire input testuali più lunghi, adatta a scenari che richiedono un'integrazione ampia delle informazioni e analisi dei dati." + }, + "gpt-4-1106-preview": { + "description": "L'ultimo modello GPT-4 Turbo ha funzionalità visive. Ora, le richieste visive possono essere effettuate utilizzando il formato JSON e le chiamate di funzione. GPT-4 Turbo è una versione potenziata che offre supporto economico per compiti multimodali. Trova un equilibrio tra accuratezza ed efficienza, adatta a scenari di applicazione che richiedono interazioni in tempo reale." + }, + "gpt-4-1106-vision-preview": { + "description": "L'ultimo modello GPT-4 Turbo ha funzionalità visive. Ora, le richieste visive possono essere effettuate utilizzando il formato JSON e le chiamate di funzione. GPT-4 Turbo è una versione potenziata che offre supporto economico per compiti multimodali. Trova un equilibrio tra accuratezza ed efficienza, adatta a scenari di applicazione che richiedono interazioni in tempo reale." + }, + "gpt-4-32k": { + "description": "GPT-4 offre una finestra di contesto più ampia, in grado di gestire input testuali più lunghi, adatta a scenari che richiedono un'integrazione ampia delle informazioni e analisi dei dati." + }, + "gpt-4-32k-0613": { + "description": "GPT-4 offre una finestra di contesto più ampia, in grado di gestire input testuali più lunghi, adatta a scenari che richiedono un'integrazione ampia delle informazioni e analisi dei dati." + }, + "gpt-4-turbo": { + "description": "L'ultimo modello GPT-4 Turbo ha funzionalità visive. Ora, le richieste visive possono essere effettuate utilizzando il formato JSON e le chiamate di funzione. GPT-4 Turbo è una versione potenziata che offre supporto economico per compiti multimodali. Trova un equilibrio tra accuratezza ed efficienza, adatta a scenari di applicazione che richiedono interazioni in tempo reale." + }, + "gpt-4-turbo-2024-04-09": { + "description": "L'ultimo modello GPT-4 Turbo ha funzionalità visive. Ora, le richieste visive possono essere effettuate utilizzando il formato JSON e le chiamate di funzione. GPT-4 Turbo è una versione potenziata che offre supporto economico per compiti multimodali. Trova un equilibrio tra accuratezza ed efficienza, adatta a scenari di applicazione che richiedono interazioni in tempo reale." + }, + "gpt-4-turbo-preview": { + "description": "L'ultimo modello GPT-4 Turbo ha funzionalità visive. Ora, le richieste visive possono essere effettuate utilizzando il formato JSON e le chiamate di funzione. GPT-4 Turbo è una versione potenziata che offre supporto economico per compiti multimodali. Trova un equilibrio tra accuratezza ed efficienza, adatta a scenari di applicazione che richiedono interazioni in tempo reale." + }, + "gpt-4-vision-preview": { + "description": "L'ultimo modello GPT-4 Turbo ha funzionalità visive. Ora, le richieste visive possono essere effettuate utilizzando il formato JSON e le chiamate di funzione. GPT-4 Turbo è una versione potenziata che offre supporto economico per compiti multimodali. Trova un equilibrio tra accuratezza ed efficienza, adatta a scenari di applicazione che richiedono interazioni in tempo reale." + }, + "gpt-4o": { + "description": "ChatGPT-4o è un modello dinamico, aggiornato in tempo reale per mantenere la versione più recente. Combina una potente comprensione e generazione del linguaggio, adatta a scenari di applicazione su larga scala, inclusi servizi clienti, educazione e supporto tecnico." + }, + "gpt-4o-2024-05-13": { + "description": "ChatGPT-4o è un modello dinamico, aggiornato in tempo reale per mantenere la versione più recente. Combina una potente comprensione e generazione del linguaggio, adatta a scenari di applicazione su larga scala, inclusi servizi clienti, educazione e supporto tecnico." + }, + "gpt-4o-2024-08-06": { + "description": "ChatGPT-4o è un modello dinamico, aggiornato in tempo reale per mantenere la versione più recente. Combina una potente comprensione e generazione del linguaggio, adatta a scenari di applicazione su larga scala, inclusi servizi clienti, educazione e supporto tecnico." + }, + "gpt-4o-mini": { + "description": "GPT-4o mini è il modello più recente lanciato da OpenAI dopo il GPT-4 Omni, supporta input visivi e testuali e produce output testuali. Come il loro modello di punta in formato ridotto, è molto più economico rispetto ad altri modelli all'avanguardia recenti e costa oltre il 60% in meno rispetto a GPT-3.5 Turbo. Mantiene un'intelligenza all'avanguardia, offrendo un rapporto qualità-prezzo significativo. GPT-4o mini ha ottenuto un punteggio dell'82% nel test MMLU e attualmente è classificato più in alto di GPT-4 per preferenze di chat." + }, + "gryphe/mythomax-l2-13b": { + "description": "MythoMax l2 13B è un modello linguistico che combina creatività e intelligenza, unendo diversi modelli di punta." + }, + "internlm/internlm2_5-20b-chat": { + "description": "Il modello open source innovativo InternLM2.5, con un gran numero di parametri, migliora l'intelligenza del dialogo." + }, + "internlm/internlm2_5-7b-chat": { + "description": "InternLM2.5 offre soluzioni di dialogo intelligente in vari scenari." + }, + "llama-3.1-70b-instruct": { + "description": "Il modello Llama 3.1 70B Instruct, con 70B parametri, offre prestazioni eccezionali in generazione di testi di grandi dimensioni e compiti di istruzione." + }, + "llama-3.1-70b-versatile": { + "description": "Llama 3.1 70B offre capacità di ragionamento AI più potenti, adatto per applicazioni complesse, supporta un'elaborazione computazionale elevata garantendo efficienza e precisione." + }, + "llama-3.1-8b-instant": { + "description": "Llama 3.1 8B è un modello ad alte prestazioni, offre capacità di generazione di testo rapida, particolarmente adatto per scenari applicativi che richiedono efficienza su larga scala e costi contenuti." + }, + "llama-3.1-8b-instruct": { + "description": "Il modello Llama 3.1 8B Instruct, con 8B parametri, supporta l'esecuzione efficiente di compiti di istruzione, offrendo capacità di generazione testuale di alta qualità." + }, + "llama-3.1-sonar-huge-128k-online": { + "description": "Il modello Llama 3.1 Sonar Huge Online, con 405B parametri, supporta una lunghezza di contesto di circa 127.000 token, progettato per applicazioni di chat online complesse." + }, + "llama-3.1-sonar-large-128k-chat": { + "description": "Il modello Llama 3.1 Sonar Large Chat, con 70B parametri, supporta una lunghezza di contesto di circa 127.000 token, adatto per compiti di chat offline complessi." + }, + "llama-3.1-sonar-large-128k-online": { + "description": "Il modello Llama 3.1 Sonar Large Online, con 70B parametri, supporta una lunghezza di contesto di circa 127.000 token, adatto per compiti di chat ad alta capacità e diversificati." + }, + "llama-3.1-sonar-small-128k-chat": { + "description": "Il modello Llama 3.1 Sonar Small Chat, con 8B parametri, è progettato per chat offline, supportando una lunghezza di contesto di circa 127.000 token." + }, + "llama-3.1-sonar-small-128k-online": { + "description": "Il modello Llama 3.1 Sonar Small Online, con 8B parametri, supporta una lunghezza di contesto di circa 127.000 token, progettato per chat online, in grado di gestire interazioni testuali in modo efficiente." + }, + "llama3-70b-8192": { + "description": "Meta Llama 3 70B offre capacità di elaborazione della complessità senza pari, progettato su misura per progetti ad alta richiesta." + }, + "llama3-8b-8192": { + "description": "Meta Llama 3 8B offre prestazioni di ragionamento di alta qualità, adatto per esigenze applicative in vari scenari." + }, + "llama3-groq-70b-8192-tool-use-preview": { + "description": "Llama 3 Groq 70B Tool Use offre potenti capacità di invocazione degli strumenti, supporta l'elaborazione efficiente di compiti complessi." + }, + "llama3-groq-8b-8192-tool-use-preview": { + "description": "Llama 3 Groq 8B Tool Use è un modello ottimizzato per l'uso efficiente degli strumenti, supporta calcoli paralleli rapidi." + }, + "llama3.1": { + "description": "Llama 3.1 è il modello leader lanciato da Meta, supporta fino a 405B parametri, applicabile a dialoghi complessi, traduzione multilingue e analisi dei dati." + }, + "llama3.1:405b": { + "description": "Llama 3.1 è il modello leader lanciato da Meta, supporta fino a 405B parametri, applicabile a dialoghi complessi, traduzione multilingue e analisi dei dati." + }, + "llama3.1:70b": { + "description": "Llama 3.1 è il modello leader lanciato da Meta, supporta fino a 405B parametri, applicabile a dialoghi complessi, traduzione multilingue e analisi dei dati." + }, + "llava": { + "description": "LLaVA è un modello multimodale che combina un codificatore visivo e Vicuna, per una potente comprensione visiva e linguistica." + }, + "llava-v1.5-7b-4096-preview": { + "description": "LLaVA 1.5 7B offre capacità di elaborazione visiva integrate, generando output complessi attraverso input visivi." + }, + "llava:13b": { + "description": "LLaVA è un modello multimodale che combina un codificatore visivo e Vicuna, per una potente comprensione visiva e linguistica." + }, + "llava:34b": { + "description": "LLaVA è un modello multimodale che combina un codificatore visivo e Vicuna, per una potente comprensione visiva e linguistica." + }, + "mathstral": { + "description": "MathΣtral è progettato per la ricerca scientifica e il ragionamento matematico, offre capacità di calcolo efficaci e interpretazione dei risultati." + }, + "meta-llama/Llama-2-13b-chat-hf": { + "description": "LLaMA-2 Chat (13B) offre eccellenti capacità di elaborazione linguistica e un'interazione di alta qualità." + }, + "meta-llama/Llama-3-70b-chat-hf": { + "description": "LLaMA-3 Chat (70B) è un potente modello di chat, in grado di gestire esigenze di dialogo complesse." + }, + "meta-llama/Llama-3-8b-chat-hf": { + "description": "LLaMA-3 Chat (8B) offre supporto multilingue, coprendo una vasta gamma di conoscenze di dominio." + }, + "meta-llama/Meta-Llama-3-70B-Instruct": { + "description": "LLaMA 3 supporta la generazione di testi di grande capacità e l'analisi delle istruzioni." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { + "description": "Llama 3 70B Instruct Lite è adatto per ambienti che richiedono alta efficienza e bassa latenza." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": { + "description": "Llama 3 70B Instruct Turbo offre capacità superiori di comprensione e generazione del linguaggio, adatto per i compiti computazionali più impegnativi." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Lite": { + "description": "Llama 3 8B Instruct Lite è adatto per ambienti a risorse limitate, offrendo prestazioni bilanciate eccellenti." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": { + "description": "Llama 3 8B Instruct Turbo è un modello di linguaggio ad alte prestazioni, supportando una vasta gamma di scenari applicativi." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct": { + "description": "LLaMA 3.1 405B è un potente modello pre-addestrato e ottimizzato per istruzioni." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": { + "description": "Il modello Llama 3.1 Turbo 405B offre un supporto di contesto di capacità estremamente grande per l'elaborazione di big data, eccellendo nelle applicazioni di intelligenza artificiale su larga scala." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct": { + "description": "LLaMA 3.1 70B offre supporto per dialoghi multilingue ad alta efficienza." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": { + "description": "Il modello Llama 3.1 70B è stato ottimizzato per applicazioni ad alto carico, quantizzato a FP8 per fornire una maggiore efficienza computazionale e accuratezza, garantendo prestazioni eccezionali in scenari complessi." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct": { + "description": "LLaMA 3.1 offre supporto multilingue ed è uno dei modelli generativi leader nel settore." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": { + "description": "Il modello Llama 3.1 8B utilizza la quantizzazione FP8, supportando fino a 131.072 token di contesto, ed è un leader tra i modelli open source, adatto per compiti complessi, superando molti benchmark di settore." + }, + "meta-llama/llama-3-70b-instruct": { + "description": "Llama 3 70B Instruct è ottimizzato per scenari di dialogo di alta qualità, con prestazioni eccellenti in varie valutazioni umane." + }, + "meta-llama/llama-3-8b-instruct": { + "description": "Llama 3 8B Instruct è ottimizzato per scenari di dialogo di alta qualità, con prestazioni superiori a molti modelli chiusi." + }, + "meta-llama/llama-3.1-405b-instruct": { + "description": "Llama 3.1 405B Instruct è l'ultima versione rilasciata da Meta, ottimizzata per generare dialoghi di alta qualità, superando molti modelli chiusi di punta." + }, + "meta-llama/llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct è progettato per dialoghi di alta qualità, con prestazioni eccezionali nelle valutazioni umane, particolarmente adatto per scenari ad alta interazione." + }, + "meta-llama/llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct è l'ultima versione rilasciata da Meta, ottimizzata per scenari di dialogo di alta qualità, superando molti modelli chiusi di punta." + }, + "meta-llama/llama-3.1-8b-instruct:free": { + "description": "LLaMA 3.1 offre supporto multilingue ed è uno dei modelli generativi leader nel settore." + }, + "meta.llama3-1-405b-instruct-v1:0": { + "description": "Meta Llama 3.1 405B Instruct è il modello più grande e potente della serie Llama 3.1 Instruct, un modello avanzato per la generazione di dati e il ragionamento conversazionale, utilizzabile anche come base per un pre-addestramento o un fine-tuning specializzato in determinati settori. I modelli di linguaggio di grandi dimensioni (LLMs) multilingue forniti da Llama 3.1 sono un insieme di modelli generativi pre-addestrati e ottimizzati per le istruzioni, che includono dimensioni di 8B, 70B e 405B (input/output di testo). I modelli di testo ottimizzati per le istruzioni di Llama 3.1 (8B, 70B, 405B) sono stati progettati per casi d'uso conversazionali multilingue e hanno superato molti modelli di chat open source disponibili in benchmark di settore comuni. Llama 3.1 è progettato per usi commerciali e di ricerca in diverse lingue. I modelli di testo ottimizzati per le istruzioni sono adatti a chat simili a assistenti, mentre i modelli pre-addestrati possono adattarsi a vari compiti di generazione di linguaggio naturale. I modelli Llama 3.1 supportano anche l'uso della loro output per migliorare altri modelli, inclusa la generazione di dati sintetici e il raffinamento. Llama 3.1 è un modello di linguaggio autoregressivo basato su un'architettura di trasformatore ottimizzata. Le versioni ottimizzate utilizzano il fine-tuning supervisionato (SFT) e l'apprendimento per rinforzo con feedback umano (RLHF) per allinearsi alle preferenze umane in termini di utilità e sicurezza." + }, + "meta.llama3-1-70b-instruct-v1:0": { + "description": "Meta Llama 3.1 70B Instruct è una versione aggiornata, con una lunghezza di contesto estesa a 128K, multilinguismo e capacità di ragionamento migliorate. I modelli di linguaggio di grandi dimensioni (LLMs) forniti da Llama 3.1 sono un insieme di modelli generativi pre-addestrati e regolati per istruzioni, che includono dimensioni di 8B, 70B e 405B (input/output testuali). I modelli di testo regolati per istruzioni di Llama 3.1 (8B, 70B, 405B) sono ottimizzati per casi d'uso di conversazione multilingue e superano molti modelli di chat open source disponibili nei test di benchmark di settore comuni. Llama 3.1 è progettato per usi commerciali e di ricerca in più lingue. I modelli di testo regolati per istruzioni sono adatti per chat simili a quelle di un assistente, mentre i modelli pre-addestrati possono adattarsi a vari compiti di generazione di linguaggio naturale. I modelli Llama 3.1 supportano anche l'uso della loro output per migliorare altri modelli, inclusa la generazione di dati sintetici e il raffinamento. Llama 3.1 è un modello di linguaggio autoregressivo basato su un'architettura di trasformatore ottimizzata. Le versioni regolate utilizzano il fine-tuning supervisionato (SFT) e l'apprendimento per rinforzo con feedback umano (RLHF) per allinearsi alle preferenze umane per utilità e sicurezza." + }, + "meta.llama3-1-8b-instruct-v1:0": { + "description": "Meta Llama 3.1 8B Instruct è una versione aggiornata, con una lunghezza di contesto estesa a 128K, multilinguismo e capacità di ragionamento migliorate. I modelli di linguaggio di grandi dimensioni (LLMs) forniti da Llama 3.1 sono un insieme di modelli generativi pre-addestrati e regolati per istruzioni, che includono dimensioni di 8B, 70B e 405B (input/output testuali). I modelli di testo regolati per istruzioni di Llama 3.1 (8B, 70B, 405B) sono ottimizzati per casi d'uso di conversazione multilingue e superano molti modelli di chat open source disponibili nei test di benchmark di settore comuni. Llama 3.1 è progettato per usi commerciali e di ricerca in più lingue. I modelli di testo regolati per istruzioni sono adatti per chat simili a quelle di un assistente, mentre i modelli pre-addestrati possono adattarsi a vari compiti di generazione di linguaggio naturale. I modelli Llama 3.1 supportano anche l'uso della loro output per migliorare altri modelli, inclusa la generazione di dati sintetici e il raffinamento. Llama 3.1 è un modello di linguaggio autoregressivo basato su un'architettura di trasformatore ottimizzata. Le versioni regolate utilizzano il fine-tuning supervisionato (SFT) e l'apprendimento per rinforzo con feedback umano (RLHF) per allinearsi alle preferenze umane per utilità e sicurezza." + }, + "meta.llama3-70b-instruct-v1:0": { + "description": "Meta Llama 3 è un modello di linguaggio di grandi dimensioni (LLM) open source progettato per sviluppatori, ricercatori e aziende, per aiutarli a costruire, sperimentare e scalare responsabilmente le loro idee di AI generativa. Come parte di un sistema di base per l'innovazione della comunità globale, è particolarmente adatto per la creazione di contenuti, AI conversazionale, comprensione del linguaggio, ricerca e applicazioni aziendali." + }, + "meta.llama3-8b-instruct-v1:0": { + "description": "Meta Llama 3 è un modello di linguaggio di grandi dimensioni (LLM) open source progettato per sviluppatori, ricercatori e aziende, per aiutarli a costruire, sperimentare e scalare responsabilmente le loro idee di AI generativa. Come parte di un sistema di base per l'innovazione della comunità globale, è particolarmente adatto per dispositivi a bassa potenza e risorse limitate, oltre a garantire tempi di addestramento più rapidi." + }, + "microsoft/wizardlm 2-7b": { + "description": "WizardLM 2 7B è il modello leggero e veloce più recente di Microsoft AI, con prestazioni vicine a quelle dei modelli leader open source esistenti." + }, + "microsoft/wizardlm-2-8x22b": { + "description": "WizardLM-2 8x22B è il modello Wizard più avanzato di Microsoft AI, mostrando prestazioni estremamente competitive." + }, + "minicpm-v": { + "description": "MiniCPM-V è la nuova generazione di modelli multimodali lanciata da OpenBMB, dotata di eccellenti capacità di riconoscimento OCR e comprensione multimodale, supportando una vasta gamma di scenari applicativi." + }, + "mistral": { + "description": "Mistral è un modello da 7B lanciato da Mistral AI, adatto per esigenze di elaborazione linguistica variabili." + }, + "mistral-large": { + "description": "Mixtral Large è il modello di punta di Mistral, combinando capacità di generazione di codice, matematica e ragionamento, supporta una finestra di contesto di 128k." + }, + "mistral-large-latest": { + "description": "Mistral Large è il modello di punta, specializzato in compiti multilingue, ragionamento complesso e generazione di codice, è la scelta ideale per applicazioni di alta gamma." + }, + "mistral-nemo": { + "description": "Mistral Nemo è un modello da 12B lanciato in collaborazione tra Mistral AI e NVIDIA, offre prestazioni eccellenti." + }, + "mistralai/Mistral-7B-Instruct-v0.1": { + "description": "Mistral (7B) Instruct è noto per le sue alte prestazioni, adatto per vari compiti linguistici." + }, + "mistralai/Mistral-7B-Instruct-v0.2": { + "description": "Mistral 7B è un modello fine-tuned su richiesta, fornendo risposte ottimizzate per i compiti." + }, + "mistralai/Mistral-7B-Instruct-v0.3": { + "description": "Mistral (7B) Instruct v0.3 offre capacità computazionali efficienti e comprensione del linguaggio naturale, adatta per una vasta gamma di applicazioni." + }, + "mistralai/Mixtral-8x22B-Instruct-v0.1": { + "description": "Mixtral-8x22B Instruct (141B) è un super modello di linguaggio, supportando esigenze di elaborazione estremamente elevate." + }, + "mistralai/Mixtral-8x7B-Instruct-v0.1": { + "description": "Mixtral 8x7B è un modello di esperti misti pre-addestrato, utilizzato per compiti testuali generali." + }, + "mistralai/mistral-7b-instruct": { + "description": "Mistral 7B Instruct è un modello standard di settore ad alte prestazioni, ottimizzato per velocità e supporto di contesti lunghi." + }, + "mistralai/mistral-nemo": { + "description": "Mistral Nemo è un modello con 7.3B parametri, supporta più lingue e offre prestazioni elevate nella programmazione." + }, + "mixtral": { + "description": "Mixtral è il modello di esperti di Mistral AI, con pesi open source, offre supporto per la generazione di codice e la comprensione del linguaggio." + }, + "mixtral-8x7b-32768": { + "description": "Mixtral 8x7B offre capacità di calcolo parallelo ad alta tolleranza, adatto per compiti complessi." + }, + "mixtral:8x22b": { + "description": "Mixtral è il modello di esperti di Mistral AI, con pesi open source, offre supporto per la generazione di codice e la comprensione del linguaggio." + }, + "moonshot-v1-128k": { + "description": "Moonshot V1 128K è un modello con capacità di elaborazione di contesti ultra lunghi, adatto per generare testi molto lunghi, soddisfacendo le esigenze di compiti complessi, in grado di gestire contenuti fino a 128.000 token, particolarmente adatto per applicazioni di ricerca, accademiche e generazione di documenti di grandi dimensioni." + }, + "moonshot-v1-32k": { + "description": "Moonshot V1 32K offre capacità di elaborazione di contesti di lunghezza media, in grado di gestire 32.768 token, particolarmente adatto per generare vari documenti lunghi e dialoghi complessi, utilizzato in creazione di contenuti, generazione di report e sistemi di dialogo." + }, + "moonshot-v1-8k": { + "description": "Moonshot V1 8K è progettato per generare compiti di testo brevi, con prestazioni di elaborazione efficienti, in grado di gestire 8.192 token, particolarmente adatto per dialoghi brevi, appunti e generazione rapida di contenuti." + }, + "nousresearch/hermes-2-pro-llama-3-8b": { + "description": "Hermes 2 Pro Llama 3 8B è una versione aggiornata di Nous Hermes 2, contenente i più recenti dataset sviluppati internamente." + }, + "o1-mini": { + "description": "o1-mini è un modello di inferenza rapido ed economico progettato per applicazioni di programmazione, matematica e scienza. Questo modello ha un contesto di 128K e una data di cutoff della conoscenza di ottobre 2023." + }, + "o1-preview": { + "description": "o1 è il nuovo modello di inferenza di OpenAI, adatto a compiti complessi che richiedono una vasta conoscenza generale. Questo modello ha un contesto di 128K e una data di cutoff della conoscenza di ottobre 2023." + }, + "open-codestral-mamba": { + "description": "Codestral Mamba è un modello linguistico Mamba 2 focalizzato sulla generazione di codice, offre un forte supporto per compiti avanzati di codifica e ragionamento." + }, + "open-mistral-7b": { + "description": "Mistral 7B è un modello compatto ma ad alte prestazioni, specializzato nell'elaborazione batch e in compiti semplici, come la classificazione e la generazione di testo, con buone capacità di ragionamento." + }, + "open-mistral-nemo": { + "description": "Mistral Nemo è un modello da 12B sviluppato in collaborazione con Nvidia, offre prestazioni di ragionamento e codifica eccezionali, facile da integrare e sostituire." + }, + "open-mixtral-8x22b": { + "description": "Mixtral 8x22B è un modello di esperti più grande, focalizzato su compiti complessi, offre eccellenti capacità di ragionamento e una maggiore capacità di elaborazione." + }, + "open-mixtral-8x7b": { + "description": "Mixtral 8x7B è un modello di esperti sparsi, che utilizza più parametri per aumentare la velocità di ragionamento, adatto per gestire compiti di generazione di linguaggio e codice multilingue." + }, + "openai/gpt-4o-2024-08-06": { + "description": "ChatGPT-4o è un modello dinamico, aggiornato in tempo reale per mantenere la versione più recente. Combina potenti capacità di comprensione e generazione del linguaggio, adatto a scenari applicativi su larga scala, inclusi servizi clienti, educazione e supporto tecnico." + }, + "openai/gpt-4o-mini": { + "description": "GPT-4o mini è il modello più recente di OpenAI, lanciato dopo GPT-4 Omni, che supporta input visivi e testuali e produce output testuali. Come il loro modello di piccole dimensioni più avanzato, è molto più economico rispetto ad altri modelli all'avanguardia recenti e costa oltre il 60% in meno rispetto a GPT-3.5 Turbo. Mantiene un'intelligenza all'avanguardia, offrendo un notevole rapporto qualità-prezzo. GPT-4o mini ha ottenuto un punteggio dell'82% nel test MMLU e attualmente è classificato più in alto di GPT-4 per preferenze di chat." + }, + "openai/o1-mini": { + "description": "o1-mini è un modello di inferenza rapido ed economico progettato per applicazioni di programmazione, matematica e scienza. Questo modello ha un contesto di 128K e una data di cutoff della conoscenza di ottobre 2023." + }, + "openai/o1-preview": { + "description": "o1 è il nuovo modello di inferenza di OpenAI, adatto a compiti complessi che richiedono una vasta conoscenza generale. Questo modello ha un contesto di 128K e una data di cutoff della conoscenza di ottobre 2023." + }, + "openchat/openchat-7b": { + "description": "OpenChat 7B è una libreria di modelli linguistici open source, ottimizzata tramite la strategia di 'C-RLFT (fine-tuning di rinforzo condizionato)'." + }, + "openrouter/auto": { + "description": "In base alla lunghezza del contesto, al tema e alla complessità, la tua richiesta verrà inviata a Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-regolato) o GPT-4o." + }, + "phi3": { + "description": "Phi-3 è un modello open source leggero lanciato da Microsoft, adatto per integrazioni efficienti e ragionamento su larga scala." + }, + "phi3:14b": { + "description": "Phi-3 è un modello open source leggero lanciato da Microsoft, adatto per integrazioni efficienti e ragionamento su larga scala." + }, + "qwen-long": { + "description": "Qwen è un modello di linguaggio su larga scala che supporta contesti di testo lunghi e funzionalità di dialogo basate su documenti lunghi e multipli." + }, + "qwen-max": { + "description": "Qwen è un modello di linguaggio su larga scala con miliardi di parametri, che supporta input in diverse lingue, tra cui cinese e inglese, attualmente utilizzato come modello API dietro il prodotto Qwen 2.5." + }, + "qwen-max-longcontext": { + "description": "Qwen è un modello di linguaggio su larga scala con miliardi di parametri, che supporta input in diverse lingue, tra cui cinese e inglese, con una finestra di contesto estesa." + }, + "qwen-plus": { + "description": "Qwen è una versione potenziata del modello di linguaggio su larga scala, che supporta input in diverse lingue, tra cui cinese e inglese." + }, + "qwen-turbo": { + "description": "Qwen è un modello di linguaggio su larga scala che supporta input in diverse lingue, tra cui cinese e inglese." + }, + "qwen-vl-chat-v1": { + "description": "Qwen VL supporta modalità di interazione flessibili, inclusi modelli di domande e risposte multipli e creativi." + }, + "qwen-vl-max": { + "description": "Qwen è un modello di linguaggio visivo su larga scala. Rispetto alla versione potenziata, migliora ulteriormente le capacità di ragionamento visivo e di aderenza alle istruzioni, offrendo un livello superiore di percezione e cognizione visiva." + }, + "qwen-vl-plus": { + "description": "Qwen è una versione potenziata del modello di linguaggio visivo su larga scala. Migliora notevolmente le capacità di riconoscimento dei dettagli e di riconoscimento del testo, supportando immagini con risoluzione superiore a un milione di pixel e proporzioni di qualsiasi dimensione." + }, + "qwen-vl-v1": { + "description": "Inizializzato con il modello di linguaggio Qwen-7B, aggiunge un modello di immagine, con una risoluzione di input dell'immagine di 448." + }, + "qwen/qwen-2-7b-instruct:free": { + "description": "Qwen2 è una nuova serie di modelli di linguaggio di grandi dimensioni, con capacità di comprensione e generazione più forti." + }, + "qwen2": { + "description": "Qwen2 è la nuova generazione di modelli di linguaggio su larga scala di Alibaba, supporta prestazioni eccellenti per esigenze applicative diversificate." + }, + "qwen2-57b-a14b-instruct": { + "description": "Qwen2 è un modello open source di dimensioni 57B con 14B di parametri attivati nel modello MOE." + }, + "qwen2-72b-instruct": { + "description": "Qwen2 è un modello open source di dimensioni 72B." + }, + "qwen2-7b-instruct": { + "description": "Qwen2 è un modello open source di dimensioni 7B." + }, + "qwen2-math-72b-instruct": { + "description": "Il modello Qwen2-Math ha potenti capacità di risoluzione di problemi matematici." + }, + "qwen2:0.5b": { + "description": "Qwen2 è la nuova generazione di modelli di linguaggio su larga scala di Alibaba, supporta prestazioni eccellenti per esigenze applicative diversificate." + }, + "qwen2:1.5b": { + "description": "Qwen2 è la nuova generazione di modelli di linguaggio su larga scala di Alibaba, supporta prestazioni eccellenti per esigenze applicative diversificate." + }, + "qwen2:72b": { + "description": "Qwen2 è la nuova generazione di modelli di linguaggio su larga scala di Alibaba, supporta prestazioni eccellenti per esigenze applicative diversificate." + }, + "solar-1-mini-chat": { + "description": "Solar Mini è un LLM compatto, con prestazioni superiori a GPT-3.5, dotato di forti capacità multilingue, supportando inglese e coreano, offrendo soluzioni efficienti e compatte." + }, + "solar-1-mini-chat-ja": { + "description": "Solar Mini (Ja) espande le capacità di Solar Mini, focalizzandosi sul giapponese, mantenendo al contempo prestazioni elevate e un uso efficiente in inglese e coreano." + }, + "solar-pro": { + "description": "Solar Pro è un LLM altamente intelligente lanciato da Upstage, focalizzato sulla capacità di seguire istruzioni su singolo GPU, con un punteggio IFEval superiore a 80. Attualmente supporta l'inglese, con una versione ufficiale prevista per novembre 2024, che espanderà il supporto linguistico e la lunghezza del contesto." + }, + "step-1-128k": { + "description": "Equilibrio tra prestazioni e costi, adatto per scenari generali." + }, + "step-1-256k": { + "description": "Capacità di elaborazione di contesto ultra lungo, particolarmente adatto per l'analisi di documenti lunghi." + }, + "step-1-32k": { + "description": "Supporta dialoghi di lunghezza media, adatto per vari scenari applicativi." + }, + "step-1-8k": { + "description": "Modello di piccole dimensioni, adatto per compiti leggeri." + }, + "step-1-flash": { + "description": "Modello ad alta velocità, adatto per dialoghi in tempo reale." + }, + "step-1v-32k": { + "description": "Supporta input visivi, migliorando l'esperienza di interazione multimodale." + }, + "step-1v-8k": { + "description": "Modello visivo di piccole dimensioni, adatto per compiti di base di testo e immagine." + }, + "step-2-16k": { + "description": "Supporta interazioni di contesto su larga scala, adatto per scenari di dialogo complessi." + }, + "taichu_llm": { + "description": "Il modello linguistico Taichu di Zīdōng ha una straordinaria capacità di comprensione del linguaggio e abilità in creazione di testi, domande di conoscenza, programmazione, calcoli matematici, ragionamento logico, analisi del sentimento e sintesi di testi. Combina in modo innovativo il pre-addestramento su grandi dati con una ricca conoscenza multi-sorgente, affinando continuamente la tecnologia degli algoritmi e assorbendo costantemente nuove conoscenze da dati testuali massivi, migliorando continuamente le prestazioni del modello. Fornisce agli utenti informazioni e servizi più convenienti e un'esperienza più intelligente." + }, + "togethercomputer/StripedHyena-Nous-7B": { + "description": "StripedHyena Nous (7B) offre capacità di calcolo potenziate attraverso strategie e architetture di modelli efficienti." + }, + "upstage/SOLAR-10.7B-Instruct-v1.0": { + "description": "Upstage SOLAR Instruct v1 (11B) è adatto per compiti di istruzione dettagliati, offrendo eccellenti capacità di elaborazione linguistica." + }, + "wizardlm2": { + "description": "WizardLM 2 è un modello di linguaggio fornito da Microsoft AI, particolarmente efficace in dialoghi complessi, multilingue, ragionamento e assistenti intelligenti." + }, + "wizardlm2:8x22b": { + "description": "WizardLM 2 è un modello di linguaggio fornito da Microsoft AI, particolarmente efficace in dialoghi complessi, multilingue, ragionamento e assistenti intelligenti." + }, + "yi-large": { + "description": "Un nuovo modello con centinaia di miliardi di parametri, offre capacità eccezionali di risposta e generazione di testi." + }, + "yi-large-fc": { + "description": "Basato sul modello yi-large, supporta e potenzia le capacità di chiamata di strumenti, adatto per vari scenari aziendali che richiedono la costruzione di agenti o flussi di lavoro." + }, + "yi-large-preview": { + "description": "Versione iniziale, si consiglia di utilizzare yi-large (nuova versione)." + }, + "yi-large-rag": { + "description": "Servizio avanzato basato sul modello yi-large, combina tecnologie di recupero e generazione per fornire risposte precise, con servizi di ricerca in tempo reale su tutto il web." + }, + "yi-large-turbo": { + "description": "Eccellente rapporto qualità-prezzo e prestazioni superiori. Ottimizzazione ad alta precisione in base a prestazioni, velocità di inferenza e costi." + }, + "yi-medium": { + "description": "Modello di dimensioni medie aggiornato e ottimizzato, con capacità bilanciate e un buon rapporto qualità-prezzo. Ottimizzazione profonda delle capacità di seguire istruzioni." + }, + "yi-medium-200k": { + "description": "Finestra di contesto ultra lunga di 200K, offre capacità di comprensione e generazione di testi lunghi." + }, + "yi-spark": { + "description": "Piccolo e potente, modello leggero e veloce. Offre capacità potenziate di calcolo matematico e scrittura di codice." + }, + "yi-vision": { + "description": "Modello per compiti visivi complessi, offre elevate prestazioni nella comprensione e analisi delle immagini." + } +} diff --git a/locales/it-IT/providers.json b/locales/it-IT/providers.json new file mode 100644 index 000000000000..3adc2865ca80 --- /dev/null +++ b/locales/it-IT/providers.json @@ -0,0 +1,80 @@ +{ + "ai360": { + "description": "360 AI è una piattaforma di modelli e servizi AI lanciata da 360 Company, che offre vari modelli avanzati di elaborazione del linguaggio naturale, tra cui 360GPT2 Pro, 360GPT Pro, 360GPT Turbo e 360GPT Turbo Responsibility 8K. Questi modelli combinano parametri su larga scala e capacità multimodali, trovando ampio utilizzo in generazione di testo, comprensione semantica, sistemi di dialogo e generazione di codice. Con strategie di prezzo flessibili, 360 AI soddisfa le esigenze diversificate degli utenti, supportando l'integrazione degli sviluppatori e promuovendo l'innovazione e lo sviluppo delle applicazioni intelligenti." + }, + "anthropic": { + "description": "Anthropic è un'azienda focalizzata sulla ricerca e sviluppo dell'intelligenza artificiale, che offre una serie di modelli linguistici avanzati, come Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus e Claude 3 Haiku. Questi modelli raggiungono un equilibrio ideale tra intelligenza, velocità e costi, adatti a una varietà di scenari applicativi, dalle operazioni aziendali a risposte rapide. Claude 3.5 Sonnet, il loro modello più recente, ha mostrato prestazioni eccezionali in diverse valutazioni, mantenendo un alto rapporto qualità-prezzo." + }, + "azure": { + "description": "Azure offre una varietà di modelli AI avanzati, tra cui GPT-3.5 e l'ultima serie GPT-4, supportando diversi tipi di dati e compiti complessi, con un impegno per soluzioni AI sicure, affidabili e sostenibili." + }, + "baichuan": { + "description": "Baichuan Intelligence è un'azienda focalizzata sulla ricerca e sviluppo di modelli di intelligenza artificiale di grandi dimensioni, i cui modelli eccellono in compiti in cinese come enciclopedie di conoscenza, elaborazione di testi lunghi e creazione di contenuti, superando i modelli mainstream esteri. Baichuan Intelligence ha anche capacità multimodali leader nel settore, mostrando prestazioni eccezionali in diverse valutazioni autorevoli. I suoi modelli includono Baichuan 4, Baichuan 3 Turbo e Baichuan 3 Turbo 128k, ottimizzati per diversi scenari applicativi, offrendo soluzioni ad alto rapporto qualità-prezzo." + }, + "bedrock": { + "description": "Bedrock è un servizio offerto da Amazon AWS, focalizzato sulla fornitura di modelli linguistici e visivi AI avanzati per le aziende. La sua famiglia di modelli include la serie Claude di Anthropic, la serie Llama 3.1 di Meta e altro, coprendo una varietà di opzioni da leggere a ad alte prestazioni, supportando generazione di testo, dialogo, elaborazione di immagini e altro, adatta a diverse applicazioni aziendali di varie dimensioni e necessità." + }, + "deepseek": { + "description": "DeepSeek è un'azienda focalizzata sulla ricerca e applicazione della tecnologia AI, il cui ultimo modello DeepSeek-V2.5 combina capacità di dialogo generico e elaborazione del codice, realizzando miglioramenti significativi nell'allineamento delle preferenze umane, nei compiti di scrittura e nel rispetto delle istruzioni." + }, + "fireworksai": { + "description": "Fireworks AI è un fornitore leader di servizi di modelli linguistici avanzati, focalizzato su chiamate funzionali e elaborazione multimodale. Il suo ultimo modello Firefunction V2, basato su Llama-3, è ottimizzato per chiamate di funzione, dialogo e rispetto delle istruzioni. Il modello di linguaggio visivo FireLLaVA-13B supporta input misti di immagini e testo. Altri modelli notevoli includono la serie Llama e la serie Mixtral, offrendo supporto efficiente per il rispetto e la generazione di istruzioni multilingue." + }, + "google": { + "description": "La serie Gemini di Google è il suo modello AI più avanzato e versatile, sviluppato da Google DeepMind, progettato per il multimodale, supportando la comprensione e l'elaborazione senza soluzione di continuità di testo, codice, immagini, audio e video. Adatto a una varietà di ambienti, dai data center ai dispositivi mobili, ha notevolmente migliorato l'efficienza e l'ampiezza delle applicazioni dei modelli AI." + }, + "groq": { + "description": "Il motore di inferenza LPU di Groq ha mostrato prestazioni eccezionali nei recenti benchmark indipendenti sui modelli di linguaggio di grandi dimensioni (LLM), ridefinendo gli standard delle soluzioni AI con la sua incredibile velocità ed efficienza. Groq rappresenta una velocità di inferenza istantanea, mostrando buone prestazioni nelle implementazioni basate su cloud." + }, + "minimax": { + "description": "MiniMax è un'azienda di tecnologia dell'intelligenza artificiale generale fondata nel 2021, dedicata alla co-creazione di intelligenza con gli utenti. MiniMax ha sviluppato modelli generali di diverse modalità, tra cui un modello di testo MoE con trilioni di parametri, un modello vocale e un modello visivo. Ha anche lanciato applicazioni come Conch AI." + }, + "mistral": { + "description": "Mistral offre modelli avanzati generali, professionali e di ricerca, ampiamente utilizzati in ragionamenti complessi, compiti multilingue, generazione di codice e altro, consentendo agli utenti di integrare funzionalità personalizzate tramite interfacce di chiamata funzionale." + }, + "moonshot": { + "description": "Moonshot è una piattaforma open source lanciata da Beijing Dark Side Technology Co., Ltd., che offre vari modelli di elaborazione del linguaggio naturale, con ampie applicazioni, inclusi ma non limitati a creazione di contenuti, ricerca accademica, raccomandazioni intelligenti, diagnosi mediche e altro, supportando l'elaborazione di testi lunghi e compiti di generazione complessi." + }, + "novita": { + "description": "Novita AI è una piattaforma che offre API per vari modelli di linguaggio di grandi dimensioni e generazione di immagini AI, flessibile, affidabile e conveniente. Supporta i più recenti modelli open source come Llama3 e Mistral, fornendo soluzioni API complete, user-friendly e scalabili per lo sviluppo di applicazioni AI, adatte alla rapida crescita delle startup AI." + }, + "ollama": { + "description": "I modelli forniti da Ollama coprono ampiamente aree come generazione di codice, operazioni matematiche, elaborazione multilingue e interazioni conversazionali, supportando esigenze diversificate per implementazioni aziendali e localizzate." + }, + "openai": { + "description": "OpenAI è un'agenzia di ricerca sull'intelligenza artificiale leader a livello globale, i cui modelli come la serie GPT hanno spinto in avanti il campo dell'elaborazione del linguaggio naturale. OpenAI si impegna a trasformare diversi settori attraverso soluzioni AI innovative ed efficienti. I loro prodotti offrono prestazioni e costi notevoli, trovando ampio utilizzo nella ricerca, nel commercio e nelle applicazioni innovative." + }, + "openrouter": { + "description": "OpenRouter è una piattaforma di servizio che offre interfacce per vari modelli di grandi dimensioni all'avanguardia, supportando OpenAI, Anthropic, LLaMA e altro, adatta a esigenze di sviluppo e applicazione diversificate. Gli utenti possono scegliere in modo flessibile il modello e il prezzo ottimali in base alle proprie necessità, migliorando l'esperienza AI." + }, + "perplexity": { + "description": "Perplexity è un fornitore leader di modelli di generazione di dialogo, offrendo vari modelli avanzati Llama 3.1, supportando applicazioni online e offline, particolarmente adatti per compiti complessi di elaborazione del linguaggio naturale." + }, + "qwen": { + "description": "Qwen è un modello di linguaggio di grande scala sviluppato autonomamente da Alibaba Cloud, con potenti capacità di comprensione e generazione del linguaggio naturale. Può rispondere a varie domande, creare contenuti testuali, esprimere opinioni e scrivere codice, svolgendo un ruolo in vari settori." + }, + "siliconcloud": { + "description": "SiliconFlow si impegna ad accelerare l'AGI per il bene dell'umanità, migliorando l'efficienza dell'AI su larga scala attraverso stack GenAI facili da usare e a basso costo." + }, + "spark": { + "description": "Il modello Spark di iFlytek offre potenti capacità AI in vari settori e lingue, utilizzando tecnologie avanzate di elaborazione del linguaggio naturale per costruire applicazioni innovative adatte a scenari verticali come hardware intelligente, assistenza sanitaria intelligente e finanza intelligente." + }, + "stepfun": { + "description": "Il modello StepFun offre capacità multimodali e di ragionamento complesso leader nel settore, supportando la comprensione di testi molto lunghi e potenti funzionalità di motore di ricerca autonomo." + }, + "taichu": { + "description": "L'Istituto di Automazione dell'Accademia Cinese delle Scienze e l'Istituto di Ricerca sull'Intelligenza Artificiale di Wuhan hanno lanciato una nuova generazione di modelli di grandi dimensioni multimodali, supportando domande e risposte a più turni, creazione di testi, generazione di immagini, comprensione 3D, analisi dei segnali e altre attività di domanda e risposta complete, con capacità cognitive, di comprensione e di creazione più forti, offrendo un'esperienza interattiva completamente nuova." + }, + "togetherai": { + "description": "Together AI si impegna a raggiungere prestazioni leader attraverso modelli AI innovativi, offrendo ampie capacità di personalizzazione, inclusi supporto per scalabilità rapida e processi di distribuzione intuitivi, per soddisfare le varie esigenze aziendali." + }, + "upstage": { + "description": "Upstage si concentra sullo sviluppo di modelli AI per varie esigenze commerciali, inclusi Solar LLM e document AI, con l'obiettivo di realizzare un'intelligenza artificiale generale artificiale (AGI) per il lavoro. Crea semplici agenti di dialogo tramite Chat API e supporta chiamate funzionali, traduzioni, embedding e applicazioni specifiche del settore." + }, + "zeroone": { + "description": "01.AI si concentra sulla tecnologia AI dell'era 2.0, promuovendo attivamente l'innovazione e l'applicazione di \"uomo + intelligenza artificiale\", utilizzando modelli potenti e tecnologie AI avanzate per migliorare la produttività umana e realizzare l'abilitazione tecnologica." + }, + "zhipu": { + "description": "Zhipu AI offre una piattaforma aperta per modelli multimodali e linguistici, supportando una vasta gamma di scenari applicativi AI, inclusi elaborazione del testo, comprensione delle immagini e assistenza alla programmazione." + } +} diff --git a/locales/ja-JP/common.json b/locales/ja-JP/common.json index 94c3e9d4fb8e..119b4df2e38a 100644 --- a/locales/ja-JP/common.json +++ b/locales/ja-JP/common.json @@ -195,8 +195,8 @@ }, "tab": { "chat": "チャット", + "discover": "発見", "files": "ファイル", - "market": "探す", "me": "私", "setting": "設定" }, diff --git a/locales/ja-JP/discover.json b/locales/ja-JP/discover.json new file mode 100644 index 000000000000..c7bb66f3a6c8 --- /dev/null +++ b/locales/ja-JP/discover.json @@ -0,0 +1,204 @@ +{ + "assistants": { + "addAgent": "アシスタントを追加", + "addAgentAndConverse": "アシスタントを追加して会話する", + "addAgentSuccess": "追加成功", + "conversation": { + "l1": "こんにちは、私は **{{name}}** です。何でも質問してください、できる限りお答えします ~", + "l2": "以下は私の能力の紹介です: ", + "l3": "さあ、会話を始めましょう!" + }, + "description": "アシスタントの紹介", + "detail": "詳細", + "list": "アシスタントリスト", + "more": "もっと見る", + "plugins": "プラグインを統合", + "recentSubmits": "最近の更新", + "suggestions": "関連情報", + "systemRole": "アシスタント設定", + "try": "試してみる" + }, + "back": "戻る", + "category": { + "assistant": { + "academic": "学術", + "all": "すべて", + "career": "キャリア", + "copywriting": "コピーライティング", + "design": "デザイン", + "education": "教育", + "emotions": "感情", + "entertainment": "エンターテイメント", + "games": "ゲーム", + "general": "一般", + "life": "生活", + "marketing": "マーケティング", + "office": "オフィス", + "programming": "プログラミング", + "translation": "翻訳" + }, + "plugin": { + "all": "すべて", + "gaming-entertainment": "ゲーム・エンターテイメント", + "life-style": "ライフスタイル", + "media-generate": "メディア生成", + "science-education": "科学・教育", + "social": "ソーシャルメディア", + "stocks-finance": "株式・金融", + "tools": "実用ツール", + "web-search": "ウェブ検索" + } + }, + "cleanFilter": "フィルターをクリア", + "create": "作成", + "createGuide": { + "func1": { + "desc1": "会話ウィンドウの右上隅の設定から、アシスタントを提出したい設定ページに入ります;", + "desc2": "右上隅のアシスタントマーケットに提出ボタンをクリックします。", + "tag": "方法1", + "title": "LobeChatを通じて提出" + }, + "func2": { + "button": "Githubアシスタントリポジトリに移動", + "desc": "アシスタントをインデックスに追加したい場合は、pluginsディレクトリにagent-template.jsonまたはagent-template-full.jsonを使用してエントリを作成し、簡単な説明を書いて適切にタグ付けし、プルリクエストを作成してください。", + "tag": "方法2", + "title": "Githubを通じて提出" + } + }, + "dislike": "嫌い", + "filter": "フィルター", + "filterBy": { + "authorRange": { + "everyone": "すべての著者", + "followed": "フォローしている著者", + "title": "著者範囲" + }, + "contentLength": "最小コンテキスト長", + "maxToken": { + "title": "最大長さを設定 (トークン)", + "unlimited": "無制限" + }, + "other": { + "functionCall": "関数呼び出しをサポート", + "title": "その他", + "vision": "視覚認識をサポート", + "withKnowledge": "知識ベース付き", + "withTool": "プラグイン付き" + }, + "pricing": "モデル価格", + "timePeriod": { + "all": "すべての時間", + "day": "過去24時間", + "month": "過去30日", + "title": "時間範囲", + "week": "過去7日", + "year": "過去1年" + } + }, + "home": { + "featuredAssistants": "おすすめアシスタント", + "featuredModels": "おすすめモデル", + "featuredProviders": "おすすめモデルサービスプロバイダー", + "featuredTools": "おすすめプラグイン", + "more": "もっと発見する" + }, + "like": "好き", + "models": { + "chat": "会話を始める", + "contentLength": "最大コンテキスト長", + "free": "無料", + "guide": "設定ガイド", + "list": "モデルリスト", + "more": "もっと見る", + "parameterList": { + "defaultValue": "デフォルト値", + "docs": "ドキュメントを見る", + "frequency_penalty": { + "desc": "この設定は、モデルが入力中に既に出現した特定の語彙の使用頻度を調整します。高い値はそのような繰り返しの可能性を低下させ、負の値は逆の効果を生み出します。語彙の罰則は出現回数に応じて増加しません。負の値は語彙の繰り返し使用を奨励します。", + "title": "頻度ペナルティ" + }, + "max_tokens": { + "desc": "この設定は、モデルが一度の応答で生成できる最大の長さを定義します。値を高く設定すると、モデルはより長い応答を生成でき、値を低く設定すると、応答の長さが制限され、より簡潔になります。異なるアプリケーションシーンに応じて、この値を適切に調整することで、期待される応答の長さと詳細度を達成するのに役立ちます。", + "title": "一度の応答制限" + }, + "presence_penalty": { + "desc": "この設定は、語彙が入力中に出現する頻度に基づいて語彙の繰り返し使用を制御することを目的としています。入力中に多く出現する語彙の使用を減らそうとし、その使用頻度は出現頻度に比例します。語彙の罰則は出現回数に応じて増加します。負の値は語彙の繰り返し使用を奨励します。", + "title": "トピックの新鮮さ" + }, + "range": "範囲", + "temperature": { + "desc": "この設定は、モデルの応答の多様性に影響を与えます。低い値はより予測可能で典型的な応答をもたらし、高い値はより多様で珍しい応答を奨励します。値が0に設定されると、モデルは与えられた入力に対して常に同じ応答を返します。", + "title": "ランダム性" + }, + "title": "モデルパラメータ", + "top_p": { + "desc": "この設定は、モデルの選択を可能性の高い一定の割合の語彙に制限します:累積確率がPに達するトップ語彙のみを選択します。低い値はモデルの応答をより予測可能にし、デフォルト設定はモデルが全範囲の語彙から選択できることを許可します。", + "title": "核サンプリング" + }, + "type": "タイプ" + }, + "providerInfo": { + "apiTooltip": "LobeChatは、このプロバイダーに対してカスタムAPIキーを使用することをサポートしています。", + "input": "入力価格", + "inputTooltip": "百万トークンあたりのコスト", + "latency": "レイテンシ", + "latencyTooltip": "プロバイダーが最初のトークンを送信する平均応答時間", + "maxOutput": "最大出力長", + "maxOutputTooltip": "このエンドポイントが生成できる最大トークン数", + "officialTooltip": "LobeHub公式サービス", + "output": "出力価格", + "outputTooltip": "百万トークンあたりのコスト", + "streamCancellationTooltip": "このプロバイダーはストリームキャンセル機能をサポートしています。", + "throughput": "スループット", + "throughputTooltip": "ストリームリクエストが毎秒転送する平均トークン数" + }, + "suggestions": "関連モデル", + "supportedProviders": "このモデルをサポートするプロバイダー" + }, + "plugins": { + "community": "コミュニティプラグイン", + "install": "プラグインをインストール", + "installed": "インストール済み", + "list": "プラグインリスト", + "meta": { + "description": "説明", + "parameter": "パラメータ", + "title": "ツールパラメータ", + "type": "タイプ" + }, + "more": "もっと見る", + "official": "公式プラグイン", + "recentSubmits": "最近の更新", + "suggestions": "関連する提案" + }, + "providers": { + "config": "プロバイダーの設定", + "list": "モデルサービスプロバイダーリスト", + "modelCount": "{{count}} 個のモデル", + "modelSite": "モデルドキュメント", + "more": "もっと見る", + "officialSite": "公式サイト", + "showAllModels": "すべてのモデルを表示", + "suggestions": "関連プロバイダー", + "supportedModels": "サポートされているモデル" + }, + "search": { + "placeholder": "名前、紹介、またはキーワードを検索...", + "result": "{{keyword}}に関する{{count}}件の検索結果", + "searching": "検索中..." + }, + "sort": { + "mostLiked": "最も好まれた", + "mostUsed": "最も使用された", + "newest": "新しい順", + "oldest": "古い順", + "recommended": "おすすめ" + }, + "tab": { + "assistants": "アシスタント", + "home": "ホーム", + "models": "モデル", + "plugins": "プラグイン", + "providers": "モデルプロバイダー" + } +} diff --git a/locales/ja-JP/metadata.json b/locales/ja-JP/metadata.json index 1837fb649247..fbc4bcf97a8e 100644 --- a/locales/ja-JP/metadata.json +++ b/locales/ja-JP/metadata.json @@ -3,9 +3,26 @@ "description": "{{appName}}が提供する最高のChatGPT、Claude、Gemini、OLLaMA WebUIの体験", "title": "{{appName}}:個人AI効率ツール、より賢い脳を手に入れよう" }, - "market": { - "description": "コンテンツ制作、コピーライティング、Q&A、画像生成、動画生成、音声生成、インテリジェントエージェント、自動化ワークフロー、あなた専用のAIスマートアシスタントをカスタマイズ", - "title": "アシスタントマーケット" + "discover": { + "assistants": { + "description": "コンテンツ作成、コピーライティング、Q&A、画像生成、動画生成、音声生成、インテリジェントエージェント、自動化ワークフロー、あなた専用のAI / GPTs / OLLaMAインテリジェントアシスタントをカスタマイズ", + "title": "AIアシスタント" + }, + "description": "コンテンツ作成、コピーライティング、Q&A、画像生成、動画生成、音声生成、インテリジェントエージェント、自動化ワークフロー、カスタムAIアプリケーション、あなた専用のAIアプリケーションワークスペースをカスタマイズ", + "models": { + "description": "主流のAIモデルを探索 OpenAI / GPT / Claude 3 / Gemini / Ollama / Azure / DeepSeek", + "title": "AIモデル" + }, + "plugins": { + "description": "グラフ生成、学術、画像生成、動画生成、音声生成、自動化ワークフローの検索を行い、あなたのアシスタントに豊富なプラグイン機能を統合します。", + "title": "AIプラグイン" + }, + "providers": { + "description": "主流のモデルプロバイダーを探索 OpenAI / Qwen / Ollama / Anthropic / DeepSeek / Google Gemini / OpenRouter", + "title": "AIモデルサービスプロバイダー" + }, + "search": "検索", + "title": "発見" }, "plugins": { "description": "検索、グラフ生成、学術、画像生成、動画生成、音声生成、自動化ワークフロー、ChatGPT / Claude専用のToolCallプラグイン機能をカスタマイズ", diff --git a/locales/ja-JP/models.json b/locales/ja-JP/models.json new file mode 100644 index 000000000000..0733ec50001a --- /dev/null +++ b/locales/ja-JP/models.json @@ -0,0 +1,845 @@ +{ + "01-ai/Yi-1.5-34B-Chat-16K": { + "description": "Yi-1.5 34Bは豊富な訓練サンプルを用いて業界アプリケーションで優れたパフォーマンスを提供します。" + }, + "01-ai/Yi-1.5-6B-Chat": { + "description": "Yi-1.5はYiシリーズの進化版で、高品質な事前学習と豊富な微調整データを持っています。" + }, + "01-ai/Yi-1.5-9B-Chat-16K": { + "description": "Yi-1.5 9Bは16Kトークンをサポートし、高効率でスムーズな言語生成能力を提供します。" + }, + "360gpt-pro": { + "description": "360GPT Proは360 AIモデルシリーズの重要なメンバーであり、高効率なテキスト処理能力を持ち、多様な自然言語アプリケーションシーンに対応し、長文理解や多輪対話などの機能をサポートします。" + }, + "360gpt-turbo": { + "description": "360GPT Turboは強力な計算と対話能力を提供し、優れた意味理解と生成効率を備え、企業や開発者にとって理想的なインテリジェントアシスタントソリューションです。" + }, + "360gpt-turbo-responsibility-8k": { + "description": "360GPT Turbo Responsibility 8Kは意味の安全性と責任指向を強調し、コンテンツの安全性に高い要求を持つアプリケーションシーンのために設計されており、ユーザー体験の正確性と堅牢性を確保します。" + }, + "360gpt2-pro": { + "description": "360GPT2 Proは360社が発表した高級自然言語処理モデルで、卓越したテキスト生成と理解能力を備え、特に生成と創作の分野で優れたパフォーマンスを発揮し、複雑な言語変換や役割演技タスクを処理できます。" + }, + "4.0Ultra": { + "description": "Spark4.0 Ultraは星火大モデルシリーズの中で最も強力なバージョンで、ネットワーク検索のリンクをアップグレードし、テキストコンテンツの理解と要約能力を向上させています。これは、オフィスの生産性を向上させ、要求に正確に応えるための全方位のソリューションであり、業界をリードするインテリジェントな製品です。" + }, + "Baichuan2-Turbo": { + "description": "検索強化技術を採用し、大モデルと分野知識、全網知識の全面的なリンクを実現しています。PDF、Wordなどのさまざまな文書のアップロードやURL入力をサポートし、情報取得が迅速かつ包括的で、出力結果は正確かつ専門的です。" + }, + "Baichuan3-Turbo": { + "description": "企業の高頻度シーンに最適化され、効果が大幅に向上し、高コストパフォーマンスを実現しています。Baichuan2モデルに対して、コンテンツ生成が20%、知識問答が17%、役割演技能力が40%向上しています。全体的な効果はGPT3.5よりも優れています。" + }, + "Baichuan3-Turbo-128k": { + "description": "128Kの超長コンテキストウィンドウを備え、企業の高頻度シーンに最適化され、効果が大幅に向上し、高コストパフォーマンスを実現しています。Baichuan2モデルに対して、コンテンツ生成が20%、知識問答が17%、役割演技能力が40%向上しています。全体的な効果はGPT3.5よりも優れています。" + }, + "Baichuan4": { + "description": "モデル能力は国内でトップであり、知識百科、長文、生成創作などの中国語タスクで海外の主流モデルを超えています。また、業界をリードするマルチモーダル能力を備え、複数の権威ある評価基準で優れたパフォーマンスを示しています。" + }, + "Gryphe/MythoMax-L2-13b": { + "description": "MythoMax-L2 (13B)は、革新的なモデルであり、多分野のアプリケーションや複雑なタスクに適しています。" + }, + "Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Hermes 2 Mixtral 8x7B DPOは非常に柔軟なマルチモデル統合で、卓越した創造的体験を提供することを目的としています。" + }, + "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B)は、高精度の指示モデルであり、複雑な計算に適しています。" + }, + "NousResearch/Nous-Hermes-2-Yi-34B": { + "description": "Nous Hermes-2 Yi (34B)は、最適化された言語出力と多様なアプリケーションの可能性を提供します。" + }, + "Pro-128k": { + "description": "Spark Pro-128Kは特大のコンテキスト処理能力を備え、最大128Kのコンテキスト情報を処理でき、特に全体分析や長期的な論理関連処理が必要な長文コンテンツに適しており、複雑なテキストコミュニケーションにおいて流暢で一貫した論理と多様な引用サポートを提供します。" + }, + "Qwen/Qwen1.5-110B-Chat": { + "description": "Qwen2のテスト版として、Qwen1.5は大規模データを使用してより正確な対話機能を実現しました。" + }, + "Qwen/Qwen1.5-14B-Chat": { + "description": "Qwen1.5は大規模データセットで訓練され、複雑な言語タスクに優れています。" + }, + "Qwen/Qwen1.5-32B-Chat": { + "description": "Qwen1.5は多分野の問答とテキスト生成の能力を備えています。" + }, + "Qwen/Qwen1.5-72B-Chat": { + "description": "Qwen 1.5 Chat (72B)は、迅速な応答と自然な対話能力を提供し、多言語環境に適しています。" + }, + "Qwen/Qwen1.5-7B-Chat": { + "description": "Qwen1.5は高度な事前学習と微調整を組み合わせて対話表現能力を向上させています。" + }, + "Qwen/Qwen2-1.5B-Instruct": { + "description": "Qwen2は全く新しい大型言語モデルシリーズで、指示タスクの処理を最適化することを目的としています。" + }, + "Qwen/Qwen2-57B-A14B-Instruct": { + "description": "Qwen2は全く新しいシリーズで、57B A14Bモデルは指示タスクにおいて卓越したパフォーマンスを示します。" + }, + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2は、先進的な汎用言語モデルであり、さまざまな指示タイプをサポートします。" + }, + "Qwen/Qwen2-7B-Instruct": { + "description": "Qwen2は全く新しい大型言語モデルシリーズで、より強力な理解と生成能力を持っています。" + }, + "Qwen/Qwen2-Math-72B-Instruct": { + "description": "Qwen2-Mathは数学分野の問題解決に特化しており、高難度の問題に専門的な解答を提供します。" + }, + "THUDM/chatglm3-6b": { + "description": "ChatGLM3はバイリンガル会話言語モデルとして、中英の変換タスクを処理できます。" + }, + "THUDM/glm-4-9b-chat": { + "description": "GLM-4 9Bはオープンソース版で、会話アプリケーションに最適化された対話体験を提供します。" + }, + "abab5.5-chat": { + "description": "生産性シーン向けであり、複雑なタスク処理と効率的なテキスト生成をサポートし、専門分野のアプリケーションに適しています。" + }, + "abab5.5s-chat": { + "description": "中国語のキャラクター対話シーンに特化しており、高品質な中国語対話生成能力を提供し、さまざまなアプリケーションシーンに適しています。" + }, + "abab6.5g-chat": { + "description": "多言語のキャラクター対話に特化しており、英語および他の多くの言語の高品質な対話生成をサポートします。" + }, + "abab6.5s-chat": { + "description": "テキスト生成、対話システムなど、幅広い自然言語処理タスクに適しています。" + }, + "abab6.5t-chat": { + "description": "中国語のキャラクター対話シーンに最適化されており、流暢で中国語の表現習慣に合った対話生成能力を提供します。" + }, + "accounts/fireworks/models/firefunction-v1": { + "description": "Fireworksのオープンソース関数呼び出しモデルは、卓越した指示実行能力とオープンでカスタマイズ可能な特性を提供します。" + }, + "accounts/fireworks/models/firefunction-v2": { + "description": "Fireworks社の最新のFirefunction-v2は、Llama-3を基に開発された高性能な関数呼び出しモデルであり、多くの最適化を経て、特に関数呼び出し、対話、指示のフォローなどのシナリオに適しています。" + }, + "accounts/fireworks/models/firellava-13b": { + "description": "fireworks-ai/FireLLaVA-13bは、画像とテキストの入力を同時に受け取ることができる視覚言語モデルであり、高品質なデータで訓練されており、多モーダルタスクに適しています。" + }, + "accounts/fireworks/models/gemma2-9b-it": { + "description": "Gemma 2 9B指示モデルは、以前のGoogle技術に基づいており、質問応答、要約、推論などのさまざまなテキスト生成タスクに適しています。" + }, + "accounts/fireworks/models/llama-v3-70b-instruct": { + "description": "Llama 3 70B指示モデルは、多言語対話と自然言語理解に最適化されており、ほとんどの競合モデルを上回る性能を持っています。" + }, + "accounts/fireworks/models/llama-v3-70b-instruct-hf": { + "description": "Llama 3 70B指示モデル(HFバージョン)は、公式実装結果と一致し、高品質な指示フォロータスクに適しています。" + }, + "accounts/fireworks/models/llama-v3-8b-instruct": { + "description": "Llama 3 8B指示モデルは、対話や多言語タスクに最適化されており、卓越した効率を発揮します。" + }, + "accounts/fireworks/models/llama-v3-8b-instruct-hf": { + "description": "Llama 3 8B指示モデル(HFバージョン)は、公式実装結果と一致し、高い一貫性とクロスプラットフォーム互換性を持っています。" + }, + "accounts/fireworks/models/llama-v3p1-405b-instruct": { + "description": "Llama 3.1 405B指示モデルは、超大規模なパラメータを持ち、複雑なタスクや高負荷シナリオでの指示フォローに適しています。" + }, + "accounts/fireworks/models/llama-v3p1-70b-instruct": { + "description": "Llama 3.1 70B指示モデルは、卓越した自然言語理解と生成能力を提供し、対話や分析タスクに理想的な選択肢です。" + }, + "accounts/fireworks/models/llama-v3p1-8b-instruct": { + "description": "Llama 3.1 8B指示モデルは、多言語対話の最適化のために設計されており、一般的な業界ベンチマークを超える性能を発揮します。" + }, + "accounts/fireworks/models/mixtral-8x22b-instruct": { + "description": "Mixtral MoE 8x22B指示モデルは、大規模なパラメータと多専門家アーキテクチャを持ち、複雑なタスクの高効率処理を全方位でサポートします。" + }, + "accounts/fireworks/models/mixtral-8x7b-instruct": { + "description": "Mixtral MoE 8x7B指示モデルは、多専門家アーキテクチャを提供し、高効率の指示フォローと実行をサポートします。" + }, + "accounts/fireworks/models/mixtral-8x7b-instruct-hf": { + "description": "Mixtral MoE 8x7B指示モデル(HFバージョン)は、公式実装と一致し、さまざまな高効率タスクシナリオに適しています。" + }, + "accounts/fireworks/models/mythomax-l2-13b": { + "description": "MythoMax L2 13Bモデルは、新しい統合技術を組み合わせており、物語やキャラクターの役割に優れています。" + }, + "accounts/fireworks/models/phi-3-vision-128k-instruct": { + "description": "Phi 3 Vision指示モデルは、軽量の多モーダルモデルであり、複雑な視覚とテキスト情報を処理でき、強力な推論能力を持っています。" + }, + "accounts/fireworks/models/starcoder-16b": { + "description": "StarCoder 15.5Bモデルは、高度なプログラミングタスクをサポートし、多言語能力を強化し、複雑なコード生成と理解に適しています。" + }, + "accounts/fireworks/models/starcoder-7b": { + "description": "StarCoder 7Bモデルは、80以上のプログラミング言語に特化して訓練されており、優れたプログラミング補完能力と文脈理解を持っています。" + }, + "accounts/yi-01-ai/models/yi-large": { + "description": "Yi-Largeモデルは、卓越した多言語処理能力を持ち、さまざまな言語生成と理解タスクに使用できます。" + }, + "anthropic.claude-3-5-sonnet-20240620-v1:0": { + "description": "Claude 3.5 Sonnetは業界標準を向上させ、競合モデルやClaude 3 Opusを超える性能を持ち、広範な評価で優れたパフォーマンスを示し、私たちの中程度のモデルの速度とコストを兼ね備えています。" + }, + "anthropic.claude-3-haiku-20240307-v1:0": { + "description": "Claude 3 HaikuはAnthropicの最も速く、最もコンパクトなモデルで、ほぼ瞬時の応答速度を提供します。簡単なクエリやリクエストに迅速に回答できます。顧客は人間のインタラクションを模倣するシームレスなAI体験を構築できるようになります。Claude 3 Haikuは画像を処理し、テキスト出力を返すことができ、200Kのコンテキストウィンドウを持っています。" + }, + "anthropic.claude-3-opus-20240229-v1:0": { + "description": "Claude 3 OpusはAnthropicの最も強力なAIモデルで、高度に複雑なタスクにおいて最先端の性能を持っています。オープンエンドのプロンプトや未見のシナリオを処理でき、優れた流暢さと人間の理解能力を持っています。Claude 3 Opusは生成AIの可能性の最前線を示しています。Claude 3 Opusは画像を処理し、テキスト出力を返すことができ、200Kのコンテキストウィンドウを持っています。" + }, + "anthropic.claude-3-sonnet-20240229-v1:0": { + "description": "AnthropicのClaude 3 Sonnetは、知能と速度の理想的なバランスを実現しており、特に企業のワークロードに適しています。競合他社よりも低価格で最大の効用を提供し、信頼性が高く耐久性のある主力機として設計されており、スケール化されたAIデプロイメントに適しています。Claude 3 Sonnetは画像を処理し、テキスト出力を返すことができ、200Kのコンテキストウィンドウを持っています。" + }, + "anthropic.claude-instant-v1": { + "description": "日常の対話、テキスト分析、要約、文書質問応答などの一連のタスクを処理できる、迅速で経済的かつ非常に能力のあるモデルです。" + }, + "anthropic.claude-v2": { + "description": "Anthropicは、複雑な対話や創造的なコンテンツ生成から詳細な指示の遵守に至るまで、幅広いタスクで高い能力を発揮するモデルです。" + }, + "anthropic.claude-v2:1": { + "description": "Claude 2の更新版で、コンテキストウィンドウが2倍になり、長文書やRAGコンテキストにおける信頼性、幻覚率、証拠に基づく正確性が改善されています。" + }, + "anthropic/claude-3-haiku": { + "description": "Claude 3 HaikuはAnthropicの最も迅速でコンパクトなモデルで、ほぼ瞬時の応答を実現することを目的としています。迅速かつ正確な指向性能を備えています。" + }, + "anthropic/claude-3-opus": { + "description": "Claude 3 Opusは、Anthropicが高度に複雑なタスクを処理するために開発した最も強力なモデルです。性能、知能、流暢さ、理解力において卓越したパフォーマンスを発揮します。" + }, + "anthropic/claude-3.5-sonnet": { + "description": "Claude 3.5 SonnetはOpusを超える能力を提供し、Sonnetよりも速い速度を持ちながら、Sonnetと同じ価格を維持します。Sonnetは特にプログラミング、データサイエンス、視覚処理、代理タスクに優れています。" + }, + "aya": { + "description": "Aya 23は、Cohereが提供する多言語モデルであり、23の言語をサポートし、多様な言語アプリケーションを便利にします。" + }, + "aya:35b": { + "description": "Aya 23は、Cohereが提供する多言語モデルであり、23の言語をサポートし、多様な言語アプリケーションを便利にします。" + }, + "charglm-3": { + "description": "CharGLM-3はキャラクター演技と感情的な伴侶のために設計されており、超長期の多段階記憶と個別化された対話をサポートし、幅広い用途に適しています。" + }, + "chatgpt-4o-latest": { + "description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、常に最新のバージョンを維持します。強力な言語理解と生成能力を組み合わせており、顧客サービス、教育、技術サポートなどの大規模なアプリケーションシナリオに適しています。" + }, + "claude-2.0": { + "description": "Claude 2は、業界をリードする200Kトークンのコンテキスト、モデルの幻覚の発生率を大幅に低下させる、システムプロンプト、および新しいテスト機能:ツール呼び出しを含む、企業にとって重要な能力の進歩を提供します。" + }, + "claude-2.1": { + "description": "Claude 2は、業界をリードする200Kトークンのコンテキスト、モデルの幻覚の発生率を大幅に低下させる、システムプロンプト、および新しいテスト機能:ツール呼び出しを含む、企業にとって重要な能力の進歩を提供します。" + }, + "claude-3-5-sonnet-20240620": { + "description": "Claude 3.5 Sonnetは、Opusを超える能力とSonnetよりも速い速度を提供し、Sonnetと同じ価格を維持します。Sonnetは特にプログラミング、データサイエンス、視覚処理、エージェントタスクに優れています。" + }, + "claude-3-haiku-20240307": { + "description": "Claude 3 Haikuは、Anthropicの最も速く、最もコンパクトなモデルであり、ほぼ瞬時の応答を実現することを目的としています。迅速かつ正確な指向性能を持っています。" + }, + "claude-3-opus-20240229": { + "description": "Claude 3 Opusは、Anthropicが高度に複雑なタスクを処理するために開発した最も強力なモデルです。性能、知性、流暢さ、理解力において卓越したパフォーマンスを発揮します。" + }, + "claude-3-sonnet-20240229": { + "description": "Claude 3 Sonnetは、企業のワークロードに理想的なバランスを提供し、より低価格で最大の効用を提供し、信頼性が高く、大規模な展開に適しています。" + }, + "claude-instant-1.2": { + "description": "Anthropicのモデルは、低遅延、高スループットのテキスト生成に使用され、数百ページのテキストを生成することをサポートします。" + }, + "codegeex-4": { + "description": "CodeGeeX-4は強力なAIプログラミングアシスタントで、さまざまなプログラミング言語のインテリジェントな質問応答とコード補完をサポートし、開発効率を向上させます。" + }, + "codegemma": { + "description": "CodeGemmaは、さまざまなプログラミングタスクに特化した軽量言語モデルであり、迅速な反復と統合をサポートします。" + }, + "codegemma:2b": { + "description": "CodeGemmaは、さまざまなプログラミングタスクに特化した軽量言語モデルであり、迅速な反復と統合をサポートします。" + }, + "codellama": { + "description": "Code Llamaは、コード生成と議論に特化したLLMであり、広範なプログラミング言語のサポートを組み合わせて、開発者環境に適しています。" + }, + "codellama:13b": { + "description": "Code Llamaは、コード生成と議論に特化したLLMであり、広範なプログラミング言語のサポートを組み合わせて、開発者環境に適しています。" + }, + "codellama:34b": { + "description": "Code Llamaは、コード生成と議論に特化したLLMであり、広範なプログラミング言語のサポートを組み合わせて、開発者環境に適しています。" + }, + "codellama:70b": { + "description": "Code Llamaは、コード生成と議論に特化したLLMであり、広範なプログラミング言語のサポートを組み合わせて、開発者環境に適しています。" + }, + "codeqwen": { + "description": "CodeQwen1.5は、大量のコードデータでトレーニングされた大規模言語モデルであり、複雑なプログラミングタスクを解決するために特化しています。" + }, + "codestral": { + "description": "Codestralは、Mistral AIの初のコードモデルであり、コード生成タスクに優れたサポートを提供します。" + }, + "codestral-latest": { + "description": "Codestralは、コード生成に特化した最先端の生成モデルであり、中間埋め込みやコード補完タスクを最適化しています。" + }, + "cognitivecomputations/dolphin-mixtral-8x22b": { + "description": "Dolphin Mixtral 8x22Bは指示遵守、対話、プログラミングのために設計されたモデルです。" + }, + "command-r": { + "description": "Command Rは、対話と長いコンテキストタスクに最適化されたLLMであり、特に動的なインタラクションと知識管理に適しています。" + }, + "command-r-plus": { + "description": "Command R+は、リアルな企業シーンと複雑なアプリケーションのために設計された高性能な大規模言語モデルです。" + }, + "databricks/dbrx-instruct": { + "description": "DBRX Instructは、高い信頼性の指示処理能力を提供し、多業界アプリケーションをサポートします。" + }, + "deepseek-ai/DeepSeek-Coder-V2-Instruct": { + "description": "DeepSeek Coder V2はコードタスクのために設計されており、高効率なコード生成に特化しています。" + }, + "deepseek-ai/DeepSeek-V2-Chat": { + "description": "DeepSeek V2は67億パラメータを持ち、英中のテキスト処理をサポートします。" + }, + "deepseek-ai/DeepSeek-V2.5": { + "description": "DeepSeek V2.5は以前のバージョンの優れた特徴を集約し、汎用性とコーディング能力を強化しました。" + }, + "deepseek-ai/deepseek-llm-67b-chat": { + "description": "DeepSeek 67Bは、高い複雑性の対話のために訓練された先進的なモデルです。" + }, + "deepseek-chat": { + "description": "一般的な対話能力と強力なコード処理能力を兼ね備えた新しいオープンソースモデルであり、元のChatモデルの対話能力とCoderモデルのコード処理能力を保持しつつ、人間の好みにより良く整合しています。さらに、DeepSeek-V2.5は、執筆タスクや指示に従う能力など、さまざまな面で大幅な向上を実現しました。" + }, + "deepseek-coder-v2": { + "description": "DeepSeek Coder V2は、オープンソースの混合エキスパートコードモデルであり、コードタスクにおいて優れた性能を発揮し、GPT4-Turboに匹敵します。" + }, + "deepseek-coder-v2:236b": { + "description": "DeepSeek Coder V2は、オープンソースの混合エキスパートコードモデルであり、コードタスクにおいて優れた性能を発揮し、GPT4-Turboに匹敵します。" + }, + "deepseek-v2": { + "description": "DeepSeek V2は、高効率なMixture-of-Experts言語モデルであり、経済的な処理ニーズに適しています。" + }, + "deepseek-v2:236b": { + "description": "DeepSeek V2 236Bは、DeepSeekの設計コードモデルであり、強力なコード生成能力を提供します。" + }, + "deepseek/deepseek-chat": { + "description": "汎用性とコード能力を融合させた新しいオープンソースモデルで、元のChatモデルの汎用対話能力とCoderモデルの強力なコード処理能力を保持しつつ、人間の好みにより良く整合しています。さらに、DeepSeek-V2.5は執筆タスク、指示の遵守などの多くの面で大幅な向上を実現しました。" + }, + "emohaa": { + "description": "Emohaaは心理モデルで、専門的な相談能力を持ち、ユーザーが感情問題を理解するのを助けます。" + }, + "gemini-1.0-pro-001": { + "description": "Gemini 1.0 Pro 001(チューニング)は、安定した調整可能な性能を提供し、複雑なタスクのソリューションに理想的な選択肢です。" + }, + "gemini-1.0-pro-002": { + "description": "Gemini 1.0 Pro 002(チューニング)は、優れたマルチモーダルサポートを提供し、複雑なタスクの効果的な解決に焦点を当てています。" + }, + "gemini-1.0-pro-latest": { + "description": "Gemini 1.0 Proは、Googleの高性能AIモデルであり、幅広いタスクの拡張に特化しています。" + }, + "gemini-1.5-flash-001": { + "description": "Gemini 1.5 Flash 001は、効率的なマルチモーダルモデルであり、幅広いアプリケーションの拡張をサポートします。" + }, + "gemini-1.5-flash-8b-exp-0827": { + "description": "Gemini 1.5 Flash 8B 0827は、大規模なタスクシナリオの処理のために設計されており、比類のない処理速度を提供します。" + }, + "gemini-1.5-flash-exp-0827": { + "description": "Gemini 1.5 Flash 0827は、最適化されたマルチモーダル処理能力を提供し、さまざまな複雑なタスクシナリオに適用できます。" + }, + "gemini-1.5-flash-latest": { + "description": "Gemini 1.5 Flashは、Googleの最新のマルチモーダルAIモデルであり、高速処理能力を備え、テキスト、画像、動画の入力をサポートし、さまざまなタスクの効率的な拡張に適しています。" + }, + "gemini-1.5-pro-001": { + "description": "Gemini 1.5 Pro 001は、拡張可能なマルチモーダルAIソリューションであり、幅広い複雑なタスクをサポートします。" + }, + "gemini-1.5-pro-exp-0801": { + "description": "Gemini 1.5 Pro 0801は、優れたマルチモーダル処理能力を提供し、アプリケーション開発における柔軟性を高めます。" + }, + "gemini-1.5-pro-exp-0827": { + "description": "Gemini 1.5 Pro 0827は、最新の最適化技術を組み合わせて、より効率的なマルチモーダルデータ処理能力を提供します。" + }, + "gemini-1.5-pro-latest": { + "description": "Gemini 1.5 Proは、最大200万トークンをサポートする中型マルチモーダルモデルの理想的な選択肢であり、複雑なタスクに対する多面的なサポートを提供します。" + }, + "gemma-7b-it": { + "description": "Gemma 7Bは、中小規模のタスク処理に適しており、コスト効果を兼ね備えています。" + }, + "gemma2": { + "description": "Gemma 2は、Googleが提供する高効率モデルであり、小型アプリケーションから複雑なデータ処理まで、さまざまなアプリケーションシーンをカバーしています。" + }, + "gemma2-9b-it": { + "description": "Gemma 2 9Bは、特定のタスクとツール統合のために最適化されたモデルです。" + }, + "gemma2:27b": { + "description": "Gemma 2は、Googleが提供する高効率モデルであり、小型アプリケーションから複雑なデータ処理まで、さまざまなアプリケーションシーンをカバーしています。" + }, + "gemma2:2b": { + "description": "Gemma 2は、Googleが提供する高効率モデルであり、小型アプリケーションから複雑なデータ処理まで、さまざまなアプリケーションシーンをカバーしています。" + }, + "general": { + "description": "Spark Liteは軽量な大言語モデルで、極めて低い遅延と高効率な処理能力を備え、完全に無料でオープンに提供され、リアルタイムのオンライン検索機能をサポートします。その迅速な応答特性により、低算力デバイスでの推論アプリケーションやモデル微調整において優れたパフォーマンスを発揮し、ユーザーに優れたコスト効果とインテリジェントな体験を提供し、特に知識問答、コンテンツ生成、検索シーンでのパフォーマンスが優れています。" + }, + "generalv3": { + "description": "Spark Proは専門分野に最適化された高性能な大言語モデルで、数学、プログラミング、医療、教育などの複数の分野に特化し、ネットワーク検索や内蔵の天気、日付などのプラグインをサポートします。最適化されたモデルは、複雑な知識問答、言語理解、高度なテキスト創作において優れたパフォーマンスと高効率を示し、専門的なアプリケーションシーンに最適な選択肢です。" + }, + "generalv3.5": { + "description": "Spark3.5 Maxは機能が最も充実したバージョンで、ネットワーク検索や多くの内蔵プラグインをサポートします。全面的に最適化されたコア能力、システムロール設定、関数呼び出し機能により、さまざまな複雑なアプリケーションシーンでのパフォーマンスが非常に優れています。" + }, + "glm-4": { + "description": "GLM-4は2024年1月にリリースされた旧フラッグシップバージョンで、現在はより強力なGLM-4-0520に取って代わられています。" + }, + "glm-4-0520": { + "description": "GLM-4-0520は最新のモデルバージョンで、高度に複雑で多様なタスクのために設計され、優れたパフォーマンスを発揮します。" + }, + "glm-4-air": { + "description": "GLM-4-Airはコストパフォーマンスが高いバージョンで、GLM-4に近い性能を提供し、高速かつ手頃な価格です。" + }, + "glm-4-airx": { + "description": "GLM-4-AirXはGLM-4-Airの効率的なバージョンで、推論速度はその2.6倍に達します。" + }, + "glm-4-alltools": { + "description": "GLM-4-AllToolsは、複雑な指示計画とツール呼び出しをサポートするために最適化された多機能エージェントモデルで、ネットサーフィン、コード解釈、テキスト生成などの多タスク実行に適しています。" + }, + "glm-4-flash": { + "description": "GLM-4-Flashはシンプルなタスクを処理するのに理想的な選択肢で、最も速く、最も手頃な価格です。" + }, + "glm-4-long": { + "description": "GLM-4-Longは超長文入力をサポートし、記憶型タスクや大規模文書処理に適しています。" + }, + "glm-4-plus": { + "description": "GLM-4-Plusは高い知能を持つフラッグシップモデルで、長文や複雑なタスクを処理する能力が強化され、全体的なパフォーマンスが向上しています。" + }, + "glm-4v": { + "description": "GLM-4Vは強力な画像理解と推論能力を提供し、さまざまな視覚タスクをサポートします。" + }, + "glm-4v-plus": { + "description": "GLM-4V-Plusは動画コンテンツや複数の画像を理解する能力を持ち、マルチモーダルタスクに適しています。" + }, + "google/gemini-flash-1.5-exp": { + "description": "Gemini 1.5 Flash 0827は、最適化されたマルチモーダル処理能力を提供し、さまざまな複雑なタスクシーンに適用可能です。" + }, + "google/gemini-pro-1.5-exp": { + "description": "Gemini 1.5 Pro 0827は、最新の最適化技術を組み合わせて、より効率的なマルチモーダルデータ処理能力を提供します。" + }, + "google/gemma-2-27b-it": { + "description": "Gemma 2は、軽量化と高効率のデザイン理念を継承しています。" + }, + "google/gemma-2-9b-it": { + "description": "Gemma 2は、Googleの軽量オープンソーステキストモデルシリーズです。" + }, + "google/gemma-2-9b-it:free": { + "description": "Gemma 2はGoogleの軽量化されたオープンソーステキストモデルシリーズです。" + }, + "google/gemma-2b-it": { + "description": "Gemma Instruct (2B)は、基本的な指示処理能力を提供し、軽量アプリケーションに適しています。" + }, + "gpt-3.5-turbo": { + "description": "GPT 3.5 Turboは、さまざまなテキスト生成と理解タスクに適しており、現在はgpt-3.5-turbo-0125を指しています。" + }, + "gpt-3.5-turbo-0125": { + "description": "GPT 3.5 Turboは、さまざまなテキスト生成と理解タスクに適しており、現在はgpt-3.5-turbo-0125を指しています。" + }, + "gpt-3.5-turbo-1106": { + "description": "GPT 3.5 Turboは、さまざまなテキスト生成と理解タスクに適しており、現在はgpt-3.5-turbo-0125を指しています。" + }, + "gpt-3.5-turbo-instruct": { + "description": "GPT 3.5 Turboは、さまざまなテキスト生成と理解タスクに適しており、現在はgpt-3.5-turbo-0125を指しています。" + }, + "gpt-4": { + "description": "GPT-4は、より大きなコンテキストウィンドウを提供し、より長いテキスト入力を処理できるため、広範な情報統合やデータ分析が必要なシナリオに適しています。" + }, + "gpt-4-0125-preview": { + "description": "最新のGPT-4 Turboモデルは視覚機能を備えています。現在、視覚リクエストはJSON形式と関数呼び出しを使用して行うことができます。GPT-4 Turboは、マルチモーダルタスクに対してコスト効率の高いサポートを提供する強化版です。正確性と効率のバランスを取り、リアルタイムのインタラクションが必要なアプリケーションシナリオに適しています。" + }, + "gpt-4-0613": { + "description": "GPT-4は、より大きなコンテキストウィンドウを提供し、より長いテキスト入力を処理できるため、広範な情報統合やデータ分析が必要なシナリオに適しています。" + }, + "gpt-4-1106-preview": { + "description": "最新のGPT-4 Turboモデルは視覚機能を備えています。現在、視覚リクエストはJSON形式と関数呼び出しを使用して行うことができます。GPT-4 Turboは、マルチモーダルタスクに対してコスト効率の高いサポートを提供する強化版です。正確性と効率のバランスを取り、リアルタイムのインタラクションが必要なアプリケーションシナリオに適しています。" + }, + "gpt-4-1106-vision-preview": { + "description": "最新のGPT-4 Turboモデルは視覚機能を備えています。現在、視覚リクエストはJSON形式と関数呼び出しを使用して行うことができます。GPT-4 Turboは、マルチモーダルタスクに対してコスト効率の高いサポートを提供する強化版です。正確性と効率のバランスを取り、リアルタイムのインタラクションが必要なアプリケーションシナリオに適しています。" + }, + "gpt-4-32k": { + "description": "GPT-4は、より大きなコンテキストウィンドウを提供し、より長いテキスト入力を処理できるため、広範な情報統合やデータ分析が必要なシナリオに適しています。" + }, + "gpt-4-32k-0613": { + "description": "GPT-4は、より大きなコンテキストウィンドウを提供し、より長いテキスト入力を処理できるため、広範な情報統合やデータ分析が必要なシナリオに適しています。" + }, + "gpt-4-turbo": { + "description": "最新のGPT-4 Turboモデルは視覚機能を備えています。現在、視覚リクエストはJSON形式と関数呼び出しを使用して行うことができます。GPT-4 Turboは、マルチモーダルタスクに対してコスト効率の高いサポートを提供する強化版です。正確性と効率のバランスを取り、リアルタイムのインタラクションが必要なアプリケーションシナリオに適しています。" + }, + "gpt-4-turbo-2024-04-09": { + "description": "最新のGPT-4 Turboモデルは視覚機能を備えています。現在、視覚リクエストはJSON形式と関数呼び出しを使用して行うことができます。GPT-4 Turboは、マルチモーダルタスクに対してコスト効率の高いサポートを提供する強化版です。正確性と効率のバランスを取り、リアルタイムのインタラクションが必要なアプリケーションシナリオに適しています。" + }, + "gpt-4-turbo-preview": { + "description": "最新のGPT-4 Turboモデルは視覚機能を備えています。現在、視覚リクエストはJSON形式と関数呼び出しを使用して行うことができます。GPT-4 Turboは、マルチモーダルタスクに対してコスト効率の高いサポートを提供する強化版です。正確性と効率のバランスを取り、リアルタイムのインタラクションが必要なアプリケーションシナリオに適しています。" + }, + "gpt-4-vision-preview": { + "description": "最新のGPT-4 Turboモデルは視覚機能を備えています。現在、視覚リクエストはJSON形式と関数呼び出しを使用して行うことができます。GPT-4 Turboは、マルチモーダルタスクに対してコスト効率の高いサポートを提供する強化版です。正確性と効率のバランスを取り、リアルタイムのインタラクションが必要なアプリケーションシナリオに適しています。" + }, + "gpt-4o": { + "description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、常に最新のバージョンを維持します。強力な言語理解と生成能力を組み合わせており、顧客サービス、教育、技術サポートなどの大規模なアプリケーションシナリオに適しています。" + }, + "gpt-4o-2024-05-13": { + "description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、常に最新のバージョンを維持します。強力な言語理解と生成能力を組み合わせており、顧客サービス、教育、技術サポートなどの大規模なアプリケーションシナリオに適しています。" + }, + "gpt-4o-2024-08-06": { + "description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、常に最新のバージョンを維持します。強力な言語理解と生成能力を組み合わせており、顧客サービス、教育、技術サポートなどの大規模なアプリケーションシナリオに適しています。" + }, + "gpt-4o-mini": { + "description": "GPT-4o miniは、OpenAIがGPT-4 Omniの後に発表した最新のモデルで、画像とテキストの入力をサポートし、テキストを出力します。最先端の小型モデルとして、最近の他の先進モデルよりもはるかに安価で、GPT-3.5 Turboよりも60%以上安価です。最先端の知能を維持しつつ、コストパフォーマンスが大幅に向上しています。GPT-4o miniはMMLUテストで82%のスコアを獲得し、現在チャットの好みではGPT-4よりも高い評価を得ています。" + }, + "gryphe/mythomax-l2-13b": { + "description": "MythoMax l2 13Bは複数のトップモデルを統合した創造性と知性を兼ね備えた言語モデルです。" + }, + "internlm/internlm2_5-20b-chat": { + "description": "革新的なオープンソースモデルInternLM2.5は、大規模なパラメータを通じて対話のインテリジェンスを向上させました。" + }, + "internlm/internlm2_5-7b-chat": { + "description": "InternLM2.5は多様なシーンでのインテリジェントな対話ソリューションを提供します。" + }, + "llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instructモデルは、70Bパラメータを持ち、大規模なテキスト生成と指示タスクで卓越した性能を提供します。" + }, + "llama-3.1-70b-versatile": { + "description": "Llama 3.1 70Bは、より強力なAI推論能力を提供し、複雑なアプリケーションに適しており、非常に多くの計算処理をサポートし、高効率と精度を保証します。" + }, + "llama-3.1-8b-instant": { + "description": "Llama 3.1 8Bは、高効率モデルであり、迅速なテキスト生成能力を提供し、大規模な効率とコスト効果が求められるアプリケーションシナリオに非常に適しています。" + }, + "llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instructモデルは、8Bパラメータを持ち、画面指示タスクの高効率な実行をサポートし、優れたテキスト生成能力を提供します。" + }, + "llama-3.1-sonar-huge-128k-online": { + "description": "Llama 3.1 Sonar Huge Onlineモデルは、405Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、複雑なオンラインチャットアプリケーション用に設計されています。" + }, + "llama-3.1-sonar-large-128k-chat": { + "description": "Llama 3.1 Sonar Large Chatモデルは、70Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、複雑なオフラインチャットタスクに適しています。" + }, + "llama-3.1-sonar-large-128k-online": { + "description": "Llama 3.1 Sonar Large Onlineモデルは、70Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、高容量で多様なチャットタスクに適しています。" + }, + "llama-3.1-sonar-small-128k-chat": { + "description": "Llama 3.1 Sonar Small Chatモデルは、8Bパラメータを持ち、オフラインチャット用に設計されており、約127,000トークンのコンテキスト長をサポートします。" + }, + "llama-3.1-sonar-small-128k-online": { + "description": "Llama 3.1 Sonar Small Onlineモデルは、8Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、オンラインチャット用に設計されており、さまざまなテキストインタラクションを効率的に処理できます。" + }, + "llama3-70b-8192": { + "description": "Meta Llama 3 70Bは、比類のない複雑性処理能力を提供し、高要求プロジェクトに特化しています。" + }, + "llama3-8b-8192": { + "description": "Meta Llama 3 8Bは、優れた推論性能を提供し、多様なシーンのアプリケーションニーズに適しています。" + }, + "llama3-groq-70b-8192-tool-use-preview": { + "description": "Llama 3 Groq 70B Tool Useは、強力なツール呼び出し能力を提供し、複雑なタスクの効率的な処理をサポートします。" + }, + "llama3-groq-8b-8192-tool-use-preview": { + "description": "Llama 3 Groq 8B Tool Useは、高効率なツール使用に最適化されたモデルであり、迅速な並列計算をサポートします。" + }, + "llama3.1": { + "description": "Llama 3.1は、Metaが提供する先進的なモデルであり、最大405Bのパラメータをサポートし、複雑な対話、多言語翻訳、データ分析の分野で応用できます。" + }, + "llama3.1:405b": { + "description": "Llama 3.1は、Metaが提供する先進的なモデルであり、最大405Bのパラメータをサポートし、複雑な対話、多言語翻訳、データ分析の分野で応用できます。" + }, + "llama3.1:70b": { + "description": "Llama 3.1は、Metaが提供する先進的なモデルであり、最大405Bのパラメータをサポートし、複雑な対話、多言語翻訳、データ分析の分野で応用できます。" + }, + "llava": { + "description": "LLaVAは、視覚エンコーダーとVicunaを組み合わせたマルチモーダルモデルであり、強力な視覚と言語理解を提供します。" + }, + "llava-v1.5-7b-4096-preview": { + "description": "LLaVA 1.5 7Bは、視覚処理能力を融合させ、視覚情報入力を通じて複雑な出力を生成します。" + }, + "llava:13b": { + "description": "LLaVAは、視覚エンコーダーとVicunaを組み合わせたマルチモーダルモデルであり、強力な視覚と言語理解を提供します。" + }, + "llava:34b": { + "description": "LLaVAは、視覚エンコーダーとVicunaを組み合わせたマルチモーダルモデルであり、強力な視覚と言語理解を提供します。" + }, + "mathstral": { + "description": "MathΣtralは、科学研究と数学推論のために設計されており、効果的な計算能力と結果の解釈を提供します。" + }, + "meta-llama/Llama-2-13b-chat-hf": { + "description": "LLaMA-2 Chat (13B)は、優れた言語処理能力と素晴らしいインタラクション体験を提供します。" + }, + "meta-llama/Llama-3-70b-chat-hf": { + "description": "LLaMA-3 Chat (70B)は、強力なチャットモデルであり、複雑な対話ニーズをサポートします。" + }, + "meta-llama/Llama-3-8b-chat-hf": { + "description": "LLaMA-3 Chat (8B)は、多言語サポートを提供し、豊富な分野知識をカバーしています。" + }, + "meta-llama/Meta-Llama-3-70B-Instruct": { + "description": "LLaMA 3は大容量のテキスト生成と指示解析をサポートします。" + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { + "description": "Llama 3 70B Instruct Liteは、高効率と低遅延が求められる環境に適しています。" + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": { + "description": "Llama 3 70B Instruct Turboは、卓越した言語理解と生成能力を提供し、最も厳しい計算タスクに適しています。" + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Lite": { + "description": "Llama 3 8B Instruct Liteは、リソースが制限された環境に適しており、優れたバランス性能を提供します。" + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": { + "description": "Llama 3 8B Instruct Turboは、高効率の大規模言語モデルであり、幅広いアプリケーションシナリオをサポートします。" + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct": { + "description": "LLaMA 3.1 405Bは事前学習と指示調整の強力なモデルです。" + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": { + "description": "405BのLlama 3.1 Turboモデルは、大規模データ処理のために超大容量のコンテキストサポートを提供し、超大規模な人工知能アプリケーションで優れたパフォーマンスを発揮します。" + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct": { + "description": "LLaMA 3.1 70Bは多言語の高効率な対話サポートを提供します。" + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": { + "description": "Llama 3.1 70Bモデルは微調整されており、高負荷アプリケーションに適しており、FP8に量子化されてより効率的な計算能力と精度を提供し、複雑なシナリオでの卓越したパフォーマンスを保証します。" + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct": { + "description": "LLaMA 3.1は多言語サポートを提供し、業界をリードする生成モデルの一つです。" + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": { + "description": "Llama 3.1 8BモデルはFP8量子化を採用し、最大131,072のコンテキストトークンをサポートし、オープンソースモデルの中で際立っており、複雑なタスクに適しており、多くの業界ベンチマークを上回る性能を発揮します。" + }, + "meta-llama/llama-3-70b-instruct": { + "description": "Llama 3 70B Instructは高品質な対話シーンに最適化されており、さまざまな人間の評価において優れたパフォーマンスを示します。" + }, + "meta-llama/llama-3-8b-instruct": { + "description": "Llama 3 8B Instructは高品質な対話シーンに最適化されており、多くのクローズドソースモデルよりも優れた性能を持っています。" + }, + "meta-llama/llama-3.1-405b-instruct": { + "description": "Llama 3.1 405B InstructはMetaが最新にリリースしたバージョンで、高品質な対話生成に最適化されており、多くのリーダーのクローズドソースモデルを超えています。" + }, + "meta-llama/llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instructは高品質な対話のために設計されており、人間の評価において優れたパフォーマンスを示し、高いインタラクションシーンに特に適しています。" + }, + "meta-llama/llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B InstructはMetaが発表した最新バージョンで、高品質な対話シーンに最適化されており、多くの先進的なクローズドソースモデルを上回る性能を発揮します。" + }, + "meta-llama/llama-3.1-8b-instruct:free": { + "description": "LLaMA 3.1は多言語サポートを提供し、業界をリードする生成モデルの一つです。" + }, + "meta.llama3-1-405b-instruct-v1:0": { + "description": "Meta Llama 3.1 405B Instructは、Llama 3.1 Instructモデルの中で最大かつ最も強力なモデルであり、高度に進化した対話推論および合成データ生成モデルです。また、特定の分野での専門的な継続的な事前トレーニングや微調整の基盤としても使用できます。Llama 3.1が提供する多言語大規模言語モデル(LLMs)は、8B、70B、405Bのサイズ(テキスト入力/出力)を含む、事前トレーニングされた指示調整された生成モデルのセットです。Llama 3.1の指示調整されたテキストモデル(8B、70B、405B)は、多言語対話のユースケースに最適化されており、一般的な業界ベンチマークテストで多くの利用可能なオープンソースチャットモデルを上回っています。Llama 3.1は、さまざまな言語の商業および研究用途に使用されることを目的としています。指示調整されたテキストモデルは、アシスタントのようなチャットに適しており、事前トレーニングモデルはさまざまな自然言語生成タスクに適応できます。Llama 3.1モデルは、他のモデルを改善するためにその出力を利用することもサポートしており、合成データ生成や洗練にも対応しています。Llama 3.1は、最適化されたトランスフォーマーアーキテクチャを使用した自己回帰型言語モデルです。調整されたバージョンは、監視付き微調整(SFT)と人間のフィードバックを伴う強化学習(RLHF)を使用して、人間の助けや安全性に対する好みに適合させています。" + }, + "meta.llama3-1-70b-instruct-v1:0": { + "description": "Meta Llama 3.1 70B Instructの更新版で、拡張された128Kのコンテキスト長、多言語性、改善された推論能力を含んでいます。Llama 3.1が提供する多言語大型言語モデル(LLMs)は、8B、70B、405Bのサイズ(テキスト入力/出力)を含む一連の事前トレーニングされた、指示調整された生成モデルです。Llama 3.1の指示調整されたテキストモデル(8B、70B、405B)は、多言語対話用のユースケースに最適化されており、一般的な業界ベンチマークテストで多くの利用可能なオープンソースチャットモデルを超えています。Llama 3.1は多言語の商業および研究用途に使用されることを目的としています。指示調整されたテキストモデルはアシスタントのようなチャットに適しており、事前トレーニングモデルはさまざまな自然言語生成タスクに適応できます。Llama 3.1モデルは、他のモデルを改善するためにその出力を利用することもサポートしており、合成データ生成や精製を含みます。Llama 3.1は最適化されたトランスフォーマーアーキテクチャを使用した自己回帰型言語モデルです。調整版は、監視付き微調整(SFT)と人間のフィードバックを伴う強化学習(RLHF)を使用して、人間の助けや安全性に対する好みに適合させています。" + }, + "meta.llama3-1-8b-instruct-v1:0": { + "description": "Meta Llama 3.1 8B Instructの更新版で、拡張された128Kのコンテキスト長、多言語性、改善された推論能力を含んでいます。Llama 3.1が提供する多言語大型言語モデル(LLMs)は、8B、70B、405Bのサイズ(テキスト入力/出力)を含む一連の事前トレーニングされた、指示調整された生成モデルです。Llama 3.1の指示調整されたテキストモデル(8B、70B、405B)は、多言語対話用のユースケースに最適化されており、一般的な業界ベンチマークテストで多くの利用可能なオープンソースチャットモデルを超えています。Llama 3.1は多言語の商業および研究用途に使用されることを目的としています。指示調整されたテキストモデルはアシスタントのようなチャットに適しており、事前トレーニングモデルはさまざまな自然言語生成タスクに適応できます。Llama 3.1モデルは、他のモデルを改善するためにその出力を利用することもサポートしており、合成データ生成や精製を含みます。Llama 3.1は最適化されたトランスフォーマーアーキテクチャを使用した自己回帰型言語モデルです。調整版は、監視付き微調整(SFT)と人間のフィードバックを伴う強化学習(RLHF)を使用して、人間の助けや安全性に対する好みに適合させています。" + }, + "meta.llama3-70b-instruct-v1:0": { + "description": "Meta Llama 3は、開発者、研究者、企業向けのオープンな大規模言語モデル(LLM)であり、生成AIのアイデアを構築、実験、責任を持って拡張するのを支援することを目的としています。世界的なコミュニティの革新の基盤システムの一部として、コンテンツ作成、対話AI、言語理解、研究開発、企業アプリケーションに非常に適しています。" + }, + "meta.llama3-8b-instruct-v1:0": { + "description": "Meta Llama 3は、開発者、研究者、企業向けのオープンな大規模言語モデル(LLM)であり、生成AIのアイデアを構築、実験、責任を持って拡張するのを支援することを目的としています。世界的なコミュニティの革新の基盤システムの一部として、計算能力とリソースが限られたエッジデバイスや、より迅速なトレーニング時間に非常に適しています。" + }, + "microsoft/wizardlm 2-7b": { + "description": "WizardLM 2 7BはMicrosoft AIの最新の高速軽量モデルで、既存のオープンソースリーダーモデルの10倍に近い性能を持っています。" + }, + "microsoft/wizardlm-2-8x22b": { + "description": "WizardLM-2 8x22Bは、Microsoftの最先端AI Wizardモデルであり、非常に競争力のあるパフォーマンスを示しています。" + }, + "minicpm-v": { + "description": "MiniCPM-VはOpenBMBが発表した次世代のマルチモーダル大モデルで、優れたOCR認識能力とマルチモーダル理解能力を備え、幅広いアプリケーションシーンをサポートします。" + }, + "mistral": { + "description": "Mistralは、Mistral AIがリリースした7Bモデルであり、多様な言語処理ニーズに適しています。" + }, + "mistral-large": { + "description": "Mixtral Largeは、Mistralのフラッグシップモデルであり、コード生成、数学、推論の能力を組み合わせ、128kのコンテキストウィンドウをサポートします。" + }, + "mistral-large-latest": { + "description": "Mistral Largeは、フラッグシップの大モデルであり、多言語タスク、複雑な推論、コード生成に優れ、高端アプリケーションに理想的な選択肢です。" + }, + "mistral-nemo": { + "description": "Mistral Nemoは、Mistral AIとNVIDIAが共同で開発した高効率の12Bモデルです。" + }, + "mistralai/Mistral-7B-Instruct-v0.1": { + "description": "Mistral (7B) Instructは、高性能で知られ、多言語タスクに適しています。" + }, + "mistralai/Mistral-7B-Instruct-v0.2": { + "description": "Mistral 7Bは、オンデマンドのファインチューニングモデルであり、タスクに最適化された解答を提供します。" + }, + "mistralai/Mistral-7B-Instruct-v0.3": { + "description": "Mistral (7B) Instruct v0.3は、高効率の計算能力と自然言語理解を提供し、幅広いアプリケーションに適しています。" + }, + "mistralai/Mixtral-8x22B-Instruct-v0.1": { + "description": "Mixtral-8x22B Instruct (141B)は、超大規模な言語モデルであり、非常に高い処理要求をサポートします。" + }, + "mistralai/Mixtral-8x7B-Instruct-v0.1": { + "description": "Mixtral 8x7Bは、一般的なテキストタスクに使用される事前訓練されたスパースミックス専門家モデルです。" + }, + "mistralai/mistral-7b-instruct": { + "description": "Mistral 7B Instructは速度最適化と長いコンテキストサポートを兼ね備えた高性能な業界標準モデルです。" + }, + "mistralai/mistral-nemo": { + "description": "Mistral Nemoは多言語サポートと高性能プログラミングを備えた7.3Bパラメータモデルです。" + }, + "mixtral": { + "description": "Mixtralは、Mistral AIのエキスパートモデルであり、オープンソースの重みを持ち、コード生成と言語理解のサポートを提供します。" + }, + "mixtral-8x7b-32768": { + "description": "Mixtral 8x7Bは、高い耐障害性を持つ並列計算能力を提供し、複雑なタスクに適しています。" + }, + "mixtral:8x22b": { + "description": "Mixtralは、Mistral AIのエキスパートモデルであり、オープンソースの重みを持ち、コード生成と言語理解のサポートを提供します。" + }, + "moonshot-v1-128k": { + "description": "Moonshot V1 128Kは、超長いコンテキスト処理能力を持つモデルであり、超長文の生成に適しており、複雑な生成タスクのニーズを満たし、最大128,000トークンの内容を処理でき、研究、学術、大型文書生成などのアプリケーションシーンに非常に適しています。" + }, + "moonshot-v1-32k": { + "description": "Moonshot V1 32Kは、中程度の長さのコンテキスト処理能力を提供し、32,768トークンを処理でき、さまざまな長文や複雑な対話の生成に特に適しており、コンテンツ作成、報告書生成、対話システムなどの分野で使用されます。" + }, + "moonshot-v1-8k": { + "description": "Moonshot V1 8Kは、短文生成タスクのために設計されており、高効率な処理性能を持ち、8,192トークンを処理でき、短い対話、速記、迅速なコンテンツ生成に非常に適しています。" + }, + "nousresearch/hermes-2-pro-llama-3-8b": { + "description": "Hermes 2 Pro Llama 3 8BはNous Hermes 2のアップグレード版で、最新の内部開発データセットを含んでいます。" + }, + "o1-mini": { + "description": "o1-miniは、プログラミング、数学、科学のアプリケーションシーンに特化して設計された迅速で経済的な推論モデルです。このモデルは128Kのコンテキストを持ち、2023年10月の知識のカットオフがあります。" + }, + "o1-preview": { + "description": "o1はOpenAIの新しい推論モデルで、広範な一般知識を必要とする複雑なタスクに適しています。このモデルは128Kのコンテキストを持ち、2023年10月の知識のカットオフがあります。" + }, + "open-codestral-mamba": { + "description": "Codestral Mambaは、コード生成に特化したMamba 2言語モデルであり、高度なコードおよび推論タスクを強力にサポートします。" + }, + "open-mistral-7b": { + "description": "Mistral 7Bは、コンパクトでありながら高性能なモデルであり、分類やテキスト生成などのバッチ処理や簡単なタスクに優れた推論能力を持っています。" + }, + "open-mistral-nemo": { + "description": "Mistral Nemoは、Nvidiaと共同開発された12Bモデルであり、優れた推論およびコーディング性能を提供し、統合と置き換えが容易です。" + }, + "open-mixtral-8x22b": { + "description": "Mixtral 8x22Bは、より大きなエキスパートモデルであり、複雑なタスクに特化し、優れた推論能力とより高いスループットを提供します。" + }, + "open-mixtral-8x7b": { + "description": "Mixtral 8x7Bは、スパースエキスパートモデルであり、複数のパラメータを利用して推論速度を向上させ、多言語およびコード生成タスクの処理に適しています。" + }, + "openai/gpt-4o-2024-08-06": { + "description": "ChatGPT-4oは動的モデルで、リアルタイムで最新バージョンを維持します。強力な言語理解と生成能力を組み合わせており、顧客サービス、教育、技術サポートなどの大規模なアプリケーションシーンに適しています。" + }, + "openai/gpt-4o-mini": { + "description": "GPT-4o miniはOpenAIがGPT-4 Omniの後に発表した最新モデルで、画像とテキストの入力をサポートし、テキストを出力します。彼らの最先端の小型モデルとして、最近の他の最前線モデルよりもはるかに安価で、GPT-3.5 Turboよりも60%以上安価です。最先端の知能を維持しつつ、顕著なコストパフォーマンスを誇ります。GPT-4o miniはMMLUテストで82%のスコアを獲得し、現在チャットの好みでGPT-4よりも高い評価を得ています。" + }, + "openai/o1-mini": { + "description": "o1-miniは、プログラミング、数学、科学のアプリケーションシーンに特化して設計された迅速で経済的な推論モデルです。このモデルは128Kのコンテキストを持ち、2023年10月の知識のカットオフがあります。" + }, + "openai/o1-preview": { + "description": "o1はOpenAIの新しい推論モデルで、広範な一般知識を必要とする複雑なタスクに適しています。このモデルは128Kのコンテキストを持ち、2023年10月の知識のカットオフがあります。" + }, + "openchat/openchat-7b": { + "description": "OpenChat 7Bは「C-RLFT(条件強化学習微調整)」戦略で微調整されたオープンソース言語モデルライブラリです。" + }, + "openrouter/auto": { + "description": "コンテキストの長さ、テーマ、複雑さに応じて、あなたのリクエストはLlama 3 70B Instruct、Claude 3.5 Sonnet(自己調整)、またはGPT-4oに送信されます。" + }, + "phi3": { + "description": "Phi-3は、Microsoftが提供する軽量オープンモデルであり、高効率な統合と大規模な知識推論に適しています。" + }, + "phi3:14b": { + "description": "Phi-3は、Microsoftが提供する軽量オープンモデルであり、高効率な統合と大規模な知識推論に適しています。" + }, + "qwen-long": { + "description": "通義千問超大規模言語モデルで、長文コンテキストや長文書、複数文書に基づく対話機能をサポートしています。" + }, + "qwen-max": { + "description": "通義千問千億規模の超大規模言語モデルで、中国語、英語などの異なる言語入力をサポートし、現在通義千問2.5製品バージョンの背後にあるAPIモデルです。" + }, + "qwen-max-longcontext": { + "description": "通義千問千億規模の超大規模言語モデルで、中国語、英語などの異なる言語入力をサポートし、コンテキストウィンドウを拡張しています。" + }, + "qwen-plus": { + "description": "通義千問超大規模言語モデルの強化版で、中国語、英語などの異なる言語入力をサポートしています。" + }, + "qwen-turbo": { + "description": "通義千問超大規模言語モデルで、中国語、英語などの異なる言語入力をサポートしています。" + }, + "qwen-vl-chat-v1": { + "description": "通義千問VLは、複数の画像、多段階の質問応答、創作などの柔軟なインタラクション方式をサポートするモデルです。" + }, + "qwen-vl-max": { + "description": "通義千問超大規模視覚言語モデル。強化版に比べて、視覚推論能力と指示遵守能力をさらに向上させ、高い視覚認識と認知レベルを提供します。" + }, + "qwen-vl-plus": { + "description": "通義千問大規模視覚言語モデルの強化版。詳細認識能力と文字認識能力を大幅に向上させ、超百万ピクセル解像度と任意のアスペクト比の画像をサポートします。" + }, + "qwen-vl-v1": { + "description": "Qwen-7B言語モデルを初期化し、画像モデルを追加した、画像入力解像度448の事前トレーニングモデルです。" + }, + "qwen/qwen-2-7b-instruct:free": { + "description": "Qwen2は全く新しい大型言語モデルシリーズで、より強力な理解と生成能力を備えています。" + }, + "qwen2": { + "description": "Qwen2は、Alibabaの新世代大規模言語モデルであり、優れた性能で多様なアプリケーションニーズをサポートします。" + }, + "qwen2-57b-a14b-instruct": { + "description": "通義千問2が公開した57B規模14B活性化パラメータのMOEモデルです。" + }, + "qwen2-72b-instruct": { + "description": "通義千問2が公開した72B規模のモデルです。" + }, + "qwen2-7b-instruct": { + "description": "通義千問2が公開した7B規模のモデルです。" + }, + "qwen2-math-72b-instruct": { + "description": "Qwen2-Mathモデルは強力な数学解決能力を持っています。" + }, + "qwen2:0.5b": { + "description": "Qwen2は、Alibabaの新世代大規模言語モデルであり、優れた性能で多様なアプリケーションニーズをサポートします。" + }, + "qwen2:1.5b": { + "description": "Qwen2は、Alibabaの新世代大規模言語モデルであり、優れた性能で多様なアプリケーションニーズをサポートします。" + }, + "qwen2:72b": { + "description": "Qwen2は、Alibabaの新世代大規模言語モデルであり、優れた性能で多様なアプリケーションニーズをサポートします。" + }, + "solar-1-mini-chat": { + "description": "Solar MiniはコンパクトなLLMで、GPT-3.5を上回る性能を持ち、強力な多言語能力を備え、英語と韓国語をサポートし、高効率でコンパクトなソリューションを提供します。" + }, + "solar-1-mini-chat-ja": { + "description": "Solar Mini (Ja)はSolar Miniの能力を拡張し、日本語に特化しつつ、英語と韓国語の使用においても高効率で卓越した性能を維持します。" + }, + "solar-pro": { + "description": "Solar ProはUpstageが発表した高インテリジェンスLLMで、単一GPUの指示追従能力に特化しており、IFEvalスコアは80以上です。現在は英語をサポートしており、正式版は2024年11月にリリース予定で、言語サポートとコンテキスト長を拡張します。" + }, + "step-1-128k": { + "description": "性能とコストのバランスを取り、一般的なシナリオに適しています。" + }, + "step-1-256k": { + "description": "超長コンテキスト処理能力を持ち、特に長文書分析に適しています。" + }, + "step-1-32k": { + "description": "中程度の長さの対話をサポートし、さまざまなアプリケーションシナリオに適しています。" + }, + "step-1-8k": { + "description": "小型モデルであり、軽量なタスクに適しています。" + }, + "step-1-flash": { + "description": "高速モデルであり、リアルタイムの対話に適しています。" + }, + "step-1v-32k": { + "description": "視覚入力をサポートし、多モーダルインタラクション体験を強化します。" + }, + "step-1v-8k": { + "description": "小型ビジュアルモデルで、基本的なテキストと画像のタスクに適しています。" + }, + "step-2-16k": { + "description": "大規模なコンテキストインタラクションをサポートし、複雑な対話シナリオに適しています。" + }, + "taichu_llm": { + "description": "紫東太初言語大モデルは、強力な言語理解能力とテキスト創作、知識問答、コードプログラミング、数学計算、論理推論、感情分析、テキスト要約などの能力を備えています。革新的に大データの事前学習と多源の豊富な知識を組み合わせ、アルゴリズム技術を継続的に磨き、膨大なテキストデータから語彙、構造、文法、意味などの新しい知識を吸収し、モデルの効果を進化させています。ユーザーにより便利な情報とサービス、よりインテリジェントな体験を提供します。" + }, + "togethercomputer/StripedHyena-Nous-7B": { + "description": "StripedHyena Nous (7B)は、高効率の戦略とモデルアーキテクチャを通じて、強化された計算能力を提供します。" + }, + "upstage/SOLAR-10.7B-Instruct-v1.0": { + "description": "Upstage SOLAR Instruct v1 (11B)は、精密な指示タスクに適しており、優れた言語処理能力を提供します。" + }, + "wizardlm2": { + "description": "WizardLM 2は、Microsoft AIが提供する言語モデルであり、複雑な対話、多言語、推論、インテリジェントアシスタントの分野で特に優れた性能を発揮します。" + }, + "wizardlm2:8x22b": { + "description": "WizardLM 2は、Microsoft AIが提供する言語モデルであり、複雑な対話、多言語、推論、インテリジェントアシスタントの分野で特に優れた性能を発揮します。" + }, + "yi-large": { + "description": "新しい千億パラメータモデルであり、超強力な質問応答およびテキスト生成能力を提供します。" + }, + "yi-large-fc": { + "description": "yi-largeモデルを基に、ツール呼び出しの能力をサポートし強化し、エージェントやワークフローを構築する必要があるさまざまなビジネスシナリオに適しています。" + }, + "yi-large-preview": { + "description": "初期バージョンであり、yi-large(新バージョン)の使用を推奨します。" + }, + "yi-large-rag": { + "description": "yi-largeの超強力モデルに基づく高次サービスであり、検索と生成技術を組み合わせて正確な回答を提供し、リアルタイムで全網検索情報サービスを提供します。" + }, + "yi-large-turbo": { + "description": "超高コストパフォーマンス、卓越した性能。性能と推論速度、コストに基づいて、高精度のバランス調整を行います。" + }, + "yi-medium": { + "description": "中型サイズモデルのアップグレード微調整であり、能力が均衡しており、コストパフォーマンスが高いです。指示遵守能力を深く最適化しています。" + }, + "yi-medium-200k": { + "description": "200Kの超長コンテキストウィンドウを持ち、長文の深い理解と生成能力を提供します。" + }, + "yi-spark": { + "description": "小型で強力な、軽量で高速なモデルです。強化された数学演算とコード作成能力を提供します。" + }, + "yi-vision": { + "description": "複雑な視覚タスクモデルであり、高性能な画像理解と分析能力を提供します。" + } +} diff --git a/locales/ja-JP/providers.json b/locales/ja-JP/providers.json new file mode 100644 index 000000000000..e7b6c7b3f2b0 --- /dev/null +++ b/locales/ja-JP/providers.json @@ -0,0 +1,80 @@ +{ + "ai360": { + "description": "360 AIは、360社が提供するAIモデルとサービスプラットフォームであり、360GPT2 Pro、360GPT Pro、360GPT Turbo、360GPT Turbo Responsibility 8Kなど、さまざまな先進的な自然言語処理モデルを提供しています。これらのモデルは、大規模なパラメータと多モーダル能力を組み合わせており、テキスト生成、意味理解、対話システム、コード生成などの分野で広く使用されています。柔軟な価格戦略を通じて、360 AIは多様なユーザーのニーズに応え、開発者の統合をサポートし、スマートアプリケーションの革新と発展を促進します。" + }, + "anthropic": { + "description": "Anthropicは、人工知能の研究と開発に特化した企業であり、Claude 3.5 Sonnet、Claude 3 Sonnet、Claude 3 Opus、Claude 3 Haikuなどの先進的な言語モデルを提供しています。これらのモデルは、知性、速度、コストの理想的なバランスを実現しており、企業向けのワークロードから迅速な応答が求められるさまざまなアプリケーションシーンに適しています。Claude 3.5 Sonnetは最新のモデルであり、複数の評価で優れたパフォーマンスを示し、高いコストパフォーマンスを維持しています。" + }, + "azure": { + "description": "Azureは、GPT-3.5や最新のGPT-4シリーズを含む多様な先進AIモデルを提供し、さまざまなデータタイプや複雑なタスクをサポートし、安全で信頼性が高く持続可能なAIソリューションに取り組んでいます。" + }, + "baichuan": { + "description": "百川智能は、人工知能大モデルの研究開発に特化した企業であり、そのモデルは国内の知識百科、長文処理、生成創作などの中国語タスクで卓越したパフォーマンスを示し、海外の主流モデルを超えています。百川智能は、業界をリードする多モーダル能力を持ち、複数の権威ある評価で優れたパフォーマンスを示しています。そのモデルには、Baichuan 4、Baichuan 3 Turbo、Baichuan 3 Turbo 128kなどが含まれ、異なるアプリケーションシーンに最適化され、高コストパフォーマンスのソリューションを提供しています。" + }, + "bedrock": { + "description": "Bedrockは、Amazon AWSが提供するサービスで、企業に先進的なAI言語モデルと視覚モデルを提供することに特化しています。そのモデルファミリーには、AnthropicのClaudeシリーズやMetaのLlama 3.1シリーズなどが含まれ、軽量から高性能までのさまざまな選択肢を提供し、テキスト生成、対話、画像処理などの多様なタスクをサポートし、異なる規模とニーズの企業アプリケーションに適しています。" + }, + "deepseek": { + "description": "DeepSeekは、人工知能技術の研究と応用に特化した企業であり、最新のモデルDeepSeek-V2.5は、汎用対話とコード処理能力を融合させ、人間の好みの整合、ライティングタスク、指示の遵守などの面で顕著な向上を実現しています。" + }, + "fireworksai": { + "description": "Fireworks AIは、先進的な言語モデルサービスのリーダーであり、機能呼び出しと多モーダル処理に特化しています。最新のモデルFirefunction V2はLlama-3に基づいており、関数呼び出し、対話、指示の遵守に最適化されています。視覚言語モデルFireLLaVA-13Bは、画像とテキストの混合入力をサポートしています。他の注目すべきモデルには、LlamaシリーズやMixtralシリーズがあり、高効率の多言語指示遵守と生成サポートを提供しています。" + }, + "google": { + "description": "GoogleのGeminiシリーズは、Google DeepMindによって開発された最先端で汎用的なAIモデルであり、多モーダル設計に特化しており、テキスト、コード、画像、音声、動画のシームレスな理解と処理をサポートします。データセンターからモバイルデバイスまでのさまざまな環境に適しており、AIモデルの効率と適用範囲を大幅に向上させています。" + }, + "groq": { + "description": "GroqのLPU推論エンジンは、最新の独立した大規模言語モデル(LLM)ベンチマークテストで卓越したパフォーマンスを示し、その驚異的な速度と効率でAIソリューションの基準を再定義しています。Groqは、即時推論速度の代表であり、クラウドベースの展開で良好なパフォーマンスを発揮しています。" + }, + "minimax": { + "description": "MiniMaxは2021年に設立された汎用人工知能テクノロジー企業であり、ユーザーと共に知能を共創することに取り組んでいます。MiniMaxは、さまざまなモードの汎用大モデルを独自に開発しており、トリリオンパラメータのMoEテキスト大モデル、音声大モデル、画像大モデルを含んでいます。また、海螺AIなどのアプリケーションも展開しています。" + }, + "mistral": { + "description": "Mistralは、先進的な汎用、専門、研究型モデルを提供し、複雑な推論、多言語タスク、コード生成などの分野で広く使用されています。機能呼び出しインターフェースを通じて、ユーザーはカスタム機能を統合し、特定のアプリケーションを実現できます。" + }, + "moonshot": { + "description": "Moonshotは、北京月之暗面科技有限公司が提供するオープンプラットフォームであり、さまざまな自然言語処理モデルを提供し、コンテンツ創作、学術研究、スマート推薦、医療診断などの広範な応用分野を持ち、長文処理や複雑な生成タスクをサポートしています。" + }, + "novita": { + "description": "Novita AIは、さまざまな大規模言語モデルとAI画像生成のAPIサービスを提供するプラットフォームであり、柔軟で信頼性が高く、コスト効率に優れています。Llama3、Mistralなどの最新のオープンソースモデルをサポートし、生成的AIアプリケーションの開発に向けた包括的でユーザーフレンドリーかつ自動スケーリングのAPIソリューションを提供し、AIスタートアップの急成長を支援します。" + }, + "ollama": { + "description": "Ollamaが提供するモデルは、コード生成、数学演算、多言語処理、対話インタラクションなどの分野を広くカバーし、企業向けおよびローカライズされた展開の多様なニーズに対応しています。" + }, + "openai": { + "description": "OpenAIは、世界をリードする人工知能研究機関であり、GPTシリーズなどのモデルを開発し、自然言語処理の最前線を推進しています。OpenAIは、革新と効率的なAIソリューションを通じて、さまざまな業界を変革することに取り組んでいます。彼らの製品は、顕著な性能と経済性を持ち、研究、ビジネス、革新アプリケーションで広く使用されています。" + }, + "openrouter": { + "description": "OpenRouterは、OpenAI、Anthropic、LLaMAなどのさまざまな最先端の大規模モデルインターフェースを提供するサービスプラットフォームであり、多様な開発と応用のニーズに適しています。ユーザーは、自身のニーズに応じて最適なモデルと価格を柔軟に選択し、AI体験の向上を支援します。" + }, + "perplexity": { + "description": "Perplexityは、先進的な対話生成モデルの提供者であり、さまざまなLlama 3.1モデルを提供し、オンラインおよびオフラインアプリケーションをサポートし、特に複雑な自然言語処理タスクに適しています。" + }, + "qwen": { + "description": "通義千問は、アリババクラウドが独自に開発した超大規模言語モデルであり、強力な自然言語理解と生成能力を持っています。さまざまな質問に答えたり、文章を創作したり、意見を表現したり、コードを執筆したりすることができ、さまざまな分野で活躍しています。" + }, + "siliconcloud": { + "description": "SiliconFlowは、AGIを加速させ、人類に利益をもたらすことを目指し、使いやすくコスト効率の高いGenAIスタックを通じて大規模AIの効率を向上させることに取り組んでいます。" + }, + "spark": { + "description": "科大訊飛星火大モデルは、多分野、多言語の強力なAI能力を提供し、先進的な自然言語処理技術を利用して、スマートハードウェア、スマート医療、スマート金融などのさまざまな垂直シーンに適した革新的なアプリケーションを構築します。" + }, + "stepfun": { + "description": "階級星辰大モデルは、業界をリードする多モーダルおよび複雑な推論能力を備え、超長文の理解と強力な自律的検索エンジン機能をサポートしています。" + }, + "taichu": { + "description": "中科院自動化研究所と武漢人工知能研究院が新世代の多モーダル大モデルを発表し、多輪問答、テキスト創作、画像生成、3D理解、信号分析などの包括的な問答タスクをサポートし、より強力な認知、理解、創作能力を持ち、新しいインタラクティブな体験を提供します。" + }, + "togetherai": { + "description": "Together AIは、革新的なAIモデルを通じて先進的な性能を実現することに取り組んでおり、迅速なスケーリングサポートや直感的な展開プロセスを含む広範なカスタマイズ能力を提供し、企業のさまざまなニーズに応えています。" + }, + "upstage": { + "description": "Upstageは、さまざまなビジネスニーズに応じたAIモデルの開発に特化しており、Solar LLMや文書AIを含み、人造一般知能(AGI)の実現を目指しています。Chat APIを通じてシンプルな対話エージェントを作成し、機能呼び出し、翻訳、埋め込み、特定分野のアプリケーションをサポートします。" + }, + "zeroone": { + "description": "01.AIは、AI 2.0時代の人工知能技術に特化し、「人+人工知能」の革新と応用を推進し、超強力なモデルと先進的なAI技術を用いて人類の生産性を向上させ、技術の力を実現します。" + }, + "zhipu": { + "description": "智谱AIは、多モーダルおよび言語モデルのオープンプラットフォームを提供し、テキスト処理、画像理解、プログラミング支援など、幅広いAIアプリケーションシーンをサポートしています。" + } +} diff --git a/locales/ko-KR/common.json b/locales/ko-KR/common.json index 5dc15a1d5b78..bb4554125a3a 100644 --- a/locales/ko-KR/common.json +++ b/locales/ko-KR/common.json @@ -195,8 +195,8 @@ }, "tab": { "chat": "채팅", + "discover": "발견하기", "files": "파일", - "market": "발견", "me": "나", "setting": "설정" }, diff --git a/locales/ko-KR/discover.json b/locales/ko-KR/discover.json new file mode 100644 index 000000000000..ba698e083b07 --- /dev/null +++ b/locales/ko-KR/discover.json @@ -0,0 +1,204 @@ +{ + "assistants": { + "addAgent": "도우미 추가", + "addAgentAndConverse": "도우미 추가 및 대화하기", + "addAgentSuccess": "추가 성공", + "conversation": { + "l1": "안녕하세요, 저는 **{{name}}**입니다. 궁금한 점이 있으면 무엇이든 물어보세요. 최선을 다해 답변하겠습니다 ~", + "l2": "다음은 제 능력 소개입니다: ", + "l3": "대화를 시작해 볼까요!" + }, + "description": "도우미 소개", + "detail": "상세 정보", + "list": "도우미 목록", + "more": "더 보기", + "plugins": "플러그인 통합", + "recentSubmits": "최근 업데이트", + "suggestions": "추천 항목", + "systemRole": "도우미 설정", + "try": "해보기" + }, + "back": "발견으로 돌아가기", + "category": { + "assistant": { + "academic": "학술", + "all": "전체", + "career": "직업", + "copywriting": "카피라이팅", + "design": "디자인", + "education": "교육", + "emotions": "감정", + "entertainment": "엔터테인먼트", + "games": "게임", + "general": "일반", + "life": "생활", + "marketing": "마케팅", + "office": "사무", + "programming": "프로그래밍", + "translation": "번역" + }, + "plugin": { + "all": "모두", + "gaming-entertainment": "게임 및 엔터테인먼트", + "life-style": "라이프스타일", + "media-generate": "미디어 생성", + "science-education": "과학 및 교육", + "social": "소셜 미디어", + "stocks-finance": "주식 및 금융", + "tools": "유용한 도구", + "web-search": "웹 검색" + } + }, + "cleanFilter": "필터 지우기", + "create": "창작", + "createGuide": { + "func1": { + "desc1": "대화 창의 오른쪽 상단 설정을 통해 제출할 도우미의 설정 페이지로 이동하세요;", + "desc2": "오른쪽 상단의 도우미 마켓에 제출 버튼을 클릭하세요.", + "tag": "방법 1", + "title": "LobeChat을 통해 제출하기" + }, + "func2": { + "button": "Github 도우미 저장소로 이동", + "desc": "도우미를 인덱스에 추가하려면 plugins 디렉토리에 agent-template.json 또는 agent-template-full.json을 사용하여 항목을 만들고, 간단한 설명을 작성한 후 적절히 태그를 추가하고, 풀 리퀘스트를 생성하세요.", + "tag": "방법 2", + "title": "Github을 통해 제출하기" + } + }, + "dislike": "싫어요", + "filter": "필터", + "filterBy": { + "authorRange": { + "everyone": "모든 저자", + "followed": "팔로우한 저자", + "title": "저자 범위" + }, + "contentLength": "최소 맥락 길이", + "maxToken": { + "title": "최대 길이 설정 (Token)", + "unlimited": "무제한" + }, + "other": { + "functionCall": "함수 호출 지원", + "title": "기타", + "vision": "비주얼 인식 지원", + "withKnowledge": "지식 베이스 포함", + "withTool": "플러그인 포함" + }, + "pricing": "모델 가격", + "timePeriod": { + "all": "전체 시간", + "day": "최근 24시간", + "month": "최근 30일", + "title": "시간 범위", + "week": "최근 7일", + "year": "최근 1년" + } + }, + "home": { + "featuredAssistants": "추천 도우미", + "featuredModels": "추천 모델", + "featuredProviders": "추천 모델 서비스 제공자", + "featuredTools": "추천 플러그인", + "more": "더 많은 발견" + }, + "like": "좋아요", + "models": { + "chat": "대화 시작", + "contentLength": "최대 맥락 길이", + "free": "무료", + "guide": "설정 가이드", + "list": "모델 목록", + "more": "더 보기", + "parameterList": { + "defaultValue": "기본값", + "docs": "문서 보기", + "frequency_penalty": { + "desc": "이 설정은 모델이 입력에서 이미 나타난 특정 단어의 사용 빈도를 조정합니다. 높은 값은 이러한 반복의 가능성을 줄이고, 음수 값은 반대의 효과를 생성합니다. 단어 처벌은 출현 횟수에 따라 증가하지 않습니다. 음수 값은 단어의 반복 사용을 장려합니다.", + "title": "빈도 처벌" + }, + "max_tokens": { + "desc": "이 설정은 모델이 한 번의 응답에서 생성할 수 있는 최대 길이를 정의합니다. 높은 값을 설정하면 모델이 더 긴 응답을 생성할 수 있으며, 낮은 값은 응답의 길이를 제한하여 더 간결하게 만듭니다. 다양한 응용 프로그램에 따라 이 값을 적절히 조정하면 예상되는 응답 길이와 세부 사항을 달성하는 데 도움이 될 수 있습니다.", + "title": "한 번의 응답 제한" + }, + "presence_penalty": { + "desc": "이 설정은 입력에서 단어의 출현 빈도에 따라 단어의 반복 사용을 제어하는 데 목적이 있습니다. 입력에서 많이 나타나는 단어는 덜 사용하려고 하며, 사용 빈도는 출현 빈도와 비례합니다. 단어 처벌은 출현 횟수에 따라 증가합니다. 음수 값은 단어의 반복 사용을 장려합니다.", + "title": "주제 신선도" + }, + "range": "범위", + "temperature": { + "desc": "이 설정은 모델 응답의 다양성에 영향을 미칩니다. 낮은 값은 더 예측 가능하고 전형적인 응답을 유도하며, 높은 값은 더 다양하고 드문 응답을 장려합니다. 값이 0으로 설정되면 모델은 주어진 입력에 대해 항상 동일한 응답을 제공합니다.", + "title": "무작위성" + }, + "title": "모델 매개변수", + "top_p": { + "desc": "이 설정은 모델의 선택을 가능성이 가장 높은 특정 비율의 단어로 제한합니다: 누적 확률이 P에 도달하는 최상위 단어만 선택합니다. 낮은 값은 모델의 응답을 더 예측 가능하게 만들고, 기본 설정은 모델이 전체 범위의 단어에서 선택할 수 있도록 허용합니다.", + "title": "핵 샘플링" + }, + "type": "유형" + }, + "providerInfo": { + "apiTooltip": "LobeChat은 이 제공자에 대해 사용자 정의 API 키를 지원합니다.", + "input": "입력 가격", + "inputTooltip": "백만 개의 Token당 비용", + "latency": "지연", + "latencyTooltip": "제공자가 첫 번째 Token을 보내는 평균 응답 시간", + "maxOutput": "최대 출력 길이", + "maxOutputTooltip": "이 엔드포인트가 생성할 수 있는 최대 Token 수", + "officialTooltip": "LobeHub 공식 서비스", + "output": "출력 가격", + "outputTooltip": "백만 개의 Token당 비용", + "streamCancellationTooltip": "이 제공자는 스트림 취소 기능을 지원합니다.", + "throughput": "처리량", + "throughputTooltip": "스트림 요청당 초당 전송되는 평균 Token 수" + }, + "suggestions": "관련 모델", + "supportedProviders": "이 모델을 지원하는 서비스 제공자" + }, + "plugins": { + "community": "커뮤니티 플러그인", + "install": "플러그인 설치", + "installed": "설치됨", + "list": "플러그인 목록", + "meta": { + "description": "설명", + "parameter": "매개변수", + "title": "도구 매개변수", + "type": "유형" + }, + "more": "더보기", + "official": "공식 플러그인", + "recentSubmits": "최근 업데이트", + "suggestions": "추천 항목" + }, + "providers": { + "config": "서비스 제공자 설정", + "list": "모델 서비스 제공자 목록", + "modelCount": "{{count}} 개 모델", + "modelSite": "모델 문서", + "more": "더보기", + "officialSite": "공식 웹사이트", + "showAllModels": "모든 모델 보기", + "suggestions": "관련 서비스 제공자", + "supportedModels": "지원되는 모델" + }, + "search": { + "placeholder": "이름, 소개 또는 키워드 검색...", + "result": "{{count}} 개의 {{keyword}}에 대한 검색 결과", + "searching": "검색 중..." + }, + "sort": { + "mostLiked": "가장 좋아요", + "mostUsed": "가장 많이 사용됨", + "newest": "최신순", + "oldest": "오래된 순", + "recommended": "추천" + }, + "tab": { + "assistants": "도우미", + "home": "홈", + "models": "모델", + "plugins": "플러그인", + "providers": "모델 제공자" + } +} diff --git a/locales/ko-KR/metadata.json b/locales/ko-KR/metadata.json index c01dec8c9aa4..6cd12c3655b3 100644 --- a/locales/ko-KR/metadata.json +++ b/locales/ko-KR/metadata.json @@ -3,9 +3,26 @@ "description": "{{appName}}가 제공하는 최고의 ChatGPT, Claude, Gemini, OLLaMA WebUI 사용 경험", "title": "{{appName}}: 개인 AI 효율 도구, 더 똑똑한 두뇌를 위한 선택" }, - "market": { - "description": "콘텐츠 창작, 카피라이팅, Q&A, 이미지 생성, 비디오 생성, 음성 생성, 스마트 에이전트, 자동화 워크플로우, 나만의 AI 스마트 어시스턴트를 맞춤 설정하세요", - "title": "어시스턴트 마켓" + "discover": { + "assistants": { + "description": "콘텐츠 제작, 카피라이팅, Q&A, 이미지 생성, 비디오 생성, 음성 생성, 스마트 에이전트, 자동화 워크플로우, 나만의 AI / GPTs / OLLaMA 스마트 어시스턴트를 맞춤 설정하세요.", + "title": "AI 도우미" + }, + "description": "콘텐츠 제작, 카피라이팅, Q&A, 이미지 생성, 비디오 생성, 음성 생성, 스마트 에이전트, 자동화 워크플로우, 맞춤형 AI 애플리케이션, 나만의 AI 애플리케이션 작업 공간을 맞춤 설정하세요.", + "models": { + "description": "주요 AI 모델 탐색: OpenAI / GPT / Claude 3 / Gemini / Ollama / Azure / DeepSeek", + "title": "AI 모델" + }, + "plugins": { + "description": "차트 생성, 학술, 이미지 생성, 비디오 생성, 음성 생성, 자동화 워크플로우를 검색하여 당신의 도우미에 풍부한 플러그인 기능을 통합하세요.", + "title": "AI 플러그인" + }, + "providers": { + "description": "주요 모델 공급업체 탐색: OpenAI / Qwen / Ollama / Anthropic / DeepSeek / Google Gemini / OpenRouter", + "title": "AI 모델 서비스 제공자" + }, + "search": "검색", + "title": "발견" }, "plugins": { "description": "검색, 차트 생성, 학술, 이미지 생성, 비디오 생성, 음성 생성, 자동화 워크플로우, ChatGPT / Claude 전용 ToolCall 플러그인 기능을 맞춤 설정하세요", diff --git a/locales/ko-KR/models.json b/locales/ko-KR/models.json new file mode 100644 index 000000000000..8377671bf121 --- /dev/null +++ b/locales/ko-KR/models.json @@ -0,0 +1,845 @@ +{ + "01-ai/Yi-1.5-34B-Chat-16K": { + "description": "Yi-1.5 34B는 풍부한 훈련 샘플을 통해 산업 응용에서 우수한 성능을 제공합니다." + }, + "01-ai/Yi-1.5-6B-Chat": { + "description": "Yi-1.5는 Yi 시리즈의 진화 버전으로, 고품질의 사전 훈련과 풍부한 미세 조정 데이터를 갖추고 있습니다." + }, + "01-ai/Yi-1.5-9B-Chat-16K": { + "description": "Yi-1.5 9B는 16K 토큰을 지원하며, 효율적이고 매끄러운 언어 생성 능력을 제공합니다." + }, + "360gpt-pro": { + "description": "360GPT Pro는 360 AI 모델 시리즈의 중요한 구성원으로, 다양한 자연어 응용 시나리오에 맞춘 효율적인 텍스트 처리 능력을 갖추고 있으며, 긴 텍스트 이해 및 다중 회화 기능을 지원합니다." + }, + "360gpt-turbo": { + "description": "360GPT Turbo는 강력한 계산 및 대화 능력을 제공하며, 뛰어난 의미 이해 및 생성 효율성을 갖추고 있어 기업 및 개발자에게 이상적인 스마트 어시스턴트 솔루션입니다." + }, + "360gpt-turbo-responsibility-8k": { + "description": "360GPT Turbo Responsibility 8K는 의미 안전성과 책임 지향성을 강조하며, 콘텐츠 안전에 대한 높은 요구가 있는 응용 시나리오를 위해 설계되어 사용자 경험의 정확성과 안정성을 보장합니다." + }, + "360gpt2-pro": { + "description": "360GPT2 Pro는 360 회사에서 출시한 고급 자연어 처리 모델로, 뛰어난 텍스트 생성 및 이해 능력을 갖추고 있으며, 특히 생성 및 창작 분야에서 뛰어난 성능을 발휘하여 복잡한 언어 변환 및 역할 연기 작업을 처리할 수 있습니다." + }, + "4.0Ultra": { + "description": "Spark4.0 Ultra는 스타크 대형 모델 시리즈 중 가장 강력한 버전으로, 업그레이드된 네트워크 검색 링크와 함께 텍스트 내용의 이해 및 요약 능력을 향상시킵니다. 사무 생산성을 높이고 정확한 요구에 응답하기 위한 종합 솔루션으로, 업계를 선도하는 스마트 제품입니다." + }, + "Baichuan2-Turbo": { + "description": "검색 강화 기술을 통해 대형 모델과 분야 지식, 전 세계 지식의 완전한 연결을 실현합니다. PDF, Word 등 다양한 문서 업로드 및 웹사이트 입력을 지원하며, 정보 획득이 신속하고 포괄적이며, 출력 결과가 정확하고 전문적입니다." + }, + "Baichuan3-Turbo": { + "description": "기업의 고빈도 시나리오에 최적화되어 효과가 크게 향상되었으며, 높은 비용 효율성을 자랑합니다. Baichuan2 모델에 비해 콘텐츠 창작이 20%, 지식 질문 응답이 17%, 역할 수행 능력이 40% 향상되었습니다. 전체적인 성능은 GPT3.5보다 우수합니다." + }, + "Baichuan3-Turbo-128k": { + "description": "128K 초장기 컨텍스트 창을 갖추고 있으며, 기업의 고빈도 시나리오에 최적화되어 효과가 크게 향상되었으며, 높은 비용 효율성을 자랑합니다. Baichuan2 모델에 비해 콘텐츠 창작이 20%, 지식 질문 응답이 17%, 역할 수행 능력이 40% 향상되었습니다. 전체적인 성능은 GPT3.5보다 우수합니다." + }, + "Baichuan4": { + "description": "모델 능력 국내 1위로, 지식 백과, 긴 텍스트, 생성 창작 등 중국어 작업에서 해외 주류 모델을 초월합니다. 또한 업계 선도적인 다중 모달 능력을 갖추고 있으며, 여러 권위 있는 평가 기준에서 우수한 성과를 보입니다." + }, + "Gryphe/MythoMax-L2-13b": { + "description": "MythoMax-L2 (13B)는 혁신적인 모델로, 다양한 분야의 응용과 복잡한 작업에 적합합니다." + }, + "Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Hermes 2 Mixtral 8x7B DPO는 뛰어난 창의적 경험을 제공하기 위해 설계된 고도로 유연한 다중 모델 통합입니다." + }, + "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B)는 고정밀 지시 모델로, 복잡한 계산에 적합합니다." + }, + "NousResearch/Nous-Hermes-2-Yi-34B": { + "description": "Nous Hermes-2 Yi (34B)는 최적화된 언어 출력과 다양한 응용 가능성을 제공합니다." + }, + "Pro-128k": { + "description": "Spark Pro-128K는 초대형 컨텍스트 처리 능력을 갖추고 있으며, 최대 128K의 컨텍스트 정보를 처리할 수 있어, 특히 전체 분석 및 장기 논리 연관 처리가 필요한 긴 문서 콘텐츠에 적합합니다. 복잡한 텍스트 커뮤니케이션에서 매끄럽고 일관된 논리와 다양한 인용 지원을 제공합니다." + }, + "Qwen/Qwen1.5-110B-Chat": { + "description": "Qwen2의 테스트 버전인 Qwen1.5는 대규모 데이터를 사용하여 더 정밀한 대화 기능을 구현하였습니다." + }, + "Qwen/Qwen1.5-14B-Chat": { + "description": "Qwen1.5는 대규모 데이터 세트로 훈련되어 복잡한 언어 작업에 능숙합니다." + }, + "Qwen/Qwen1.5-32B-Chat": { + "description": "Qwen1.5는 다분야 질문 응답 및 텍스트 생성 능력을 갖추고 있습니다." + }, + "Qwen/Qwen1.5-72B-Chat": { + "description": "Qwen 1.5 Chat (72B)는 빠른 응답과 자연스러운 대화 능력을 제공하며, 다국어 환경에 적합합니다." + }, + "Qwen/Qwen1.5-7B-Chat": { + "description": "Qwen1.5는 고급 사전 훈련과 미세 조정을 결합하여 대화 표현 능력을 향상시킵니다." + }, + "Qwen/Qwen2-1.5B-Instruct": { + "description": "Qwen2는 지시형 작업 처리를 최적화하기 위해 설계된 새로운 대형 언어 모델 시리즈입니다." + }, + "Qwen/Qwen2-57B-A14B-Instruct": { + "description": "Qwen2는 새로운 시리즈로, 57B A14B 모델은 지시 작업에서 뛰어난 성능을 보입니다." + }, + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2는 다양한 지시 유형을 지원하는 고급 범용 언어 모델입니다." + }, + "Qwen/Qwen2-7B-Instruct": { + "description": "Qwen2는 새로운 대형 언어 모델 시리즈로, 더 강력한 이해 및 생성 능력을 갖추고 있습니다." + }, + "Qwen/Qwen2-Math-72B-Instruct": { + "description": "Qwen2-Math는 수학 분야의 문제 해결에 중점을 두고 있으며, 고난이도 문제에 대한 전문적인 해답을 제공합니다." + }, + "THUDM/chatglm3-6b": { + "description": "ChatGLM3는 이중 언어 대화 언어 모델로, 중문과 영문 변환 작업을 처리할 수 있습니다." + }, + "THUDM/glm-4-9b-chat": { + "description": "GLM-4 9B 오픈 소스 버전으로, 대화 응용을 위한 최적화된 대화 경험을 제공합니다." + }, + "abab5.5-chat": { + "description": "생산성 시나리오를 위해 설계되었으며, 복잡한 작업 처리 및 효율적인 텍스트 생성을 지원하여 전문 분야 응용에 적합합니다." + }, + "abab5.5s-chat": { + "description": "중국어 캐릭터 대화 시나리오를 위해 설계되었으며, 고품질의 중국어 대화 생성 능력을 제공하여 다양한 응용 시나리오에 적합합니다." + }, + "abab6.5g-chat": { + "description": "다국어 캐릭터 대화를 위해 설계되었으며, 영어 및 기타 여러 언어의 고품질 대화 생성을 지원합니다." + }, + "abab6.5s-chat": { + "description": "텍스트 생성, 대화 시스템 등 다양한 자연어 처리 작업에 적합합니다." + }, + "abab6.5t-chat": { + "description": "중국어 캐릭터 대화 시나리오에 최적화되어 있으며, 유창하고 중국어 표현 습관에 맞는 대화 생성 능력을 제공합니다." + }, + "accounts/fireworks/models/firefunction-v1": { + "description": "Fireworks 오픈 소스 함수 호출 모델로, 뛰어난 지시 실행 능력과 개방형 커스터마이징 기능을 제공합니다." + }, + "accounts/fireworks/models/firefunction-v2": { + "description": "Fireworks 회사의 최신 Firefunction-v2는 Llama-3를 기반으로 개발된 뛰어난 함수 호출 모델로, 많은 최적화를 통해 함수 호출, 대화 및 지시 따르기 등의 시나리오에 특히 적합합니다." + }, + "accounts/fireworks/models/firellava-13b": { + "description": "fireworks-ai/FireLLaVA-13b는 이미지와 텍스트 입력을 동시에 수용할 수 있는 비주얼 언어 모델로, 고품질 데이터로 훈련되어 다중 모달 작업에 적합합니다." + }, + "accounts/fireworks/models/gemma2-9b-it": { + "description": "Gemma 2 9B 지시 모델은 이전 Google 기술을 기반으로 하여 질문 응답, 요약 및 추론 등 다양한 텍스트 생성 작업에 적합합니다." + }, + "accounts/fireworks/models/llama-v3-70b-instruct": { + "description": "Llama 3 70B 지시 모델은 다국어 대화 및 자연어 이해를 위해 최적화되어 있으며, 대부분의 경쟁 모델보다 성능이 우수합니다." + }, + "accounts/fireworks/models/llama-v3-70b-instruct-hf": { + "description": "Llama 3 70B 지시 모델(HF 버전)은 공식 구현 결과와 일치하며, 고품질의 지시 따르기 작업에 적합합니다." + }, + "accounts/fireworks/models/llama-v3-8b-instruct": { + "description": "Llama 3 8B 지시 모델은 대화 및 다국어 작업을 위해 최적화되어 있으며, 뛰어난 성능과 효율성을 제공합니다." + }, + "accounts/fireworks/models/llama-v3-8b-instruct-hf": { + "description": "Llama 3 8B 지시 모델(HF 버전)은 공식 구현 결과와 일치하며, 높은 일관성과 크로스 플랫폼 호환성을 갖추고 있습니다." + }, + "accounts/fireworks/models/llama-v3p1-405b-instruct": { + "description": "Llama 3.1 405B 지시 모델은 초대규모 매개변수를 갖추고 있어 복잡한 작업과 고부하 환경에서의 지시 따르기에 적합합니다." + }, + "accounts/fireworks/models/llama-v3p1-70b-instruct": { + "description": "Llama 3.1 70B 지시 모델은 뛰어난 자연어 이해 및 생성 능력을 제공하며, 대화 및 분석 작업에 이상적인 선택입니다." + }, + "accounts/fireworks/models/llama-v3p1-8b-instruct": { + "description": "Llama 3.1 8B 지시 모델은 다국어 대화를 위해 최적화되어 있으며, 일반 산업 기준에서 대부분의 오픈 소스 및 폐쇄 소스 모델을 초월합니다." + }, + "accounts/fireworks/models/mixtral-8x22b-instruct": { + "description": "Mixtral MoE 8x22B 지시 모델은 대규모 매개변수와 다수의 전문가 아키텍처를 통해 복잡한 작업의 효율적인 처리를 전방위적으로 지원합니다." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct": { + "description": "Mixtral MoE 8x7B 지시 모델은 다수의 전문가 아키텍처를 통해 효율적인 지시 따르기 및 실행을 제공합니다." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct-hf": { + "description": "Mixtral MoE 8x7B 지시 모델(HF 버전)은 성능이 공식 구현과 일치하며, 다양한 효율적인 작업 시나리오에 적합합니다." + }, + "accounts/fireworks/models/mythomax-l2-13b": { + "description": "MythoMax L2 13B 모델은 혁신적인 통합 기술을 결합하여 서사 및 역할 수행에 강점을 보입니다." + }, + "accounts/fireworks/models/phi-3-vision-128k-instruct": { + "description": "Phi 3 Vision 지시 모델은 경량 다중 모달 모델로, 복잡한 시각 및 텍스트 정보를 처리할 수 있으며, 강력한 추론 능력을 갖추고 있습니다." + }, + "accounts/fireworks/models/starcoder-16b": { + "description": "StarCoder 15.5B 모델은 고급 프로그래밍 작업을 지원하며, 다국어 능력이 강화되어 복잡한 코드 생성 및 이해에 적합합니다." + }, + "accounts/fireworks/models/starcoder-7b": { + "description": "StarCoder 7B 모델은 80개 이상의 프로그래밍 언어를 대상으로 훈련되어 뛰어난 프로그래밍 완성 능력과 문맥 이해를 제공합니다." + }, + "accounts/yi-01-ai/models/yi-large": { + "description": "Yi-Large 모델은 뛰어난 다국어 처리 능력을 갖추고 있으며, 다양한 언어 생성 및 이해 작업에 사용될 수 있습니다." + }, + "anthropic.claude-3-5-sonnet-20240620-v1:0": { + "description": "Claude 3.5 Sonnet는 업계 표준을 향상시켜 경쟁 모델 및 Claude 3 Opus를 초월하며, 광범위한 평가에서 뛰어난 성능을 보이고, 중간 수준 모델의 속도와 비용을 갖추고 있습니다." + }, + "anthropic.claude-3-haiku-20240307-v1:0": { + "description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 간결한 모델로, 거의 즉각적인 응답 속도를 제공합니다. 간단한 질문과 요청에 신속하게 답변할 수 있습니다. 고객은 인간 상호작용을 모방하는 원활한 AI 경험을 구축할 수 있습니다. Claude 3 Haiku는 이미지를 처리하고 텍스트 출력을 반환할 수 있으며, 200K의 컨텍스트 창을 갖추고 있습니다." + }, + "anthropic.claude-3-opus-20240229-v1:0": { + "description": "Claude 3 Opus는 Anthropic의 가장 강력한 AI 모델로, 매우 복잡한 작업에서 최첨단 성능을 발휘합니다. 개방형 프롬프트와 이전에 보지 못한 장면을 처리할 수 있으며, 뛰어난 유창성과 인간과 유사한 이해 능력을 갖추고 있습니다. Claude 3 Opus는 생성 AI의 가능성을 보여줍니다. Claude 3 Opus는 이미지를 처리하고 텍스트 출력을 반환할 수 있으며, 200K의 컨텍스트 창을 갖추고 있습니다." + }, + "anthropic.claude-3-sonnet-20240229-v1:0": { + "description": "Anthropic의 Claude 3 Sonnet는 지능과 속도 간의 이상적인 균형을 이루어 기업 작업 부하에 특히 적합합니다. 경쟁 모델보다 낮은 가격으로 최대의 효용을 제공하며, 신뢰할 수 있고 내구성이 뛰어난 주력 모델로 설계되어 대규모 AI 배포에 적합합니다. Claude 3 Sonnet는 이미지를 처리하고 텍스트 출력을 반환할 수 있으며, 200K의 컨텍스트 창을 갖추고 있습니다." + }, + "anthropic.claude-instant-v1": { + "description": "일상 대화, 텍스트 분석, 요약 및 문서 질문 응답을 포함한 다양한 작업을 처리할 수 있는 빠르고 경제적이며 여전히 매우 유능한 모델입니다." + }, + "anthropic.claude-v2": { + "description": "Anthropic은 복잡한 대화 및 창의적 콘텐츠 생성에서부터 세부 지시 준수에 이르기까지 광범위한 작업에서 높은 능력을 발휘하는 모델입니다." + }, + "anthropic.claude-v2:1": { + "description": "Claude 2의 업데이트 버전으로, 두 배의 컨텍스트 창을 갖추고 있으며, 긴 문서 및 RAG 컨텍스트에서의 신뢰성, 환각률 및 증거 기반 정확성이 개선되었습니다." + }, + "anthropic/claude-3-haiku": { + "description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 거의 즉각적인 응답을 목표로 합니다. 빠르고 정확한 방향성 성능을 제공합니다." + }, + "anthropic/claude-3-opus": { + "description": "Claude 3 Opus는 Anthropic이 복잡한 작업을 처리하기 위해 개발한 가장 강력한 모델입니다. 성능, 지능, 유창성 및 이해력에서 뛰어난 성과를 보입니다." + }, + "anthropic/claude-3.5-sonnet": { + "description": "Claude 3.5 Sonnet은 Opus를 초월하는 능력과 Sonnet보다 더 빠른 속도를 제공하며, Sonnet과 동일한 가격을 유지합니다. Sonnet은 프로그래밍, 데이터 과학, 비주얼 처리 및 에이전트 작업에 특히 강합니다." + }, + "aya": { + "description": "Aya 23은 Cohere에서 출시한 다국어 모델로, 23개 언어를 지원하여 다양한 언어 응용에 편리함을 제공합니다." + }, + "aya:35b": { + "description": "Aya 23은 Cohere에서 출시한 다국어 모델로, 23개 언어를 지원하여 다양한 언어 응용에 편리함을 제공합니다." + }, + "charglm-3": { + "description": "CharGLM-3는 역할 수행 및 감정 동반을 위해 설계된 모델로, 초장 다회 기억 및 개인화된 대화를 지원하여 광범위하게 사용됩니다." + }, + "chatgpt-4o-latest": { + "description": "ChatGPT-4o는 동적 모델로, 최신 버전을 유지하기 위해 실시간으로 업데이트됩니다. 강력한 언어 이해 및 생성 능력을 결합하여 고객 서비스, 교육 및 기술 지원을 포함한 대규모 응용 프로그램에 적합합니다." + }, + "claude-2.0": { + "description": "Claude 2는 기업에 중요한 능력의 발전을 제공하며, 업계 최고의 200K 토큰 컨텍스트, 모델 환각 발생률 대폭 감소, 시스템 프롬프트 및 새로운 테스트 기능인 도구 호출을 포함합니다." + }, + "claude-2.1": { + "description": "Claude 2는 기업에 중요한 능력의 발전을 제공하며, 업계 최고의 200K 토큰 컨텍스트, 모델 환각 발생률 대폭 감소, 시스템 프롬프트 및 새로운 테스트 기능인 도구 호출을 포함합니다." + }, + "claude-3-5-sonnet-20240620": { + "description": "Claude 3.5 Sonnet은 Opus를 초월하는 능력과 Sonnet보다 더 빠른 속도를 제공하며, Sonnet과 동일한 가격을 유지합니다. Sonnet은 프로그래밍, 데이터 과학, 시각 처리 및 대리 작업에 특히 강합니다." + }, + "claude-3-haiku-20240307": { + "description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 거의 즉각적인 응답을 목표로 합니다. 빠르고 정확한 방향성 성능을 갖추고 있습니다." + }, + "claude-3-opus-20240229": { + "description": "Claude 3 Opus는 Anthropic이 고도로 복잡한 작업을 처리하기 위해 개발한 가장 강력한 모델입니다. 성능, 지능, 유창성 및 이해력에서 뛰어난 성능을 보입니다." + }, + "claude-3-sonnet-20240229": { + "description": "Claude 3 Sonnet은 기업 작업 부하에 이상적인 균형을 제공하며, 더 낮은 가격으로 최대 효용을 제공합니다. 신뢰성이 높고 대규모 배포에 적합합니다." + }, + "claude-instant-1.2": { + "description": "Anthropic의 모델은 낮은 지연 시간과 높은 처리량의 텍스트 생성을 위해 설계되었으며, 수백 페이지의 텍스트 생성을 지원합니다." + }, + "codegeex-4": { + "description": "CodeGeeX-4는 강력한 AI 프로그래밍 도우미로, 다양한 프로그래밍 언어에 대한 스마트 Q&A 및 코드 완성을 지원하여 개발 효율성을 높입니다." + }, + "codegemma": { + "description": "CodeGemma는 다양한 프로그래밍 작업을 위한 경량 언어 모델로, 빠른 반복 및 통합을 지원합니다." + }, + "codegemma:2b": { + "description": "CodeGemma는 다양한 프로그래밍 작업을 위한 경량 언어 모델로, 빠른 반복 및 통합을 지원합니다." + }, + "codellama": { + "description": "Code Llama는 코드 생성 및 논의에 중점을 둔 LLM으로, 광범위한 프로그래밍 언어 지원을 결합하여 개발자 환경에 적합합니다." + }, + "codellama:13b": { + "description": "Code Llama는 코드 생성 및 논의에 중점을 둔 LLM으로, 광범위한 프로그래밍 언어 지원을 결합하여 개발자 환경에 적합합니다." + }, + "codellama:34b": { + "description": "Code Llama는 코드 생성 및 논의에 중점을 둔 LLM으로, 광범위한 프로그래밍 언어 지원을 결합하여 개발자 환경에 적합합니다." + }, + "codellama:70b": { + "description": "Code Llama는 코드 생성 및 논의에 중점을 둔 LLM으로, 광범위한 프로그래밍 언어 지원을 결합하여 개발자 환경에 적합합니다." + }, + "codeqwen": { + "description": "CodeQwen1.5는 대량의 코드 데이터로 훈련된 대형 언어 모델로, 복잡한 프로그래밍 작업을 해결하기 위해 설계되었습니다." + }, + "codestral": { + "description": "Codestral은 Mistral AI의 첫 번째 코드 모델로, 코드 생성 작업에 뛰어난 지원을 제공합니다." + }, + "codestral-latest": { + "description": "Codestral은 코드 생성을 전문으로 하는 최첨단 생성 모델로, 중간 채우기 및 코드 완성 작업을 최적화했습니다." + }, + "cognitivecomputations/dolphin-mixtral-8x22b": { + "description": "Dolphin Mixtral 8x22B는 지시 준수, 대화 및 프로그래밍을 위해 설계된 모델입니다." + }, + "command-r": { + "description": "Command R은 대화 및 긴 컨텍스트 작업에 최적화된 LLM으로, 동적 상호작용 및 지식 관리에 특히 적합합니다." + }, + "command-r-plus": { + "description": "Command R+는 실제 기업 환경 및 복잡한 응용을 위해 설계된 고성능 대형 언어 모델입니다." + }, + "databricks/dbrx-instruct": { + "description": "DBRX Instruct는 높은 신뢰성을 가진 지시 처리 능력을 제공하며, 다양한 산업 응용을 지원합니다." + }, + "deepseek-ai/DeepSeek-Coder-V2-Instruct": { + "description": "DeepSeek Coder V2는 코드 작업을 위해 설계되었으며, 효율적인 코드 생성을 중점적으로 다룹니다." + }, + "deepseek-ai/DeepSeek-V2-Chat": { + "description": "DeepSeek V2는 67억 파라미터를 갖추고 있으며, 영문 및 중문 텍스트 처리를 지원합니다." + }, + "deepseek-ai/DeepSeek-V2.5": { + "description": "DeepSeek V2.5는 이전 버전의 우수한 기능을 집약하여 일반 및 인코딩 능력을 강화했습니다." + }, + "deepseek-ai/deepseek-llm-67b-chat": { + "description": "DeepSeek 67B는 고복잡성 대화를 위해 훈련된 고급 모델입니다." + }, + "deepseek-chat": { + "description": "일반 및 코드 능력을 융합한 새로운 오픈 소스 모델로, 기존 Chat 모델의 일반 대화 능력과 Coder 모델의 강력한 코드 처리 능력을 유지하면서 인간의 선호에 더 잘 맞춰졌습니다. 또한, DeepSeek-V2.5는 작문 작업, 지시 따르기 등 여러 측면에서 큰 향상을 이루었습니다." + }, + "deepseek-coder-v2": { + "description": "DeepSeek Coder V2는 오픈 소스 혼합 전문가 코드 모델로, 코드 작업에서 뛰어난 성능을 발휘하며, GPT4-Turbo와 경쟁할 수 있습니다." + }, + "deepseek-coder-v2:236b": { + "description": "DeepSeek Coder V2는 오픈 소스 혼합 전문가 코드 모델로, 코드 작업에서 뛰어난 성능을 발휘하며, GPT4-Turbo와 경쟁할 수 있습니다." + }, + "deepseek-v2": { + "description": "DeepSeek V2는 경제적이고 효율적인 처리 요구에 적합한 Mixture-of-Experts 언어 모델입니다." + }, + "deepseek-v2:236b": { + "description": "DeepSeek V2 236B는 DeepSeek의 설계 코드 모델로, 강력한 코드 생성 능력을 제공합니다." + }, + "deepseek/deepseek-chat": { + "description": "일반 및 코드 능력을 통합한 새로운 오픈 소스 모델로, 기존 Chat 모델의 일반 대화 능력과 Coder 모델의 강력한 코드 처리 능력을 유지하면서 인간의 선호에 더 잘 맞춰졌습니다. 또한, DeepSeek-V2.5는 작문 작업, 지시 따르기 등 여러 분야에서 큰 향상을 이루었습니다." + }, + "emohaa": { + "description": "Emohaa는 심리 모델로, 전문 상담 능력을 갖추고 있어 사용자가 감정 문제를 이해하는 데 도움을 줍니다." + }, + "gemini-1.0-pro-001": { + "description": "Gemini 1.0 Pro 001 (Tuning)은 안정적이고 조정 가능한 성능을 제공하며, 복잡한 작업 솔루션의 이상적인 선택입니다." + }, + "gemini-1.0-pro-002": { + "description": "Gemini 1.0 Pro 002 (Tuning)은 뛰어난 다중 모달 지원을 제공하며, 복잡한 작업의 효과적인 해결에 중점을 둡니다." + }, + "gemini-1.0-pro-latest": { + "description": "Gemini 1.0 Pro는 Google의 고성능 AI 모델로, 광범위한 작업 확장을 위해 설계되었습니다." + }, + "gemini-1.5-flash-001": { + "description": "Gemini 1.5 Flash 001은 효율적인 다중 모달 모델로, 광범위한 응용 프로그램 확장을 지원합니다." + }, + "gemini-1.5-flash-8b-exp-0827": { + "description": "Gemini 1.5 Flash 8B 0827은 대규모 작업 시나리오 처리를 위해 설계되었으며, 비할 데 없는 처리 속도를 제공합니다." + }, + "gemini-1.5-flash-exp-0827": { + "description": "Gemini 1.5 Flash 0827은 최적화된 다중 모달 처리 능력을 제공하며, 다양한 복잡한 작업 시나리오에 적합합니다." + }, + "gemini-1.5-flash-latest": { + "description": "Gemini 1.5 Flash는 Google의 최신 다중 모달 AI 모델로, 빠른 처리 능력을 갖추고 있으며 텍스트, 이미지 및 비디오 입력을 지원하여 다양한 작업에 효율적으로 확장할 수 있습니다." + }, + "gemini-1.5-pro-001": { + "description": "Gemini 1.5 Pro 001은 확장 가능한 다중 모달 AI 솔루션으로, 광범위한 복잡한 작업을 지원합니다." + }, + "gemini-1.5-pro-exp-0801": { + "description": "Gemini 1.5 Pro 0801은 뛰어난 다중 모달 처리 능력을 제공하여 응용 프로그램 개발에 더 큰 유연성을 제공합니다." + }, + "gemini-1.5-pro-exp-0827": { + "description": "Gemini 1.5 Pro 0827은 최신 최적화 기술을 결합하여 더 효율적인 다중 모달 데이터 처리 능력을 제공합니다." + }, + "gemini-1.5-pro-latest": { + "description": "Gemini 1.5 Pro는 최대 200만 개의 토큰을 지원하며, 중형 다중 모달 모델의 이상적인 선택으로 복잡한 작업에 대한 다각적인 지원을 제공합니다." + }, + "gemma-7b-it": { + "description": "Gemma 7B는 중소 규모 작업 처리에 적합하며, 비용 효과성을 갖추고 있습니다." + }, + "gemma2": { + "description": "Gemma 2는 Google에서 출시한 효율적인 모델로, 소형 응용 프로그램부터 복잡한 데이터 처리까지 다양한 응용 시나리오를 포함합니다." + }, + "gemma2-9b-it": { + "description": "Gemma 2 9B는 특정 작업 및 도구 통합을 위해 최적화된 모델입니다." + }, + "gemma2:27b": { + "description": "Gemma 2는 Google에서 출시한 효율적인 모델로, 소형 응용 프로그램부터 복잡한 데이터 처리까지 다양한 응용 시나리오를 포함합니다." + }, + "gemma2:2b": { + "description": "Gemma 2는 Google에서 출시한 효율적인 모델로, 소형 응용 프로그램부터 복잡한 데이터 처리까지 다양한 응용 시나리오를 포함합니다." + }, + "general": { + "description": "Spark Lite는 경량 대형 언어 모델로, 매우 낮은 지연 시간과 효율적인 처리 능력을 갖추고 있으며, 완전 무료로 개방되어 실시간 온라인 검색 기능을 지원합니다. 빠른 응답 특성 덕분에 저전력 장치에서의 추론 응용 및 모델 미세 조정에서 뛰어난 성능을 발휘하여 사용자에게 뛰어난 비용 효율성과 지능적인 경험을 제공합니다. 특히 지식 질문 응답, 콘텐츠 생성 및 검색 시나리오에서 두각을 나타냅니다." + }, + "generalv3": { + "description": "Spark Pro는 전문 분야에 최적화된 고성능 대형 언어 모델로, 수학, 프로그래밍, 의료, 교육 등 여러 분야에 중점을 두고 있으며, 네트워크 검색 및 내장된 날씨, 날짜 등의 플러그인을 지원합니다. 최적화된 모델은 복잡한 지식 질문 응답, 언어 이해 및 고급 텍스트 창작에서 뛰어난 성능과 효율성을 보여주며, 전문 응용 시나리오에 적합한 이상적인 선택입니다." + }, + "generalv3.5": { + "description": "Spark3.5 Max는 기능이 가장 포괄적인 버전으로, 네트워크 검색 및 다양한 내장 플러그인을 지원합니다. 전면적으로 최적화된 핵심 능력과 시스템 역할 설정 및 함수 호출 기능 덕분에 다양한 복잡한 응용 시나리오에서 매우 우수한 성능을 발휘합니다." + }, + "glm-4": { + "description": "GLM-4는 2024년 1월에 출시된 구형 플래그십 버전으로, 현재 더 강력한 GLM-4-0520으로 대체되었습니다." + }, + "glm-4-0520": { + "description": "GLM-4-0520은 최신 모델 버전으로, 매우 복잡하고 다양한 작업을 위해 설계되어 뛰어난 성능을 발휘합니다." + }, + "glm-4-air": { + "description": "GLM-4-Air는 가성비가 높은 버전으로, GLM-4에 가까운 성능을 제공하며 빠른 속도와 저렴한 가격을 자랑합니다." + }, + "glm-4-airx": { + "description": "GLM-4-AirX는 GLM-4-Air의 효율적인 버전으로, 추론 속도가 최대 2.6배에 달합니다." + }, + "glm-4-alltools": { + "description": "GLM-4-AllTools는 복잡한 지시 계획 및 도구 호출을 지원하도록 최적화된 다기능 지능형 모델로, 웹 브라우징, 코드 해석 및 텍스트 생성을 포함한 다중 작업 실행에 적합합니다." + }, + "glm-4-flash": { + "description": "GLM-4-Flash는 간단한 작업을 처리하는 데 이상적인 선택으로, 가장 빠른 속도와 가장 저렴한 가격을 자랑합니다." + }, + "glm-4-long": { + "description": "GLM-4-Long는 초장 텍스트 입력을 지원하여 기억형 작업 및 대규모 문서 처리에 적합합니다." + }, + "glm-4-plus": { + "description": "GLM-4-Plus는 고지능 플래그십 모델로, 긴 텍스트 및 복잡한 작업 처리 능력이 뛰어나며 성능이 전반적으로 향상되었습니다." + }, + "glm-4v": { + "description": "GLM-4V는 강력한 이미지 이해 및 추론 능력을 제공하며, 다양한 시각적 작업을 지원합니다." + }, + "glm-4v-plus": { + "description": "GLM-4V-Plus는 비디오 콘텐츠 및 다수의 이미지에 대한 이해 능력을 갖추고 있어 다중 모드 작업에 적합합니다." + }, + "google/gemini-flash-1.5-exp": { + "description": "Gemini 1.5 Flash 0827은 최적화된 다중 모달 처리 능력을 제공하며, 다양한 복잡한 작업 시나리오에 적합합니다." + }, + "google/gemini-pro-1.5-exp": { + "description": "Gemini 1.5 Pro 0827은 최신 최적화 기술을 결합하여 더 효율적인 다중 모달 데이터 처리 능력을 제공합니다." + }, + "google/gemma-2-27b-it": { + "description": "Gemma 2는 경량화와 효율적인 설계를 이어갑니다." + }, + "google/gemma-2-9b-it": { + "description": "Gemma 2는 Google의 경량화된 오픈 소스 텍스트 모델 시리즈입니다." + }, + "google/gemma-2-9b-it:free": { + "description": "Gemma 2는 Google의 경량화된 오픈 소스 텍스트 모델 시리즈입니다." + }, + "google/gemma-2b-it": { + "description": "Gemma Instruct (2B)는 기본적인 지시 처리 능력을 제공하며, 경량 애플리케이션에 적합합니다." + }, + "gpt-3.5-turbo": { + "description": "GPT 3.5 Turbo는 다양한 텍스트 생성 및 이해 작업에 적합하며, 현재 gpt-3.5-turbo-0125를 가리킵니다." + }, + "gpt-3.5-turbo-0125": { + "description": "GPT 3.5 Turbo는 다양한 텍스트 생성 및 이해 작업에 적합하며, 현재 gpt-3.5-turbo-0125를 가리킵니다." + }, + "gpt-3.5-turbo-1106": { + "description": "GPT 3.5 Turbo는 다양한 텍스트 생성 및 이해 작업에 적합하며, 현재 gpt-3.5-turbo-0125를 가리킵니다." + }, + "gpt-3.5-turbo-instruct": { + "description": "GPT 3.5 Turbo는 다양한 텍스트 생성 및 이해 작업에 적합하며, 현재 gpt-3.5-turbo-0125를 가리킵니다." + }, + "gpt-4": { + "description": "GPT-4는 더 큰 컨텍스트 창을 제공하여 더 긴 텍스트 입력을 처리할 수 있으며, 광범위한 정보 통합 및 데이터 분석이 필요한 상황에 적합합니다." + }, + "gpt-4-0125-preview": { + "description": "최신 GPT-4 Turbo 모델은 시각적 기능을 갖추고 있습니다. 이제 시각적 요청은 JSON 형식과 함수 호출을 사용하여 처리할 수 있습니다. GPT-4 Turbo는 다중 모드 작업을 위한 비용 효율적인 지원을 제공하는 향상된 버전입니다. 정확성과 효율성 간의 균형을 찾아 실시간 상호작용이 필요한 응용 프로그램에 적합합니다." + }, + "gpt-4-0613": { + "description": "GPT-4는 더 큰 컨텍스트 창을 제공하여 더 긴 텍스트 입력을 처리할 수 있으며, 광범위한 정보 통합 및 데이터 분석이 필요한 상황에 적합합니다." + }, + "gpt-4-1106-preview": { + "description": "최신 GPT-4 Turbo 모델은 시각적 기능을 갖추고 있습니다. 이제 시각적 요청은 JSON 형식과 함수 호출을 사용하여 처리할 수 있습니다. GPT-4 Turbo는 다중 모드 작업을 위한 비용 효율적인 지원을 제공하는 향상된 버전입니다. 정확성과 효율성 간의 균형을 찾아 실시간 상호작용이 필요한 응용 프로그램에 적합합니다." + }, + "gpt-4-1106-vision-preview": { + "description": "최신 GPT-4 Turbo 모델은 시각적 기능을 갖추고 있습니다. 이제 시각적 요청은 JSON 형식과 함수 호출을 사용하여 처리할 수 있습니다. GPT-4 Turbo는 다중 모드 작업을 위한 비용 효율적인 지원을 제공하는 향상된 버전입니다. 정확성과 효율성 간의 균형을 찾아 실시간 상호작용이 필요한 응용 프로그램에 적합합니다." + }, + "gpt-4-32k": { + "description": "GPT-4는 더 큰 컨텍스트 창을 제공하여 더 긴 텍스트 입력을 처리할 수 있으며, 광범위한 정보 통합 및 데이터 분석이 필요한 상황에 적합합니다." + }, + "gpt-4-32k-0613": { + "description": "GPT-4는 더 큰 컨텍스트 창을 제공하여 더 긴 텍스트 입력을 처리할 수 있으며, 광범위한 정보 통합 및 데이터 분석이 필요한 상황에 적합합니다." + }, + "gpt-4-turbo": { + "description": "최신 GPT-4 Turbo 모델은 시각적 기능을 갖추고 있습니다. 이제 시각적 요청은 JSON 형식과 함수 호출을 사용하여 처리할 수 있습니다. GPT-4 Turbo는 다중 모드 작업을 위한 비용 효율적인 지원을 제공하는 향상된 버전입니다. 정확성과 효율성 간의 균형을 찾아 실시간 상호작용이 필요한 응용 프로그램에 적합합니다." + }, + "gpt-4-turbo-2024-04-09": { + "description": "최신 GPT-4 Turbo 모델은 시각적 기능을 갖추고 있습니다. 이제 시각적 요청은 JSON 형식과 함수 호출을 사용하여 처리할 수 있습니다. GPT-4 Turbo는 다중 모드 작업을 위한 비용 효율적인 지원을 제공하는 향상된 버전입니다. 정확성과 효율성 간의 균형을 찾아 실시간 상호작용이 필요한 응용 프로그램에 적합합니다." + }, + "gpt-4-turbo-preview": { + "description": "최신 GPT-4 Turbo 모델은 시각적 기능을 갖추고 있습니다. 이제 시각적 요청은 JSON 형식과 함수 호출을 사용하여 처리할 수 있습니다. GPT-4 Turbo는 다중 모드 작업을 위한 비용 효율적인 지원을 제공하는 향상된 버전입니다. 정확성과 효율성 간의 균형을 찾아 실시간 상호작용이 필요한 응용 프로그램에 적합합니다." + }, + "gpt-4-vision-preview": { + "description": "최신 GPT-4 Turbo 모델은 시각적 기능을 갖추고 있습니다. 이제 시각적 요청은 JSON 형식과 함수 호출을 사용하여 처리할 수 있습니다. GPT-4 Turbo는 다중 모드 작업을 위한 비용 효율적인 지원을 제공하는 향상된 버전입니다. 정확성과 효율성 간의 균형을 찾아 실시간 상호작용이 필요한 응용 프로그램에 적합합니다." + }, + "gpt-4o": { + "description": "ChatGPT-4o는 동적 모델로, 최신 버전을 유지하기 위해 실시간으로 업데이트됩니다. 강력한 언어 이해 및 생성 능력을 결합하여 고객 서비스, 교육 및 기술 지원을 포함한 대규모 응용 프로그램에 적합합니다." + }, + "gpt-4o-2024-05-13": { + "description": "ChatGPT-4o는 동적 모델로, 최신 버전을 유지하기 위해 실시간으로 업데이트됩니다. 강력한 언어 이해 및 생성 능력을 결합하여 고객 서비스, 교육 및 기술 지원을 포함한 대규모 응용 프로그램에 적합합니다." + }, + "gpt-4o-2024-08-06": { + "description": "ChatGPT-4o는 동적 모델로, 최신 버전을 유지하기 위해 실시간으로 업데이트됩니다. 강력한 언어 이해 및 생성 능력을 결합하여 고객 서비스, 교육 및 기술 지원을 포함한 대규모 응용 프로그램에 적합합니다." + }, + "gpt-4o-mini": { + "description": "GPT-4o mini는 OpenAI가 GPT-4 Omni 이후에 출시한 최신 모델로, 텍스트와 이미지를 입력받아 텍스트를 출력합니다. 이 모델은 최신의 소형 모델로, 최근의 다른 최첨단 모델보다 훨씬 저렴하며, GPT-3.5 Turbo보다 60% 이상 저렴합니다. 최첨단의 지능을 유지하면서도 뛰어난 가성비를 자랑합니다. GPT-4o mini는 MMLU 테스트에서 82%의 점수를 기록했으며, 현재 채팅 선호도에서 GPT-4보다 높은 순위를 차지하고 있습니다." + }, + "gryphe/mythomax-l2-13b": { + "description": "MythoMax l2 13B는 여러 최상위 모델을 통합한 창의성과 지능이 결합된 언어 모델입니다." + }, + "internlm/internlm2_5-20b-chat": { + "description": "혁신적인 오픈 소스 모델 InternLM2.5는 대규모 파라미터를 통해 대화의 지능을 향상시킵니다." + }, + "internlm/internlm2_5-7b-chat": { + "description": "InternLM2.5는 다양한 시나리오에서 스마트 대화 솔루션을 제공합니다." + }, + "llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct 모델은 70B 매개변수를 갖추고 있으며, 대규모 텍스트 생성 및 지시 작업에서 뛰어난 성능을 제공합니다." + }, + "llama-3.1-70b-versatile": { + "description": "Llama 3.1 70B는 더 강력한 AI 추론 능력을 제공하며, 복잡한 응용 프로그램에 적합하고, 많은 계산 처리를 지원하며 효율성과 정확성을 보장합니다." + }, + "llama-3.1-8b-instant": { + "description": "Llama 3.1 8B는 효율적인 모델로, 빠른 텍스트 생성 능력을 제공하며, 대규모 효율성과 비용 효과성이 필요한 응용 프로그램에 매우 적합합니다." + }, + "llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct 모델은 8B 매개변수를 갖추고 있으며, 화면 지시 작업의 효율적인 실행을 지원하고 우수한 텍스트 생성 능력을 제공합니다." + }, + "llama-3.1-sonar-huge-128k-online": { + "description": "Llama 3.1 Sonar Huge Online 모델은 405B 매개변수를 갖추고 있으며, 약 127,000개의 토큰의 컨텍스트 길이를 지원하여 복잡한 온라인 채팅 애플리케이션을 위해 설계되었습니다." + }, + "llama-3.1-sonar-large-128k-chat": { + "description": "Llama 3.1 Sonar Large Chat 모델은 70B 매개변수를 갖추고 있으며, 약 127,000개의 토큰의 컨텍스트 길이를 지원하여 복잡한 오프라인 채팅 작업에 적합합니다." + }, + "llama-3.1-sonar-large-128k-online": { + "description": "Llama 3.1 Sonar Large Online 모델은 70B 매개변수를 갖추고 있으며, 약 127,000개의 토큰의 컨텍스트 길이를 지원하여 대용량 및 다양한 채팅 작업에 적합합니다." + }, + "llama-3.1-sonar-small-128k-chat": { + "description": "Llama 3.1 Sonar Small Chat 모델은 8B 매개변수를 갖추고 있으며, 오프라인 채팅을 위해 설계되어 약 127,000개의 토큰의 컨텍스트 길이를 지원합니다." + }, + "llama-3.1-sonar-small-128k-online": { + "description": "Llama 3.1 Sonar Small Online 모델은 8B 매개변수를 갖추고 있으며, 약 127,000개의 토큰의 컨텍스트 길이를 지원하여 온라인 채팅을 위해 설계되었습니다." + }, + "llama3-70b-8192": { + "description": "Meta Llama 3 70B는 비할 데 없는 복잡성 처리 능력을 제공하며, 높은 요구 사항을 가진 프로젝트에 맞춤형으로 설계되었습니다." + }, + "llama3-8b-8192": { + "description": "Meta Llama 3 8B는 우수한 추론 성능을 제공하며, 다양한 응용 프로그램 요구에 적합합니다." + }, + "llama3-groq-70b-8192-tool-use-preview": { + "description": "Llama 3 Groq 70B Tool Use는 강력한 도구 호출 능력을 제공하며, 복잡한 작업의 효율적인 처리를 지원합니다." + }, + "llama3-groq-8b-8192-tool-use-preview": { + "description": "Llama 3 Groq 8B Tool Use는 효율적인 도구 사용을 위해 최적화된 모델로, 빠른 병렬 계산을 지원합니다." + }, + "llama3.1": { + "description": "Llama 3.1은 Meta에서 출시한 선도적인 모델로, 최대 405B 매개변수를 지원하며, 복잡한 대화, 다국어 번역 및 데이터 분석 분야에 적용될 수 있습니다." + }, + "llama3.1:405b": { + "description": "Llama 3.1은 Meta에서 출시한 선도적인 모델로, 최대 405B 매개변수를 지원하며, 복잡한 대화, 다국어 번역 및 데이터 분석 분야에 적용될 수 있습니다." + }, + "llama3.1:70b": { + "description": "Llama 3.1은 Meta에서 출시한 선도적인 모델로, 최대 405B 매개변수를 지원하며, 복잡한 대화, 다국어 번역 및 데이터 분석 분야에 적용될 수 있습니다." + }, + "llava": { + "description": "LLaVA는 시각 인코더와 Vicuna를 결합한 다중 모달 모델로, 강력한 시각 및 언어 이해를 제공합니다." + }, + "llava-v1.5-7b-4096-preview": { + "description": "LLaVA 1.5 7B는 시각 처리 능력을 융합하여, 시각 정보 입력을 통해 복잡한 출력을 생성합니다." + }, + "llava:13b": { + "description": "LLaVA는 시각 인코더와 Vicuna를 결합한 다중 모달 모델로, 강력한 시각 및 언어 이해를 제공합니다." + }, + "llava:34b": { + "description": "LLaVA는 시각 인코더와 Vicuna를 결합한 다중 모달 모델로, 강력한 시각 및 언어 이해를 제공합니다." + }, + "mathstral": { + "description": "MathΣtral은 과학 연구 및 수학 추론을 위해 설계되었으며, 효과적인 계산 능력과 결과 해석을 제공합니다." + }, + "meta-llama/Llama-2-13b-chat-hf": { + "description": "LLaMA-2 Chat (13B)는 뛰어난 언어 처리 능력과 우수한 상호작용 경험을 제공합니다." + }, + "meta-llama/Llama-3-70b-chat-hf": { + "description": "LLaMA-3 Chat (70B)는 강력한 채팅 모델로, 복잡한 대화 요구를 지원합니다." + }, + "meta-llama/Llama-3-8b-chat-hf": { + "description": "LLaMA-3 Chat (8B)는 다국어 지원을 제공하며, 풍부한 분야 지식을 포함합니다." + }, + "meta-llama/Meta-Llama-3-70B-Instruct": { + "description": "LLaMA 3는 대용량 텍스트 생성 및 지시 해석을 지원합니다." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { + "description": "Llama 3 70B Instruct Lite는 효율성과 낮은 지연 시간이 필요한 환경에 적합합니다." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": { + "description": "Llama 3 70B Instruct Turbo는 뛰어난 언어 이해 및 생성 능력을 제공하며, 가장 까다로운 계산 작업에 적합합니다." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Lite": { + "description": "Llama 3 8B Instruct Lite는 자원이 제한된 환경에 적합하며, 뛰어난 균형 성능을 제공합니다." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": { + "description": "Llama 3 8B Instruct Turbo는 효율적인 대형 언어 모델로, 광범위한 응용 분야를 지원합니다." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct": { + "description": "LLaMA 3.1 405B는 사전 훈련 및 지시 조정의 강력한 모델입니다." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": { + "description": "405B Llama 3.1 Turbo 모델은 대규모 데이터 처리를 위한 초대용량의 컨텍스트 지원을 제공하며, 초대규모 인공지능 애플리케이션에서 뛰어난 성능을 발휘합니다." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct": { + "description": "LLaMA 3.1 70B는 다국어의 효율적인 대화 지원을 제공합니다." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": { + "description": "Llama 3.1 70B 모델은 정밀 조정되어 고부하 애플리케이션에 적합하며, FP8로 양자화되어 더 높은 효율의 계산 능력과 정확성을 제공합니다." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct": { + "description": "LLaMA 3.1은 다국어 지원을 제공하며, 업계에서 선도하는 생성 모델 중 하나입니다." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": { + "description": "Llama 3.1 8B 모델은 FP8 양자화를 사용하여 최대 131,072개의 컨텍스트 토큰을 지원하며, 오픈 소스 모델 중에서 뛰어난 성능을 발휘하여 복잡한 작업에 적합합니다." + }, + "meta-llama/llama-3-70b-instruct": { + "description": "Llama 3 70B Instruct는 고품질 대화 시나리오에 최적화되어 있으며, 다양한 인간 평가에서 뛰어난 성능을 보여줍니다." + }, + "meta-llama/llama-3-8b-instruct": { + "description": "Llama 3 8B Instruct는 고품질 대화 시나리오에 최적화되어 있으며, 많은 폐쇄형 모델보다 우수한 성능을 보입니다." + }, + "meta-llama/llama-3.1-405b-instruct": { + "description": "Llama 3.1 405B Instruct는 Meta에서 새롭게 출시한 버전으로, 고품질 대화 생성을 위해 최적화되어 있으며, 많은 선도적인 폐쇄형 모델을 초월합니다." + }, + "meta-llama/llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct는 고품질 대화를 위해 설계되었으며, 인간 평가에서 뛰어난 성능을 보여주고, 특히 높은 상호작용 시나리오에 적합합니다." + }, + "meta-llama/llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct는 Meta에서 출시한 최신 버전으로, 고품질 대화 시나리오에 최적화되어 있으며, 많은 선도적인 폐쇄형 모델보다 우수한 성능을 보입니다." + }, + "meta-llama/llama-3.1-8b-instruct:free": { + "description": "LLaMA 3.1은 다국어 지원을 제공하며, 업계 최고의 생성 모델 중 하나입니다." + }, + "meta.llama3-1-405b-instruct-v1:0": { + "description": "Meta Llama 3.1 405B Instruct는 Llama 3.1 Instruct 모델 중 가장 크고 강력한 모델로, 고도로 발전된 대화 추론 및 합성 데이터 생성 모델입니다. 특정 분야에서 전문적인 지속적 사전 훈련 또는 미세 조정의 기초로도 사용될 수 있습니다. Llama 3.1이 제공하는 다국어 대형 언어 모델(LLMs)은 8B, 70B 및 405B 크기의 사전 훈련된 지시 조정 생성 모델로 구성되어 있습니다(텍스트 입력/출력). Llama 3.1 지시 조정 텍스트 모델(8B, 70B, 405B)은 다국어 대화 사용 사례에 최적화되어 있으며, 일반 산업 벤치마크 테스트에서 많은 오픈 소스 채팅 모델을 초과했습니다. Llama 3.1은 다양한 언어의 상업적 및 연구 용도로 설계되었습니다. 지시 조정 텍스트 모델은 비서와 유사한 채팅에 적합하며, 사전 훈련 모델은 다양한 자연어 생성 작업에 적응할 수 있습니다. Llama 3.1 모델은 또한 모델의 출력을 활용하여 다른 모델을 개선하는 것을 지원하며, 합성 데이터 생성 및 정제에 사용될 수 있습니다. Llama 3.1은 최적화된 변압기 아키텍처를 사용한 자기 회귀 언어 모델입니다. 조정된 버전은 감독 미세 조정(SFT) 및 인간 피드백이 포함된 강화 학습(RLHF)을 사용하여 인간의 도움 및 안전성 선호에 부합하도록 설계되었습니다." + }, + "meta.llama3-1-70b-instruct-v1:0": { + "description": "Meta Llama 3.1 70B Instruct의 업데이트 버전으로, 확장된 128K 컨텍스트 길이, 다국어 지원 및 개선된 추론 능력을 포함합니다. Llama 3.1이 제공하는 다국어 대형 언어 모델(LLMs)은 사전 훈련된 지침 조정 생성 모델의 집합으로, 8B, 70B 및 405B 크기(텍스트 입력/출력)를 포함합니다. Llama 3.1 지침 조정 텍스트 모델(8B, 70B, 405B)은 다국어 대화 사용 사례에 최적화되어 있으며, 일반적인 산업 벤치마크 테스트에서 많은 사용 가능한 오픈 소스 채팅 모델을 초월했습니다. Llama 3.1은 다양한 언어의 상업적 및 연구 용도로 사용되도록 설계되었습니다. 지침 조정 텍스트 모델은 비서와 유사한 채팅에 적합하며, 사전 훈련된 모델은 다양한 자연어 생성 작업에 적응할 수 있습니다. Llama 3.1 모델은 또한 모델의 출력을 활용하여 다른 모델을 개선하는 데 지원하며, 합성 데이터 생성 및 정제 작업을 포함합니다. Llama 3.1은 최적화된 변압기 아키텍처를 사용한 자기 회귀 언어 모델입니다. 조정된 버전은 감독 미세 조정(SFT) 및 인간 피드백을 통한 강화 학습(RLHF)을 사용하여 인간의 도움 및 안전성 선호에 부합하도록 설계되었습니다." + }, + "meta.llama3-1-8b-instruct-v1:0": { + "description": "Meta Llama 3.1 8B Instruct의 업데이트 버전으로, 확장된 128K 컨텍스트 길이, 다국어 지원 및 개선된 추론 능력을 포함합니다. Llama 3.1이 제공하는 다국어 대형 언어 모델(LLMs)은 사전 훈련된 지침 조정 생성 모델의 집합으로, 8B, 70B 및 405B 크기(텍스트 입력/출력)를 포함합니다. Llama 3.1 지침 조정 텍스트 모델(8B, 70B, 405B)은 다국어 대화 사용 사례에 최적화되어 있으며, 일반적인 산업 벤치마크 테스트에서 많은 사용 가능한 오픈 소스 채팅 모델을 초월했습니다. Llama 3.1은 다양한 언어의 상업적 및 연구 용도로 사용되도록 설계되었습니다. 지침 조정 텍스트 모델은 비서와 유사한 채팅에 적합하며, 사전 훈련된 모델은 다양한 자연어 생성 작업에 적응할 수 있습니다. Llama 3.1 모델은 또한 모델의 출력을 활용하여 다른 모델을 개선하는 데 지원하며, 합성 데이터 생성 및 정제 작업을 포함합니다. Llama 3.1은 최적화된 변압기 아키텍처를 사용한 자기 회귀 언어 모델입니다. 조정된 버전은 감독 미세 조정(SFT) 및 인간 피드백을 통한 강화 학습(RLHF)을 사용하여 인간의 도움 및 안전성 선호에 부합하도록 설계되었습니다." + }, + "meta.llama3-70b-instruct-v1:0": { + "description": "Meta Llama 3은 개발자, 연구자 및 기업을 위한 오픈 대형 언어 모델(LLM)로, 생성 AI 아이디어를 구축하고 실험하며 책임감 있게 확장하는 데 도움을 주기 위해 설계되었습니다. 전 세계 커뮤니티 혁신의 기초 시스템의 일환으로, 콘텐츠 생성, 대화 AI, 언어 이해, 연구 개발 및 기업 응용에 매우 적합합니다." + }, + "meta.llama3-8b-instruct-v1:0": { + "description": "Meta Llama 3은 개발자, 연구자 및 기업을 위한 오픈 대형 언어 모델(LLM)로, 생성 AI 아이디어를 구축하고 실험하며 책임감 있게 확장하는 데 도움을 주기 위해 설계되었습니다. 전 세계 커뮤니티 혁신의 기초 시스템의 일환으로, 계산 능력과 자원이 제한된 환경, 엣지 장치 및 더 빠른 훈련 시간에 매우 적합합니다." + }, + "microsoft/wizardlm 2-7b": { + "description": "WizardLM 2 7B는 Microsoft AI의 최신 경량 모델로, 기존 오픈 소스 선도 모델의 성능에 근접합니다." + }, + "microsoft/wizardlm-2-8x22b": { + "description": "WizardLM-2 8x22B는 마이크로소프트 AI의 최첨단 Wizard 모델로, 매우 경쟁력 있는 성능을 보여줍니다." + }, + "minicpm-v": { + "description": "MiniCPM-V는 OpenBMB에서 출시한 차세대 다중 모달 대형 모델로, 뛰어난 OCR 인식 및 다중 모달 이해 능력을 갖추고 있으며, 다양한 응용 프로그램을 지원합니다." + }, + "mistral": { + "description": "Mistral은 Mistral AI에서 출시한 7B 모델로, 변화하는 언어 처리 요구에 적합합니다." + }, + "mistral-large": { + "description": "Mixtral Large는 Mistral의 플래그십 모델로, 코드 생성, 수학 및 추론 능력을 결합하여 128k 컨텍스트 창을 지원합니다." + }, + "mistral-large-latest": { + "description": "Mistral Large는 플래그십 대형 모델로, 다국어 작업, 복잡한 추론 및 코드 생성에 능숙하여 고급 응용 프로그램에 이상적인 선택입니다." + }, + "mistral-nemo": { + "description": "Mistral Nemo는 Mistral AI와 NVIDIA가 협력하여 출시한 고효율 12B 모델입니다." + }, + "mistralai/Mistral-7B-Instruct-v0.1": { + "description": "Mistral (7B) Instruct는 높은 성능으로 유명하며, 다양한 언어 작업에 적합합니다." + }, + "mistralai/Mistral-7B-Instruct-v0.2": { + "description": "Mistral 7B는 필요에 따라 미세 조정된 모델로, 작업에 최적화된 해답을 제공합니다." + }, + "mistralai/Mistral-7B-Instruct-v0.3": { + "description": "Mistral (7B) Instruct v0.3는 효율적인 계산 능력과 자연어 이해를 제공하며, 광범위한 응용에 적합합니다." + }, + "mistralai/Mixtral-8x22B-Instruct-v0.1": { + "description": "Mixtral-8x22B Instruct (141B)는 슈퍼 대형 언어 모델로, 극도의 처리 요구를 지원합니다." + }, + "mistralai/Mixtral-8x7B-Instruct-v0.1": { + "description": "Mixtral 8x7B는 일반 텍스트 작업을 위한 사전 훈련된 희소 혼합 전문가 모델입니다." + }, + "mistralai/mistral-7b-instruct": { + "description": "Mistral 7B Instruct는 속도 최적화와 긴 컨텍스트 지원을 갖춘 고성능 산업 표준 모델입니다." + }, + "mistralai/mistral-nemo": { + "description": "Mistral Nemo는 다국어 지원과 고성능 프로그래밍을 위한 7.3B 파라미터 모델입니다." + }, + "mixtral": { + "description": "Mixtral은 Mistral AI의 전문가 모델로, 오픈 소스 가중치를 가지고 있으며, 코드 생성 및 언어 이해를 지원합니다." + }, + "mixtral-8x7b-32768": { + "description": "Mixtral 8x7B는 높은 내결함성을 가진 병렬 계산 능력을 제공하며, 복잡한 작업에 적합합니다." + }, + "mixtral:8x22b": { + "description": "Mixtral은 Mistral AI의 전문가 모델로, 오픈 소스 가중치를 가지고 있으며, 코드 생성 및 언어 이해를 지원합니다." + }, + "moonshot-v1-128k": { + "description": "Moonshot V1 128K는 초장기 컨텍스트 처리 능력을 갖춘 모델로, 초장문 생성을 위해 설계되었으며, 복잡한 생성 작업 요구를 충족하고 최대 128,000개의 토큰을 처리할 수 있어, 연구, 학술 및 대형 문서 생성 등 응용 시나리오에 매우 적합합니다." + }, + "moonshot-v1-32k": { + "description": "Moonshot V1 32K는 중간 길이의 컨텍스트 처리 능력을 제공하며, 32,768개의 토큰을 처리할 수 있어, 다양한 장문 및 복잡한 대화 생성을 위해 특히 적합하며, 콘텐츠 생성, 보고서 작성 및 대화 시스템 등 분야에 활용됩니다." + }, + "moonshot-v1-8k": { + "description": "Moonshot V1 8K는 짧은 텍스트 작업 생성을 위해 설계되었으며, 효율적인 처리 성능을 갖추고 있어 8,192개의 토큰을 처리할 수 있으며, 짧은 대화, 속기 및 빠른 콘텐츠 생성에 매우 적합합니다." + }, + "nousresearch/hermes-2-pro-llama-3-8b": { + "description": "Hermes 2 Pro Llama 3 8B는 Nous Hermes 2의 업그레이드 버전으로, 최신 내부 개발 데이터 세트를 포함하고 있습니다." + }, + "o1-mini": { + "description": "o1-mini는 프로그래밍, 수학 및 과학 응용 프로그램을 위해 설계된 빠르고 경제적인 추론 모델입니다. 이 모델은 128K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다." + }, + "o1-preview": { + "description": "o1은 OpenAI의 새로운 추론 모델로, 광범위한 일반 지식이 필요한 복잡한 작업에 적합합니다. 이 모델은 128K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다." + }, + "open-codestral-mamba": { + "description": "Codestral Mamba는 코드 생성을 전문으로 하는 Mamba 2 언어 모델로, 고급 코드 및 추론 작업에 강력한 지원을 제공합니다." + }, + "open-mistral-7b": { + "description": "Mistral 7B는 컴팩트하지만 고성능 모델로, 분류 및 텍스트 생성과 같은 간단한 작업 및 배치 처리에 능숙하며, 우수한 추론 능력을 갖추고 있습니다." + }, + "open-mistral-nemo": { + "description": "Mistral Nemo는 NVIDIA와 협력하여 개발된 12B 모델로, 뛰어난 추론 및 인코딩 성능을 제공하며, 통합 및 교체가 용이합니다." + }, + "open-mixtral-8x22b": { + "description": "Mixtral 8x22B는 더 큰 전문가 모델로, 복잡한 작업에 중점을 두고 뛰어난 추론 능력과 더 높은 처리량을 제공합니다." + }, + "open-mixtral-8x7b": { + "description": "Mixtral 8x7B는 희소 전문가 모델로, 여러 매개변수를 활용하여 추론 속도를 높이며, 다국어 및 코드 생성 작업 처리에 적합합니다." + }, + "openai/gpt-4o-2024-08-06": { + "description": "ChatGPT-4o는 동적 모델로, 최신 버전을 유지하기 위해 실시간으로 업데이트됩니다. 강력한 언어 이해 및 생성 능력을 결합하여 고객 서비스, 교육 및 기술 지원을 포함한 대규모 응용 프로그램에 적합합니다." + }, + "openai/gpt-4o-mini": { + "description": "GPT-4o mini는 OpenAI가 GPT-4 Omni 이후에 출시한 최신 모델로, 이미지와 텍스트 입력을 지원하며 텍스트를 출력합니다. 가장 진보된 소형 모델로, 최근의 다른 최첨단 모델보다 훨씬 저렴하며, GPT-3.5 Turbo보다 60% 이상 저렴합니다. 최첨단 지능을 유지하면서도 뛰어난 가성비를 자랑합니다. GPT-4o mini는 MMLU 테스트에서 82%의 점수를 기록했으며, 현재 채팅 선호도에서 GPT-4보다 높은 순위를 차지하고 있습니다." + }, + "openai/o1-mini": { + "description": "o1-mini는 프로그래밍, 수학 및 과학 응용 프로그램을 위해 설계된 빠르고 경제적인 추론 모델입니다. 이 모델은 128K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다." + }, + "openai/o1-preview": { + "description": "o1은 OpenAI의 새로운 추론 모델로, 광범위한 일반 지식이 필요한 복잡한 작업에 적합합니다. 이 모델은 128K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다." + }, + "openchat/openchat-7b": { + "description": "OpenChat 7B는 'C-RLFT(조건 강화 학습 미세 조정)' 전략으로 정교하게 조정된 오픈 소스 언어 모델 라이브러리입니다." + }, + "openrouter/auto": { + "description": "요청은 컨텍스트 길이, 주제 및 복잡성에 따라 Llama 3 70B Instruct, Claude 3.5 Sonnet(자기 조정) 또는 GPT-4o로 전송됩니다." + }, + "phi3": { + "description": "Phi-3는 Microsoft에서 출시한 경량 오픈 모델로, 효율적인 통합 및 대규모 지식 추론에 적합합니다." + }, + "phi3:14b": { + "description": "Phi-3는 Microsoft에서 출시한 경량 오픈 모델로, 효율적인 통합 및 대규모 지식 추론에 적합합니다." + }, + "qwen-long": { + "description": "통의천문 초대규모 언어 모델로, 긴 텍스트 컨텍스트를 지원하며, 긴 문서 및 다수의 문서에 기반한 대화 기능을 제공합니다." + }, + "qwen-max": { + "description": "통의천문 천억급 초대규모 언어 모델로, 중국어, 영어 등 다양한 언어 입력을 지원하며, 현재 통의천문 2.5 제품 버전의 API 모델입니다." + }, + "qwen-max-longcontext": { + "description": "통의천문 천억급 초대규모 언어 모델로, 중국어, 영어 등 다양한 언어 입력을 지원하며, 컨텍스트 창을 확장했습니다." + }, + "qwen-plus": { + "description": "통의천문 초대규모 언어 모델의 강화 버전으로, 중국어, 영어 등 다양한 언어 입력을 지원합니다." + }, + "qwen-turbo": { + "description": "통의천문 초대규모 언어 모델로, 중국어, 영어 등 다양한 언어 입력을 지원합니다." + }, + "qwen-vl-chat-v1": { + "description": "통의천문 VL은 다중 이미지, 다중 회차 질문 응답, 창작 등 유연한 상호작용 방식을 지원하는 모델입니다." + }, + "qwen-vl-max": { + "description": "통의천문 초대규모 시각 언어 모델로, 강화 버전보다 시각적 추론 능력과 지시 준수 능력을 다시 향상시켜 더 높은 시각적 인식 및 인지 수준을 제공합니다." + }, + "qwen-vl-plus": { + "description": "통의천문 대규모 시각 언어 모델의 강화 버전으로, 세부 사항 인식 능력과 문자 인식 능력을 크게 향상시켰으며, 백만 화소 이상의 해상도와 임의의 가로 세로 비율의 이미지를 지원합니다." + }, + "qwen-vl-v1": { + "description": "Qwen-7B 언어 모델로 초기화된 모델로, 이미지 모델을 추가하여 이미지 입력 해상도가 448인 사전 훈련 모델입니다." + }, + "qwen/qwen-2-7b-instruct:free": { + "description": "Qwen2는 더 강력한 이해 및 생성 능력을 갖춘 새로운 대형 언어 모델 시리즈입니다." + }, + "qwen2": { + "description": "Qwen2는 Alibaba의 차세대 대규모 언어 모델로, 뛰어난 성능으로 다양한 응용 요구를 지원합니다." + }, + "qwen2-57b-a14b-instruct": { + "description": "통의천문 2가 외부에 공개한 57B 규모 14B 활성화 매개변수의 MOE 모델입니다." + }, + "qwen2-72b-instruct": { + "description": "통의천문 2가 외부에 공개한 72B 규모의 모델입니다." + }, + "qwen2-7b-instruct": { + "description": "통의천문 2가 외부에 공개한 7B 규모의 모델입니다." + }, + "qwen2-math-72b-instruct": { + "description": "Qwen2-Math 모델은 강력한 수학 문제 해결 능력을 갖추고 있습니다." + }, + "qwen2:0.5b": { + "description": "Qwen2는 Alibaba의 차세대 대규모 언어 모델로, 뛰어난 성능으로 다양한 응용 요구를 지원합니다." + }, + "qwen2:1.5b": { + "description": "Qwen2는 Alibaba의 차세대 대규모 언어 모델로, 뛰어난 성능으로 다양한 응용 요구를 지원합니다." + }, + "qwen2:72b": { + "description": "Qwen2는 Alibaba의 차세대 대규모 언어 모델로, 뛰어난 성능으로 다양한 응용 요구를 지원합니다." + }, + "solar-1-mini-chat": { + "description": "Solar Mini는 컴팩트한 LLM으로, GPT-3.5보다 성능이 우수하며, 강력한 다국어 능력을 갖추고 있어 영어와 한국어를 지원하며, 효율적이고 소형 솔루션을 제공합니다." + }, + "solar-1-mini-chat-ja": { + "description": "Solar Mini (Ja)는 Solar Mini의 능력을 확장하여 일본어에 중점을 두고 있으며, 영어와 한국어 사용에서도 효율적이고 뛰어난 성능을 유지합니다." + }, + "solar-pro": { + "description": "Solar Pro는 Upstage에서 출시한 고지능 LLM으로, 단일 GPU의 지시 추적 능력에 중점을 두고 있으며, IFEval 점수가 80 이상입니다. 현재 영어를 지원하며, 정식 버전은 2024년 11월에 출시될 예정이며, 언어 지원 및 컨텍스트 길이를 확장할 계획입니다." + }, + "step-1-128k": { + "description": "성능과 비용의 균형을 맞추어 일반적인 시나리오에 적합합니다." + }, + "step-1-256k": { + "description": "초장기 컨텍스트 처리 능력을 갖추고 있으며, 특히 긴 문서 분석에 적합합니다." + }, + "step-1-32k": { + "description": "중간 길이의 대화를 지원하며, 다양한 응용 시나리오에 적합합니다." + }, + "step-1-8k": { + "description": "소형 모델로, 경량 작업에 적합합니다." + }, + "step-1-flash": { + "description": "고속 모델로, 실시간 대화에 적합합니다." + }, + "step-1v-32k": { + "description": "시각 입력을 지원하여 다중 모달 상호작용 경험을 강화합니다." + }, + "step-1v-8k": { + "description": "소형 비주얼 모델로, 기본적인 텍스트 및 이미지 작업에 적합합니다." + }, + "step-2-16k": { + "description": "대규모 컨텍스트 상호작용을 지원하며, 복잡한 대화 시나리오에 적합합니다." + }, + "taichu_llm": { + "description": "자이동 태초 언어 대모델은 뛰어난 언어 이해 능력과 텍스트 창작, 지식 질문 응답, 코드 프로그래밍, 수학 계산, 논리 추론, 감정 분석, 텍스트 요약 등의 능력을 갖추고 있습니다. 혁신적으로 대규모 데이터 사전 훈련과 다원적 풍부한 지식을 결합하여 알고리즘 기술을 지속적으로 다듬고, 방대한 텍스트 데이터에서 어휘, 구조, 문법, 의미 등의 새로운 지식을 지속적으로 흡수하여 모델 성능을 지속적으로 진화시킵니다. 사용자에게 보다 편리한 정보와 서비스, 그리고 더 지능적인 경험을 제공합니다." + }, + "togethercomputer/StripedHyena-Nous-7B": { + "description": "StripedHyena Nous (7B)는 효율적인 전략과 모델 아키텍처를 통해 향상된 계산 능력을 제공합니다." + }, + "upstage/SOLAR-10.7B-Instruct-v1.0": { + "description": "Upstage SOLAR Instruct v1 (11B)는 세밀한 지시 작업에 적합하며, 뛰어난 언어 처리 능력을 제공합니다." + }, + "wizardlm2": { + "description": "WizardLM 2는 Microsoft AI에서 제공하는 언어 모델로, 복잡한 대화, 다국어, 추론 및 스마트 어시스턴트 분야에서 특히 뛰어난 성능을 발휘합니다." + }, + "wizardlm2:8x22b": { + "description": "WizardLM 2는 Microsoft AI에서 제공하는 언어 모델로, 복잡한 대화, 다국어, 추론 및 스마트 어시스턴트 분야에서 특히 뛰어난 성능을 발휘합니다." + }, + "yi-large": { + "description": "새로운 1000억 매개변수 모델로, 강력한 질문 응답 및 텍스트 생성 능력을 제공합니다." + }, + "yi-large-fc": { + "description": "yi-large 모델을 기반으로 도구 호출 능력을 지원하고 강화하여 다양한 에이전트 또는 워크플로우 구축이 필요한 비즈니스 시나리오에 적합합니다." + }, + "yi-large-preview": { + "description": "초기 버전으로, yi-large(신버전) 사용을 권장합니다." + }, + "yi-large-rag": { + "description": "yi-large 초강력 모델을 기반으로 한 고급 서비스로, 검색 및 생성 기술을 결합하여 정확한 답변을 제공하며, 실시간으로 전 세계 정보를 검색하는 서비스를 제공합니다." + }, + "yi-large-turbo": { + "description": "초고성능, 뛰어난 성능. 성능과 추론 속도, 비용을 기준으로 균형 잡힌 고정밀 조정을 수행합니다." + }, + "yi-medium": { + "description": "중형 모델 업그레이드 및 미세 조정으로, 능력이 균형 잡히고 가성비가 높습니다. 지시 따르기 능력을 깊이 최적화하였습니다." + }, + "yi-medium-200k": { + "description": "200K 초장기 컨텍스트 창을 지원하여 긴 텍스트의 깊은 이해 및 생성 능력을 제공합니다." + }, + "yi-spark": { + "description": "작고 강력한 경량 모델로, 강화된 수학 연산 및 코드 작성 능력을 제공합니다." + }, + "yi-vision": { + "description": "복잡한 시각 작업 모델로, 고성능 이미지 이해 및 분석 능력을 제공합니다." + } +} diff --git a/locales/ko-KR/providers.json b/locales/ko-KR/providers.json new file mode 100644 index 000000000000..d0c463fef718 --- /dev/null +++ b/locales/ko-KR/providers.json @@ -0,0 +1,80 @@ +{ + "ai360": { + "description": "360 AI는 360 회사가 출시한 AI 모델 및 서비스 플랫폼으로, 360GPT2 Pro, 360GPT Pro, 360GPT Turbo 및 360GPT Turbo Responsibility 8K를 포함한 다양한 고급 자연어 처리 모델을 제공합니다. 이러한 모델은 대규모 매개변수와 다중 모드 능력을 결합하여 텍스트 생성, 의미 이해, 대화 시스템 및 코드 생성 등 다양한 분야에 널리 사용됩니다. 유연한 가격 전략을 통해 360 AI는 다양한 사용자 요구를 충족하고 개발자가 통합할 수 있도록 지원하여 스마트화 응용 프로그램의 혁신과 발전을 촉진합니다." + }, + "anthropic": { + "description": "Anthropic은 인공지능 연구 및 개발에 집중하는 회사로, Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus 및 Claude 3 Haiku와 같은 고급 언어 모델을 제공합니다. 이러한 모델은 지능, 속도 및 비용 간의 이상적인 균형을 이루며, 기업급 작업 부하에서부터 빠른 응답이 필요한 다양한 응용 프로그램에 적합합니다. Claude 3.5 Sonnet은 최신 모델로, 여러 평가에서 우수한 성능을 보이며 높은 비용 효율성을 유지하고 있습니다." + }, + "azure": { + "description": "Azure는 GPT-3.5 및 최신 GPT-4 시리즈를 포함한 다양한 고급 AI 모델을 제공하며, 다양한 데이터 유형과 복잡한 작업을 지원하고 안전하고 신뢰할 수 있으며 지속 가능한 AI 솔루션을 목표로 하고 있습니다." + }, + "baichuan": { + "description": "百川智能은 인공지능 대형 모델 연구 개발에 집중하는 회사로, 그 모델은 국내 지식 백과, 긴 텍스트 처리 및 생성 창작 등 중국어 작업에서 뛰어난 성능을 보이며, 해외 주류 모델을 초월합니다. 百川智能은 업계 선도적인 다중 모드 능력을 갖추고 있으며, 여러 권위 있는 평가에서 우수한 성능을 보였습니다. 그 모델에는 Baichuan 4, Baichuan 3 Turbo 및 Baichuan 3 Turbo 128k 등이 포함되어 있으며, 각각 다른 응용 시나리오에 최적화되어 비용 효율적인 솔루션을 제공합니다." + }, + "bedrock": { + "description": "Bedrock은 아마존 AWS가 제공하는 서비스로, 기업에 고급 AI 언어 모델과 비주얼 모델을 제공합니다. 그 모델 가족에는 Anthropic의 Claude 시리즈, Meta의 Llama 3.1 시리즈 등이 포함되어 있으며, 경량형부터 고성능까지 다양한 선택지를 제공하고 텍스트 생성, 대화, 이미지 처리 등 여러 작업을 지원하여 다양한 규모와 요구의 기업 응용 프로그램에 적합합니다." + }, + "deepseek": { + "description": "DeepSeek는 인공지능 기술 연구 및 응용에 집중하는 회사로, 최신 모델인 DeepSeek-V2.5는 일반 대화 및 코드 처리 능력을 통합하고 인간의 선호 정렬, 작문 작업 및 지시 따르기 등에서 상당한 향상을 이루었습니다." + }, + "fireworksai": { + "description": "Fireworks AI는 기능 호출 및 다중 모드 처리를 전문으로 하는 선도적인 고급 언어 모델 서비스 제공업체입니다. 최신 모델인 Firefunction V2는 Llama-3를 기반으로 하며, 함수 호출, 대화 및 지시 따르기에 최적화되어 있습니다. 비주얼 언어 모델인 FireLLaVA-13B는 이미지와 텍스트 혼합 입력을 지원합니다. 기타 주목할 만한 모델로는 Llama 시리즈와 Mixtral 시리즈가 있으며, 효율적인 다국어 지시 따르기 및 생성 지원을 제공합니다." + }, + "google": { + "description": "Google의 Gemini 시리즈는 Google DeepMind가 개발한 가장 진보된 범용 AI 모델로, 다중 모드 설계를 통해 텍스트, 코드, 이미지, 오디오 및 비디오의 원활한 이해 및 처리를 지원합니다. 데이터 센터에서 모바일 장치에 이르기까지 다양한 환경에 적합하며 AI 모델의 효율성과 응용 범위를 크게 향상시킵니다." + }, + "groq": { + "description": "Groq의 LPU 추론 엔진은 최신 독립 대형 언어 모델(LLM) 벤치마크 테스트에서 뛰어난 성능을 보이며, 놀라운 속도와 효율성으로 AI 솔루션의 기준을 재정의하고 있습니다. Groq는 즉각적인 추론 속도의 대표주자로, 클라우드 기반 배포에서 우수한 성능을 보여줍니다." + }, + "minimax": { + "description": "MiniMax는 2021년에 설립된 일반 인공지능 기술 회사로, 사용자와 함께 지능을 공동 창출하는 데 전념하고 있습니다. MiniMax는 다양한 모드의 일반 대형 모델을 독자적으로 개발하였으며, 여기에는 조 단위의 MoE 텍스트 대형 모델, 음성 대형 모델 및 이미지 대형 모델이 포함됩니다. 또한 해마 AI와 같은 응용 프로그램을 출시하였습니다." + }, + "mistral": { + "description": "Mistral은 고급 일반, 전문 및 연구형 모델을 제공하며, 복잡한 추론, 다국어 작업, 코드 생성 등 다양한 분야에 널리 사용됩니다. 기능 호출 인터페이스를 통해 사용자는 사용자 정의 기능을 통합하여 특정 응용 프로그램을 구현할 수 있습니다." + }, + "moonshot": { + "description": "Moonshot은 베이징 월의 어두운 면 기술 회사가 출시한 오픈 소스 플랫폼으로, 다양한 자연어 처리 모델을 제공하며, 콘텐츠 창작, 학술 연구, 스마트 추천, 의료 진단 등 다양한 분야에 적용됩니다. 긴 텍스트 처리 및 복잡한 생성 작업을 지원합니다." + }, + "novita": { + "description": "Novita AI는 다양한 대형 언어 모델과 AI 이미지 생성을 제공하는 API 서비스 플랫폼으로, 유연하고 신뢰할 수 있으며 비용 효율적입니다. Llama3, Mistral 등 최신 오픈 소스 모델을 지원하며, 생성적 AI 응용 프로그램 개발을 위한 포괄적이고 사용자 친화적이며 자동 확장 가능한 API 솔루션을 제공하여 AI 스타트업의 빠른 발전에 적합합니다." + }, + "ollama": { + "description": "Ollama가 제공하는 모델은 코드 생성, 수학 연산, 다국어 처리 및 대화 상호작용 등 다양한 분야를 포괄하며, 기업급 및 로컬 배포의 다양한 요구를 지원합니다." + }, + "openai": { + "description": "OpenAI는 세계 최고의 인공지능 연구 기관으로, 개발한 모델인 GPT 시리즈는 자연어 처리의 최전선에서 혁신을 이끌고 있습니다. OpenAI는 혁신적이고 효율적인 AI 솔루션을 통해 여러 산업을 변화시키는 데 전념하고 있습니다. 그들의 제품은 뛰어난 성능과 경제성을 갖추고 있어 연구, 비즈니스 및 혁신적인 응용 프로그램에서 널리 사용됩니다." + }, + "openrouter": { + "description": "OpenRouter는 OpenAI, Anthropic, LLaMA 등 다양한 최첨단 대형 모델 인터페이스를 제공하는 서비스 플랫폼으로, 다양한 개발 및 응용 요구에 적합합니다. 사용자는 자신의 필요에 따라 최적의 모델과 가격을 유연하게 선택하여 AI 경험을 향상시킬 수 있습니다." + }, + "perplexity": { + "description": "Perplexity는 선도적인 대화 생성 모델 제공업체로, 다양한 고급 Llama 3.1 모델을 제공하며, 온라인 및 오프라인 응용 프로그램을 지원하고 복잡한 자연어 처리 작업에 특히 적합합니다." + }, + "qwen": { + "description": "통의천문은 알리바바 클라우드가 자주 개발한 초대형 언어 모델로, 강력한 자연어 이해 및 생성 능력을 갖추고 있습니다. 다양한 질문에 답변하고, 텍스트 콘텐츠를 창작하며, 의견을 표현하고, 코드를 작성하는 등 여러 분야에서 활용됩니다." + }, + "siliconcloud": { + "description": "SiliconFlow는 AGI를 가속화하여 인류에 혜택을 주기 위해 사용하기 쉽고 비용이 저렴한 GenAI 스택을 통해 대규모 AI 효율성을 향상시키는 데 전념하고 있습니다." + }, + "spark": { + "description": "科大讯飞星火 대모델은 다중 분야 및 다국어의 강력한 AI 능력을 제공하며, 고급 자연어 처리 기술을 활용하여 스마트 하드웨어, 스마트 의료, 스마트 금융 등 다양한 수직 분야에 적합한 혁신적인 응용 프로그램을 구축합니다." + }, + "stepfun": { + "description": "阶级星辰 대모델은 업계 선도적인 다중 모드 및 복잡한 추론 능력을 갖추고 있으며, 초장 텍스트 이해 및 강력한 자율 스케줄링 검색 엔진 기능을 지원합니다." + }, + "taichu": { + "description": "중국과학원 자동화 연구소와 우한 인공지능 연구원이 출시한 차세대 다중 모드 대형 모델은 다중 회차 질문 응답, 텍스트 창작, 이미지 생성, 3D 이해, 신호 분석 등 포괄적인 질문 응답 작업을 지원하며, 더 강력한 인지, 이해 및 창작 능력을 갖추고 있어 새로운 상호작용 경험을 제공합니다." + }, + "togetherai": { + "description": "Together AI는 혁신적인 AI 모델을 통해 선도적인 성능을 달성하는 데 전념하며, 빠른 확장 지원 및 직관적인 배포 프로세스를 포함한 광범위한 사용자 정의 기능을 제공하여 기업의 다양한 요구를 충족합니다." + }, + "upstage": { + "description": "Upstage는 Solar LLM 및 문서 AI를 포함하여 다양한 비즈니스 요구를 위한 AI 모델 개발에 집중하고 있으며, 인공지능 일반 지능(AGI)을 실현하는 것을 목표로 하고 있습니다. Chat API를 통해 간단한 대화 에이전트를 생성하고 기능 호출, 번역, 임베딩 및 특정 분야 응용 프로그램을 지원합니다." + }, + "zeroone": { + "description": "01.AI는 AI 2.0 시대의 인공지능 기술에 집중하며, '인간 + 인공지능'의 혁신과 응용을 적극적으로 추진하고, 초강력 모델과 고급 AI 기술을 활용하여 인간의 생산성을 향상시키고 기술의 힘을 실현합니다." + }, + "zhipu": { + "description": "智谱 AI는 다중 모드 및 언어 모델의 개방형 플랫폼을 제공하며, 텍스트 처리, 이미지 이해 및 프로그래밍 지원 등 광범위한 AI 응용 프로그램 시나리오를 지원합니다." + } +} diff --git a/locales/nl-NL/common.json b/locales/nl-NL/common.json index 430f12d9672a..1603c765ff2a 100644 --- a/locales/nl-NL/common.json +++ b/locales/nl-NL/common.json @@ -195,8 +195,8 @@ }, "tab": { "chat": "Chat", + "discover": "Ontdekken", "files": "Bestanden", - "market": "Ontdekken", "me": "Ik", "setting": "Instellingen" }, diff --git a/locales/nl-NL/discover.json b/locales/nl-NL/discover.json new file mode 100644 index 000000000000..5ff3bd314579 --- /dev/null +++ b/locales/nl-NL/discover.json @@ -0,0 +1,204 @@ +{ + "assistants": { + "addAgent": "Voeg assistent toe", + "addAgentAndConverse": "Voeg assistent toe en begin een gesprek", + "addAgentSuccess": "Toevoegen geslaagd", + "conversation": { + "l1": "Hallo, ik ben **{{name}}**, je kunt me alles vragen en ik zal mijn best doen om je te helpen ~", + "l2": "Hier zijn mijn mogelijkheden: ", + "l3": "Laten we het gesprek beginnen!" + }, + "description": "Assistent introductie", + "detail": "Details", + "list": "Assistentenlijst", + "more": "Meer", + "plugins": "Geïntegreerde plugins", + "recentSubmits": "Recent bijgewerkt", + "suggestions": "Gerelateerde aanbevelingen", + "systemRole": "Assistent instellingen", + "try": "Probeer het" + }, + "back": "Terug naar Ontdekken", + "category": { + "assistant": { + "academic": "Academisch", + "all": "Alle", + "career": "Carrière", + "copywriting": "Copywriting", + "design": "Ontwerp", + "education": "Onderwijs", + "emotions": "Emoties", + "entertainment": "Entertainment", + "games": "Spellen", + "general": "Algemeen", + "life": "Leven", + "marketing": "Marketing", + "office": "Kantoor", + "programming": "Programmeren", + "translation": "Vertaling" + }, + "plugin": { + "all": "Alles", + "gaming-entertainment": "Gaming en Entertainment", + "life-style": "Levensstijl", + "media-generate": "Media Generatie", + "science-education": "Wetenschap en Educatie", + "social": "Sociale Media", + "stocks-finance": "Aandelen en Financiën", + "tools": "Hulpmiddelen", + "web-search": "Webzoektocht" + } + }, + "cleanFilter": "Filter wissen", + "create": "Creëren", + "createGuide": { + "func1": { + "desc1": "Ga naar de instellingenpagina van de assistent die je wilt indienen via de instellingen in de rechterbovenhoek van het gespreksscherm;", + "desc2": "Klik op de knop 'Indienen naar assistentmarkt' in de rechterbovenhoek.", + "tag": "Methode één", + "title": "Indienen via LobeChat" + }, + "func2": { + "button": "Ga naar de Github assistent repository", + "desc": "Als je de assistent aan de index wilt toevoegen, maak dan een item aan in de plugins map met agent-template.json of agent-template-full.json, schrijf een korte beschrijving en markeer het correct, en dien vervolgens een pull request in.", + "tag": "Methode twee", + "title": "Indienen via Github" + } + }, + "dislike": "Niet leuk", + "filter": "Filter", + "filterBy": { + "authorRange": { + "everyone": "Alle auteurs", + "followed": "Gevolgde auteurs", + "title": "Auteur bereik" + }, + "contentLength": "Minimale contextlengte", + "maxToken": { + "title": "Stel maximale lengte in (Token)", + "unlimited": "Onbeperkt" + }, + "other": { + "functionCall": "Ondersteunt functie-aanroep", + "title": "Overige", + "vision": "Ondersteunt visuele herkenning", + "withKnowledge": "Met kennisbank", + "withTool": "Met plugin" + }, + "pricing": "Modelprijs", + "timePeriod": { + "all": "Alle tijd", + "day": "Laatste 24 uur", + "month": "Laatste 30 dagen", + "title": "Tijd bereik", + "week": "Laatste 7 dagen", + "year": "Laatste jaar" + } + }, + "home": { + "featuredAssistants": "Aanbevolen assistenten", + "featuredModels": "Aanbevolen modellen", + "featuredProviders": "Aanbevolen modelproviders", + "featuredTools": "Aanbevolen plugins", + "more": "Ontdek meer" + }, + "like": "Leuk", + "models": { + "chat": "Begin gesprek", + "contentLength": "Maximale contextlengte", + "free": "Gratis", + "guide": "Configuratiegids", + "list": "Modellenlijst", + "more": "Meer", + "parameterList": { + "defaultValue": "Standaardwaarde", + "docs": "Bekijk documentatie", + "frequency_penalty": { + "desc": "Deze instelling past de frequentie aan waarmee het model specifieke woorden die al in de invoer zijn verschenen, herhaalt. Hogere waarden verminderen de kans op herhaling, terwijl negatieve waarden het tegenovergestelde effect hebben. Woordstraffen nemen niet toe met het aantal verschijningen. Negatieve waarden moedigen herhaling aan.", + "title": "Frequentie straf" + }, + "max_tokens": { + "desc": "Deze instelling definieert de maximale lengte die het model kan genereren in één enkele reactie. Een hogere waarde stelt het model in staat om langere antwoorden te genereren, terwijl een lagere waarde de lengte van de reactie beperkt, waardoor deze beknopter wordt. Het is raadzaam om deze waarde aan te passen op basis van verschillende toepassingsscenario's om de gewenste lengte en detailniveau van de reactie te bereiken.", + "title": "Beperking van de reactie in één keer" + }, + "presence_penalty": { + "desc": "Deze instelling is bedoeld om de herhaling van woorden te beheersen op basis van hun frequentie in de invoer. Het probeert minder gebruik te maken van woorden die vaker in de invoer voorkomen, in verhouding tot hun gebruiksfrequentie. Woordstraffen nemen toe met het aantal verschijningen. Negatieve waarden moedigen herhaling aan.", + "title": "Onderwerp versheid" + }, + "range": "Bereik", + "temperature": { + "desc": "Deze instelling beïnvloedt de diversiteit van de reacties van het model. Lagere waarden leiden tot meer voorspelbare en typische reacties, terwijl hogere waarden meer diverse en ongebruikelijke reacties aanmoedigen. Wanneer de waarde op 0 is ingesteld, geeft het model altijd dezelfde reactie op een gegeven invoer.", + "title": "Willekeurigheid" + }, + "title": "Modelparameters", + "top_p": { + "desc": "Deze instelling beperkt de keuze van het model tot een bepaald percentage van de meest waarschijnlijke woorden: alleen die woorden waarvan de cumulatieve waarschijnlijkheid P bereikt. Lagere waarden maken de reacties van het model voorspelbaarder, terwijl de standaardinstelling het model toestaat om uit het volledige bereik van woorden te kiezen.", + "title": "Nucleus sampling" + }, + "type": "Type" + }, + "providerInfo": { + "apiTooltip": "LobeChat ondersteunt het gebruik van een aangepaste API-sleutel voor deze provider.", + "input": "Invoerkosten", + "inputTooltip": "Kosten per miljoen tokens", + "latency": "Latentie", + "latencyTooltip": "Gemiddelde responstijd voor de eerste token van de provider", + "maxOutput": "Maximale uitvoerlengte", + "maxOutputTooltip": "Maximaal aantal tokens dat deze endpoint kan genereren", + "officialTooltip": "Officiële LobeHub service", + "output": "Uitvoerkosten", + "outputTooltip": "Kosten per miljoen tokens", + "streamCancellationTooltip": "Deze provider ondersteunt stream annulering.", + "throughput": "Doorvoer", + "throughputTooltip": "Gemiddeld aantal tokens dat per seconde wordt verzonden in stream aanvragen" + }, + "suggestions": "Gerelateerde modellen", + "supportedProviders": "Providers die dit model ondersteunen" + }, + "plugins": { + "community": "Gemeenschapsplugins", + "install": "Plugin installeren", + "installed": "Geïnstalleerd", + "list": "Pluginlijst", + "meta": { + "description": "Beschrijving", + "parameter": "Parameter", + "title": "Hulpmiddelparameters", + "type": "Type" + }, + "more": "Meer", + "official": "Officiële plugins", + "recentSubmits": "Recent ingediend", + "suggestions": "Gerelateerde aanbevelingen" + }, + "providers": { + "config": "Configuratie aanbieder", + "list": "Lijst van modelproviders", + "modelCount": "{{count}} modellen", + "modelSite": "Modeldocumentatie", + "more": "Meer", + "officialSite": "Officiële website", + "showAllModels": "Toon alle modellen", + "suggestions": "Gerelateerde aanbieders", + "supportedModels": "Ondersteunde modellen" + }, + "search": { + "placeholder": "Zoek naam, beschrijving of trefwoord...", + "result": "{{count}} resultaten over {{keyword}}", + "searching": "Zoeken..." + }, + "sort": { + "mostLiked": "Meest Geliket", + "mostUsed": "Meest Gebruikt", + "newest": "Nieuwste Eerst", + "oldest": "Oudste Eerst", + "recommended": "Aanbevolen" + }, + "tab": { + "assistants": "Assistenten", + "home": "Startpagina", + "models": "Modellen", + "plugins": "Plugins", + "providers": "Modelleveranciers" + } +} diff --git a/locales/nl-NL/metadata.json b/locales/nl-NL/metadata.json index 349cf5427bdc..2bf20a555ce6 100644 --- a/locales/nl-NL/metadata.json +++ b/locales/nl-NL/metadata.json @@ -3,9 +3,26 @@ "description": "{{appName}} biedt je de beste ervaring met ChatGPT, Claude, Gemini, en OLLaMA WebUI", "title": "{{appName}}: Persoonlijke AI-efficiëntietool, geef jezelf een slimmer brein" }, - "market": { - "description": "Inhoudcreatie, copywriting, Q&A, beeldgeneratie, video-generatie, spraakgeneratie, slimme agenten, geautomatiseerde workflows, pas je eigen AI slimme assistent aan", - "title": "Assistentenmarkt" + "discover": { + "assistants": { + "description": "Inhoud creatie, copywriting, vraag-en-antwoord, beeldgeneratie, video-generatie, spraakgeneratie, slimme agenten, geautomatiseerde workflows, pas je eigen AI / GPTs / OLLaMA slimme assistent aan", + "title": "AI-assistenten" + }, + "description": "Inhoud creatie, copywriting, vraag-en-antwoord, beeldgeneratie, video-generatie, spraakgeneratie, slimme agenten, geautomatiseerde workflows, aangepaste AI-toepassingen, pas je eigen AI-toepassingswerkplek aan", + "models": { + "description": "Verken populaire AI-modellen zoals OpenAI / GPT / Claude 3 / Gemini / Ollama / Azure / DeepSeek", + "title": "AI-modellen" + }, + "plugins": { + "description": "Zoek naar grafiekgeneratie, academische toepassingen, afbeeldingsgeneratie, videogeneratie, spraakgeneratie en geautomatiseerde workflows om rijke plug-in mogelijkheden voor je assistent te integreren.", + "title": "AI-plug-ins" + }, + "providers": { + "description": "Verken populaire modelproviders zoals OpenAI / Qwen / Ollama / Anthropic / DeepSeek / Google Gemini / OpenRouter", + "title": "AI-modelleveranciers" + }, + "search": "Zoeken", + "title": "Ontdekken" }, "plugins": { "description": "Zoeken, grafiekgeneratie, academisch, beeldgeneratie, video-generatie, spraakgeneratie, geautomatiseerde workflows, pas de ToolCall-pluginmogelijkheden van ChatGPT / Claude aan", diff --git a/locales/nl-NL/models.json b/locales/nl-NL/models.json new file mode 100644 index 000000000000..607eeefab81d --- /dev/null +++ b/locales/nl-NL/models.json @@ -0,0 +1,845 @@ +{ + "01-ai/Yi-1.5-34B-Chat-16K": { + "description": "Yi-1.5 34B biedt superieure prestaties in de industrie met rijke trainingsvoorbeelden." + }, + "01-ai/Yi-1.5-6B-Chat": { + "description": "Yi-1.5 is de evolutie van de Yi-serie, met hoogwaardige voortraining en rijke fijnstellingsdata." + }, + "01-ai/Yi-1.5-9B-Chat-16K": { + "description": "Yi-1.5 9B ondersteunt 16K tokens en biedt efficiënte, vloeiende taalgeneratiecapaciteiten." + }, + "360gpt-pro": { + "description": "360GPT Pro, als een belangrijk lid van de 360 AI-modelreeks, voldoet aan de diverse natuurlijke taaltoepassingsscenario's met efficiënte tekstverwerkingscapaciteiten en ondersteunt lange tekstbegrip en meerdaagse gesprekken." + }, + "360gpt-turbo": { + "description": "360GPT Turbo biedt krachtige reken- en gesprekscapaciteiten, met uitstekende semantische begrip en generatie-efficiëntie, en is de ideale intelligente assistentoplossing voor bedrijven en ontwikkelaars." + }, + "360gpt-turbo-responsibility-8k": { + "description": "360GPT Turbo Responsibility 8K legt de nadruk op semantische veiligheid en verantwoordelijkheid, speciaal ontworpen voor toepassingen met hoge eisen aan inhoudsveiligheid, en zorgt voor nauwkeurigheid en robuustheid in de gebruikerservaring." + }, + "360gpt2-pro": { + "description": "360GPT2 Pro is een geavanceerd natuurlijk taalverwerkingsmodel dat is ontwikkeld door 360, met uitstekende tekstgeneratie- en begripcapaciteiten, vooral in de generatieve en creatieve domeinen, en kan complexe taaltransformaties en rolinterpretatietaken aan." + }, + "4.0Ultra": { + "description": "Spark4.0 Ultra is de krachtigste versie in de Spark-grootmodelserie, die de netwerkintegratie heeft geüpgraded en de tekstbegrip- en samenvattingscapaciteiten heeft verbeterd. Het is een allesomvattende oplossing voor het verbeteren van de kantoorproductiviteit en het nauwkeurig reageren op behoeften, en is een toonaangevend intelligent product in de industrie." + }, + "Baichuan2-Turbo": { + "description": "Maakt gebruik van zoekversterkingstechnologie om een uitgebreide koppeling tussen het grote model en domeinspecifieke kennis en wereldwijde kennis te realiseren. Ondersteunt het uploaden van verschillende documenten zoals PDF en Word, evenals URL-invoer, met tijdige en uitgebreide informatieverzameling en nauwkeurige, professionele output." + }, + "Baichuan3-Turbo": { + "description": "Geoptimaliseerd voor veelvoorkomende zakelijke scenario's, met aanzienlijke verbeteringen en een hoge prijs-kwaliteitverhouding. In vergelijking met het Baichuan2-model is de inhoudsgeneratie met 20% verbeterd, de kennisvraag met 17% en de rolspelcapaciteit met 40%. De algehele prestaties zijn beter dan die van GPT-3.5." + }, + "Baichuan3-Turbo-128k": { + "description": "Met een 128K ultra-lange contextvenster, geoptimaliseerd voor veelvoorkomende zakelijke scenario's, met aanzienlijke verbeteringen en een hoge prijs-kwaliteitverhouding. In vergelijking met het Baichuan2-model is de inhoudsgeneratie met 20% verbeterd, de kennisvraag met 17% en de rolspelcapaciteit met 40%. De algehele prestaties zijn beter dan die van GPT-3.5." + }, + "Baichuan4": { + "description": "Het model heeft de beste prestaties in het binnenland en overtreft buitenlandse mainstream modellen in kennisencyclopedieën, lange teksten en creatieve generaties. Het heeft ook toonaangevende multimodale capaciteiten en presteert uitstekend in verschillende autoritatieve evaluatiebenchmarks." + }, + "Gryphe/MythoMax-L2-13b": { + "description": "MythoMax-L2 (13B) is een innovatief model, geschikt voor toepassingen in meerdere domeinen en complexe taken." + }, + "Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Hermes 2 Mixtral 8x7B DPO is een zeer flexibele multi-model combinatie, ontworpen om een uitstekende creatieve ervaring te bieden." + }, + "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) is een hoogprecisie instructiemodel, geschikt voor complexe berekeningen." + }, + "NousResearch/Nous-Hermes-2-Yi-34B": { + "description": "Nous Hermes-2 Yi (34B) biedt geoptimaliseerde taaloutput en diverse toepassingsmogelijkheden." + }, + "Pro-128k": { + "description": "Spark Pro-128K is uitgerust met een enorme contextverwerkingscapaciteit, in staat om tot 128K contextinformatie te verwerken, bijzonder geschikt voor lange teksten die volledige analyse en langdurige logische verbanden vereisen, en biedt vloeiende en consistente logica met diverse referenties in complexe tekstcommunicatie." + }, + "Qwen/Qwen1.5-110B-Chat": { + "description": "Als testversie van Qwen2 biedt Qwen1.5 nauwkeurigere gespreksfunctionaliteit door gebruik te maken van grootschalige gegevens." + }, + "Qwen/Qwen1.5-14B-Chat": { + "description": "Qwen1.5 is getraind op een grote dataset en is bedreven in complexe taalopdrachten." + }, + "Qwen/Qwen1.5-32B-Chat": { + "description": "Qwen1.5 heeft de capaciteit voor vraag-en-antwoord en tekstgeneratie in meerdere domeinen." + }, + "Qwen/Qwen1.5-72B-Chat": { + "description": "Qwen 1.5 Chat (72B) biedt snelle reacties en natuurlijke gesprekscapaciteiten, geschikt voor meertalige omgevingen." + }, + "Qwen/Qwen1.5-7B-Chat": { + "description": "Qwen1.5 verbetert de gespreksuitdrukkingscapaciteit door geavanceerde voortraining en fijnstelling te combineren." + }, + "Qwen/Qwen2-1.5B-Instruct": { + "description": "Qwen2 is een nieuwe serie grote taalmodellen, ontworpen om de verwerking van instructietaken te optimaliseren." + }, + "Qwen/Qwen2-57B-A14B-Instruct": { + "description": "Qwen2 is een nieuwe serie, waarbij het 57B A14B-model uitblinkt in instructietaken." + }, + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 is een geavanceerd algemeen taalmodel dat verschillende soorten instructies ondersteunt." + }, + "Qwen/Qwen2-7B-Instruct": { + "description": "Qwen2 is een nieuwe serie grote taalmodellen met sterkere begrip- en generatiecapaciteiten." + }, + "Qwen/Qwen2-Math-72B-Instruct": { + "description": "Qwen2-Math richt zich op probleemoplossing in de wiskunde en biedt professionele antwoorden op moeilijke vragen." + }, + "THUDM/chatglm3-6b": { + "description": "Als een tweetalig gespreksmodel kan ChatGLM3 omgaan met Chinese en Engelse conversietaken." + }, + "THUDM/glm-4-9b-chat": { + "description": "GLM-4 9B is de open-source versie die een geoptimaliseerde gesprekservaring biedt voor gespreksapplicaties." + }, + "abab5.5-chat": { + "description": "Gericht op productiviteitsscenario's, ondersteunt complexe taakverwerking en efficiënte tekstgeneratie, geschikt voor professionele toepassingen." + }, + "abab5.5s-chat": { + "description": "Speciaal ontworpen voor Chinese personagegesprekken, biedt hoogwaardige Chinese gespreksgeneratiecapaciteiten, geschikt voor diverse toepassingsscenario's." + }, + "abab6.5g-chat": { + "description": "Speciaal ontworpen voor meertalige personagegesprekken, ondersteunt hoogwaardige gespreksgeneratie in het Engels en andere talen." + }, + "abab6.5s-chat": { + "description": "Geschikt voor een breed scala aan natuurlijke taalverwerkingstaken, waaronder tekstgeneratie, conversatiesystemen, enz." + }, + "abab6.5t-chat": { + "description": "Geoptimaliseerd voor Chinese personagegesprekken, biedt vloeiende en cultureel passende gespreksgeneratiecapaciteiten." + }, + "accounts/fireworks/models/firefunction-v1": { + "description": "Fireworks open-source functie-aanroepmodel biedt uitstekende instructie-uitvoeringscapaciteiten en aanpasbare functies." + }, + "accounts/fireworks/models/firefunction-v2": { + "description": "Firefunction-v2, ontwikkeld door Fireworks, is een hoogpresterend functie-aanroepmodel, gebaseerd op Llama-3 en geoptimaliseerd voor functie-aanroepen, gesprekken en instructies." + }, + "accounts/fireworks/models/firellava-13b": { + "description": "fireworks-ai/FireLLaVA-13b is een visueel taalmodel dat zowel afbeeldingen als tekstinvoer kan verwerken, getraind op hoogwaardige gegevens, geschikt voor multimodale taken." + }, + "accounts/fireworks/models/gemma2-9b-it": { + "description": "Gemma 2 9B instructiemodel, gebaseerd op eerdere Google-technologie, geschikt voor vraagbeantwoording, samenvattingen en redenering." + }, + "accounts/fireworks/models/llama-v3-70b-instruct": { + "description": "Llama 3 70B instructiemodel, speciaal geoptimaliseerd voor meertalige gesprekken en natuurlijke taalbegrip, presteert beter dan de meeste concurrerende modellen." + }, + "accounts/fireworks/models/llama-v3-70b-instruct-hf": { + "description": "Llama 3 70B instructiemodel (HF-versie), consistent met de officiële implementatieresultaten, geschikt voor hoogwaardige instructietaken." + }, + "accounts/fireworks/models/llama-v3-8b-instruct": { + "description": "Llama 3 8B instructiemodel, geoptimaliseerd voor gesprekken en meertalige taken, presteert uitstekend en efficiënt." + }, + "accounts/fireworks/models/llama-v3-8b-instruct-hf": { + "description": "Llama 3 8B instructiemodel (HF-versie), consistent met de officiële implementatieresultaten, biedt hoge consistentie en cross-platform compatibiliteit." + }, + "accounts/fireworks/models/llama-v3p1-405b-instruct": { + "description": "Llama 3.1 405B instructiemodel heeft een enorm aantal parameters, geschikt voor complexe taken en instructies in omgevingen met hoge belasting." + }, + "accounts/fireworks/models/llama-v3p1-70b-instruct": { + "description": "Llama 3.1 70B instructiemodel biedt uitstekende natuurlijke taalbegrip en generatiecapaciteiten, ideaal voor gespreks- en analysetaken." + }, + "accounts/fireworks/models/llama-v3p1-8b-instruct": { + "description": "Llama 3.1 8B instructiemodel, geoptimaliseerd voor meertalige gesprekken, kan de meeste open-source en gesloten-source modellen overtreffen op gangbare industriestandaarden." + }, + "accounts/fireworks/models/mixtral-8x22b-instruct": { + "description": "Mixtral MoE 8x22B instructiemodel, met een groot aantal parameters en een multi-expertarchitectuur, biedt uitgebreide ondersteuning voor de efficiënte verwerking van complexe taken." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct": { + "description": "Mixtral MoE 8x7B instructiemodel, met een multi-expertarchitectuur die efficiënte instructievolging en uitvoering biedt." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct-hf": { + "description": "Mixtral MoE 8x7B instructiemodel (HF-versie), met prestaties die overeenkomen met de officiële implementatie, geschikt voor verschillende efficiënte taakscenario's." + }, + "accounts/fireworks/models/mythomax-l2-13b": { + "description": "MythoMax L2 13B model, dat gebruik maakt van innovatieve samenvoegtechnologie, is goed in verhalen vertellen en rollenspellen." + }, + "accounts/fireworks/models/phi-3-vision-128k-instruct": { + "description": "Phi 3 Vision instructiemodel, een lichtgewicht multimodaal model dat complexe visuele en tekstuele informatie kan verwerken, met sterke redeneercapaciteiten." + }, + "accounts/fireworks/models/starcoder-16b": { + "description": "StarCoder 15.5B model, ondersteunt geavanceerde programmeertaken, met verbeterde meertalige capaciteiten, geschikt voor complexe codegeneratie en -begrip." + }, + "accounts/fireworks/models/starcoder-7b": { + "description": "StarCoder 7B model, getraind op meer dan 80 programmeertalen, met uitstekende programmeervulcapaciteiten en contextbegrip." + }, + "accounts/yi-01-ai/models/yi-large": { + "description": "Yi-Large model, met uitstekende meertalige verwerkingscapaciteiten, geschikt voor verschillende taalgeneratie- en begripstaken." + }, + "anthropic.claude-3-5-sonnet-20240620-v1:0": { + "description": "Claude 3.5 Sonnet heeft de industrienormen verbeterd, met prestaties die de concurrentiemodellen en Claude 3 Opus overtreffen, en presteert uitstekend in brede evaluaties, met de snelheid en kosten van ons gemiddelde model." + }, + "anthropic.claude-3-haiku-20240307-v1:0": { + "description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, met bijna onmiddellijke reactietijden. Het kan snel eenvoudige vragen en verzoeken beantwoorden. Klanten kunnen een naadloze AI-ervaring creëren die menselijke interactie nabootst. Claude 3 Haiku kan afbeeldingen verwerken en tekstoutput retourneren, met een contextvenster van 200K." + }, + "anthropic.claude-3-opus-20240229-v1:0": { + "description": "Claude 3 Opus is het krachtigste AI-model van Anthropic, met geavanceerde prestaties op zeer complexe taken. Het kan open prompts en ongeziene scenario's verwerken, met uitstekende vloeiendheid en mensachtige begrip. Claude 3 Opus toont de grenzen van de mogelijkheden van generatieve AI. Claude 3 Opus kan afbeeldingen verwerken en tekstoutput retourneren, met een contextvenster van 200K." + }, + "anthropic.claude-3-sonnet-20240229-v1:0": { + "description": "Claude 3 Sonnet van Anthropic bereikt een ideale balans tussen intelligentie en snelheid - bijzonder geschikt voor bedrijfswerkbelasting. Het biedt maximale bruikbaarheid tegen lagere kosten dan concurrenten en is ontworpen als een betrouwbare, duurzame hoofdmachine, geschikt voor grootschalige AI-implementaties. Claude 3 Sonnet kan afbeeldingen verwerken en tekstoutput retourneren, met een contextvenster van 200K." + }, + "anthropic.claude-instant-v1": { + "description": "Een snel, kosteneffectief en toch zeer capabel model dat een reeks taken kan verwerken, waaronder dagelijkse gesprekken, tekstanalyses, samenvattingen en documentvragen." + }, + "anthropic.claude-v2": { + "description": "Anthropic's model toont hoge capaciteiten in een breed scala aan taken, van complexe gesprekken en creatieve inhoudgeneratie tot gedetailleerde instructievolging." + }, + "anthropic.claude-v2:1": { + "description": "De bijgewerkte versie van Claude 2, met een verdubbeling van het contextvenster en verbeteringen in betrouwbaarheid, hallucinatiepercentages en op bewijs gebaseerde nauwkeurigheid in lange documenten en RAG-contexten." + }, + "anthropic/claude-3-haiku": { + "description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor bijna onmiddellijke reacties. Het biedt snelle en nauwkeurige gerichte prestaties." + }, + "anthropic/claude-3-opus": { + "description": "Claude 3 Opus is het krachtigste model van Anthropic voor het verwerken van zeer complexe taken. Het excelleert in prestaties, intelligentie, vloeiendheid en begrip." + }, + "anthropic/claude-3.5-sonnet": { + "description": "Claude 3.5 Sonnet biedt mogelijkheden die verder gaan dan Opus en een snellere snelheid dan Sonnet, terwijl het dezelfde prijs als Sonnet behoudt. Sonnet is bijzonder goed in programmeren, datawetenschap, visuele verwerking en agenttaken." + }, + "aya": { + "description": "Aya 23 is een meertalig model van Cohere, ondersteunt 23 talen en biedt gemak voor diverse taaltoepassingen." + }, + "aya:35b": { + "description": "Aya 23 is een meertalig model van Cohere, ondersteunt 23 talen en biedt gemak voor diverse taaltoepassingen." + }, + "charglm-3": { + "description": "CharGLM-3 is ontworpen voor rollenspellen en emotionele begeleiding, ondersteunt zeer lange meerdaagse herinneringen en gepersonaliseerde gesprekken, met brede toepassingen." + }, + "chatgpt-4o-latest": { + "description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt om de meest actuele versie te behouden. Het combineert krachtige taalbegrip- en generatiecapaciteiten, geschikt voor grootschalige toepassingsscenario's, waaronder klantenservice, onderwijs en technische ondersteuning." + }, + "claude-2.0": { + "description": "Claude 2 biedt belangrijke vooruitgangen in capaciteiten voor bedrijven, waaronder de toonaangevende 200K token context, een aanzienlijke vermindering van de frequentie van modelhallucinaties, systeemprompten en een nieuwe testfunctie: functie-aanroepen." + }, + "claude-2.1": { + "description": "Claude 2 biedt belangrijke vooruitgangen in capaciteiten voor bedrijven, waaronder de toonaangevende 200K token context, een aanzienlijke vermindering van de frequentie van modelhallucinaties, systeemprompten en een nieuwe testfunctie: functie-aanroepen." + }, + "claude-3-5-sonnet-20240620": { + "description": "Claude 3.5 Sonnet biedt mogelijkheden die verder gaan dan Opus en is sneller dan Sonnet, terwijl het dezelfde prijs behoudt. Sonnet is bijzonder goed in programmeren, datawetenschap, visuele verwerking en agenttaken." + }, + "claude-3-haiku-20240307": { + "description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor bijna onmiddellijke reacties. Het heeft snelle en nauwkeurige gerichte prestaties." + }, + "claude-3-opus-20240229": { + "description": "Claude 3 Opus is het krachtigste model van Anthropic voor het verwerken van zeer complexe taken. Het presteert uitstekend op het gebied van prestaties, intelligentie, vloeiendheid en begrip." + }, + "claude-3-sonnet-20240229": { + "description": "Claude 3 Sonnet biedt een ideale balans tussen intelligentie en snelheid voor bedrijfswerkbelastingen. Het biedt maximale bruikbaarheid tegen een lagere prijs, betrouwbaar en geschikt voor grootschalige implementatie." + }, + "claude-instant-1.2": { + "description": "Het model van Anthropic is ontworpen voor lage latentie en hoge doorvoer in tekstgeneratie, en ondersteunt het genereren van honderden pagina's tekst." + }, + "codegeex-4": { + "description": "CodeGeeX-4 is een krachtige AI-programmeerassistent die slimme vraag- en antwoordmogelijkheden en code-aanvulling ondersteunt voor verschillende programmeertalen, waardoor de ontwikkelingssnelheid wordt verhoogd." + }, + "codegemma": { + "description": "CodeGemma is een lichtgewicht taalmodel dat speciaal is ontworpen voor verschillende programmeertaken, ondersteunt snelle iteratie en integratie." + }, + "codegemma:2b": { + "description": "CodeGemma is een lichtgewicht taalmodel dat speciaal is ontworpen voor verschillende programmeertaken, ondersteunt snelle iteratie en integratie." + }, + "codellama": { + "description": "Code Llama is een LLM dat zich richt op codegeneratie en -discussie, met brede ondersteuning voor programmeertalen, geschikt voor ontwikkelaarsomgevingen." + }, + "codellama:13b": { + "description": "Code Llama is een LLM dat zich richt op codegeneratie en -discussie, met brede ondersteuning voor programmeertalen, geschikt voor ontwikkelaarsomgevingen." + }, + "codellama:34b": { + "description": "Code Llama is een LLM dat zich richt op codegeneratie en -discussie, met brede ondersteuning voor programmeertalen, geschikt voor ontwikkelaarsomgevingen." + }, + "codellama:70b": { + "description": "Code Llama is een LLM dat zich richt op codegeneratie en -discussie, met brede ondersteuning voor programmeertalen, geschikt voor ontwikkelaarsomgevingen." + }, + "codeqwen": { + "description": "CodeQwen1.5 is een groot taalmodel dat is getraind op een grote hoeveelheid codegegevens, speciaal ontworpen om complexe programmeertaken op te lossen." + }, + "codestral": { + "description": "Codestral is het eerste codemodel van Mistral AI, biedt uitstekende ondersteuning voor codegeneratietaken." + }, + "codestral-latest": { + "description": "Codestral is een geavanceerd generatief model dat zich richt op codegeneratie, geoptimaliseerd voor tussentijdse invulling en code-aanvultaken." + }, + "cognitivecomputations/dolphin-mixtral-8x22b": { + "description": "Dolphin Mixtral 8x22B is een model ontworpen voor instructievolging, gesprekken en programmeren." + }, + "command-r": { + "description": "Command R is geoptimaliseerd voor conversatie- en lange contexttaken, bijzonder geschikt voor dynamische interactie en kennisbeheer." + }, + "command-r-plus": { + "description": "Command R+ is een hoogpresterend groot taalmodel, speciaal ontworpen voor echte zakelijke scenario's en complexe toepassingen." + }, + "databricks/dbrx-instruct": { + "description": "DBRX Instruct biedt betrouwbare instructieverwerkingscapaciteiten en ondersteunt toepassingen in verschillende sectoren." + }, + "deepseek-ai/DeepSeek-Coder-V2-Instruct": { + "description": "DeepSeek Coder V2 is ontworpen voor code-taken en richt zich op efficiënte codegeneratie." + }, + "deepseek-ai/DeepSeek-V2-Chat": { + "description": "DeepSeek V2 heeft 6,7 miljard parameters en ondersteunt de verwerking van Engelse en Chinese teksten." + }, + "deepseek-ai/DeepSeek-V2.5": { + "description": "DeepSeek V2.5 combineert de uitstekende kenmerken van eerdere versies en versterkt de algemene en coderingscapaciteiten." + }, + "deepseek-ai/deepseek-llm-67b-chat": { + "description": "DeepSeek 67B is een geavanceerd model dat is getraind voor complexe gesprekken." + }, + "deepseek-chat": { + "description": "Een nieuw open-source model dat algemene en code-capaciteiten combineert, behoudt niet alleen de algemene conversatiecapaciteiten van het oorspronkelijke Chat-model en de krachtige codeverwerkingscapaciteiten van het Coder-model, maar is ook beter afgestemd op menselijke voorkeuren. Bovendien heeft DeepSeek-V2.5 aanzienlijke verbeteringen gerealiseerd in schrijfopdrachten, instructievolging en andere gebieden." + }, + "deepseek-coder-v2": { + "description": "DeepSeek Coder V2 is een open-source hybride expertcode-model, presteert uitstekend in code-taken en is vergelijkbaar met GPT4-Turbo." + }, + "deepseek-coder-v2:236b": { + "description": "DeepSeek Coder V2 is een open-source hybride expertcode-model, presteert uitstekend in code-taken en is vergelijkbaar met GPT4-Turbo." + }, + "deepseek-v2": { + "description": "DeepSeek V2 is een efficiënt Mixture-of-Experts taalmodel, geschikt voor kosteneffectieve verwerkingsbehoeften." + }, + "deepseek-v2:236b": { + "description": "DeepSeek V2 236B is het ontwerpcode-model van DeepSeek, biedt krachtige codegeneratiecapaciteiten." + }, + "deepseek/deepseek-chat": { + "description": "Een nieuw open-source model dat algemene en codeercapaciteiten combineert, niet alleen de algemene gespreksvaardigheden van het oorspronkelijke Chat-model en de krachtige codeverwerkingscapaciteiten van het Coder-model behoudt, maar ook beter is afgestemd op menselijke voorkeuren. Bovendien heeft DeepSeek-V2.5 aanzienlijke verbeteringen gerealiseerd in schrijfopdrachten, instructievolging en meer." + }, + "emohaa": { + "description": "Emohaa is een psychologisch model met professionele adviescapaciteiten, dat gebruikers helpt emotionele problemen te begrijpen." + }, + "gemini-1.0-pro-001": { + "description": "Gemini 1.0 Pro 001 (Tuning) biedt stabiele en afstelbare prestaties, ideaal voor oplossingen voor complexe taken." + }, + "gemini-1.0-pro-002": { + "description": "Gemini 1.0 Pro 002 (Tuning) biedt uitstekende multimodale ondersteuning, gericht op effectieve oplossingen voor complexe taken." + }, + "gemini-1.0-pro-latest": { + "description": "Gemini 1.0 Pro is Google's high-performance AI-model, ontworpen voor brede taakuitbreiding." + }, + "gemini-1.5-flash-001": { + "description": "Gemini 1.5 Flash 001 is een efficiënt multimodaal model dat ondersteuning biedt voor brede toepassingsuitbreiding." + }, + "gemini-1.5-flash-8b-exp-0827": { + "description": "Gemini 1.5 Flash 8B 0827 is ontworpen voor het verwerken van grootschalige taakscenario's en biedt ongeëvenaarde verwerkingssnelheid." + }, + "gemini-1.5-flash-exp-0827": { + "description": "Gemini 1.5 Flash 0827 biedt geoptimaliseerde multimodale verwerkingscapaciteiten, geschikt voor verschillende complexe taakscenario's." + }, + "gemini-1.5-flash-latest": { + "description": "Gemini 1.5 Flash is Google's nieuwste multimodale AI-model, met snelle verwerkingscapaciteiten, ondersteunt tekst-, beeld- en video-invoer, en is geschikt voor efficiënte opschaling van verschillende taken." + }, + "gemini-1.5-pro-001": { + "description": "Gemini 1.5 Pro 001 is een schaalbare multimodale AI-oplossing die ondersteuning biedt voor een breed scala aan complexe taken." + }, + "gemini-1.5-pro-exp-0801": { + "description": "Gemini 1.5 Pro 0801 biedt uitstekende multimodale verwerkingscapaciteiten en biedt meer flexibiliteit voor applicatieontwikkeling." + }, + "gemini-1.5-pro-exp-0827": { + "description": "Gemini 1.5 Pro 0827 combineert de nieuwste optimalisatietechnologieën en biedt efficiëntere multimodale gegevensverwerkingscapaciteiten." + }, + "gemini-1.5-pro-latest": { + "description": "Gemini 1.5 Pro ondersteunt tot 2 miljoen tokens en is de ideale keuze voor middelgrote multimodale modellen, geschikt voor veelzijdige ondersteuning van complexe taken." + }, + "gemma-7b-it": { + "description": "Gemma 7B is geschikt voor het verwerken van middelgrote taken, met een goede kosteneffectiviteit." + }, + "gemma2": { + "description": "Gemma 2 is een efficiënt model van Google, dat een breed scala aan toepassingsscenario's dekt, van kleine toepassingen tot complexe gegevensverwerking." + }, + "gemma2-9b-it": { + "description": "Gemma 2 9B is een model dat is geoptimaliseerd voor specifieke taken en toolintegratie." + }, + "gemma2:27b": { + "description": "Gemma 2 is een efficiënt model van Google, dat een breed scala aan toepassingsscenario's dekt, van kleine toepassingen tot complexe gegevensverwerking." + }, + "gemma2:2b": { + "description": "Gemma 2 is een efficiënt model van Google, dat een breed scala aan toepassingsscenario's dekt, van kleine toepassingen tot complexe gegevensverwerking." + }, + "general": { + "description": "Spark Lite is een lichtgewicht groot taalmodel met extreem lage latentie en efficiënte verwerkingscapaciteiten, volledig gratis en open, met ondersteuning voor realtime online zoekfunctionaliteit. De snelle respons maakt het uitermate geschikt voor inferentie-toepassingen en modelfijnstelling op apparaten met lage rekenkracht, en biedt gebruikers uitstekende kosteneffectiviteit en een intelligente ervaring, vooral in kennisvragen, inhoudsgeneratie en zoekscenario's." + }, + "generalv3": { + "description": "Spark Pro is een hoogwaardig groot taalmodel dat is geoptimaliseerd voor professionele domeinen, met een focus op wiskunde, programmeren, geneeskunde, onderwijs en meer, en ondersteunt online zoeken en ingebouwde plugins voor weer, datum, enz. Het geoptimaliseerde model toont uitstekende prestaties en efficiëntie in complexe kennisvragen, taalbegrip en hoogwaardig tekstcreatie, en is de ideale keuze voor professionele toepassingsscenario's." + }, + "generalv3.5": { + "description": "Spark3.5 Max is de meest uitgebreide versie, met ondersteuning voor online zoeken en talrijke ingebouwde plugins. De volledig geoptimaliseerde kerncapaciteiten, systeemrolinstellingen en functieaanroepfunctionaliteit zorgen voor uitstekende prestaties in verschillende complexe toepassingsscenario's." + }, + "glm-4": { + "description": "GLM-4 is de oude vlaggenschipversie die in januari 2024 is uitgebracht en is inmiddels vervangen door de krachtigere GLM-4-0520." + }, + "glm-4-0520": { + "description": "GLM-4-0520 is de nieuwste modelversie, speciaal ontworpen voor zeer complexe en diverse taken, met uitstekende prestaties." + }, + "glm-4-air": { + "description": "GLM-4-Air is een kosteneffectieve versie met prestaties die dicht bij GLM-4 liggen, met snelle snelheid en een betaalbare prijs." + }, + "glm-4-airx": { + "description": "GLM-4-AirX biedt een efficiënte versie van GLM-4-Air, met een redeneersnelheid tot 2,6 keer sneller." + }, + "glm-4-alltools": { + "description": "GLM-4-AllTools is een multifunctioneel intelligent model, geoptimaliseerd om complexe instructieplanning en toolaanroepen te ondersteunen, zoals webbrowser, code-interpretatie en tekstgeneratie, geschikt voor multitasking." + }, + "glm-4-flash": { + "description": "GLM-4-Flash is de ideale keuze voor het verwerken van eenvoudige taken, met de snelste snelheid en de laagste prijs." + }, + "glm-4-long": { + "description": "GLM-4-Long ondersteunt zeer lange tekstinvoer, geschikt voor geheugenintensieve taken en grootschalige documentverwerking." + }, + "glm-4-plus": { + "description": "GLM-4-Plus, als vlaggenschip van hoge intelligentie, heeft krachtige capaciteiten voor het verwerken van lange teksten en complexe taken, met algehele prestatieverbeteringen." + }, + "glm-4v": { + "description": "GLM-4V biedt krachtige beeldbegrip- en redeneercapaciteiten, ondersteunt verschillende visuele taken." + }, + "glm-4v-plus": { + "description": "GLM-4V-Plus heeft de capaciteit om video-inhoud en meerdere afbeeldingen te begrijpen, geschikt voor multimodale taken." + }, + "google/gemini-flash-1.5-exp": { + "description": "Gemini 1.5 Flash 0827 biedt geoptimaliseerde multimodale verwerkingscapaciteiten, geschikt voor verschillende complexe taakscenario's." + }, + "google/gemini-pro-1.5-exp": { + "description": "Gemini 1.5 Pro 0827 combineert de nieuwste optimalisatietechnologieën voor efficiëntere multimodale gegevensverwerking." + }, + "google/gemma-2-27b-it": { + "description": "Gemma 2 behoudt het ontwerpprincipe van lichtgewicht en efficiëntie." + }, + "google/gemma-2-9b-it": { + "description": "Gemma 2 is een lichtgewicht open-source tekstmodelserie van Google." + }, + "google/gemma-2-9b-it:free": { + "description": "Gemma 2 is een lichtgewicht open-source tekstmodelserie van Google." + }, + "google/gemma-2b-it": { + "description": "Gemma Instruct (2B) biedt basis instructieverwerkingscapaciteiten, geschikt voor lichte toepassingen." + }, + "gpt-3.5-turbo": { + "description": "GPT 3.5 Turbo, geschikt voor verschillende tekstgeneratie- en begrijptaken, wijst momenteel naar gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-0125": { + "description": "GPT 3.5 Turbo, geschikt voor verschillende tekstgeneratie- en begrijptaken, wijst momenteel naar gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-1106": { + "description": "GPT 3.5 Turbo, geschikt voor verschillende tekstgeneratie- en begrijptaken, wijst momenteel naar gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-instruct": { + "description": "GPT 3.5 Turbo, geschikt voor verschillende tekstgeneratie- en begrijptaken, wijst momenteel naar gpt-3.5-turbo-0125." + }, + "gpt-4": { + "description": "GPT-4 biedt een groter contextvenster en kan langere tekstinvoer verwerken, geschikt voor scenario's die uitgebreide informatie-integratie en data-analyse vereisen." + }, + "gpt-4-0125-preview": { + "description": "Het nieuwste GPT-4 Turbo-model heeft visuele functies. Nu kunnen visuele verzoeken worden gedaan met behulp van JSON-indeling en functieaanroepen. GPT-4 Turbo is een verbeterde versie die kosteneffectieve ondersteuning biedt voor multimodale taken. Het vindt een balans tussen nauwkeurigheid en efficiëntie, geschikt voor toepassingen die realtime interactie vereisen." + }, + "gpt-4-0613": { + "description": "GPT-4 biedt een groter contextvenster en kan langere tekstinvoer verwerken, geschikt voor scenario's die uitgebreide informatie-integratie en data-analyse vereisen." + }, + "gpt-4-1106-preview": { + "description": "Het nieuwste GPT-4 Turbo-model heeft visuele functies. Nu kunnen visuele verzoeken worden gedaan met behulp van JSON-indeling en functieaanroepen. GPT-4 Turbo is een verbeterde versie die kosteneffectieve ondersteuning biedt voor multimodale taken. Het vindt een balans tussen nauwkeurigheid en efficiëntie, geschikt voor toepassingen die realtime interactie vereisen." + }, + "gpt-4-1106-vision-preview": { + "description": "Het nieuwste GPT-4 Turbo-model heeft visuele functies. Nu kunnen visuele verzoeken worden gedaan met behulp van JSON-indeling en functieaanroepen. GPT-4 Turbo is een verbeterde versie die kosteneffectieve ondersteuning biedt voor multimodale taken. Het vindt een balans tussen nauwkeurigheid en efficiëntie, geschikt voor toepassingen die realtime interactie vereisen." + }, + "gpt-4-32k": { + "description": "GPT-4 biedt een groter contextvenster en kan langere tekstinvoer verwerken, geschikt voor scenario's die uitgebreide informatie-integratie en data-analyse vereisen." + }, + "gpt-4-32k-0613": { + "description": "GPT-4 biedt een groter contextvenster en kan langere tekstinvoer verwerken, geschikt voor scenario's die uitgebreide informatie-integratie en data-analyse vereisen." + }, + "gpt-4-turbo": { + "description": "Het nieuwste GPT-4 Turbo-model heeft visuele functies. Nu kunnen visuele verzoeken worden gedaan met behulp van JSON-indeling en functieaanroepen. GPT-4 Turbo is een verbeterde versie die kosteneffectieve ondersteuning biedt voor multimodale taken. Het vindt een balans tussen nauwkeurigheid en efficiëntie, geschikt voor toepassingen die realtime interactie vereisen." + }, + "gpt-4-turbo-2024-04-09": { + "description": "Het nieuwste GPT-4 Turbo-model heeft visuele functies. Nu kunnen visuele verzoeken worden gedaan met behulp van JSON-indeling en functieaanroepen. GPT-4 Turbo is een verbeterde versie die kosteneffectieve ondersteuning biedt voor multimodale taken. Het vindt een balans tussen nauwkeurigheid en efficiëntie, geschikt voor toepassingen die realtime interactie vereisen." + }, + "gpt-4-turbo-preview": { + "description": "Het nieuwste GPT-4 Turbo-model heeft visuele functies. Nu kunnen visuele verzoeken worden gedaan met behulp van JSON-indeling en functieaanroepen. GPT-4 Turbo is een verbeterde versie die kosteneffectieve ondersteuning biedt voor multimodale taken. Het vindt een balans tussen nauwkeurigheid en efficiëntie, geschikt voor toepassingen die realtime interactie vereisen." + }, + "gpt-4-vision-preview": { + "description": "Het nieuwste GPT-4 Turbo-model heeft visuele functies. Nu kunnen visuele verzoeken worden gedaan met behulp van JSON-indeling en functieaanroepen. GPT-4 Turbo is een verbeterde versie die kosteneffectieve ondersteuning biedt voor multimodale taken. Het vindt een balans tussen nauwkeurigheid en efficiëntie, geschikt voor toepassingen die realtime interactie vereisen." + }, + "gpt-4o": { + "description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt om de meest actuele versie te behouden. Het combineert krachtige taalbegrip- en generatiecapaciteiten, geschikt voor grootschalige toepassingsscenario's, waaronder klantenservice, onderwijs en technische ondersteuning." + }, + "gpt-4o-2024-05-13": { + "description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt om de meest actuele versie te behouden. Het combineert krachtige taalbegrip- en generatiecapaciteiten, geschikt voor grootschalige toepassingsscenario's, waaronder klantenservice, onderwijs en technische ondersteuning." + }, + "gpt-4o-2024-08-06": { + "description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt om de meest actuele versie te behouden. Het combineert krachtige taalbegrip- en generatiecapaciteiten, geschikt voor grootschalige toepassingsscenario's, waaronder klantenservice, onderwijs en technische ondersteuning." + }, + "gpt-4o-mini": { + "description": "GPT-4o mini is het nieuwste model van OpenAI, gelanceerd na GPT-4 Omni, en ondersteunt zowel tekst- als beeldinvoer met tekstuitvoer. Als hun meest geavanceerde kleine model is het veel goedkoper dan andere recente toonaangevende modellen en meer dan 60% goedkoper dan GPT-3.5 Turbo. Het behoudt de meest geavanceerde intelligentie met een aanzienlijke prijs-kwaliteitverhouding. GPT-4o mini behaalde 82% op de MMLU-test en staat momenteel hoger in chatvoorkeuren dan GPT-4." + }, + "gryphe/mythomax-l2-13b": { + "description": "MythoMax l2 13B is een taalmodel dat creativiteit en intelligentie combineert door meerdere topmodellen te integreren." + }, + "internlm/internlm2_5-20b-chat": { + "description": "Het innovatieve open-source model InternLM2.5 verhoogt de gespreksintelligentie door een groot aantal parameters." + }, + "internlm/internlm2_5-7b-chat": { + "description": "InternLM2.5 biedt intelligente gespreksoplossingen voor meerdere scenario's." + }, + "llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct model, met 70B parameters, biedt uitstekende prestaties in grote tekstgeneratie- en instructietaken." + }, + "llama-3.1-70b-versatile": { + "description": "Llama 3.1 70B biedt krachtigere AI-inferentiecapaciteiten, geschikt voor complexe toepassingen, ondersteunt een enorme rekenverwerking en garandeert efficiëntie en nauwkeurigheid." + }, + "llama-3.1-8b-instant": { + "description": "Llama 3.1 8B is een hoogpresterend model dat snelle tekstgeneratiecapaciteiten biedt, zeer geschikt voor toepassingen die grootschalige efficiëntie en kosteneffectiviteit vereisen." + }, + "llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct model, met 8B parameters, ondersteunt de efficiënte uitvoering van visuele instructietaken en biedt hoogwaardige tekstgeneratiecapaciteiten." + }, + "llama-3.1-sonar-huge-128k-online": { + "description": "Llama 3.1 Sonar Huge Online model, met 405B parameters, ondersteunt een contextlengte van ongeveer 127.000 tokens, ontworpen voor complexe online chattoepassingen." + }, + "llama-3.1-sonar-large-128k-chat": { + "description": "Llama 3.1 Sonar Large Chat model, met 70B parameters, ondersteunt een contextlengte van ongeveer 127.000 tokens, geschikt voor complexe offline chattaken." + }, + "llama-3.1-sonar-large-128k-online": { + "description": "Llama 3.1 Sonar Large Online model, met 70B parameters, ondersteunt een contextlengte van ongeveer 127.000 tokens, geschikt voor hoge capaciteit en diverse chattaken." + }, + "llama-3.1-sonar-small-128k-chat": { + "description": "Llama 3.1 Sonar Small Chat model, met 8B parameters, speciaal ontworpen voor offline chat, ondersteunt een contextlengte van ongeveer 127.000 tokens." + }, + "llama-3.1-sonar-small-128k-online": { + "description": "Llama 3.1 Sonar Small Online model, met 8B parameters, ondersteunt een contextlengte van ongeveer 127.000 tokens, speciaal ontworpen voor online chat en kan efficiënt verschillende tekstinteracties verwerken." + }, + "llama3-70b-8192": { + "description": "Meta Llama 3 70B biedt ongeëvenaarde complexiteitsverwerkingscapaciteiten, op maat gemaakt voor veeleisende projecten." + }, + "llama3-8b-8192": { + "description": "Meta Llama 3 8B biedt hoogwaardige inferentieprestaties, geschikt voor diverse toepassingsbehoeften." + }, + "llama3-groq-70b-8192-tool-use-preview": { + "description": "Llama 3 Groq 70B Tool Use biedt krachtige tool-aanroepcapaciteiten en ondersteunt efficiënte verwerking van complexe taken." + }, + "llama3-groq-8b-8192-tool-use-preview": { + "description": "Llama 3 Groq 8B Tool Use is een model dat is geoptimaliseerd voor efficiënt gebruik van tools, ondersteunt snelle parallelle berekeningen." + }, + "llama3.1": { + "description": "Llama 3.1 is een toonaangevend model van Meta, ondersteunt tot 405B parameters en kan worden toegepast in complexe gesprekken, meertalige vertalingen en data-analyse." + }, + "llama3.1:405b": { + "description": "Llama 3.1 is een toonaangevend model van Meta, ondersteunt tot 405B parameters en kan worden toegepast in complexe gesprekken, meertalige vertalingen en data-analyse." + }, + "llama3.1:70b": { + "description": "Llama 3.1 is een toonaangevend model van Meta, ondersteunt tot 405B parameters en kan worden toegepast in complexe gesprekken, meertalige vertalingen en data-analyse." + }, + "llava": { + "description": "LLaVA is een multimodaal model dat visuele encoder en Vicuna combineert, voor krachtige visuele en taalbegrip." + }, + "llava-v1.5-7b-4096-preview": { + "description": "LLaVA 1.5 7B biedt visuele verwerkingscapaciteiten, genereert complexe output via visuele informatie-invoer." + }, + "llava:13b": { + "description": "LLaVA is een multimodaal model dat visuele encoder en Vicuna combineert, voor krachtige visuele en taalbegrip." + }, + "llava:34b": { + "description": "LLaVA is een multimodaal model dat visuele encoder en Vicuna combineert, voor krachtige visuele en taalbegrip." + }, + "mathstral": { + "description": "MathΣtral is ontworpen voor wetenschappelijk onderzoek en wiskundige inferentie, biedt effectieve rekencapaciteiten en resultaatinterpretatie." + }, + "meta-llama/Llama-2-13b-chat-hf": { + "description": "LLaMA-2 Chat (13B) biedt uitstekende taalverwerkingscapaciteiten en een geweldige interactie-ervaring." + }, + "meta-llama/Llama-3-70b-chat-hf": { + "description": "LLaMA-3 Chat (70B) is een krachtig chatmodel dat complexe gespreksbehoeften ondersteunt." + }, + "meta-llama/Llama-3-8b-chat-hf": { + "description": "LLaMA-3 Chat (8B) biedt meertalige ondersteuning en dekt een breed scala aan domeinkennis." + }, + "meta-llama/Meta-Llama-3-70B-Instruct": { + "description": "LLaMA 3 ondersteunt grootschalige tekstgeneratie en instructie-analyse." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { + "description": "Llama 3 70B Instruct Lite is geschikt voor omgevingen die hoge prestaties en lage latentie vereisen." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": { + "description": "Llama 3 70B Instruct Turbo biedt uitstekende taalbegrip en generatiecapaciteiten, geschikt voor de meest veeleisende rekenkundige taken." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Lite": { + "description": "Llama 3 8B Instruct Lite is geschikt voor omgevingen met beperkte middelen en biedt een uitstekende balans in prestaties." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": { + "description": "Llama 3 8B Instruct Turbo is een krachtige grote taalmodel, geschikt voor een breed scala aan toepassingsscenario's." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct": { + "description": "LLaMA 3.1 405B is een krachtig model voor voortraining en instructiefijnafstemming." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": { + "description": "405B Llama 3.1 Turbo model biedt enorme contextondersteuning voor big data verwerking en presteert uitstekend in grootschalige AI-toepassingen." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct": { + "description": "LLaMA 3.1 70B biedt efficiënte gespreksondersteuning in meerdere talen." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": { + "description": "Llama 3.1 70B model is fijn afgesteld voor toepassingen met hoge belasting, gekwantiseerd naar FP8 voor efficiëntere rekenkracht en nauwkeurigheid, en zorgt voor uitstekende prestaties in complexe scenario's." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct": { + "description": "LLaMA 3.1 biedt meertalige ondersteuning en is een van de toonaangevende generatieve modellen in de industrie." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": { + "description": "Llama 3.1 8B model maakt gebruik van FP8-kwantisering en ondersteunt tot 131.072 contexttokens, en is een van de beste open-source modellen, geschikt voor complexe taken en presteert beter dan veel industriestandaarden." + }, + "meta-llama/llama-3-70b-instruct": { + "description": "Llama 3 70B Instruct is geoptimaliseerd voor hoogwaardige gespreksscenario's en presteert uitstekend in verschillende menselijke evaluaties." + }, + "meta-llama/llama-3-8b-instruct": { + "description": "Llama 3 8B Instruct is geoptimaliseerd voor hoogwaardige gespreksscenario's en presteert beter dan veel gesloten modellen." + }, + "meta-llama/llama-3.1-405b-instruct": { + "description": "Llama 3.1 405B Instruct is de nieuwste versie van Meta, geoptimaliseerd voor het genereren van hoogwaardige gesprekken en overtreft veel toonaangevende gesloten modellen." + }, + "meta-llama/llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct is ontworpen voor hoogwaardige gesprekken en presteert uitstekend in menselijke evaluaties, vooral in interactieve scenario's." + }, + "meta-llama/llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct is de nieuwste versie van Meta, geoptimaliseerd voor hoogwaardige gespreksscenario's en presteert beter dan veel toonaangevende gesloten modellen." + }, + "meta-llama/llama-3.1-8b-instruct:free": { + "description": "LLaMA 3.1 biedt ondersteuning voor meerdere talen en is een van de toonaangevende generatiemodellen in de industrie." + }, + "meta.llama3-1-405b-instruct-v1:0": { + "description": "Meta Llama 3.1 405B Instruct is het grootste en krachtigste model binnen het Llama 3.1 Instruct-model, een geavanceerd model voor conversatie-inferentie en synthetische datageneratie, dat ook kan worden gebruikt als basis voor gespecialiseerde continue pre-training of fine-tuning in specifieke domeinen. De meertalige grote taalmodellen (LLMs) die Llama 3.1 biedt, zijn een set van voorgetrainde, instructie-geoptimaliseerde generatieve modellen, waaronder 8B, 70B en 405B in grootte (tekstinvoer/uitvoer). De tekstmodellen van Llama 3.1, die zijn geoptimaliseerd voor meertalige conversatiegebruik, overtreffen veel beschikbare open-source chatmodellen in gangbare industriële benchmarktests. Llama 3.1 is ontworpen voor commercieel en onderzoeksgebruik in meerdere talen. De instructie-geoptimaliseerde tekstmodellen zijn geschikt voor assistentachtige chats, terwijl de voorgetrainde modellen zich kunnen aanpassen aan verschillende taken voor natuurlijke taalgeneratie. Het Llama 3.1-model ondersteunt ook het verbeteren van andere modellen door gebruik te maken van de output van zijn modellen, inclusief synthetische datageneratie en verfijning. Llama 3.1 is een autoregressief taalmodel dat gebruikmaakt van een geoptimaliseerde transformer-architectuur. De afgestelde versies gebruiken supervisie-finetuning (SFT) en versterkend leren met menselijke feedback (RLHF) om te voldoen aan menselijke voorkeuren voor behulpzaamheid en veiligheid." + }, + "meta.llama3-1-70b-instruct-v1:0": { + "description": "De bijgewerkte versie van Meta Llama 3.1 70B Instruct, met een uitgebreid contextlengte van 128K, meertaligheid en verbeterde redeneercapaciteiten. De meertalige grote taalmodellen (LLMs) die door Llama 3.1 worden aangeboden, zijn een set voorgetrainde, instructie-aangepaste generatieve modellen, inclusief 8B, 70B en 405B in grootte (tekstinvoer/uitvoer). De instructie-aangepaste tekstmodellen (8B, 70B, 405B) zijn geoptimaliseerd voor meertalige dialoogtoepassingen en hebben veel beschikbare open-source chatmodellen overtroffen in gangbare industriële benchmarktests. Llama 3.1 is bedoeld voor commerciële en onderzoeksdoeleinden in meerdere talen. De instructie-aangepaste tekstmodellen zijn geschikt voor assistentachtige chats, terwijl de voorgetrainde modellen kunnen worden aangepast voor verschillende natuurlijke taalgeneratietaken. Llama 3.1-modellen ondersteunen ook het gebruik van hun output om andere modellen te verbeteren, inclusief synthetische gegevensgeneratie en verfijning. Llama 3.1 is een autoregressief taalmodel dat gebruikmaakt van een geoptimaliseerde transformerarchitectuur. De aangepaste versies maken gebruik van supervisie-fijnstelling (SFT) en versterkend leren met menselijke feedback (RLHF) om te voldoen aan menselijke voorkeuren voor behulpzaamheid en veiligheid." + }, + "meta.llama3-1-8b-instruct-v1:0": { + "description": "De bijgewerkte versie van Meta Llama 3.1 8B Instruct, met een uitgebreid contextlengte van 128K, meertaligheid en verbeterde redeneercapaciteiten. De meertalige grote taalmodellen (LLMs) die door Llama 3.1 worden aangeboden, zijn een set voorgetrainde, instructie-aangepaste generatieve modellen, inclusief 8B, 70B en 405B in grootte (tekstinvoer/uitvoer). De instructie-aangepaste tekstmodellen (8B, 70B, 405B) zijn geoptimaliseerd voor meertalige dialoogtoepassingen en hebben veel beschikbare open-source chatmodellen overtroffen in gangbare industriële benchmarktests. Llama 3.1 is bedoeld voor commerciële en onderzoeksdoeleinden in meerdere talen. De instructie-aangepaste tekstmodellen zijn geschikt voor assistentachtige chats, terwijl de voorgetrainde modellen kunnen worden aangepast voor verschillende natuurlijke taalgeneratietaken. Llama 3.1-modellen ondersteunen ook het gebruik van hun output om andere modellen te verbeteren, inclusief synthetische gegevensgeneratie en verfijning. Llama 3.1 is een autoregressief taalmodel dat gebruikmaakt van een geoptimaliseerde transformerarchitectuur. De aangepaste versies maken gebruik van supervisie-fijnstelling (SFT) en versterkend leren met menselijke feedback (RLHF) om te voldoen aan menselijke voorkeuren voor behulpzaamheid en veiligheid." + }, + "meta.llama3-70b-instruct-v1:0": { + "description": "Meta Llama 3 is een open groot taalmodel (LLM) gericht op ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoordelijk opschalen van hun generatieve AI-ideeën. Als onderdeel van het basis systeem voor wereldwijde gemeenschapsinnovatie is het zeer geschikt voor contentcreatie, conversatie-AI, taalbegrip, R&D en zakelijke toepassingen." + }, + "meta.llama3-8b-instruct-v1:0": { + "description": "Meta Llama 3 is een open groot taalmodel (LLM) gericht op ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoordelijk opschalen van hun generatieve AI-ideeën. Als onderdeel van het basis systeem voor wereldwijde gemeenschapsinnovatie is het zeer geschikt voor apparaten met beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden." + }, + "microsoft/wizardlm 2-7b": { + "description": "WizardLM 2 7B is het nieuwste snelle en lichte model van Microsoft AI, met prestaties die bijna 10 keer beter zijn dan de huidige toonaangevende open-source modellen." + }, + "microsoft/wizardlm-2-8x22b": { + "description": "WizardLM-2 8x22B is het meest geavanceerde Wizard-model van Microsoft AI, met een uiterst competitieve prestatie." + }, + "minicpm-v": { + "description": "MiniCPM-V is de nieuwe generatie multimodale grote modellen van OpenBMB, met uitstekende OCR-herkenning en multimodaal begrip, geschikt voor een breed scala aan toepassingsscenario's." + }, + "mistral": { + "description": "Mistral is het 7B-model van Mistral AI, geschikt voor variabele taalverwerkingsbehoeften." + }, + "mistral-large": { + "description": "Mixtral Large is het vlaggenschipmodel van Mistral, dat de capaciteiten van codegeneratie, wiskunde en inferentie combineert, ondersteunt een contextvenster van 128k." + }, + "mistral-large-latest": { + "description": "Mistral Large is het vlaggenschipmodel, dat uitblinkt in meertalige taken, complexe inferentie en codegeneratie, ideaal voor high-end toepassingen." + }, + "mistral-nemo": { + "description": "Mistral Nemo is een 12B-model dat is ontwikkeld in samenwerking met Mistral AI en NVIDIA, biedt efficiënte prestaties." + }, + "mistralai/Mistral-7B-Instruct-v0.1": { + "description": "Mistral (7B) Instruct staat bekend om zijn hoge prestaties en is geschikt voor verschillende taalgerelateerde taken." + }, + "mistralai/Mistral-7B-Instruct-v0.2": { + "description": "Mistral 7B is een model dat op aanvraag is fijn afgesteld om geoptimaliseerde antwoorden voor taken te bieden." + }, + "mistralai/Mistral-7B-Instruct-v0.3": { + "description": "Mistral (7B) Instruct v0.3 biedt efficiënte rekenkracht en natuurlijke taalbegrip, geschikt voor een breed scala aan toepassingen." + }, + "mistralai/Mixtral-8x22B-Instruct-v0.1": { + "description": "Mixtral-8x22B Instruct (141B) is een supergroot taalmodel dat extreem hoge verwerkingsbehoeften ondersteunt." + }, + "mistralai/Mixtral-8x7B-Instruct-v0.1": { + "description": "Mixtral 8x7B is een voorgetraind spaarzaam mengexpertmodel, gebruikt voor algemene teksttaken." + }, + "mistralai/mistral-7b-instruct": { + "description": "Mistral 7B Instruct is een hoogwaardig industrieel standaardmodel met snelheidoptimalisatie en ondersteuning voor lange contexten." + }, + "mistralai/mistral-nemo": { + "description": "Mistral Nemo is een model met 7,3 miljard parameters dat meertalige ondersteuning en hoge prestaties biedt." + }, + "mixtral": { + "description": "Mixtral is het expertmodel van Mistral AI, met open-source gewichten en biedt ondersteuning voor codegeneratie en taalbegrip." + }, + "mixtral-8x7b-32768": { + "description": "Mixtral 8x7B biedt hoge fouttolerantie en parallelle verwerkingscapaciteiten, geschikt voor complexe taken." + }, + "mixtral:8x22b": { + "description": "Mixtral is het expertmodel van Mistral AI, met open-source gewichten en biedt ondersteuning voor codegeneratie en taalbegrip." + }, + "moonshot-v1-128k": { + "description": "Moonshot V1 128K is een model met een superlange contextverwerkingscapaciteit, geschikt voor het genereren van zeer lange teksten, voldoet aan de behoeften van complexe generatietaken en kan tot 128.000 tokens verwerken, zeer geschikt voor onderzoek, academische en grote documentgeneratie." + }, + "moonshot-v1-32k": { + "description": "Moonshot V1 32K biedt een gemiddelde contextverwerkingscapaciteit, kan 32.768 tokens verwerken, bijzonder geschikt voor het genereren van verschillende lange documenten en complexe gesprekken, toegepast in contentcreatie, rapportgeneratie en conversatiesystemen." + }, + "moonshot-v1-8k": { + "description": "Moonshot V1 8K is speciaal ontworpen voor het genereren van korte teksttaken, met efficiënte verwerkingsprestaties, kan 8.192 tokens verwerken, zeer geschikt voor korte gesprekken, notities en snelle contentgeneratie." + }, + "nousresearch/hermes-2-pro-llama-3-8b": { + "description": "Hermes 2 Pro Llama 3 8B is een upgrade van Nous Hermes 2, met de nieuwste intern ontwikkelde datasets." + }, + "o1-mini": { + "description": "o1-mini is een snel en kosteneffectief redeneermodel dat is ontworpen voor programmeer-, wiskunde- en wetenschappelijke toepassingen. Dit model heeft een context van 128K en een kennisafkapdatum van oktober 2023." + }, + "o1-preview": { + "description": "o1 is het nieuwe redeneermodel van OpenAI, geschikt voor complexe taken die uitgebreide algemene kennis vereisen. Dit model heeft een context van 128K en een kennisafkapdatum van oktober 2023." + }, + "open-codestral-mamba": { + "description": "Codestral Mamba is een Mamba 2-taalmodel dat zich richt op codegeneratie en krachtige ondersteuning biedt voor geavanceerde code- en inferentietaken." + }, + "open-mistral-7b": { + "description": "Mistral 7B is een compact maar hoogpresterend model, dat uitblinkt in batchverwerking en eenvoudige taken zoals classificatie en tekstgeneratie, met goede inferentiecapaciteiten." + }, + "open-mistral-nemo": { + "description": "Mistral Nemo is een 12B-model ontwikkeld in samenwerking met Nvidia, biedt uitstekende inferentie- en coderingsprestaties, gemakkelijk te integreren en te vervangen." + }, + "open-mixtral-8x22b": { + "description": "Mixtral 8x22B is een groter expertmodel dat zich richt op complexe taken, biedt uitstekende inferentiecapaciteiten en een hogere doorvoer." + }, + "open-mixtral-8x7b": { + "description": "Mixtral 8x7B is een spaarzaam expertmodel dat meerdere parameters benut om de inferentiesnelheid te verhogen, geschikt voor het verwerken van meertalige en codegeneratietaken." + }, + "openai/gpt-4o-2024-08-06": { + "description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt om de meest actuele versie te behouden. Het combineert krachtige taalbegrip- en generatiecapaciteiten, geschikt voor grootschalige toepassingsscenario's, waaronder klantenservice, onderwijs en technische ondersteuning." + }, + "openai/gpt-4o-mini": { + "description": "GPT-4o mini is het nieuwste model van OpenAI, gelanceerd na GPT-4 Omni, dat tekst- en afbeeldingsinvoer ondersteunt en tekstuitvoer genereert. Als hun meest geavanceerde kleine model is het veel goedkoper dan andere recente toonaangevende modellen en meer dan 60% goedkoper dan GPT-3.5 Turbo. Het behoudt de meest geavanceerde intelligentie met een aanzienlijke prijs-kwaliteitverhouding. GPT-4o mini behaalde 82% op de MMLU-test en staat momenteel hoger in chatvoorkeuren dan GPT-4." + }, + "openai/o1-mini": { + "description": "o1-mini is een snel en kosteneffectief redeneermodel dat is ontworpen voor programmeer-, wiskunde- en wetenschappelijke toepassingen. Dit model heeft een context van 128K en een kennisafkapdatum van oktober 2023." + }, + "openai/o1-preview": { + "description": "o1 is het nieuwe redeneermodel van OpenAI, geschikt voor complexe taken die uitgebreide algemene kennis vereisen. Dit model heeft een context van 128K en een kennisafkapdatum van oktober 2023." + }, + "openchat/openchat-7b": { + "description": "OpenChat 7B is een open-source taalmodelbibliotheek die is geoptimaliseerd met de 'C-RLFT (Conditionele Versterkingsleer Fijnstelling)' strategie." + }, + "openrouter/auto": { + "description": "Afhankelijk van de contextlengte, het onderwerp en de complexiteit, wordt uw verzoek verzonden naar Llama 3 70B Instruct, Claude 3.5 Sonnet (zelfregulerend) of GPT-4o." + }, + "phi3": { + "description": "Phi-3 is een lichtgewicht open model van Microsoft, geschikt voor efficiënte integratie en grootschalige kennisinferentie." + }, + "phi3:14b": { + "description": "Phi-3 is een lichtgewicht open model van Microsoft, geschikt voor efficiënte integratie en grootschalige kennisinferentie." + }, + "qwen-long": { + "description": "Qwen is een grootschalig taalmodel dat lange tekstcontexten ondersteunt, evenals dialoogfunctionaliteit op basis van lange documenten en meerdere documenten." + }, + "qwen-max": { + "description": "Qwen is een grootschalig taalmodel met een schaal van miljarden parameters, dat ondersteuning biedt voor invoer in verschillende talen, waaronder Chinees en Engels, en is momenteel de API-model achter de Qwen 2.5 productversie." + }, + "qwen-max-longcontext": { + "description": "Qwen is een grootschalig taalmodel met een schaal van miljarden parameters, dat ondersteuning biedt voor invoer in verschillende talen, waaronder Chinees en Engels, en heeft een uitgebreid contextvenster." + }, + "qwen-plus": { + "description": "Qwen is een verbeterde versie van het grootschalige taalmodel, dat ondersteuning biedt voor invoer in verschillende talen, waaronder Chinees en Engels." + }, + "qwen-turbo": { + "description": "Qwen is een grootschalig taalmodel dat ondersteuning biedt voor invoer in verschillende talen, waaronder Chinees en Engels." + }, + "qwen-vl-chat-v1": { + "description": "Qwen VL ondersteunt flexibele interactiemethoden, inclusief meerdere afbeeldingen, meerdere rondes van vraag en antwoord, en creatiecapaciteiten." + }, + "qwen-vl-max": { + "description": "Qwen is een grootschalig visueel taalmodel. In vergelijking met de verbeterde versie biedt het een verdere verbetering van de visuele redeneercapaciteit en de naleving van instructies, met een hoger niveau van visuele waarneming en cognitie." + }, + "qwen-vl-plus": { + "description": "Qwen is een verbeterde versie van het grootschalige visuele taalmodel. Het verbetert aanzienlijk de detailherkenning en tekstherkenning, en ondersteunt afbeeldingen met een resolutie van meer dan een miljoen pixels en een willekeurige beeldverhouding." + }, + "qwen-vl-v1": { + "description": "Geïnitieerd met het Qwen-7B taalmodel, voegt het een afbeeldingsmodel toe, met een invoerresolutie van 448 voor het voorgetrainde model." + }, + "qwen/qwen-2-7b-instruct:free": { + "description": "Qwen2 is een gloednieuwe serie grote taalmodellen met sterkere begrip- en generatiecapaciteiten." + }, + "qwen2": { + "description": "Qwen2 is Alibaba's nieuwe generatie grootschalig taalmodel, ondersteunt diverse toepassingsbehoeften met uitstekende prestaties." + }, + "qwen2-57b-a14b-instruct": { + "description": "Qwen2 is een open-source model met een schaal van 57B en 14B geactiveerde parameters in het MOE-model." + }, + "qwen2-72b-instruct": { + "description": "Qwen2 is een open-source model met een schaal van 72B." + }, + "qwen2-7b-instruct": { + "description": "Qwen2 is een open-source model met een schaal van 7B." + }, + "qwen2-math-72b-instruct": { + "description": "Qwen2-Math model heeft krachtige wiskundige probleemoplossingscapaciteiten." + }, + "qwen2:0.5b": { + "description": "Qwen2 is Alibaba's nieuwe generatie grootschalig taalmodel, ondersteunt diverse toepassingsbehoeften met uitstekende prestaties." + }, + "qwen2:1.5b": { + "description": "Qwen2 is Alibaba's nieuwe generatie grootschalig taalmodel, ondersteunt diverse toepassingsbehoeften met uitstekende prestaties." + }, + "qwen2:72b": { + "description": "Qwen2 is Alibaba's nieuwe generatie grootschalig taalmodel, ondersteunt diverse toepassingsbehoeften met uitstekende prestaties." + }, + "solar-1-mini-chat": { + "description": "Solar Mini is een compact LLM dat beter presteert dan GPT-3.5, met sterke meertalige capaciteiten, ondersteunt Engels en Koreaans, en biedt een efficiënte en compacte oplossing." + }, + "solar-1-mini-chat-ja": { + "description": "Solar Mini (Ja) breidt de mogelijkheden van Solar Mini uit, met een focus op de Japanse taal, terwijl het ook efficiënt en uitstekend presteert in het gebruik van Engels en Koreaans." + }, + "solar-pro": { + "description": "Solar Pro is een zeer intelligent LLM dat is uitgebracht door Upstage, gericht op instructievolging met één GPU, met een IFEval-score van boven de 80. Momenteel ondersteunt het Engels, met een officiële versie die gepland staat voor november 2024, die de taalondersteuning en contextlengte zal uitbreiden." + }, + "step-1-128k": { + "description": "Biedt een balans tussen prestaties en kosten, geschikt voor algemene scenario's." + }, + "step-1-256k": { + "description": "Heeft ultra-lange contextverwerkingscapaciteiten, vooral geschikt voor lange documentanalyse." + }, + "step-1-32k": { + "description": "Ondersteunt gesprekken van gemiddelde lengte, geschikt voor verschillende toepassingsscenario's." + }, + "step-1-8k": { + "description": "Klein model, geschikt voor lichte taken." + }, + "step-1-flash": { + "description": "Hogesnelheidsmodel, geschikt voor realtime gesprekken." + }, + "step-1v-32k": { + "description": "Ondersteunt visuele invoer, verbetert de multimodale interactie-ervaring." + }, + "step-1v-8k": { + "description": "Klein visueel model, geschikt voor basis tekst- en afbeeldingtaken." + }, + "step-2-16k": { + "description": "Ondersteunt grootschalige contextinteracties, geschikt voor complexe gespreksscenario's." + }, + "taichu_llm": { + "description": "Het Zido Tai Chu-taalmodel heeft een sterke taalbegripcapaciteit en kan tekstcreatie, kennisvragen, codeprogrammering, wiskundige berekeningen, logische redenering, sentimentanalyse, tekstsamenvattingen en meer aan. Het combineert innovatief grote data voortraining met rijke kennis uit meerdere bronnen, door algoritmische technologie continu te verfijnen en voortdurend nieuwe kennis op te nemen uit enorme tekstdata op het gebied van vocabulaire, structuur, grammatica en semantiek, waardoor de modelprestaties voortdurend evolueren. Het biedt gebruikers gemakkelijkere informatie en diensten en een meer intelligente ervaring." + }, + "togethercomputer/StripedHyena-Nous-7B": { + "description": "StripedHyena Nous (7B) biedt verbeterde rekenkracht door middel van efficiënte strategieën en modelarchitectuur." + }, + "upstage/SOLAR-10.7B-Instruct-v1.0": { + "description": "Upstage SOLAR Instruct v1 (11B) is geschikt voor verfijnde instructietaken en biedt uitstekende taalverwerkingscapaciteiten." + }, + "wizardlm2": { + "description": "WizardLM 2 is een taalmodel van Microsoft AI dat uitblinkt in complexe gesprekken, meertaligheid, inferentie en intelligente assistentie." + }, + "wizardlm2:8x22b": { + "description": "WizardLM 2 is een taalmodel van Microsoft AI dat uitblinkt in complexe gesprekken, meertaligheid, inferentie en intelligente assistentie." + }, + "yi-large": { + "description": "Een nieuw model met honderden miljarden parameters, biedt superieure vraag- en tekstgeneratiecapaciteiten." + }, + "yi-large-fc": { + "description": "Bouwt voort op het yi-large model en versterkt de mogelijkheden voor functie-aanroepen, geschikt voor verschillende zakelijke scenario's die agent- of workflowopbouw vereisen." + }, + "yi-large-preview": { + "description": "Vroegere versie, aanbevolen om yi-large (nieuwe versie) te gebruiken." + }, + "yi-large-rag": { + "description": "Een geavanceerde service op basis van het yi-large model, die retrieval en generatietechnologie combineert om nauwkeurige antwoorden te bieden en realtime informatie van het hele web te doorzoeken." + }, + "yi-large-turbo": { + "description": "Biedt een uitstekende prijs-kwaliteitverhouding en prestaties. Voert een nauwkeurige afstemming uit op basis van prestaties, redeneersnelheid en kosten." + }, + "yi-medium": { + "description": "Gemiddeld formaat model met geoptimaliseerde afstemming, biedt een evenwichtige prijs-kwaliteitverhouding. Diep geoptimaliseerde instructievolgcapaciteiten." + }, + "yi-medium-200k": { + "description": "200K ultra-lange contextvenster, biedt diepgaand begrip en generatiecapaciteiten voor lange teksten." + }, + "yi-spark": { + "description": "Klein maar krachtig, een lichtgewicht en snelle model. Biedt versterkte wiskundige berekeningen en codeercapaciteiten." + }, + "yi-vision": { + "description": "Model voor complexe visuele taken, biedt hoge prestaties in beeldbegrip en analyse." + } +} diff --git a/locales/nl-NL/providers.json b/locales/nl-NL/providers.json new file mode 100644 index 000000000000..1491a861b576 --- /dev/null +++ b/locales/nl-NL/providers.json @@ -0,0 +1,80 @@ +{ + "ai360": { + "description": "360 AI is een AI-model- en serviceplatform gelanceerd door het bedrijf 360, dat verschillende geavanceerde modellen voor natuurlijke taalverwerking biedt, waaronder 360GPT2 Pro, 360GPT Pro, 360GPT Turbo en 360GPT Turbo Responsibility 8K. Deze modellen combineren grootschalige parameters en multimodale capaciteiten, en worden breed toegepast in tekstgeneratie, semantisch begrip, dialoogsystemen en codegeneratie. Met flexibele prijsstrategieën voldoet 360 AI aan diverse gebruikersbehoeften, ondersteunt het ontwikkelaars bij integratie en bevordert het de innovatie en ontwikkeling van intelligente toepassingen." + }, + "anthropic": { + "description": "Anthropic is een bedrijf dat zich richt op onderzoek en ontwikkeling van kunstmatige intelligentie, en biedt een reeks geavanceerde taalmodellen aan, zoals Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus en Claude 3 Haiku. Deze modellen bereiken een ideale balans tussen intelligentie, snelheid en kosten, en zijn geschikt voor een breed scala aan toepassingen, van bedrijfswerkbelasting tot snelle respons. Claude 3.5 Sonnet, als hun nieuwste model, presteert uitstekend in verschillende evaluaties, terwijl het een hoge kosteneffectiviteit behoudt." + }, + "azure": { + "description": "Azure biedt een scala aan geavanceerde AI-modellen, waaronder GPT-3.5 en de nieuwste GPT-4-serie, die verschillende datatypes en complexe taken ondersteunen, met een focus op veilige, betrouwbare en duurzame AI-oplossingen." + }, + "baichuan": { + "description": "Baichuan Intelligent is een bedrijf dat zich richt op de ontwikkeling van grote modellen voor kunstmatige intelligentie, wiens modellen uitblinken in Chinese taken zoals kennisencyclopedieën, lange tekstverwerking en generatieve creatie, en de mainstream modellen uit het buitenland overtreffen. Baichuan Intelligent heeft ook toonaangevende multimodale capaciteiten en presteert uitstekend in verschillende autoritatieve evaluaties. Hun modellen omvatten Baichuan 4, Baichuan 3 Turbo en Baichuan 3 Turbo 128k, die zijn geoptimaliseerd voor verschillende toepassingsscenario's en kosteneffectieve oplossingen bieden." + }, + "bedrock": { + "description": "Bedrock is een dienst van Amazon AWS die zich richt op het bieden van geavanceerde AI-taalmodellen en visuele modellen voor bedrijven. De modellenfamilie omvat de Claude-serie van Anthropic, de Llama 3.1-serie van Meta, en meer, met opties variërend van lichtgewicht tot hoge prestaties, en ondersteunt tekstgeneratie, dialogen, beeldverwerking en meer, geschikt voor bedrijfsapplicaties van verschillende schalen en behoeften." + }, + "deepseek": { + "description": "DeepSeek is een bedrijf dat zich richt op onderzoek en toepassing van kunstmatige intelligentietechnologie, en hun nieuwste model DeepSeek-V2.5 combineert algemene dialoog- en codeverwerkingscapaciteiten, met significante verbeteringen in het afstemmen op menselijke voorkeuren, schrijfopdrachten en het volgen van instructies." + }, + "fireworksai": { + "description": "Fireworks AI is een toonaangevende aanbieder van geavanceerde taalmodellen, met een focus op functionele aanroepen en multimodale verwerking. Hun nieuwste model Firefunction V2 is gebaseerd op Llama-3 en geoptimaliseerd voor functieaanroepen, dialogen en het volgen van instructies. Het visuele taalmodel FireLLaVA-13B ondersteunt gemengde invoer van afbeeldingen en tekst. Andere opmerkelijke modellen zijn de Llama-serie en de Mixtral-serie, die efficiënte ondersteuning bieden voor meertalig volgen van instructies en genereren." + }, + "google": { + "description": "De Gemini-serie van Google is hun meest geavanceerde, algemene AI-modellen, ontwikkeld door Google DeepMind, speciaal ontworpen voor multimodale toepassingen, en ondersteunt naadloze begrip en verwerking van tekst, code, afbeeldingen, audio en video. Geschikt voor verschillende omgevingen, van datacenters tot mobiele apparaten, verhoogt het de efficiëntie en toepasbaarheid van AI-modellen aanzienlijk." + }, + "groq": { + "description": "De LPU-inferentie-engine van Groq presteert uitstekend in de nieuwste onafhankelijke benchmarktests voor grote taalmodellen (LLM), en herdefinieert de normen voor AI-oplossingen met zijn verbazingwekkende snelheid en efficiëntie. Groq is een vertegenwoordiger van onmiddellijke inferentiesnelheid en toont goede prestaties in cloudgebaseerde implementaties." + }, + "minimax": { + "description": "MiniMax is een algemeen kunstmatige intelligentietechnologiebedrijf dat in 2021 is opgericht, en zich richt op co-creatie van intelligentie met gebruikers. MiniMax heeft verschillende multimodale algemene grote modellen ontwikkeld, waaronder een MoE-tekstgrootmodel met triljoenen parameters, een spraakgrootmodel en een afbeeldingsgrootmodel. Ze hebben ook toepassingen zoals Conch AI gelanceerd." + }, + "mistral": { + "description": "Mistral biedt geavanceerde algemene, professionele en onderzoeksmodellen, die breed worden toegepast in complexe redenering, meertalige taken, codegeneratie en meer. Via functionele aanroepinterfaces kunnen gebruikers aangepaste functies integreren voor specifieke toepassingen." + }, + "moonshot": { + "description": "Moonshot is een open platform gelanceerd door Beijing Dark Side Technology Co., Ltd., dat verschillende modellen voor natuurlijke taalverwerking biedt, met een breed toepassingsgebied, waaronder maar niet beperkt tot contentcreatie, academisch onderzoek, slimme aanbevelingen, medische diagnose, en ondersteunt lange tekstverwerking en complexe generatietaken." + }, + "novita": { + "description": "Novita AI is een platform dat API-diensten biedt voor verschillende grote taalmodellen en AI-beeldgeneratie, flexibel, betrouwbaar en kosteneffectief. Het ondersteunt de nieuwste open-source modellen zoals Llama3 en Mistral, en biedt een uitgebreide, gebruiksvriendelijke en automatisch schaalbare API-oplossing voor de ontwikkeling van generatieve AI-toepassingen, geschikt voor de snelle groei van AI-startups." + }, + "ollama": { + "description": "De modellen van Ollama bestrijken een breed scala aan gebieden, waaronder codegeneratie, wiskundige berekeningen, meertalige verwerking en interactieve dialogen, en voldoen aan de diverse behoeften van bedrijfs- en lokale implementaties." + }, + "openai": { + "description": "OpenAI is 's werelds toonaangevende onderzoeksinstituut op het gebied van kunstmatige intelligentie, wiens ontwikkelde modellen zoals de GPT-serie de grenzen van natuurlijke taalverwerking verleggen. OpenAI streeft ernaar verschillende industrieën te transformeren door middel van innovatieve en efficiënte AI-oplossingen. Hun producten bieden opmerkelijke prestaties en kosteneffectiviteit, en worden op grote schaal gebruikt in onderzoek, commercie en innovatieve toepassingen." + }, + "openrouter": { + "description": "OpenRouter is een serviceplatform dat verschillende vooraanstaande grote modelinterfaces biedt, ondersteunt OpenAI, Anthropic, LLaMA en meer, en is geschikt voor diverse ontwikkelings- en toepassingsbehoeften. Gebruikers kunnen flexibel het optimale model en de prijs kiezen op basis van hun behoeften, wat de AI-ervaring verbetert." + }, + "perplexity": { + "description": "Perplexity is een toonaangevende aanbieder van dialooggeneratiemodellen, die verschillende geavanceerde Llama 3.1-modellen aanbiedt, die zowel online als offline toepassingen ondersteunen, en bijzonder geschikt zijn voor complexe natuurlijke taalverwerkingstaken." + }, + "qwen": { + "description": "Tongyi Qianwen is een door Alibaba Cloud zelf ontwikkeld grootschalig taalmodel met krachtige mogelijkheden voor natuurlijke taalbegrip en -generatie. Het kan verschillende vragen beantwoorden, tekstinhoud creëren, meningen uiten, code schrijven, en speelt een rol in verschillende domeinen." + }, + "siliconcloud": { + "description": "SiliconFlow streeft ernaar AGI te versnellen ten behoeve van de mensheid, door de efficiëntie van grootschalige AI te verbeteren met een gebruiksvriendelijke en kosteneffectieve GenAI-stack." + }, + "spark": { + "description": "iFlytek's Xinghuo-grootmodel biedt krachtige AI-capaciteiten in meerdere domeinen en talen, en maakt gebruik van geavanceerde natuurlijke taalverwerkingstechnologie om innovatieve toepassingen te bouwen die geschikt zijn voor slimme hardware, slimme gezondheidszorg, slimme financiën en andere verticale scenario's." + }, + "stepfun": { + "description": "De Class Star-grootmodel heeft toonaangevende multimodale en complexe redeneringscapaciteiten, ondersteunt het begrijpen van zeer lange teksten en beschikt over krachtige autonome zoekmachinefunctionaliteit." + }, + "taichu": { + "description": "Het Instituut voor Automatisering van de Chinese Academie van Wetenschappen en het Wuhan Instituut voor Kunstmatige Intelligentie hebben een nieuwe generatie multimodale grote modellen gelanceerd, die ondersteuning bieden voor meerdaagse vraag-en-antwoord, tekstcreatie, beeldgeneratie, 3D-begrip, signaalanalyse en andere uitgebreide vraag-en-antwoordtaken, met sterkere cognitieve, begrip en creatiecapaciteiten, wat zorgt voor een geheel nieuwe interactie-ervaring." + }, + "togetherai": { + "description": "Together AI streeft ernaar toonaangevende prestaties te bereiken door middel van innovatieve AI-modellen, en biedt uitgebreide aanpassingsmogelijkheden, waaronder ondersteuning voor snelle schaling en intuïtieve implementatieprocessen, om aan de verschillende behoeften van bedrijven te voldoen." + }, + "upstage": { + "description": "Upstage richt zich op het ontwikkelen van AI-modellen voor verschillende zakelijke behoeften, waaronder Solar LLM en document AI, met als doel het realiseren van kunstmatige algemene intelligentie (AGI). Het creëert eenvoudige dialoogagenten via de Chat API en ondersteunt functionele aanroepen, vertalingen, insluitingen en specifieke domeintoepassingen." + }, + "zeroone": { + "description": "01.AI richt zich op kunstmatige intelligentietechnologie in het tijdperk van AI 2.0, en bevordert sterk de innovatie en toepassing van 'mens + kunstmatige intelligentie', met behulp van krachtige modellen en geavanceerde AI-technologie om de productiviteit van de mens te verbeteren en technologische capaciteiten te realiseren." + }, + "zhipu": { + "description": "Zhipu AI biedt een open platform voor multimodale en taalmodellen, dat een breed scala aan AI-toepassingsscenario's ondersteunt, waaronder tekstverwerking, beeldbegrip en programmeerondersteuning." + } +} diff --git a/locales/pl-PL/common.json b/locales/pl-PL/common.json index 29fac02ad7d0..352189c3ef0b 100644 --- a/locales/pl-PL/common.json +++ b/locales/pl-PL/common.json @@ -195,8 +195,8 @@ }, "tab": { "chat": "Czat", + "discover": "Odkryj", "files": "Pliki", - "market": "Odkrywaj", "me": "ja", "setting": "Ustawienia" }, diff --git a/locales/pl-PL/discover.json b/locales/pl-PL/discover.json new file mode 100644 index 000000000000..fb78a54a8222 --- /dev/null +++ b/locales/pl-PL/discover.json @@ -0,0 +1,204 @@ +{ + "assistants": { + "addAgent": "Dodaj asystenta", + "addAgentAndConverse": "Dodaj asystenta i rozpocznij rozmowę", + "addAgentSuccess": "Dodano pomyślnie", + "conversation": { + "l1": "Cześć, jestem **{{name}}**, możesz zadać mi dowolne pytanie, postaram się odpowiedzieć ~", + "l2": "Oto moje umiejętności: ", + "l3": "Zacznijmy rozmowę!" + }, + "description": "Opis asystenta", + "detail": "Szczegóły", + "list": "Lista asystentów", + "more": "Więcej", + "plugins": "Zintegrowane wtyczki", + "recentSubmits": "Ostatnie aktualizacje", + "suggestions": "Podobne rekomendacje", + "systemRole": "Ustawienia asystenta", + "try": "Spróbuj" + }, + "back": "Powrót do odkryć", + "category": { + "assistant": { + "academic": "Akademicki", + "all": "Wszystko", + "career": "Kariera", + "copywriting": "Copywriting", + "design": "Projektowanie", + "education": "Edukacja", + "emotions": "Emocje", + "entertainment": "Rozrywka", + "games": "Gry", + "general": "Ogólne", + "life": "Życie", + "marketing": "Marketing", + "office": "Biuro", + "programming": "Programowanie", + "translation": "Tłumaczenie" + }, + "plugin": { + "all": "Wszystko", + "gaming-entertainment": "Gry i rozrywka", + "life-style": "Styl życia", + "media-generate": "Generowanie mediów", + "science-education": "Nauka i edukacja", + "social": "Media społecznościowe", + "stocks-finance": "Akcje i finanse", + "tools": "Narzędzia", + "web-search": "Wyszukiwanie w sieci" + } + }, + "cleanFilter": "Wyczyść filtr", + "create": "Utwórz", + "createGuide": { + "func1": { + "desc1": "W oknie rozmowy przejdź do ustawień w prawym górnym rogu, aby wejść na stronę ustawień asystenta, który chcesz dodać;", + "desc2": "Kliknij przycisk 'Wyślij do rynku asystentów' w prawym górnym rogu.", + "tag": "Metoda pierwsza", + "title": "Zgłoś przez LobeChat" + }, + "func2": { + "button": "Przejdź do repozytorium asystentów na Githubie", + "desc": "Jeśli chcesz dodać asystenta do indeksu, użyj agent-template.json lub agent-template-full.json, aby utworzyć wpis w katalogu plugins, napisz krótki opis i odpowiednio oznacz, a następnie utwórz prośbę o ściągnięcie.", + "tag": "Metoda druga", + "title": "Zgłoś przez Github" + } + }, + "dislike": "Nie lubię", + "filter": "Filtr", + "filterBy": { + "authorRange": { + "everyone": "Wszyscy autorzy", + "followed": "Obserwowani autorzy", + "title": "Zakres autorów" + }, + "contentLength": "Minimalna długość kontekstu", + "maxToken": { + "title": "Ustaw maksymalną długość (Token)", + "unlimited": "Bez ograniczeń" + }, + "other": { + "functionCall": "Obsługuje wywołania funkcji", + "title": "Inne", + "vision": "Obsługuje rozpoznawanie wizualne", + "withKnowledge": "Z dołączoną bazą wiedzy", + "withTool": "Z dołączoną wtyczką" + }, + "pricing": "Cena modelu", + "timePeriod": { + "all": "Wszystkie czasy", + "day": "Ostatnie 24 godziny", + "month": "Ostatnie 30 dni", + "title": "Zakres czasowy", + "week": "Ostatnie 7 dni", + "year": "Ostatni rok" + } + }, + "home": { + "featuredAssistants": "Polecani asystenci", + "featuredModels": "Polecane modele", + "featuredProviders": "Polecani dostawcy modeli", + "featuredTools": "Polecane wtyczki", + "more": "Odkryj więcej" + }, + "like": "Lubię", + "models": { + "chat": "Rozpocznij rozmowę", + "contentLength": "Maksymalna długość kontekstu", + "free": "Darmowe", + "guide": "Przewodnik konfiguracyjny", + "list": "Lista modeli", + "more": "Więcej", + "parameterList": { + "defaultValue": "Wartość domyślna", + "docs": "Zobacz dokumentację", + "frequency_penalty": { + "desc": "To ustawienie dostosowuje częstotliwość powtarzania określonych słów, które już pojawiły się w wejściu. Wyższa wartość zmniejsza prawdopodobieństwo powtórzeń, podczas gdy wartość ujemna ma odwrotny efekt. Kara za słownictwo nie wzrasta wraz z liczbą wystąpień. Wartości ujemne zachęcają do powtarzania słownictwa.", + "title": "Kara za częstotliwość" + }, + "max_tokens": { + "desc": "To ustawienie definiuje maksymalną długość, jaką model może wygenerować w jednej odpowiedzi. Ustawienie wyższej wartości pozwala modelowi na generowanie dłuższych odpowiedzi, podczas gdy niższa wartość ogranicza długość odpowiedzi, czyniąc ją bardziej zwięzłą. W zależności od różnych scenariuszy zastosowania, odpowiednie dostosowanie tej wartości może pomóc osiągnąć oczekiwaną długość i szczegółowość odpowiedzi.", + "title": "Limit odpowiedzi na raz" + }, + "presence_penalty": { + "desc": "To ustawienie ma na celu kontrolowanie powtarzania słownictwa w zależności od częstotliwości jego występowania w wejściu. Stara się rzadziej używać słów, które pojawiają się w wejściu, proporcjonalnie do ich częstotliwości. Kara za słownictwo wzrasta wraz z liczbą wystąpień. Wartości ujemne zachęcają do powtarzania słownictwa.", + "title": "Świeżość tematu" + }, + "range": "Zakres", + "temperature": { + "desc": "To ustawienie wpływa na różnorodność odpowiedzi modelu. Niższe wartości prowadzą do bardziej przewidywalnych i typowych odpowiedzi, podczas gdy wyższe wartości zachęcają do bardziej zróżnicowanych i rzadziej spotykanych odpowiedzi. Gdy wartość wynosi 0, model zawsze daje tę samą odpowiedź na dane wejście.", + "title": "Losowość" + }, + "title": "Parametry modelu", + "top_p": { + "desc": "To ustawienie ogranicza wybór modelu do słów o najwyższej prawdopodobieństwie: wybiera tylko te słowa, których skumulowane prawdopodobieństwo osiąga P. Niższe wartości sprawiają, że odpowiedzi modelu są bardziej przewidywalne, podczas gdy domyślne ustawienie pozwala modelowi wybierać z całego zakresu słownictwa.", + "title": "Próbkowanie jądra" + }, + "type": "Typ" + }, + "providerInfo": { + "apiTooltip": "LobeChat obsługuje użycie niestandardowego klucza API dla tego dostawcy.", + "input": "Cena wejściowa", + "inputTooltip": "Koszt za milion tokenów", + "latency": "Opóźnienie", + "latencyTooltip": "Średni czas odpowiedzi dostawcy na pierwszy token", + "maxOutput": "Maksymalna długość wyjścia", + "maxOutputTooltip": "Maksymalna liczba tokenów, które ten punkt końcowy może wygenerować", + "officialTooltip": "Oficjalna usługa LobeHub", + "output": "Cena wyjściowa", + "outputTooltip": "Koszt za milion tokenów", + "streamCancellationTooltip": "Ten dostawca obsługuje funkcję anulowania strumienia.", + "throughput": "Przepustowość", + "throughputTooltip": "Średnia liczba tokenów przesyłanych na sekundę w żądaniach strumieniowych" + }, + "suggestions": "Podobne modele", + "supportedProviders": "Dostawcy obsługujący ten model" + }, + "plugins": { + "community": "Wtyczki społecznościowe", + "install": "Zainstaluj wtyczkę", + "installed": "Zainstalowane", + "list": "Lista wtyczek", + "meta": { + "description": "Opis", + "parameter": "Parametr", + "title": "Parametry narzędzia", + "type": "Typ" + }, + "more": "Więcej", + "official": "Oficjalne wtyczki", + "recentSubmits": "Ostatnie aktualizacje", + "suggestions": "Podobne rekomendacje" + }, + "providers": { + "config": "Konfiguracja dostawcy", + "list": "Lista dostawców modeli", + "modelCount": "{{count}} modeli", + "modelSite": "Dokumentacja modeli", + "more": "Więcej", + "officialSite": "Oficjalna strona", + "showAllModels": "Pokaż wszystkie modele", + "suggestions": "Powiązani dostawcy", + "supportedModels": "Obsługiwane modele" + }, + "search": { + "placeholder": "Szukaj nazwy, opisu lub słowa kluczowego...", + "result": "{{count}} wyników wyszukiwania dotyczących {{keyword}}", + "searching": "Wyszukiwanie..." + }, + "sort": { + "mostLiked": "Najbardziej lubiane", + "mostUsed": "Najczęściej używane", + "newest": "Od najnowszych", + "oldest": "Od najstarszych", + "recommended": "Polecane" + }, + "tab": { + "assistants": "Asystenci", + "home": "Strona główna", + "models": "Modele", + "plugins": "Wtyczki", + "providers": "Dostawcy modeli" + } +} diff --git a/locales/pl-PL/metadata.json b/locales/pl-PL/metadata.json index bd80a897c430..abfb8db716b6 100644 --- a/locales/pl-PL/metadata.json +++ b/locales/pl-PL/metadata.json @@ -3,9 +3,26 @@ "description": "{{appName}} oferuje najlepsze doświadczenia z ChatGPT, Claude, Gemini, OLLaMA WebUI", "title": "{{appName}}: osobiste narzędzie AI, które daje ci mądrzejszy umysł" }, - "market": { - "description": "Tworzenie treści, copywriting, pytania i odpowiedzi, generowanie obrazów, generowanie wideo, generowanie głosu, inteligentni agenci, automatyzacja przepływów pracy, dostosuj swojego osobistego asystenta AI", - "title": "Rynek asystentów" + "discover": { + "assistants": { + "description": "Tworzenie treści, copywriting, pytania i odpowiedzi, generowanie obrazów, generowanie wideo, generowanie głosu, inteligentny agent, automatyzacja przepływów pracy, dostosuj swojego osobistego asystenta AI / GPTs / OLLaMA", + "title": "Asystenci AI" + }, + "description": "Tworzenie treści, copywriting, pytania i odpowiedzi, generowanie obrazów, generowanie wideo, generowanie głosu, inteligentny agent, automatyzacja przepływów pracy, dostosowane aplikacje AI, stwórz swoje osobiste stanowisko pracy AI", + "models": { + "description": "Odkryj popularne modele AI OpenAI / GPT / Claude 3 / Gemini / Ollama / Azure / DeepSeek", + "title": "Modele AI" + }, + "plugins": { + "description": "Odkrywaj generatory wykresów, akademickie, generatory obrazów, generatory wideo, generatory głosu oraz zautomatyzowane przepływy pracy, aby wzbogacić możliwości swojego asystenta dzięki różnorodnym wtyczkom.", + "title": "Wtyczki AI" + }, + "providers": { + "description": "Odkryj głównych dostawców modeli OpenAI / Qwen / Ollama / Anthropic / DeepSeek / Google Gemini / OpenRouter", + "title": "Dostawcy usług modeli AI" + }, + "search": "Szukaj", + "title": "Odkryj" }, "plugins": { "description": "Wyszukiwanie, generowanie wykresów, akademickie, generowanie obrazów, generowanie wideo, generowanie głosu, automatyzacja przepływów pracy, dostosuj możliwości wtyczek ToolCall dla ChatGPT / Claude", diff --git a/locales/pl-PL/models.json b/locales/pl-PL/models.json new file mode 100644 index 000000000000..c76b6cb11afd --- /dev/null +++ b/locales/pl-PL/models.json @@ -0,0 +1,845 @@ +{ + "01-ai/Yi-1.5-34B-Chat-16K": { + "description": "Yi-1.5 34B, dzięki bogatym próbom treningowym, oferuje doskonałe wyniki w zastosowaniach branżowych." + }, + "01-ai/Yi-1.5-6B-Chat": { + "description": "Yi-1.5 to ewolucyjna wersja serii Yi, charakteryzująca się wysokiej jakości wstępnym uczeniem się i bogatymi danymi do dostrajania." + }, + "01-ai/Yi-1.5-9B-Chat-16K": { + "description": "Yi-1.5 9B obsługuje 16K tokenów, oferując wydajne i płynne zdolności generowania języka." + }, + "360gpt-pro": { + "description": "360GPT Pro, jako ważny członek serii modeli AI 360, zaspokaja różnorodne potrzeby aplikacji przetwarzania języka naturalnego dzięki wydajnym zdolnościom przetwarzania tekstu, obsługując zrozumienie długich tekstów i wielokrotne dialogi." + }, + "360gpt-turbo": { + "description": "360GPT Turbo oferuje potężne zdolności obliczeniowe i dialogowe, charakteryzując się doskonałym rozumieniem semantycznym i wydajnością generacyjną, stanowiąc idealne rozwiązanie dla firm i deweloperów jako inteligentny asystent." + }, + "360gpt-turbo-responsibility-8k": { + "description": "360GPT Turbo Responsibility 8K kładzie nacisk na bezpieczeństwo semantyczne i odpowiedzialność, zaprojektowany specjalnie dla aplikacji o wysokich wymaganiach dotyczących bezpieczeństwa treści, zapewniając dokładność i stabilność doświadczeń użytkowników." + }, + "360gpt2-pro": { + "description": "360GPT2 Pro to zaawansowany model przetwarzania języka naturalnego wydany przez firmę 360, charakteryzujący się doskonałymi zdolnościami generowania i rozumienia tekstu, szczególnie w obszarze generowania i tworzenia treści, zdolny do obsługi skomplikowanych zadań związanych z konwersją językową i odgrywaniem ról." + }, + "4.0Ultra": { + "description": "Spark4.0 Ultra to najsilniejsza wersja w serii modeli Spark, która, oprócz ulepszonego łącza wyszukiwania w sieci, zwiększa zdolność rozumienia i podsumowywania treści tekstowych. Jest to kompleksowe rozwiązanie mające na celu zwiększenie wydajności biurowej i dokładne odpowiadanie na potrzeby, stanowiące inteligentny produkt wiodący w branży." + }, + "Baichuan2-Turbo": { + "description": "Wykorzystuje technologię wzmacniania wyszukiwania, aby połączyć duży model z wiedzą branżową i wiedzą z całej sieci. Obsługuje przesyłanie różnych dokumentów, takich jak PDF, Word, oraz wprowadzanie adresów URL, zapewniając szybki i kompleksowy dostęp do informacji oraz dokładne i profesjonalne wyniki." + }, + "Baichuan3-Turbo": { + "description": "Optymalizowany pod kątem częstych scenariuszy biznesowych, znacznie poprawiający efektywność i oferujący korzystny stosunek jakości do ceny. W porównaniu do modelu Baichuan2, generowanie treści wzrosło o 20%, pytania o wiedzę o 17%, a zdolności odgrywania ról o 40%. Ogólna wydajność jest lepsza niż GPT3.5." + }, + "Baichuan3-Turbo-128k": { + "description": "Oferuje 128K ultra długi kontekst, zoptymalizowany pod kątem częstych scenariuszy biznesowych, znacznie poprawiający efektywność i oferujący korzystny stosunek jakości do ceny. W porównaniu do modelu Baichuan2, generowanie treści wzrosło o 20%, pytania o wiedzę o 17%, a zdolności odgrywania ról o 40%. Ogólna wydajność jest lepsza niż GPT3.5." + }, + "Baichuan4": { + "description": "Model o najwyższej wydajności w kraju, przewyższający zagraniczne modele w zadaniach związanych z encyklopedią, długimi tekstami i generowaniem treści w języku chińskim. Posiada również wiodące w branży zdolności multimodalne, osiągając doskonałe wyniki w wielu autorytatywnych testach." + }, + "Gryphe/MythoMax-L2-13b": { + "description": "MythoMax-L2 (13B) to innowacyjny model, idealny do zastosowań w wielu dziedzinach i złożonych zadań." + }, + "Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Hermes 2 Mixtral 8x7B DPO to wysoce elastyczna fuzja wielu modeli, mająca na celu zapewnienie doskonałego doświadczenia twórczego." + }, + "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) to model poleceń o wysokiej precyzji, idealny do złożonych obliczeń." + }, + "NousResearch/Nous-Hermes-2-Yi-34B": { + "description": "Nous Hermes-2 Yi (34B) oferuje zoptymalizowane wyjście językowe i różnorodne możliwości zastosowania." + }, + "Pro-128k": { + "description": "Spark Pro-128K ma wyjątkową zdolność przetwarzania kontekstu, mogąc obsługiwać do 128K informacji kontekstowych, szczególnie odpowiedni do analizy całościowej i długoterminowego przetwarzania logicznego w długich tekstach, zapewniając płynne i spójne logicznie komunikowanie się oraz różnorodne wsparcie cytatów." + }, + "Qwen/Qwen1.5-110B-Chat": { + "description": "Jako wersja testowa Qwen2, Qwen1.5 wykorzystuje dużą ilość danych do osiągnięcia bardziej precyzyjnych funkcji dialogowych." + }, + "Qwen/Qwen1.5-14B-Chat": { + "description": "Qwen1.5, trenowany na dużych zbiorach danych, jest biegły w skomplikowanych zadaniach językowych." + }, + "Qwen/Qwen1.5-32B-Chat": { + "description": "Qwen1.5 ma zdolności odpowiadania na pytania w wielu dziedzinach oraz generowania tekstu." + }, + "Qwen/Qwen1.5-72B-Chat": { + "description": "Qwen 1.5 Chat (72B) oferuje szybkie odpowiedzi i naturalne umiejętności dialogowe, idealne do środowisk wielojęzycznych." + }, + "Qwen/Qwen1.5-7B-Chat": { + "description": "Qwen1.5 poprawia zdolności dialogowe poprzez połączenie zaawansowanego wstępnego uczenia się i dostrajania." + }, + "Qwen/Qwen2-1.5B-Instruct": { + "description": "Qwen2 to nowa seria dużych modeli językowych, mająca na celu optymalizację przetwarzania zadań instrukcyjnych." + }, + "Qwen/Qwen2-57B-A14B-Instruct": { + "description": "Qwen2 to nowa seria, w której model 57B A14B wyróżnia się w zadaniach instrukcyjnych." + }, + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 to zaawansowany uniwersalny model językowy, wspierający różne typy poleceń." + }, + "Qwen/Qwen2-7B-Instruct": { + "description": "Qwen2 to nowa seria dużych modeli językowych, charakteryzująca się silniejszymi zdolnościami rozumienia i generowania." + }, + "Qwen/Qwen2-Math-72B-Instruct": { + "description": "Qwen2-Math koncentruje się na rozwiązywaniu problemów w dziedzinie matematyki, oferując profesjonalne odpowiedzi na trudne pytania." + }, + "THUDM/chatglm3-6b": { + "description": "Jako dwujęzyczny model konwersacyjny, ChatGLM3 potrafi obsługiwać zadania związane z konwersją między językiem chińskim a angielskim." + }, + "THUDM/glm-4-9b-chat": { + "description": "GLM-4 9B to otwarta wersja, oferująca zoptymalizowane doświadczenie dialogowe dla aplikacji konwersacyjnych." + }, + "abab5.5-chat": { + "description": "Skierowany do scenariuszy produkcyjnych, wspierający przetwarzanie złożonych zadań i efektywne generowanie tekstu, odpowiedni do zastosowań w profesjonalnych dziedzinach." + }, + "abab5.5s-chat": { + "description": "Zaprojektowany specjalnie do scenariuszy dialogowych w języku chińskim, oferujący wysokiej jakości generowanie dialogów w języku chińskim, odpowiedni do różnych zastosowań." + }, + "abab6.5g-chat": { + "description": "Zaprojektowany specjalnie do dialogów z wielojęzycznymi postaciami, wspierający wysokiej jakości generowanie dialogów w języku angielskim i innych językach." + }, + "abab6.5s-chat": { + "description": "Odpowiedni do szerokiego zakresu zadań przetwarzania języka naturalnego, w tym generowania tekstu, systemów dialogowych itp." + }, + "abab6.5t-chat": { + "description": "Optymalizowany do scenariuszy dialogowych w języku chińskim, oferujący płynne i zgodne z chińskimi zwyczajami generowanie dialogów." + }, + "accounts/fireworks/models/firefunction-v1": { + "description": "Open source model wywołań funkcji od Fireworks, oferujący doskonałe możliwości wykonania poleceń i otwarte, konfigurowalne cechy." + }, + "accounts/fireworks/models/firefunction-v2": { + "description": "Firefunction-v2, najnowszy model firmy Fireworks, to wydajny model wywołań funkcji, opracowany na bazie Llama-3, zoptymalizowany do wywołań funkcji, dialogów i śledzenia poleceń." + }, + "accounts/fireworks/models/firellava-13b": { + "description": "fireworks-ai/FireLLaVA-13b to model językowy wizualny, który może jednocześnie przyjmować obrazy i tekst, przeszkolony na wysokiej jakości danych, idealny do zadań multimodalnych." + }, + "accounts/fireworks/models/gemma2-9b-it": { + "description": "Model Gemma 2 9B Instruct, oparty na wcześniejszej technologii Google, idealny do zadań generowania tekstu, takich jak odpowiadanie na pytania, podsumowywanie i wnioskowanie." + }, + "accounts/fireworks/models/llama-v3-70b-instruct": { + "description": "Model Llama 3 70B Instruct, zaprojektowany do wielojęzycznych dialogów i rozumienia języka naturalnego, przewyższa większość konkurencyjnych modeli." + }, + "accounts/fireworks/models/llama-v3-70b-instruct-hf": { + "description": "Model Llama 3 70B Instruct (wersja HF), zgodny z wynikami oficjalnej implementacji, idealny do wysokiej jakości zadań śledzenia poleceń." + }, + "accounts/fireworks/models/llama-v3-8b-instruct": { + "description": "Model Llama 3 8B Instruct, zoptymalizowany do dialogów i zadań wielojęzycznych, oferuje doskonałe i efektywne osiągi." + }, + "accounts/fireworks/models/llama-v3-8b-instruct-hf": { + "description": "Model Llama 3 8B Instruct (wersja HF), zgodny z wynikami oficjalnej implementacji, zapewnia wysoką spójność i kompatybilność międzyplatformową." + }, + "accounts/fireworks/models/llama-v3p1-405b-instruct": { + "description": "Model Llama 3.1 405B Instruct, z ogromną liczbą parametrów, idealny do złożonych zadań i śledzenia poleceń w scenariuszach o dużym obciążeniu." + }, + "accounts/fireworks/models/llama-v3p1-70b-instruct": { + "description": "Model Llama 3.1 70B Instruct oferuje doskonałe możliwości rozumienia i generowania języka, idealny do zadań dialogowych i analitycznych." + }, + "accounts/fireworks/models/llama-v3p1-8b-instruct": { + "description": "Model Llama 3.1 8B Instruct, zoptymalizowany do wielojęzycznych dialogów, potrafi przewyższyć większość modeli open source i closed source w powszechnych standardach branżowych." + }, + "accounts/fireworks/models/mixtral-8x22b-instruct": { + "description": "Model Mixtral MoE 8x22B Instruct, z dużą liczbą parametrów i architekturą wielu ekspertów, kompleksowo wspierający efektywne przetwarzanie złożonych zadań." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct": { + "description": "Model Mixtral MoE 8x7B Instruct, architektura wielu ekspertów, oferująca efektywne śledzenie i wykonanie poleceń." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct-hf": { + "description": "Model Mixtral MoE 8x7B Instruct (wersja HF), wydajność zgodna z oficjalną implementacją, idealny do różnych scenariuszy efektywnych zadań." + }, + "accounts/fireworks/models/mythomax-l2-13b": { + "description": "Model MythoMax L2 13B, łączący nowatorskie techniki łączenia, doskonały w narracji i odgrywaniu ról." + }, + "accounts/fireworks/models/phi-3-vision-128k-instruct": { + "description": "Model Phi 3 Vision Instruct, lekki model multimodalny, zdolny do przetwarzania złożonych informacji wizualnych i tekstowych, z silnymi zdolnościami wnioskowania." + }, + "accounts/fireworks/models/starcoder-16b": { + "description": "Model StarCoder 15.5B, wspierający zaawansowane zadania programistyczne, z wzmocnionymi możliwościami wielojęzycznymi, idealny do złożonego generowania i rozumienia kodu." + }, + "accounts/fireworks/models/starcoder-7b": { + "description": "Model StarCoder 7B, przeszkolony w ponad 80 językach programowania, oferujący doskonałe możliwości uzupełniania kodu i rozumienia kontekstu." + }, + "accounts/yi-01-ai/models/yi-large": { + "description": "Model Yi-Large, oferujący doskonałe możliwości przetwarzania wielojęzycznego, nadający się do różnych zadań generowania i rozumienia języka." + }, + "anthropic.claude-3-5-sonnet-20240620-v1:0": { + "description": "Claude 3.5 Sonnet podnosi standardy branżowe, przewyższając modele konkurencji oraz Claude 3 Opus, osiągając doskonałe wyniki w szerokim zakresie ocen, jednocześnie oferując szybkość i koszty na poziomie naszych modeli średniej klasy." + }, + "anthropic.claude-3-haiku-20240307-v1:0": { + "description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model od Anthropic, oferujący niemal natychmiastową szybkość odpowiedzi. Może szybko odpowiadać na proste zapytania i prośby. Klienci będą mogli budować płynne doświadczenia AI, które naśladują interakcje międzyludzkie. Claude 3 Haiku może przetwarzać obrazy i zwracać wyjścia tekstowe, z oknem kontekstowym wynoszącym 200K." + }, + "anthropic.claude-3-opus-20240229-v1:0": { + "description": "Claude 3 Opus to najpotężniejszy model AI od Anthropic, z najnowocześniejszymi osiągami w wysoko złożonych zadaniach. Może obsługiwać otwarte podpowiedzi i nieznane scenariusze, oferując doskonałą płynność i ludzkie zdolności rozumienia. Claude 3 Opus pokazuje granice możliwości generatywnej AI. Claude 3 Opus może przetwarzać obrazy i zwracać wyjścia tekstowe, z oknem kontekstowym wynoszącym 200K." + }, + "anthropic.claude-3-sonnet-20240229-v1:0": { + "description": "Claude 3 Sonnet od Anthropic osiąga idealną równowagę między inteligencją a szybkością — szczególnie odpowiedni do obciążeń roboczych w przedsiębiorstwach. Oferuje maksymalną użyteczność po niższej cenie niż konkurencja i został zaprojektowany jako niezawodny, wytrzymały model główny, odpowiedni do skalowalnych wdrożeń AI. Claude 3 Sonnet może przetwarzać obrazy i zwracać wyjścia tekstowe, z oknem kontekstowym wynoszącym 200K." + }, + "anthropic.claude-instant-v1": { + "description": "Szybki, ekonomiczny model, który wciąż jest bardzo zdolny, może obsługiwać szereg zadań, w tym codzienne rozmowy, analizę tekstu, podsumowania i pytania dotyczące dokumentów." + }, + "anthropic.claude-v2": { + "description": "Model Anthropic wykazuje wysokie zdolności w szerokim zakresie zadań, od złożonych rozmów i generowania treści kreatywnych po szczegółowe przestrzeganie instrukcji." + }, + "anthropic.claude-v2:1": { + "description": "Zaktualizowana wersja Claude 2, z podwójnym oknem kontekstowym oraz poprawioną niezawodnością, wskaźnikiem halucynacji i dokładnością opartą na dowodach w kontekście długich dokumentów i RAG." + }, + "anthropic/claude-3-haiku": { + "description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model Anthropic, zaprojektowany do niemal natychmiastowych odpowiedzi. Oferuje szybkie i dokładne wyniki w ukierunkowanych zadaniach." + }, + "anthropic/claude-3-opus": { + "description": "Claude 3 Opus to najpotężniejszy model Anthropic do obsługi wysoce złożonych zadań. Wyróżnia się doskonałymi osiągami, inteligencją, płynnością i zdolnością rozumienia." + }, + "anthropic/claude-3.5-sonnet": { + "description": "Claude 3.5 Sonnet oferuje możliwości przewyższające Opus oraz szybsze tempo niż Sonnet, zachowując tę samą cenę. Sonnet szczególnie dobrze radzi sobie z programowaniem, nauką o danych, przetwarzaniem wizualnym i zadaniami agenta." + }, + "aya": { + "description": "Aya 23 to model wielojęzyczny wydany przez Cohere, wspierający 23 języki, ułatwiający różnorodne zastosowania językowe." + }, + "aya:35b": { + "description": "Aya 23 to model wielojęzyczny wydany przez Cohere, wspierający 23 języki, ułatwiający różnorodne zastosowania językowe." + }, + "charglm-3": { + "description": "CharGLM-3 zaprojektowany z myślą o odgrywaniu ról i emocjonalnym towarzyszeniu, obsługujący ultra-długą pamięć wielokrotną i spersonalizowane dialogi, z szerokim zakresem zastosowań." + }, + "chatgpt-4o-latest": { + "description": "ChatGPT-4o to dynamiczny model, który jest na bieżąco aktualizowany, aby utrzymać najnowszą wersję. Łączy potężne zdolności rozumienia i generowania języka, co czyni go odpowiednim do zastosowań na dużą skalę, w tym obsługi klienta, edukacji i wsparcia technicznego." + }, + "claude-2.0": { + "description": "Claude 2 oferuje postępy w kluczowych możliwościach dla przedsiębiorstw, w tym wiodącą w branży kontekst 200K tokenów, znacznie zmniejszającą częstość występowania halucynacji modelu, systemowe podpowiedzi oraz nową funkcję testową: wywołania narzędzi." + }, + "claude-2.1": { + "description": "Claude 2 oferuje postępy w kluczowych możliwościach dla przedsiębiorstw, w tym wiodącą w branży kontekst 200K tokenów, znacznie zmniejszającą częstość występowania halucynacji modelu, systemowe podpowiedzi oraz nową funkcję testową: wywołania narzędzi." + }, + "claude-3-5-sonnet-20240620": { + "description": "Claude 3.5 Sonnet oferuje możliwości przewyższające Opus oraz szybsze tempo niż Sonnet, przy zachowaniu tej samej ceny. Sonnet szczególnie dobrze radzi sobie z programowaniem, nauką danych, przetwarzaniem wizualnym i zadaniami agenta." + }, + "claude-3-haiku-20240307": { + "description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model Anthropic, zaprojektowany do osiągania niemal natychmiastowych odpowiedzi. Oferuje szybkie i dokładne wyniki w ukierunkowanych zadaniach." + }, + "claude-3-opus-20240229": { + "description": "Claude 3 Opus to najpotężniejszy model Anthropic do przetwarzania wysoce złożonych zadań. Wykazuje doskonałe osiągi w zakresie wydajności, inteligencji, płynności i zrozumienia." + }, + "claude-3-sonnet-20240229": { + "description": "Claude 3 Sonnet zapewnia idealną równowagę między inteligencją a szybkością dla obciążeń roboczych w przedsiębiorstwach. Oferuje maksymalną użyteczność przy niższej cenie, jest niezawodny i odpowiedni do dużych wdrożeń." + }, + "claude-instant-1.2": { + "description": "Model Anthropic przeznaczony do generowania tekstu o niskim opóźnieniu i wysokiej przepustowości, wspierający generowanie setek stron tekstu." + }, + "codegeex-4": { + "description": "CodeGeeX-4 to potężny asystent programowania AI, obsługujący inteligentne pytania i odpowiedzi oraz uzupełnianie kodu w różnych językach programowania, zwiększając wydajność programistów." + }, + "codegemma": { + "description": "CodeGemma to lekki model językowy, specjalizujący się w różnych zadaniach programistycznych, wspierający szybkie iteracje i integrację." + }, + "codegemma:2b": { + "description": "CodeGemma to lekki model językowy, specjalizujący się w różnych zadaniach programistycznych, wspierający szybkie iteracje i integrację." + }, + "codellama": { + "description": "Code Llama to model LLM skoncentrowany na generowaniu i dyskusji kodu, łączący wsparcie dla szerokiego zakresu języków programowania, odpowiedni do środowisk deweloperskich." + }, + "codellama:13b": { + "description": "Code Llama to model LLM skoncentrowany na generowaniu i dyskusji kodu, łączący wsparcie dla szerokiego zakresu języków programowania, odpowiedni do środowisk deweloperskich." + }, + "codellama:34b": { + "description": "Code Llama to model LLM skoncentrowany na generowaniu i dyskusji kodu, łączący wsparcie dla szerokiego zakresu języków programowania, odpowiedni do środowisk deweloperskich." + }, + "codellama:70b": { + "description": "Code Llama to model LLM skoncentrowany na generowaniu i dyskusji kodu, łączący wsparcie dla szerokiego zakresu języków programowania, odpowiedni do środowisk deweloperskich." + }, + "codeqwen": { + "description": "CodeQwen1.5 to duży model językowy wytrenowany na dużej ilości danych kodowych, zaprojektowany do rozwiązywania złożonych zadań programistycznych." + }, + "codestral": { + "description": "Codestral to pierwszy model kodowy Mistral AI, oferujący doskonałe wsparcie dla zadań generowania kodu." + }, + "codestral-latest": { + "description": "Codestral to nowoczesny model generacyjny skoncentrowany na generowaniu kodu, zoptymalizowany do zadań wypełniania i uzupełniania kodu." + }, + "cognitivecomputations/dolphin-mixtral-8x22b": { + "description": "Dolphin Mixtral 8x22B to model zaprojektowany do przestrzegania instrukcji, dialogów i programowania." + }, + "command-r": { + "description": "Command R to LLM zoptymalizowany do dialogów i zadań z długim kontekstem, szczególnie odpowiedni do dynamicznej interakcji i zarządzania wiedzą." + }, + "command-r-plus": { + "description": "Command R+ to model językowy o wysokiej wydajności, zaprojektowany z myślą o rzeczywistych scenariuszach biznesowych i złożonych zastosowaniach." + }, + "databricks/dbrx-instruct": { + "description": "DBRX Instruct oferuje wysoką niezawodność w przetwarzaniu poleceń, wspierając różne branże." + }, + "deepseek-ai/DeepSeek-Coder-V2-Instruct": { + "description": "DeepSeek Coder V2 zaprojektowano do zadań związanych z kodowaniem, koncentrując się na efektywnej generacji kodu." + }, + "deepseek-ai/DeepSeek-V2-Chat": { + "description": "DeepSeek V2 ma 6,7 miliarda parametrów, wspierając przetwarzanie tekstu w języku angielskim i chińskim." + }, + "deepseek-ai/DeepSeek-V2.5": { + "description": "DeepSeek V2.5 łączy doskonałe cechy wcześniejszych wersji, wzmacniając zdolności ogólne i kodowania." + }, + "deepseek-ai/deepseek-llm-67b-chat": { + "description": "DeepSeek 67B to zaawansowany model przeszkolony do złożonych dialogów." + }, + "deepseek-chat": { + "description": "Nowy otwarty model łączący zdolności ogólne i kodowe, który nie tylko zachowuje ogólne zdolności dialogowe oryginalnego modelu czatu i potężne zdolności przetwarzania kodu modelu Coder, ale także lepiej dostosowuje się do ludzkich preferencji. Ponadto, DeepSeek-V2.5 osiągnął znaczne poprawy w zadaniach pisarskich, przestrzeganiu instrukcji i innych obszarach." + }, + "deepseek-coder-v2": { + "description": "DeepSeek Coder V2 to otwarty model kodowy Mixture-of-Experts, który doskonale radzi sobie z zadaniami kodowymi, porównywalny z GPT4-Turbo." + }, + "deepseek-coder-v2:236b": { + "description": "DeepSeek Coder V2 to otwarty model kodowy Mixture-of-Experts, który doskonale radzi sobie z zadaniami kodowymi, porównywalny z GPT4-Turbo." + }, + "deepseek-v2": { + "description": "DeepSeek V2 to wydajny model językowy Mixture-of-Experts, odpowiedni do ekonomicznych potrzeb przetwarzania." + }, + "deepseek-v2:236b": { + "description": "DeepSeek V2 236B to model kodowy zaprojektowany przez DeepSeek, oferujący potężne możliwości generowania kodu." + }, + "deepseek/deepseek-chat": { + "description": "Nowy, otwarty model łączący zdolności ogólne i kodowe, który nie tylko zachowuje ogólne zdolności dialogowe oryginalnego modelu Chat, ale także potężne zdolności przetwarzania kodu modelu Coder, lepiej dostosowując się do ludzkich preferencji. Ponadto, DeepSeek-V2.5 osiągnął znaczne poprawy w zadaniach pisarskich, przestrzeganiu instrukcji i wielu innych obszarach." + }, + "emohaa": { + "description": "Emohaa to model psychologiczny, posiadający profesjonalne umiejętności doradcze, pomagający użytkownikom zrozumieć problemy emocjonalne." + }, + "gemini-1.0-pro-001": { + "description": "Gemini 1.0 Pro 001 (Tuning) oferuje stabilną i dostosowywalną wydajność, co czyni go idealnym wyborem dla rozwiązań złożonych zadań." + }, + "gemini-1.0-pro-002": { + "description": "Gemini 1.0 Pro 002 (Tuning) oferuje doskonałe wsparcie multimodalne, koncentrując się na efektywnym rozwiązywaniu złożonych zadań." + }, + "gemini-1.0-pro-latest": { + "description": "Gemini 1.0 Pro to model AI o wysokiej wydajności od Google, zaprojektowany do szerokiego rozszerzania zadań." + }, + "gemini-1.5-flash-001": { + "description": "Gemini 1.5 Flash 001 to wydajny model multimodalny, wspierający szerokie zastosowania." + }, + "gemini-1.5-flash-8b-exp-0827": { + "description": "Gemini 1.5 Flash 8B 0827 został zaprojektowany do obsługi dużych zadań, oferując niezrównaną prędkość przetwarzania." + }, + "gemini-1.5-flash-exp-0827": { + "description": "Gemini 1.5 Flash 0827 oferuje zoptymalizowane możliwości przetwarzania multimodalnego, odpowiednie do różnych złożonych scenariuszy zadań." + }, + "gemini-1.5-flash-latest": { + "description": "Gemini 1.5 Flash to najnowszy model AI Google o wielu modalnościach, który charakteryzuje się szybkim przetwarzaniem i obsługuje wejścia tekstowe, obrazowe i wideo, co czyni go odpowiednim do efektywnego rozszerzania w różnych zadaniach." + }, + "gemini-1.5-pro-001": { + "description": "Gemini 1.5 Pro 001 to skalowalne rozwiązanie AI multimodalnego, wspierające szeroki zakres złożonych zadań." + }, + "gemini-1.5-pro-exp-0801": { + "description": "Gemini 1.5 Pro 0801 oferuje doskonałe możliwości przetwarzania multimodalnego, zapewniając większą elastyczność w rozwoju aplikacji." + }, + "gemini-1.5-pro-exp-0827": { + "description": "Gemini 1.5 Pro 0827 łączy najnowsze technologie optymalizacji, oferując bardziej efektywne możliwości przetwarzania danych multimodalnych." + }, + "gemini-1.5-pro-latest": { + "description": "Gemini 1.5 Pro obsługuje do 2 milionów tokenów, co czyni go idealnym wyborem dla średniej wielkości modeli multimodalnych, odpowiednim do wszechstronnej obsługi złożonych zadań." + }, + "gemma-7b-it": { + "description": "Gemma 7B nadaje się do przetwarzania zadań średniej i małej skali, łącząc efektywność kosztową." + }, + "gemma2": { + "description": "Gemma 2 to wydajny model wydany przez Google, obejmujący różnorodne zastosowania, od małych aplikacji po złożone przetwarzanie danych." + }, + "gemma2-9b-it": { + "description": "Gemma 2 9B to model zoptymalizowany do specyficznych zadań i integracji narzędzi." + }, + "gemma2:27b": { + "description": "Gemma 2 to wydajny model wydany przez Google, obejmujący różnorodne zastosowania, od małych aplikacji po złożone przetwarzanie danych." + }, + "gemma2:2b": { + "description": "Gemma 2 to wydajny model wydany przez Google, obejmujący różnorodne zastosowania, od małych aplikacji po złożone przetwarzanie danych." + }, + "general": { + "description": "Spark Lite to lekki model dużego języka, charakteryzujący się bardzo niskim opóźnieniem i wysoką wydajnością przetwarzania, całkowicie darmowy i otwarty, wspierający funkcję wyszukiwania w czasie rzeczywistym. Jego szybka reakcja sprawia, że doskonale sprawdza się w zastosowaniach inferencyjnych i dostrajaniu modeli na urządzeniach o niskiej mocy obliczeniowej, oferując użytkownikom doskonały stosunek kosztów do korzyści oraz inteligentne doświadczenie, szczególnie w zadaniach związanych z pytaniami o wiedzę, generowaniem treści i wyszukiwaniem." + }, + "generalv3": { + "description": "Spark Pro to model dużego języka o wysokiej wydajności, zoptymalizowany do profesjonalnych dziedzin, takich jak matematyka, programowanie, medycyna i edukacja, wspierający wyszukiwanie w sieci oraz wbudowane wtyczki, takie jak pogoda i daty. Jego zoptymalizowany model wykazuje doskonałe wyniki i wysoką wydajność w skomplikowanych pytaniach o wiedzę, rozumieniu języka oraz tworzeniu zaawansowanych tekstów, co czyni go idealnym wyborem do profesjonalnych zastosowań." + }, + "generalv3.5": { + "description": "Spark3.5 Max to najbardziej wszechstronna wersja, wspierająca wyszukiwanie w sieci oraz wiele wbudowanych wtyczek. Jego kompleksowo zoptymalizowane zdolności rdzeniowe oraz funkcje ustawiania ról systemowych i wywoływania funkcji sprawiają, że wykazuje się wyjątkową wydajnością w różnych skomplikowanych zastosowaniach." + }, + "glm-4": { + "description": "GLM-4 to stary flagowy model wydany w styczniu 2024 roku, obecnie zastąpiony przez silniejszy model GLM-4-0520." + }, + "glm-4-0520": { + "description": "GLM-4-0520 to najnowsza wersja modelu, zaprojektowana do wysoko złożonych i zróżnicowanych zadań, z doskonałymi wynikami." + }, + "glm-4-air": { + "description": "GLM-4-Air to opłacalna wersja, której wydajność jest zbliżona do GLM-4, oferująca szybkie działanie i przystępną cenę." + }, + "glm-4-airx": { + "description": "GLM-4-AirX oferuje wydajną wersję GLM-4-Air, z szybkością wnioskowania do 2,6 razy szybszą." + }, + "glm-4-alltools": { + "description": "GLM-4-AllTools to model inteligentny o wielu funkcjach, zoptymalizowany do wsparcia złożonego planowania instrukcji i wywołań narzędzi, takich jak przeglądanie sieci, interpretacja kodu i generowanie tekstu, odpowiedni do wykonywania wielu zadań." + }, + "glm-4-flash": { + "description": "GLM-4-Flash to idealny wybór do przetwarzania prostych zadań, najszybszy i najtańszy." + }, + "glm-4-long": { + "description": "GLM-4-Long obsługuje ultra-długie wejścia tekstowe, odpowiednie do zadań pamięciowych i przetwarzania dużych dokumentów." + }, + "glm-4-plus": { + "description": "GLM-4-Plus jako flagowy model o wysokiej inteligencji, posiada potężne zdolności przetwarzania długich tekstów i złożonych zadań, z ogólnym wzrostem wydajności." + }, + "glm-4v": { + "description": "GLM-4V oferuje potężne zdolności rozumienia i wnioskowania obrazów, obsługując różne zadania wizualne." + }, + "glm-4v-plus": { + "description": "GLM-4V-Plus ma zdolność rozumienia treści wideo oraz wielu obrazów, odpowiedni do zadań multimodalnych." + }, + "google/gemini-flash-1.5-exp": { + "description": "Gemini 1.5 Flash 0827 oferuje zoptymalizowane możliwości przetwarzania multimodalnego, odpowiednie do różnych złożonych zadań." + }, + "google/gemini-pro-1.5-exp": { + "description": "Gemini 1.5 Pro 0827 łączy najnowsze technologie optymalizacji, oferując bardziej efektywne przetwarzanie danych multimodalnych." + }, + "google/gemma-2-27b-it": { + "description": "Gemma 2 kontynuuje ideę lekkiego i wydajnego projektowania." + }, + "google/gemma-2-9b-it": { + "description": "Gemma 2 to lekka seria modeli tekstowych open source od Google." + }, + "google/gemma-2-9b-it:free": { + "description": "Gemma 2 to odchudzona seria otwartych modeli tekstowych Google." + }, + "google/gemma-2b-it": { + "description": "Gemma Instruct (2B) oferuje podstawowe możliwości przetwarzania poleceń, idealne do lekkich aplikacji." + }, + "gpt-3.5-turbo": { + "description": "GPT 3.5 Turbo, odpowiedni do różnych zadań generowania i rozumienia tekstu, obecnie wskazuje na gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-0125": { + "description": "GPT 3.5 Turbo, odpowiedni do różnych zadań generowania i rozumienia tekstu, obecnie wskazuje na gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-1106": { + "description": "GPT 3.5 Turbo, odpowiedni do różnych zadań generowania i rozumienia tekstu, obecnie wskazuje na gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-instruct": { + "description": "GPT 3.5 Turbo, odpowiedni do różnych zadań generowania i rozumienia tekstu, obecnie wskazuje na gpt-3.5-turbo-0125." + }, + "gpt-4": { + "description": "GPT-4 oferuje większe okno kontekstowe, zdolne do przetwarzania dłuższych wejść tekstowych, co czyni go odpowiednim do scenariuszy wymagających szerokiej integracji informacji i analizy danych." + }, + "gpt-4-0125-preview": { + "description": "Najnowszy model GPT-4 Turbo posiada funkcje wizualne. Teraz zapytania wizualne mogą być obsługiwane za pomocą formatu JSON i wywołań funkcji. GPT-4 Turbo to ulepszona wersja, która oferuje opłacalne wsparcie dla zadań multimodalnych. Znajduje równowagę między dokładnością a wydajnością, co czyni go odpowiednim do aplikacji wymagających interakcji w czasie rzeczywistym." + }, + "gpt-4-0613": { + "description": "GPT-4 oferuje większe okno kontekstowe, zdolne do przetwarzania dłuższych wejść tekstowych, co czyni go odpowiednim do scenariuszy wymagających szerokiej integracji informacji i analizy danych." + }, + "gpt-4-1106-preview": { + "description": "Najnowszy model GPT-4 Turbo posiada funkcje wizualne. Teraz zapytania wizualne mogą być obsługiwane za pomocą formatu JSON i wywołań funkcji. GPT-4 Turbo to ulepszona wersja, która oferuje opłacalne wsparcie dla zadań multimodalnych. Znajduje równowagę między dokładnością a wydajnością, co czyni go odpowiednim do aplikacji wymagających interakcji w czasie rzeczywistym." + }, + "gpt-4-1106-vision-preview": { + "description": "Najnowszy model GPT-4 Turbo posiada funkcje wizualne. Teraz zapytania wizualne mogą być obsługiwane za pomocą formatu JSON i wywołań funkcji. GPT-4 Turbo to ulepszona wersja, która oferuje opłacalne wsparcie dla zadań multimodalnych. Znajduje równowagę między dokładnością a wydajnością, co czyni go odpowiednim do aplikacji wymagających interakcji w czasie rzeczywistym." + }, + "gpt-4-32k": { + "description": "GPT-4 oferuje większe okno kontekstowe, zdolne do przetwarzania dłuższych wejść tekstowych, co czyni go odpowiednim do scenariuszy wymagających szerokiej integracji informacji i analizy danych." + }, + "gpt-4-32k-0613": { + "description": "GPT-4 oferuje większe okno kontekstowe, zdolne do przetwarzania dłuższych wejść tekstowych, co czyni go odpowiednim do scenariuszy wymagających szerokiej integracji informacji i analizy danych." + }, + "gpt-4-turbo": { + "description": "Najnowszy model GPT-4 Turbo posiada funkcje wizualne. Teraz zapytania wizualne mogą być obsługiwane za pomocą formatu JSON i wywołań funkcji. GPT-4 Turbo to ulepszona wersja, która oferuje opłacalne wsparcie dla zadań multimodalnych. Znajduje równowagę między dokładnością a wydajnością, co czyni go odpowiednim do aplikacji wymagających interakcji w czasie rzeczywistym." + }, + "gpt-4-turbo-2024-04-09": { + "description": "Najnowszy model GPT-4 Turbo posiada funkcje wizualne. Teraz zapytania wizualne mogą być obsługiwane za pomocą formatu JSON i wywołań funkcji. GPT-4 Turbo to ulepszona wersja, która oferuje opłacalne wsparcie dla zadań multimodalnych. Znajduje równowagę między dokładnością a wydajnością, co czyni go odpowiednim do aplikacji wymagających interakcji w czasie rzeczywistym." + }, + "gpt-4-turbo-preview": { + "description": "Najnowszy model GPT-4 Turbo posiada funkcje wizualne. Teraz zapytania wizualne mogą być obsługiwane za pomocą formatu JSON i wywołań funkcji. GPT-4 Turbo to ulepszona wersja, która oferuje opłacalne wsparcie dla zadań multimodalnych. Znajduje równowagę między dokładnością a wydajnością, co czyni go odpowiednim do aplikacji wymagających interakcji w czasie rzeczywistym." + }, + "gpt-4-vision-preview": { + "description": "Najnowszy model GPT-4 Turbo posiada funkcje wizualne. Teraz zapytania wizualne mogą być obsługiwane za pomocą formatu JSON i wywołań funkcji. GPT-4 Turbo to ulepszona wersja, która oferuje opłacalne wsparcie dla zadań multimodalnych. Znajduje równowagę między dokładnością a wydajnością, co czyni go odpowiednim do aplikacji wymagających interakcji w czasie rzeczywistym." + }, + "gpt-4o": { + "description": "ChatGPT-4o to dynamiczny model, który jest na bieżąco aktualizowany, aby utrzymać najnowszą wersję. Łączy potężne zdolności rozumienia i generowania języka, co czyni go odpowiednim do zastosowań na dużą skalę, w tym obsługi klienta, edukacji i wsparcia technicznego." + }, + "gpt-4o-2024-05-13": { + "description": "ChatGPT-4o to dynamiczny model, który jest na bieżąco aktualizowany, aby utrzymać najnowszą wersję. Łączy potężne zdolności rozumienia i generowania języka, co czyni go odpowiednim do zastosowań na dużą skalę, w tym obsługi klienta, edukacji i wsparcia technicznego." + }, + "gpt-4o-2024-08-06": { + "description": "ChatGPT-4o to dynamiczny model, który jest na bieżąco aktualizowany, aby utrzymać najnowszą wersję. Łączy potężne zdolności rozumienia i generowania języka, co czyni go odpowiednim do zastosowań na dużą skalę, w tym obsługi klienta, edukacji i wsparcia technicznego." + }, + "gpt-4o-mini": { + "description": "GPT-4o mini to najnowszy model OpenAI, wprowadzony po GPT-4 Omni, obsługujący wejścia tekstowe i wizualne oraz generujący tekst. Jako ich najnowocześniejszy model w małej skali, jest znacznie tańszy niż inne niedawno wprowadzone modele, a jego cena jest o ponad 60% niższa niż GPT-3.5 Turbo. Utrzymuje najnowocześniejszą inteligencję, jednocześnie oferując znaczną wartość za pieniądze. GPT-4o mini uzyskał wynik 82% w teście MMLU i obecnie zajmuje wyższą pozycję w preferencjach czatu niż GPT-4." + }, + "gryphe/mythomax-l2-13b": { + "description": "MythoMax l2 13B to model językowy łączący kreatywność i inteligencję, zintegrowany z wieloma wiodącymi modelami." + }, + "internlm/internlm2_5-20b-chat": { + "description": "Innowacyjny model open source InternLM2.5, dzięki dużej liczbie parametrów, zwiększa inteligencję dialogową." + }, + "internlm/internlm2_5-7b-chat": { + "description": "InternLM2.5 oferuje inteligentne rozwiązania dialogowe w różnych scenariuszach." + }, + "llama-3.1-70b-instruct": { + "description": "Model Llama 3.1 70B Instruct, z 70B parametrami, oferujący doskonałe osiągi w dużych zadaniach generowania tekstu i poleceń." + }, + "llama-3.1-70b-versatile": { + "description": "Llama 3.1 70B oferuje potężne możliwości wnioskowania AI, odpowiednie do złożonych zastosowań, wspierające ogromne przetwarzanie obliczeniowe przy zachowaniu efektywności i dokładności." + }, + "llama-3.1-8b-instant": { + "description": "Llama 3.1 8B to model o wysokiej wydajności, oferujący szybkie możliwości generowania tekstu, idealny do zastosowań wymagających dużej efektywności i opłacalności." + }, + "llama-3.1-8b-instruct": { + "description": "Model Llama 3.1 8B Instruct, z 8B parametrami, wspierający efektywne wykonanie zadań wskazujących, oferujący wysoką jakość generowania tekstu." + }, + "llama-3.1-sonar-huge-128k-online": { + "description": "Model Llama 3.1 Sonar Huge Online, z 405B parametrami, obsługujący kontekst o długości około 127,000 tokenów, zaprojektowany do złożonych aplikacji czatu online." + }, + "llama-3.1-sonar-large-128k-chat": { + "description": "Model Llama 3.1 Sonar Large Chat, z 70B parametrami, obsługujący kontekst o długości około 127,000 tokenów, idealny do złożonych zadań czatu offline." + }, + "llama-3.1-sonar-large-128k-online": { + "description": "Model Llama 3.1 Sonar Large Online, z 70B parametrami, obsługujący kontekst o długości około 127,000 tokenów, idealny do zadań czatu o dużej pojemności i różnorodności." + }, + "llama-3.1-sonar-small-128k-chat": { + "description": "Model Llama 3.1 Sonar Small Chat, z 8B parametrami, zaprojektowany do czatów offline, obsługujący kontekst o długości około 127,000 tokenów." + }, + "llama-3.1-sonar-small-128k-online": { + "description": "Model Llama 3.1 Sonar Small Online, z 8B parametrami, obsługujący kontekst o długości około 127,000 tokenów, zaprojektowany do czatów online, efektywnie przetwarzający różne interakcje tekstowe." + }, + "llama3-70b-8192": { + "description": "Meta Llama 3 70B oferuje niezrównane możliwości przetwarzania złożoności, dostosowane do projektów o wysokich wymaganiach." + }, + "llama3-8b-8192": { + "description": "Meta Llama 3 8B zapewnia wysoką jakość wydajności wnioskowania, odpowiednią do różnych zastosowań." + }, + "llama3-groq-70b-8192-tool-use-preview": { + "description": "Llama 3 Groq 70B Tool Use oferuje potężne możliwości wywoływania narzędzi, wspierając efektywne przetwarzanie złożonych zadań." + }, + "llama3-groq-8b-8192-tool-use-preview": { + "description": "Llama 3 Groq 8B Tool Use to model zoptymalizowany do efektywnego korzystania z narzędzi, wspierający szybkie obliczenia równoległe." + }, + "llama3.1": { + "description": "Llama 3.1 to wiodący model wydany przez Meta, obsługujący do 405B parametrów, mogący być stosowany w złożonych dialogach, tłumaczeniach wielojęzycznych i analizie danych." + }, + "llama3.1:405b": { + "description": "Llama 3.1 to wiodący model wydany przez Meta, obsługujący do 405B parametrów, mogący być stosowany w złożonych dialogach, tłumaczeniach wielojęzycznych i analizie danych." + }, + "llama3.1:70b": { + "description": "Llama 3.1 to wiodący model wydany przez Meta, obsługujący do 405B parametrów, mogący być stosowany w złożonych dialogach, tłumaczeniach wielojęzycznych i analizie danych." + }, + "llava": { + "description": "LLaVA to multimodalny model łączący kodery wizualne i Vicunę, przeznaczony do silnego rozumienia wizualnego i językowego." + }, + "llava-v1.5-7b-4096-preview": { + "description": "LLaVA 1.5 7B oferuje zintegrowane możliwości przetwarzania wizualnego, generując złożone wyjścia na podstawie informacji wizualnych." + }, + "llava:13b": { + "description": "LLaVA to multimodalny model łączący kodery wizualne i Vicunę, przeznaczony do silnego rozumienia wizualnego i językowego." + }, + "llava:34b": { + "description": "LLaVA to multimodalny model łączący kodery wizualne i Vicunę, przeznaczony do silnego rozumienia wizualnego i językowego." + }, + "mathstral": { + "description": "MathΣtral zaprojektowany do badań naukowych i wnioskowania matematycznego, oferujący efektywne możliwości obliczeniowe i interpretację wyników." + }, + "meta-llama/Llama-2-13b-chat-hf": { + "description": "LLaMA-2 Chat (13B) oferuje doskonałe możliwości przetwarzania języka i znakomite doświadczenie interakcji." + }, + "meta-llama/Llama-3-70b-chat-hf": { + "description": "LLaMA-3 Chat (70B) to potężny model czatu, wspierający złożone potrzeby dialogowe." + }, + "meta-llama/Llama-3-8b-chat-hf": { + "description": "LLaMA-3 Chat (8B) oferuje wsparcie dla wielu języków, obejmując bogatą wiedzę z różnych dziedzin." + }, + "meta-llama/Meta-Llama-3-70B-Instruct": { + "description": "LLaMA 3 wspiera generację dużych tekstów i analizę instrukcji." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { + "description": "Llama 3 70B Instruct Lite jest idealny do środowisk wymagających wysokiej wydajności i niskiego opóźnienia." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": { + "description": "Llama 3 70B Instruct Turbo oferuje doskonałe możliwości rozumienia i generowania języka, idealny do najbardziej wymagających zadań obliczeniowych." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Lite": { + "description": "Llama 3 8B Instruct Lite jest dostosowany do środowisk z ograniczonymi zasobami, oferując doskonałą równowagę wydajności." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": { + "description": "Llama 3 8B Instruct Turbo to wydajny model językowy, wspierający szeroki zakres zastosowań." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct": { + "description": "LLaMA 3.1 405B to potężny model do wstępnego uczenia się i dostosowywania instrukcji." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": { + "description": "Model Llama 3.1 Turbo 405B oferuje ogromną pojemność kontekstową dla przetwarzania dużych danych, wyróżniając się w zastosowaniach sztucznej inteligencji o dużej skali." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct": { + "description": "LLaMA 3.1 70B oferuje efektywne wsparcie dialogowe w wielu językach." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": { + "description": "Model Llama 3.1 70B został starannie dostosowany do aplikacji o dużym obciążeniu, kwantyzowany do FP8, co zapewnia wyższą wydajność obliczeniową i dokładność, gwarantując doskonałe osiągi w złożonych scenariuszach." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct": { + "description": "LLaMA 3.1 oferuje wsparcie dla wielu języków i jest jednym z wiodących modeli generacyjnych w branży." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": { + "description": "Model Llama 3.1 8B wykorzystuje kwantyzację FP8, obsługując do 131,072 kontekstowych tokenów, wyróżniając się wśród modeli open source, idealny do złożonych zadań, przewyższający wiele branżowych standardów." + }, + "meta-llama/llama-3-70b-instruct": { + "description": "Llama 3 70B Instruct zoptymalizowano do wysokiej jakości dialogów, osiągając znakomite wyniki w różnych ocenach ludzkich." + }, + "meta-llama/llama-3-8b-instruct": { + "description": "Llama 3 8B Instruct zoptymalizowano do wysokiej jakości scenariuszy dialogowych, osiągając lepsze wyniki niż wiele modeli zamkniętych." + }, + "meta-llama/llama-3.1-405b-instruct": { + "description": "Llama 3.1 405B Instruct to najnowsza wersja wydana przez Meta, zoptymalizowana do generowania wysokiej jakości dialogów, przewyższająca wiele wiodących modeli zamkniętych." + }, + "meta-llama/llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct zaprojektowano z myślą o wysokiej jakości dialogach, osiągając znakomite wyniki w ocenach ludzkich, szczególnie w scenariuszach o wysokiej interakcji." + }, + "meta-llama/llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct to najnowsza wersja wydana przez Meta, zoptymalizowana do wysokiej jakości scenariuszy dialogowych, przewyższająca wiele wiodących modeli zamkniętych." + }, + "meta-llama/llama-3.1-8b-instruct:free": { + "description": "LLaMA 3.1 oferuje wsparcie dla wielu języków i jest jednym z wiodących modeli generacyjnych w branży." + }, + "meta.llama3-1-405b-instruct-v1:0": { + "description": "Meta Llama 3.1 405B Instruct to największy i najpotężniejszy model w rodzinie modeli Llama 3.1 Instruct. Jest to wysoko zaawansowany model do dialogów, wnioskowania i generowania danych, który może być również używany jako podstawa do specjalistycznego, ciągłego wstępnego szkolenia lub dostosowywania w określonych dziedzinach. Llama 3.1 oferuje wielojęzyczne duże modele językowe (LLM), które są zestawem wstępnie wytrenowanych, dostosowanych do instrukcji modeli generacyjnych, obejmujących rozmiary 8B, 70B i 405B (wejście/wyjście tekstowe). Modele tekstowe Llama 3.1 dostosowane do instrukcji (8B, 70B, 405B) zostały zoptymalizowane do zastosowań w wielojęzycznych dialogach i przewyższają wiele dostępnych modeli czatu open source w powszechnych testach branżowych. Llama 3.1 jest zaprojektowana do użytku komercyjnego i badawczego w wielu językach. Modele tekstowe dostosowane do instrukcji nadają się do czatu w stylu asystenta, podczas gdy modele wstępnie wytrenowane mogą być dostosowane do różnych zadań generowania języka naturalnego. Modele Llama 3.1 wspierają również wykorzystanie ich wyjść do poprawy innych modeli, w tym generowania danych syntetycznych i udoskonalania. Llama 3.1 jest modelem językowym autoregresywnym opartym na zoptymalizowanej architekturze transformatora. Dostosowane wersje wykorzystują nadzorowane dostosowywanie (SFT) oraz uczenie się ze wzmocnieniem z ludzkim feedbackiem (RLHF), aby odpowiadać ludzkim preferencjom dotyczącym pomocności i bezpieczeństwa." + }, + "meta.llama3-1-70b-instruct-v1:0": { + "description": "Zaktualizowana wersja Meta Llama 3.1 70B Instruct, obejmująca rozszerzone 128K długości kontekstu, wielojęzyczność i poprawione zdolności wnioskowania. Llama 3.1 oferuje wielojęzyczne modele językowe (LLMs) jako zestaw wstępnie wytrenowanych, dostosowanych do instrukcji modeli generacyjnych, w tym rozmiarów 8B, 70B i 405B (wejście/wyjście tekstowe). Modele tekstowe Llama 3.1 dostosowane do instrukcji (8B, 70B, 405B) są zoptymalizowane do zastosowań w dialogach wielojęzycznych i przewyższają wiele dostępnych modeli czatu w powszechnych testach branżowych. Llama 3.1 jest przeznaczona do zastosowań komercyjnych i badawczych w wielu językach. Modele tekstowe dostosowane do instrukcji są odpowiednie do czatu podobnego do asystenta, podczas gdy modele wstępnie wytrenowane mogą być dostosowane do różnych zadań generowania języka naturalnego. Modele Llama 3.1 wspierają również wykorzystanie wyników ich modeli do poprawy innych modeli, w tym generowania danych syntetycznych i rafinacji. Llama 3.1 jest modelem językowym autoregresywnym, wykorzystującym zoptymalizowaną architekturę transformatora. Wersje dostosowane wykorzystują nadzorowane dostrajanie (SFT) i uczenie się ze wzmocnieniem z ludzkim feedbackiem (RLHF), aby dostosować się do ludzkich preferencji dotyczących pomocności i bezpieczeństwa." + }, + "meta.llama3-1-8b-instruct-v1:0": { + "description": "Zaktualizowana wersja Meta Llama 3.1 8B Instruct, obejmująca rozszerzone 128K długości kontekstu, wielojęzyczność i poprawione zdolności wnioskowania. Llama 3.1 oferuje wielojęzyczne modele językowe (LLMs) jako zestaw wstępnie wytrenowanych, dostosowanych do instrukcji modeli generacyjnych, w tym rozmiarów 8B, 70B i 405B (wejście/wyjście tekstowe). Modele tekstowe Llama 3.1 dostosowane do instrukcji (8B, 70B, 405B) są zoptymalizowane do zastosowań w dialogach wielojęzycznych i przewyższają wiele dostępnych modeli czatu w powszechnych testach branżowych. Llama 3.1 jest przeznaczona do zastosowań komercyjnych i badawczych w wielu językach. Modele tekstowe dostosowane do instrukcji są odpowiednie do czatu podobnego do asystenta, podczas gdy modele wstępnie wytrenowane mogą być dostosowane do różnych zadań generowania języka naturalnego. Modele Llama 3.1 wspierają również wykorzystanie wyników ich modeli do poprawy innych modeli, w tym generowania danych syntetycznych i rafinacji. Llama 3.1 jest modelem językowym autoregresywnym, wykorzystującym zoptymalizowaną architekturę transformatora. Wersje dostosowane wykorzystują nadzorowane dostrajanie (SFT) i uczenie się ze wzmocnieniem z ludzkim feedbackiem (RLHF), aby dostosować się do ludzkich preferencji dotyczących pomocności i bezpieczeństwa." + }, + "meta.llama3-70b-instruct-v1:0": { + "description": "Meta Llama 3 to otwarty duży model językowy (LLM) skierowany do deweloperów, badaczy i przedsiębiorstw, mający na celu pomoc w budowaniu, eksperymentowaniu i odpowiedzialnym rozwijaniu ich pomysłów na generatywną sztuczną inteligencję. Jako część podstawowego systemu innowacji globalnej społeczności, jest idealny do tworzenia treści, AI do dialogów, rozumienia języka, badań i zastosowań biznesowych." + }, + "meta.llama3-8b-instruct-v1:0": { + "description": "Meta Llama 3 to otwarty duży model językowy (LLM) skierowany do deweloperów, badaczy i przedsiębiorstw, mający na celu pomoc w budowaniu, eksperymentowaniu i odpowiedzialnym rozwijaniu ich pomysłów na generatywną sztuczną inteligencję. Jako część podstawowego systemu innowacji globalnej społeczności, jest idealny dla urządzeń o ograniczonej mocy obliczeniowej i zasobach, a także dla szybszego czasu szkolenia." + }, + "microsoft/wizardlm 2-7b": { + "description": "WizardLM 2 7B to najnowszy szybki i lekki model AI od Microsoftu, osiągający wydajność bliską 10-krotności istniejących wiodących modeli open source." + }, + "microsoft/wizardlm-2-8x22b": { + "description": "WizardLM-2 8x22B to najnowocześniejszy model Wizard od Microsoftu, wykazujący niezwykle konkurencyjne osiągi." + }, + "minicpm-v": { + "description": "MiniCPM-V to nowa generacja multimodalnego dużego modelu wydanego przez OpenBMB, który posiada doskonałe zdolności rozpoznawania OCR oraz zrozumienia multimodalnego, wspierając szeroki zakres zastosowań." + }, + "mistral": { + "description": "Mistral to model 7B wydany przez Mistral AI, odpowiedni do zmiennych potrzeb przetwarzania języka." + }, + "mistral-large": { + "description": "Mixtral Large to flagowy model Mistral, łączący zdolności generowania kodu, matematyki i wnioskowania, wspierający kontekst o długości 128k." + }, + "mistral-large-latest": { + "description": "Mistral Large to flagowy model, doskonały w zadaniach wielojęzycznych, złożonym wnioskowaniu i generowaniu kodu, idealny do zaawansowanych zastosowań." + }, + "mistral-nemo": { + "description": "Mistral Nemo, opracowany przez Mistral AI i NVIDIA, to model 12B o wysokiej wydajności." + }, + "mistralai/Mistral-7B-Instruct-v0.1": { + "description": "Mistral (7B) Instruct jest znany z wysokiej wydajności, idealny do różnorodnych zadań językowych." + }, + "mistralai/Mistral-7B-Instruct-v0.2": { + "description": "Mistral 7B to model dostosowany na żądanie, oferujący zoptymalizowane odpowiedzi na zadania." + }, + "mistralai/Mistral-7B-Instruct-v0.3": { + "description": "Mistral (7B) Instruct v0.3 oferuje efektywne możliwości obliczeniowe i rozumienia języka naturalnego, idealne do szerokiego zakresu zastosowań." + }, + "mistralai/Mixtral-8x22B-Instruct-v0.1": { + "description": "Mixtral-8x22B Instruct (141B) to super duży model językowy, wspierający ekstremalne wymagania przetwarzania." + }, + "mistralai/Mixtral-8x7B-Instruct-v0.1": { + "description": "Mixtral 8x7B to wstępnie wytrenowany model rzadkiego mieszania ekspertów, przeznaczony do ogólnych zadań tekstowych." + }, + "mistralai/mistral-7b-instruct": { + "description": "Mistral 7B Instruct to model o wysokiej wydajności, który łączy optymalizację prędkości z obsługą długiego kontekstu." + }, + "mistralai/mistral-nemo": { + "description": "Mistral Nemo to model z 7,3 miliardami parametrów, wspierający wiele języków i wysoką wydajność programowania." + }, + "mixtral": { + "description": "Mixtral to model ekspercki Mistral AI, z otwartymi wagami, oferujący wsparcie w generowaniu kodu i rozumieniu języka." + }, + "mixtral-8x7b-32768": { + "description": "Mixtral 8x7B oferuje wysoką tolerancję na błędy w obliczeniach równoległych, odpowiednią do złożonych zadań." + }, + "mixtral:8x22b": { + "description": "Mixtral to model ekspercki Mistral AI, z otwartymi wagami, oferujący wsparcie w generowaniu kodu i rozumieniu języka." + }, + "moonshot-v1-128k": { + "description": "Moonshot V1 128K to model o zdolności przetwarzania kontekstu o ultra-długiej długości, odpowiedni do generowania bardzo długich tekstów, spełniający wymagania złożonych zadań generacyjnych, zdolny do przetwarzania treści do 128 000 tokenów, idealny do zastosowań w badaniach, akademickich i generowaniu dużych dokumentów." + }, + "moonshot-v1-32k": { + "description": "Moonshot V1 32K oferuje zdolność przetwarzania kontekstu o średniej długości, zdolną do przetwarzania 32 768 tokenów, szczególnie odpowiednią do generowania różnych długich dokumentów i złożonych dialogów, stosowaną w tworzeniu treści, generowaniu raportów i systemach dialogowych." + }, + "moonshot-v1-8k": { + "description": "Moonshot V1 8K zaprojektowany do generowania krótkich tekstów, charakteryzuje się wydajnością przetwarzania, zdolny do przetwarzania 8 192 tokenów, idealny do krótkich dialogów, notatek i szybkiego generowania treści." + }, + "nousresearch/hermes-2-pro-llama-3-8b": { + "description": "Hermes 2 Pro Llama 3 8B to ulepszona wersja Nous Hermes 2, zawierająca najnowsze wewnętrznie opracowane zbiory danych." + }, + "o1-mini": { + "description": "o1-mini to szybki i ekonomiczny model wnioskowania zaprojektowany z myślą o programowaniu, matematyce i zastosowaniach naukowych. Model ten ma kontekst 128K i datę graniczną wiedzy z października 2023 roku." + }, + "o1-preview": { + "description": "o1 to nowy model wnioskowania OpenAI, odpowiedni do złożonych zadań wymagających szerokiej wiedzy ogólnej. Model ten ma kontekst 128K i datę graniczną wiedzy z października 2023 roku." + }, + "open-codestral-mamba": { + "description": "Codestral Mamba to model językowy Mamba 2 skoncentrowany na generowaniu kodu, oferujący silne wsparcie dla zaawansowanych zadań kodowania i wnioskowania." + }, + "open-mistral-7b": { + "description": "Mistral 7B to kompaktowy, ale wydajny model, doskonały do przetwarzania wsadowego i prostych zadań, takich jak klasyfikacja i generowanie tekstu, z dobrą wydajnością wnioskowania." + }, + "open-mistral-nemo": { + "description": "Mistral Nemo to model 12B opracowany we współpracy z Nvidia, oferujący doskonałe możliwości wnioskowania i kodowania, łatwy do integracji i zastąpienia." + }, + "open-mixtral-8x22b": { + "description": "Mixtral 8x22B to większy model eksperta, skoncentrowany na złożonych zadaniach, oferujący doskonałe możliwości wnioskowania i wyższą przepustowość." + }, + "open-mixtral-8x7b": { + "description": "Mixtral 8x7B to model rzadkiego eksperta, który wykorzystuje wiele parametrów do zwiększenia prędkości wnioskowania, odpowiedni do przetwarzania zadań wielojęzycznych i generowania kodu." + }, + "openai/gpt-4o-2024-08-06": { + "description": "ChatGPT-4o to dynamiczny model, który jest na bieżąco aktualizowany, aby utrzymać najnowszą wersję. Łączy potężne zdolności rozumienia i generowania języka, odpowiedni do zastosowań na dużą skalę, w tym obsługi klienta, edukacji i wsparcia technicznego." + }, + "openai/gpt-4o-mini": { + "description": "GPT-4o mini to najnowszy model OpenAI, wydany po GPT-4 Omni, obsługujący wejścia tekstowe i wizualne. Jako ich najnowocześniejszy mały model, jest znacznie tańszy od innych niedawnych modeli czołowych i kosztuje o ponad 60% mniej niż GPT-3.5 Turbo. Utrzymuje najnowocześniejszą inteligencję, oferując jednocześnie znaczną wartość za pieniądze. GPT-4o mini uzyskał wynik 82% w teście MMLU i obecnie zajmuje wyższą pozycję w preferencjach czatu niż GPT-4." + }, + "openai/o1-mini": { + "description": "o1-mini to szybki i ekonomiczny model wnioskowania zaprojektowany z myślą o programowaniu, matematyce i zastosowaniach naukowych. Model ten ma kontekst 128K i datę graniczną wiedzy z października 2023 roku." + }, + "openai/o1-preview": { + "description": "o1 to nowy model wnioskowania OpenAI, odpowiedni do złożonych zadań wymagających szerokiej wiedzy ogólnej. Model ten ma kontekst 128K i datę graniczną wiedzy z października 2023 roku." + }, + "openchat/openchat-7b": { + "description": "OpenChat 7B to otwarta biblioteka modeli językowych, dostrojona przy użyciu strategii „C-RLFT (warunkowe uczenie ze wzmocnieniem)”." + }, + "openrouter/auto": { + "description": "W zależności od długości kontekstu, tematu i złożoności, Twoje zapytanie zostanie wysłane do Llama 3 70B Instruct, Claude 3.5 Sonnet (samoregulacja) lub GPT-4o." + }, + "phi3": { + "description": "Phi-3 to lekki model otwarty wydany przez Microsoft, odpowiedni do efektywnej integracji i dużej skali wnioskowania wiedzy." + }, + "phi3:14b": { + "description": "Phi-3 to lekki model otwarty wydany przez Microsoft, odpowiedni do efektywnej integracji i dużej skali wnioskowania wiedzy." + }, + "qwen-long": { + "description": "Qwen to ultra-duży model językowy, który obsługuje długie konteksty tekstowe oraz funkcje dialogowe oparte na długich dokumentach i wielu dokumentach." + }, + "qwen-max": { + "description": "Qwen to ultra-duży model językowy na poziomie miliardów parametrów, który obsługuje różne języki, w tym chiński i angielski, obecnie będący modelem API za produktem Qwen 2.5." + }, + "qwen-max-longcontext": { + "description": "Qwen to ultra-duży model językowy na poziomie miliardów parametrów, który obsługuje różne języki, w tym chiński i angielski, z rozszerzonym oknem kontekstowym." + }, + "qwen-plus": { + "description": "Qwen to ulepszona wersja ultra-dużego modelu językowego, która obsługuje różne języki, w tym chiński i angielski." + }, + "qwen-turbo": { + "description": "Qwen to ultra-duży model językowy, który obsługuje różne języki, w tym chiński i angielski." + }, + "qwen-vl-chat-v1": { + "description": "Qwen VL obsługuje elastyczne interakcje, w tym wiele obrazów, wielokrotne pytania i odpowiedzi oraz zdolności twórcze." + }, + "qwen-vl-max": { + "description": "Qwen to ultra-duży model językowy wizualny. W porównaniu do wersji ulepszonej, ponownie poprawia zdolności rozumienia wizualnego i przestrzegania instrukcji, oferując wyższy poziom percepcji wizualnej i poznawczej." + }, + "qwen-vl-plus": { + "description": "Qwen to ulepszona wersja dużego modelu językowego wizualnego. Znacząco poprawia zdolności rozpoznawania szczegółów i tekstu, obsługując obrazy o rozdzielczości powyżej miliona pikseli i dowolnych proporcjach." + }, + "qwen-vl-v1": { + "description": "Model wstępnie wytrenowany, zainicjowany przez model językowy Qwen-7B, dodający model obrazowy, z rozdzielczością wejściową obrazu wynoszącą 448." + }, + "qwen/qwen-2-7b-instruct:free": { + "description": "Qwen2 to nowa seria dużych modeli językowych, charakteryzująca się silniejszymi zdolnościami rozumienia i generowania." + }, + "qwen2": { + "description": "Qwen2 to nowa generacja dużego modelu językowego Alibaba, wspierająca różnorodne potrzeby aplikacyjne dzięki doskonałej wydajności." + }, + "qwen2-57b-a14b-instruct": { + "description": "Qwen 2 to otwarty model o skali 57B z 14B aktywowanymi parametrami w modelu MOE." + }, + "qwen2-72b-instruct": { + "description": "Qwen 2 to otwarty model o skali 72B." + }, + "qwen2-7b-instruct": { + "description": "Qwen 2 to otwarty model o skali 7B." + }, + "qwen2-math-72b-instruct": { + "description": "Model Qwen2-Math ma silne zdolności rozwiązywania problemów matematycznych." + }, + "qwen2:0.5b": { + "description": "Qwen2 to nowa generacja dużego modelu językowego Alibaba, wspierająca różnorodne potrzeby aplikacyjne dzięki doskonałej wydajności." + }, + "qwen2:1.5b": { + "description": "Qwen2 to nowa generacja dużego modelu językowego Alibaba, wspierająca różnorodne potrzeby aplikacyjne dzięki doskonałej wydajności." + }, + "qwen2:72b": { + "description": "Qwen2 to nowa generacja dużego modelu językowego Alibaba, wspierająca różnorodne potrzeby aplikacyjne dzięki doskonałej wydajności." + }, + "solar-1-mini-chat": { + "description": "Solar Mini to kompaktowy LLM, przewyższający GPT-3.5, z silnymi zdolnościami wielojęzycznymi, wspierający język angielski i koreański, oferujący wydajne i małe rozwiązanie." + }, + "solar-1-mini-chat-ja": { + "description": "Solar Mini (Ja) rozszerza możliwości Solar Mini, koncentrując się na języku japońskim, jednocześnie zachowując wysoką wydajność i doskonałe wyniki w użyciu języka angielskiego i koreańskiego." + }, + "solar-pro": { + "description": "Solar Pro to model LLM o wysokiej inteligencji wydany przez Upstage, koncentrujący się na zdolności do przestrzegania instrukcji na pojedynczym GPU, osiągając wynik IFEval powyżej 80. Obecnie wspiera język angielski, a wersja oficjalna planowana jest na listopad 2024, z rozszerzeniem wsparcia językowego i długości kontekstu." + }, + "step-1-128k": { + "description": "Równoważy wydajność i koszty, odpowiedni do ogólnych scenariuszy." + }, + "step-1-256k": { + "description": "Posiada zdolność przetwarzania ultra długiego kontekstu, szczególnie odpowiedni do analizy długich dokumentów." + }, + "step-1-32k": { + "description": "Obsługuje średniej długości dialogi, odpowiedni do różnych zastosowań." + }, + "step-1-8k": { + "description": "Mały model, odpowiedni do lekkich zadań." + }, + "step-1-flash": { + "description": "Model o wysokiej prędkości, odpowiedni do dialogów w czasie rzeczywistym." + }, + "step-1v-32k": { + "description": "Obsługuje wejścia wizualne, wzmacniając doświadczenie interakcji multimodalnych." + }, + "step-1v-8k": { + "description": "Mały model wizualny, odpowiedni do podstawowych zadań związanych z tekstem i obrazem." + }, + "step-2-16k": { + "description": "Obsługuje interakcje z dużą ilością kontekstu, idealny do złożonych scenariuszy dialogowych." + }, + "taichu_llm": { + "description": "Model językowy TaiChu charakteryzuje się wyjątkową zdolnością rozumienia języka oraz umiejętnościami w zakresie tworzenia tekstów, odpowiadania na pytania, programowania, obliczeń matematycznych, wnioskowania logicznego, analizy emocji i streszczenia tekstu. Innowacyjnie łączy wstępne uczenie się na dużych zbiorach danych z bogatą wiedzą z wielu źródeł, stale doskonaląc technologię algorytmiczną i nieustannie przyswajając nową wiedzę z zakresu słownictwa, struktury, gramatyki i semantyki z ogromnych zbiorów danych tekstowych, co prowadzi do ciągłej ewolucji modelu. Umożliwia użytkownikom łatwiejszy dostęp do informacji i usług oraz bardziej inteligentne doświadczenia." + }, + "togethercomputer/StripedHyena-Nous-7B": { + "description": "StripedHyena Nous (7B) oferuje zwiększoną moc obliczeniową dzięki efektywnym strategiom i architekturze modelu." + }, + "upstage/SOLAR-10.7B-Instruct-v1.0": { + "description": "Upstage SOLAR Instruct v1 (11B) jest przeznaczony do precyzyjnych zadań poleceniowych, oferując doskonałe możliwości przetwarzania języka." + }, + "wizardlm2": { + "description": "WizardLM 2 to model językowy dostarczany przez Microsoft AI, który wyróżnia się w złożonych dialogach, wielojęzyczności, wnioskowaniu i inteligentnych asystentach." + }, + "wizardlm2:8x22b": { + "description": "WizardLM 2 to model językowy dostarczany przez Microsoft AI, który wyróżnia się w złożonych dialogach, wielojęzyczności, wnioskowaniu i inteligentnych asystentach." + }, + "yi-large": { + "description": "Nowy model z miliardami parametrów, oferujący niezwykłe możliwości w zakresie pytań i generowania tekstu." + }, + "yi-large-fc": { + "description": "Model yi-large z wzmocnioną zdolnością do wywołań narzędzi, odpowiedni do różnych scenariuszy biznesowych wymagających budowy agentów lub workflow." + }, + "yi-large-preview": { + "description": "Wersja wstępna, zaleca się korzystanie z yi-large (nowa wersja)." + }, + "yi-large-rag": { + "description": "Zaawansowana usługa oparta na modelu yi-large, łącząca techniki wyszukiwania i generowania, oferująca precyzyjne odpowiedzi oraz usługi wyszukiwania informacji w czasie rzeczywistym." + }, + "yi-large-turbo": { + "description": "Model o doskonałym stosunku jakości do ceny, z doskonałymi osiągami. Wysokiej precyzji optymalizacja w oparciu o wydajność, szybkość wnioskowania i koszty." + }, + "yi-medium": { + "description": "Model średniej wielkości, zrównoważony pod względem możliwości i kosztów. Głęboko zoptymalizowana zdolność do przestrzegania poleceń." + }, + "yi-medium-200k": { + "description": "Okno kontekstowe o długości 200K, oferujące głębokie zrozumienie i generowanie długich tekstów." + }, + "yi-spark": { + "description": "Mały, ale potężny, lekki model o wysokiej prędkości. Oferuje wzmocnione możliwości obliczeń matematycznych i pisania kodu." + }, + "yi-vision": { + "description": "Model do złożonych zadań wizualnych, oferujący wysoką wydajność w zakresie rozumienia i analizy obrazów." + } +} diff --git a/locales/pl-PL/providers.json b/locales/pl-PL/providers.json new file mode 100644 index 000000000000..cf1f4cd490c2 --- /dev/null +++ b/locales/pl-PL/providers.json @@ -0,0 +1,80 @@ +{ + "ai360": { + "description": "360 AI to platforma modeli i usług AI wprowadzona przez firmę 360, oferująca różnorodne zaawansowane modele przetwarzania języka naturalnego, w tym 360GPT2 Pro, 360GPT Pro, 360GPT Turbo i 360GPT Turbo Responsibility 8K. Modele te łączą dużą liczbę parametrów z multimodalnymi zdolnościami, szeroko stosowanymi w generowaniu tekstu, rozumieniu semantycznym, systemach dialogowych i generowaniu kodu. Dzięki elastycznej strategii cenowej, 360 AI zaspokaja zróżnicowane potrzeby użytkowników, wspierając integrację przez deweloperów, co przyczynia się do innowacji i rozwoju aplikacji inteligentnych." + }, + "anthropic": { + "description": "Anthropic to firma skoncentrowana na badaniach i rozwoju sztucznej inteligencji, oferująca szereg zaawansowanych modeli językowych, takich jak Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus i Claude 3 Haiku. Modele te osiągają idealną równowagę między inteligencją, szybkością a kosztami, nadając się do różnych zastosowań, od obciążeń na poziomie przedsiębiorstw po szybkie odpowiedzi. Claude 3.5 Sonnet, jako najnowszy model, wyróżnia się w wielu ocenach, jednocześnie zachowując wysoką opłacalność." + }, + "azure": { + "description": "Azure oferuje różnorodne zaawansowane modele AI, w tym GPT-3.5 i najnowszą serię GPT-4, wspierające różne typy danych i złożone zadania, koncentrując się na bezpiecznych, niezawodnych i zrównoważonych rozwiązaniach AI." + }, + "baichuan": { + "description": "Baichuan Intelligent to firma skoncentrowana na badaniach nad dużymi modelami sztucznej inteligencji, której modele osiągają doskonałe wyniki w krajowych zadaniach związanych z encyklopedią wiedzy, przetwarzaniem długich tekstów i generowaniem treści w języku chińskim, przewyższając zagraniczne modele mainstreamowe. Baichuan Intelligent dysponuje również wiodącymi w branży zdolnościami multimodalnymi, osiągając doskonałe wyniki w wielu autorytatywnych ocenach. Jej modele obejmują Baichuan 4, Baichuan 3 Turbo i Baichuan 3 Turbo 128k, zoptymalizowane pod kątem różnych scenariuszy zastosowań, oferując opłacalne rozwiązania." + }, + "bedrock": { + "description": "Bedrock to usługa oferowana przez Amazon AWS, skoncentrowana na dostarczaniu zaawansowanych modeli językowych i wizualnych dla przedsiębiorstw. Jej rodzina modeli obejmuje serię Claude od Anthropic, serię Llama 3.1 od Meta i inne, oferując różnorodne opcje od lekkich do wysokowydajnych, wspierając generowanie tekstu, dialogi, przetwarzanie obrazów i inne zadania, odpowiednie dla różnych skal i potrzeb aplikacji biznesowych." + }, + "deepseek": { + "description": "DeepSeek to firma skoncentrowana na badaniach i zastosowaniach technologii sztucznej inteligencji, której najnowszy model DeepSeek-V2.5 łączy zdolności do prowadzenia ogólnych rozmów i przetwarzania kodu, osiągając znaczące postępy w zakresie dostosowywania do preferencji ludzkich, zadań pisarskich i przestrzegania instrukcji." + }, + "fireworksai": { + "description": "Fireworks AI to wiodący dostawca zaawansowanych modeli językowych, skoncentrowany na wywołaniach funkcji i przetwarzaniu multimodalnym. Jego najnowszy model Firefunction V2 oparty na Llama-3, zoptymalizowany do wywołań funkcji, dialogów i przestrzegania instrukcji. Model wizualny FireLLaVA-13B wspiera mieszane wejścia obrazów i tekstu. Inne znaczące modele to seria Llama i seria Mixtral, oferujące efektywne wsparcie dla wielojęzycznego przestrzegania instrukcji i generacji." + }, + "google": { + "description": "Seria Gemini od Google to najnowocześniejsze, uniwersalne modele AI stworzone przez Google DeepMind, zaprojektowane z myślą o multimodalności, wspierające bezproblemowe rozumienie i przetwarzanie tekstu, kodu, obrazów, dźwięku i wideo. Nadają się do różnych środowisk, od centrów danych po urządzenia mobilne, znacznie zwiększając wydajność i wszechstronność modeli AI." + }, + "groq": { + "description": "Silnik inferencyjny LPU firmy Groq wyróżnia się w najnowszych niezależnych testach benchmarkowych dużych modeli językowych (LLM), redefiniując standardy rozwiązań AI dzięki niesamowitej szybkości i wydajności. Groq jest reprezentantem natychmiastowej szybkości inferencji, wykazując dobrą wydajność w wdrożeniach opartych na chmurze." + }, + "minimax": { + "description": "MiniMax to firma technologiczna zajmująca się ogólną sztuczną inteligencją, założona w 2021 roku, dążąca do współtworzenia inteligencji z użytkownikami. MiniMax opracowało różne modele dużych modeli o różnych modalnościach, w tym model tekstowy MoE z bilionem parametrów, model głosowy oraz model obrazowy. Wprowadziło również aplikacje takie jak Conch AI." + }, + "mistral": { + "description": "Mistral oferuje zaawansowane modele ogólne, specjalistyczne i badawcze, szeroko stosowane w złożonym rozumowaniu, zadaniach wielojęzycznych, generowaniu kodu i innych dziedzinach. Dzięki interfejsowi wywołań funkcji użytkownicy mogą integrować dostosowane funkcje, realizując konkretne zastosowania." + }, + "moonshot": { + "description": "Moonshot to otwarta platforma stworzona przez Beijing Dark Side Technology Co., Ltd., oferująca różnorodne modele przetwarzania języka naturalnego, szeroko stosowane w takich dziedzinach jak tworzenie treści, badania akademickie, inteligentne rekomendacje, diagnoza medyczna i inne, wspierająca przetwarzanie długich tekstów i złożone zadania generacyjne." + }, + "novita": { + "description": "Novita AI to platforma oferująca API do różnych dużych modeli językowych i generacji obrazów AI, elastyczna, niezawodna i opłacalna. Wspiera najnowsze modele open-source, takie jak Llama3, Mistral, i oferuje kompleksowe, przyjazne dla użytkownika oraz automatycznie skalowalne rozwiązania API dla rozwoju aplikacji generatywnej AI, odpowiednie dla szybkiego rozwoju startupów AI." + }, + "ollama": { + "description": "Modele oferowane przez Ollama obejmują szeroki zakres zastosowań, w tym generowanie kodu, obliczenia matematyczne, przetwarzanie wielojęzyczne i interakcje konwersacyjne, wspierając różnorodne potrzeby wdrożeń na poziomie przedsiębiorstw i lokalnych." + }, + "openai": { + "description": "OpenAI jest wiodącą na świecie instytucją badawczą w dziedzinie sztucznej inteligencji, której modele, takie jak seria GPT, przesuwają granice przetwarzania języka naturalnego. OpenAI dąży do zmiany wielu branż poprzez innowacyjne i efektywne rozwiązania AI. Ich produkty charakteryzują się znaczną wydajnością i opłacalnością, znajdując szerokie zastosowanie w badaniach, biznesie i innowacyjnych aplikacjach." + }, + "openrouter": { + "description": "OpenRouter to platforma usługowa oferująca różnorodne interfejsy do nowoczesnych dużych modeli, wspierająca OpenAI, Anthropic, LLaMA i inne, odpowiednia dla zróżnicowanych potrzeb rozwojowych i aplikacyjnych. Użytkownicy mogą elastycznie wybierać optymalne modele i ceny zgodnie z własnymi potrzebami, co przyczynia się do poprawy doświadczeń związanych z AI." + }, + "perplexity": { + "description": "Perplexity to wiodący dostawca modeli generacji dialogów, oferujący różnorodne zaawansowane modele Llama 3.1, wspierające aplikacje online i offline, szczególnie odpowiednie do złożonych zadań przetwarzania języka naturalnego." + }, + "qwen": { + "description": "Tongyi Qianwen to samodzielnie opracowany przez Alibaba Cloud model językowy o dużej skali, charakteryzujący się silnymi zdolnościami rozumienia i generowania języka naturalnego. Może odpowiadać na różnorodne pytania, tworzyć treści pisemne, wyrażać opinie, pisać kod i działać w wielu dziedzinach." + }, + "siliconcloud": { + "description": "SiliconFlow dąży do przyspieszenia AGI, aby przynieść korzyści ludzkości, poprawiając wydajność dużych modeli AI dzięki łatwemu w użyciu i niskokosztowemu stosowi GenAI." + }, + "spark": { + "description": "Model Xinghuo od iFlytek oferuje potężne możliwości AI w wielu dziedzinach i językach, wykorzystując zaawansowaną technologię przetwarzania języka naturalnego do budowy innowacyjnych aplikacji odpowiednich dla inteligentnych urządzeń, inteligentnej medycyny, inteligentnych finansów i innych scenariuszy wertykalnych." + }, + "stepfun": { + "description": "Model StepFun charakteryzuje się wiodącymi w branży zdolnościami multimodalnymi i złożonym rozumowaniem, wspierając zrozumienie bardzo długich tekstów oraz potężne funkcje samodzielnego wyszukiwania." + }, + "taichu": { + "description": "Nowa generacja multimodalnych dużych modeli opracowana przez Instytut Automatyki Chińskiej Akademii Nauk i Wuhan Institute of Artificial Intelligence wspiera wielorundowe pytania i odpowiedzi, tworzenie tekstów, generowanie obrazów, zrozumienie 3D, analizę sygnałów i inne kompleksowe zadania pytaniowe, posiadając silniejsze zdolności poznawcze, rozumienia i tworzenia, oferując nową interaktywną doświadczenie." + }, + "togetherai": { + "description": "Together AI dąży do osiągnięcia wiodącej wydajności poprzez innowacyjne modele AI, oferując szerokie możliwości dostosowywania, w tym wsparcie dla szybkiej ekspansji i intuicyjnych procesów wdrożeniowych, aby zaspokoić różnorodne potrzeby przedsiębiorstw." + }, + "upstage": { + "description": "Upstage koncentruje się na opracowywaniu modeli AI dla różnych potrzeb biznesowych, w tym Solar LLM i dokumentów AI, mając na celu osiągnięcie sztucznej ogólnej inteligencji (AGI). Umożliwia tworzenie prostych agentów konwersacyjnych za pomocą Chat API oraz wspiera wywołania funkcji, tłumaczenia, osadzenia i zastosowania w określonych dziedzinach." + }, + "zeroone": { + "description": "01.AI koncentruje się na technologiach sztucznej inteligencji w erze AI 2.0, intensywnie promując innowacje i zastosowania „człowiek + sztuczna inteligencja”, wykorzystując potężne modele i zaawansowane technologie AI w celu zwiększenia wydajności ludzkiej produkcji i realizacji technologicznego wsparcia." + }, + "zhipu": { + "description": "Zhipu AI oferuje otwartą platformę modeli multimodalnych i językowych, wspierającą szeroki zakres zastosowań AI, w tym przetwarzanie tekstu, rozumienie obrazów i pomoc w programowaniu." + } +} diff --git a/locales/pt-BR/common.json b/locales/pt-BR/common.json index f1d3ec440ee7..0cff597e71e0 100644 --- a/locales/pt-BR/common.json +++ b/locales/pt-BR/common.json @@ -195,8 +195,8 @@ }, "tab": { "chat": "Chat", + "discover": "Descobrir", "files": "Arquivos", - "market": "Descobrir", "me": "eu", "setting": "Configuração" }, diff --git a/locales/pt-BR/discover.json b/locales/pt-BR/discover.json new file mode 100644 index 000000000000..4b88bc81c6b2 --- /dev/null +++ b/locales/pt-BR/discover.json @@ -0,0 +1,204 @@ +{ + "assistants": { + "addAgent": "Adicionar Assistente", + "addAgentAndConverse": "Adicionar Assistente e Conversar", + "addAgentSuccess": "Adição bem-sucedida", + "conversation": { + "l1": "Olá, eu sou **{{name}}**, você pode me fazer qualquer pergunta e eu farei o meu melhor para responder ~", + "l2": "Aqui estão minhas capacidades: ", + "l3": "Vamos começar a conversa!" + }, + "description": "Introdução ao Assistente", + "detail": "Detalhes", + "list": "Lista de Assistentes", + "more": "Mais", + "plugins": "Integrar plugins", + "recentSubmits": "Atualizações Recentes", + "suggestions": "Sugestões Relacionadas", + "systemRole": "Configuração do Assistente", + "try": "Experimente" + }, + "back": "Voltar à descoberta", + "category": { + "assistant": { + "academic": "Acadêmico", + "all": "Todos", + "career": "Carreira", + "copywriting": "Redação", + "design": "Design", + "education": "Educação", + "emotions": "Emoções", + "entertainment": "Entretenimento", + "games": "Jogos", + "general": "Geral", + "life": "Vida", + "marketing": "Marketing", + "office": "Escritório", + "programming": "Programação", + "translation": "Tradução" + }, + "plugin": { + "all": "Todos", + "gaming-entertainment": "Jogos e Entretenimento", + "life-style": "Estilo de Vida", + "media-generate": "Geração de Mídia", + "science-education": "Ciência e Educação", + "social": "Mídias Sociais", + "stocks-finance": "Ações e Finanças", + "tools": "Ferramentas Úteis", + "web-search": "Busca na Web" + } + }, + "cleanFilter": "Limpar Filtro", + "create": "Criar", + "createGuide": { + "func1": { + "desc1": "No painel de conversa, acesse a página de configurações do assistente que você deseja enviar pelo canto superior direito;", + "desc2": "Clique no botão de enviar para o mercado de assistentes no canto superior direito.", + "tag": "Método Um", + "title": "Enviar através do LobeChat" + }, + "func2": { + "button": "Ir para o repositório de Assistentes no Github", + "desc": "Se você deseja adicionar o assistente ao índice, crie uma entrada usando agent-template.json ou agent-template-full.json no diretório plugins, escreva uma breve descrição e marque adequadamente, em seguida, crie um pull request.", + "tag": "Método Dois", + "title": "Enviar através do Github" + } + }, + "dislike": "Não Gosto", + "filter": "Filtrar", + "filterBy": { + "authorRange": { + "everyone": "Todos os Autores", + "followed": "Autores Seguidos", + "title": "Faixa de Autores" + }, + "contentLength": "Comprimento Mínimo do Contexto", + "maxToken": { + "title": "Definir Comprimento Máximo (Token)", + "unlimited": "Ilimitado" + }, + "other": { + "functionCall": "Suporte a Chamadas de Função", + "title": "Outros", + "vision": "Suporte a Reconhecimento Visual", + "withKnowledge": "Com Base de Conhecimento", + "withTool": "Com Plugins" + }, + "pricing": "Preço do Modelo", + "timePeriod": { + "all": "Todo o Tempo", + "day": "Últimas 24 Horas", + "month": "Últimos 30 Dias", + "title": "Faixa de Tempo", + "week": "Últimos 7 Dias", + "year": "Último Ano" + } + }, + "home": { + "featuredAssistants": "Assistentes Recomendados", + "featuredModels": "Modelos Recomendados", + "featuredProviders": "Provedores de Modelos Recomendados", + "featuredTools": "Plugins Recomendados", + "more": "Descubra Mais" + }, + "like": "Gosto", + "models": { + "chat": "Iniciar Conversa", + "contentLength": "Comprimento Máximo do Contexto", + "free": "Gratuito", + "guide": "Guia de Configuração", + "list": "Lista de Modelos", + "more": "Mais", + "parameterList": { + "defaultValue": "Valor Padrão", + "docs": "Ver Documentação", + "frequency_penalty": { + "desc": "Esta configuração ajusta a frequência com que o modelo reutiliza vocabulário específico que já apareceu na entrada. Valores mais altos reduzem a probabilidade de repetição, enquanto valores negativos têm o efeito oposto. A penalidade de vocabulário não aumenta com o número de ocorrências. Valores negativos incentivam a reutilização de vocabulário.", + "title": "Penalidade de Frequência" + }, + "max_tokens": { + "desc": "Esta configuração define o comprimento máximo que o modelo pode gerar em uma única resposta. Definir um valor mais alto permite que o modelo produza respostas mais longas, enquanto um valor mais baixo limita o comprimento da resposta, tornando-a mais concisa. Ajustar esse valor de forma razoável de acordo com diferentes cenários de aplicação pode ajudar a alcançar o comprimento e o nível de detalhe desejados na resposta.", + "title": "Limite de resposta única" + }, + "presence_penalty": { + "desc": "Esta configuração visa controlar a reutilização de vocabulário com base na frequência com que aparece na entrada. Ela tenta usar menos palavras que aparecem com frequência, proporcionalmente à sua frequência de ocorrência. A penalidade de vocabulário aumenta com o número de ocorrências. Valores negativos incentivam a reutilização de vocabulário.", + "title": "Novidade do Tópico" + }, + "range": "Faixa", + "temperature": { + "desc": "Esta configuração afeta a diversidade das respostas do modelo. Valores mais baixos resultam em respostas mais previsíveis e típicas, enquanto valores mais altos incentivam respostas mais variadas e incomuns. Quando o valor é 0, o modelo sempre dá a mesma resposta para uma entrada dada.", + "title": "Aleatoriedade" + }, + "title": "Parâmetros do Modelo", + "top_p": { + "desc": "Esta configuração limita a seleção do modelo a uma certa proporção de vocabulário com maior probabilidade: seleciona apenas aquelas palavras cujo total acumulado de probabilidade atinge P. Valores mais baixos tornam as respostas do modelo mais previsíveis, enquanto a configuração padrão permite que o modelo escolha de todo o vocabulário disponível.", + "title": "Amostragem Nuclear" + }, + "type": "Tipo" + }, + "providerInfo": { + "apiTooltip": "LobeChat suporta o uso de chaves API personalizadas para este provedor.", + "input": "Preço de Entrada", + "inputTooltip": "Custo por milhão de Tokens", + "latency": "Latência", + "latencyTooltip": "Tempo médio de resposta do provedor para enviar o primeiro Token", + "maxOutput": "Comprimento Máximo de Saída", + "maxOutputTooltip": "Número máximo de Tokens que este endpoint pode gerar", + "officialTooltip": "Serviço Oficial do LobeHub", + "output": "Preço de Saída", + "outputTooltip": "Custo por milhão de Tokens", + "streamCancellationTooltip": "Este provedor suporta a funcionalidade de cancelamento de fluxo.", + "throughput": "Taxa de Transferência", + "throughputTooltip": "Número médio de Tokens transmitidos por segundo em solicitações de fluxo" + }, + "suggestions": "Modelos Relacionados", + "supportedProviders": "Provedores que suportam este modelo" + }, + "plugins": { + "community": "Plugins da Comunidade", + "install": "Instalar Plugin", + "installed": "Instalado", + "list": "Lista de Plugins", + "meta": { + "description": "Descrição", + "parameter": "Parâmetro", + "title": "Parâmetros da Ferramenta", + "type": "Tipo" + }, + "more": "Mais", + "official": "Plugins Oficiais", + "recentSubmits": "Atualizações Recentes", + "suggestions": "Sugestões Relacionadas" + }, + "providers": { + "config": "Configurar Provedor", + "list": "Lista de Provedores de Modelos", + "modelCount": "{{count}} modelos", + "modelSite": "Documentação do modelo", + "more": "Mais", + "officialSite": "Site oficial", + "showAllModels": "Mostrar todos os modelos", + "suggestions": "Provedores Relacionados", + "supportedModels": "Modelos Suportados" + }, + "search": { + "placeholder": "Pesquisar nome, descrição ou palavras-chave...", + "result": "{{count}} resultados de busca sobre {{keyword}}", + "searching": "Buscando..." + }, + "sort": { + "mostLiked": "Mais Curtido", + "mostUsed": "Mais Usado", + "newest": "Mais Novo", + "oldest": "Mais Antigo", + "recommended": "Recomendado" + }, + "tab": { + "assistants": "Assistentes", + "home": "Início", + "models": "Modelos", + "plugins": "Plugins", + "providers": "Provedores de Modelos" + } +} diff --git a/locales/pt-BR/metadata.json b/locales/pt-BR/metadata.json index 58248855ef84..ff207209901a 100644 --- a/locales/pt-BR/metadata.json +++ b/locales/pt-BR/metadata.json @@ -3,9 +3,26 @@ "description": "{{appName}} traz a você a melhor experiência de uso do ChatGPT, Claude, Gemini e OLLaMA WebUI", "title": "{{appName}}: Ferramenta de eficiência pessoal em IA, dê a si mesmo um cérebro mais inteligente" }, - "market": { - "description": "Criação de conteúdo, redação, perguntas e respostas, geração de imagens, geração de vídeos, geração de voz, agentes inteligentes, fluxos de trabalho automatizados, personalize seu assistente inteligente de IA exclusivo", - "title": "Mercado de Assistentes" + "discover": { + "assistants": { + "description": "Criação de conteúdo, redação, perguntas e respostas, geração de imagens, geração de vídeos, geração de voz, Agentes Inteligentes, fluxos de trabalho automatizados, personalize seu assistente inteligente AI / GPTs / OLLaMA", + "title": "Assistentes de IA" + }, + "description": "Criação de conteúdo, redação, perguntas e respostas, geração de imagens, geração de vídeos, geração de voz, Agentes Inteligentes, fluxos de trabalho automatizados, aplicativos de IA personalizados, personalize sua estação de trabalho de aplicativos AI", + "models": { + "description": "Explore os principais modelos de IA OpenAI / GPT / Claude 3 / Gemini / Ollama / Azure / DeepSeek", + "title": "Modelos de IA" + }, + "plugins": { + "description": "Explore gráficos, geração acadêmica, geração de imagens, geração de vídeos, geração de voz e automação de fluxos de trabalho, integrando ricas capacidades de plugins para o seu assistente.", + "title": "Plugins de IA" + }, + "providers": { + "description": "Explore os principais fornecedores de modelos OpenAI / Qwen / Ollama / Anthropic / DeepSeek / Google Gemini / OpenRouter", + "title": "Provedores de Modelos de IA" + }, + "search": "Pesquisar", + "title": "Descobrir" }, "plugins": { "description": "Pesquisa, geração de gráficos, acadêmico, geração de imagens, geração de vídeos, geração de voz, fluxos de trabalho automatizados, personalize as capacidades de plugins ToolCall exclusivos do ChatGPT / Claude", diff --git a/locales/pt-BR/models.json b/locales/pt-BR/models.json new file mode 100644 index 000000000000..2f832cf877f4 --- /dev/null +++ b/locales/pt-BR/models.json @@ -0,0 +1,845 @@ +{ + "01-ai/Yi-1.5-34B-Chat-16K": { + "description": "Yi-1.5 34B, com um rico conjunto de amostras de treinamento, oferece desempenho superior em aplicações industriais." + }, + "01-ai/Yi-1.5-6B-Chat": { + "description": "Yi-1.5 é a versão evoluída da série Yi, com pré-treinamento de alta qualidade e dados de ajuste fino ricos." + }, + "01-ai/Yi-1.5-9B-Chat-16K": { + "description": "Yi-1.5 9B suporta 16K Tokens, oferecendo capacidade de geração de linguagem eficiente e fluida." + }, + "360gpt-pro": { + "description": "360GPT Pro, como um membro importante da série de modelos de IA da 360, atende a diversas aplicações de linguagem natural com sua capacidade eficiente de processamento de texto, suportando compreensão de longos textos e diálogos em múltiplas rodadas." + }, + "360gpt-turbo": { + "description": "360GPT Turbo oferece poderosas capacidades de computação e diálogo, com excelente compreensão semântica e eficiência de geração, sendo a solução ideal de assistente inteligente para empresas e desenvolvedores." + }, + "360gpt-turbo-responsibility-8k": { + "description": "360GPT Turbo Responsibility 8K enfatiza segurança semântica e responsabilidade, projetado especificamente para cenários de aplicação com altas exigências de segurança de conteúdo, garantindo precisão e robustez na experiência do usuário." + }, + "360gpt2-pro": { + "description": "360GPT2 Pro é um modelo avançado de processamento de linguagem natural lançado pela 360, com excelente capacidade de geração e compreensão de texto, destacando-se especialmente na geração e criação de conteúdo, capaz de lidar com tarefas complexas de conversão de linguagem e interpretação de papéis." + }, + "4.0Ultra": { + "description": "Spark4.0 Ultra é a versão mais poderosa da série de grandes modelos Xinghuo, que, ao atualizar a conexão de busca online, melhora a capacidade de compreensão e resumo de conteúdo textual. É uma solução abrangente para aumentar a produtividade no trabalho e responder com precisão às demandas, sendo um produto inteligente líder na indústria." + }, + "Baichuan2-Turbo": { + "description": "Utiliza tecnologia de busca aprimorada para conectar completamente o grande modelo com conhecimento de domínio e conhecimento da web. Suporta upload de vários documentos, como PDF e Word, e entrada de URLs, garantindo acesso a informações de forma rápida e abrangente, com resultados precisos e profissionais." + }, + "Baichuan3-Turbo": { + "description": "Otimizado para cenários de alta frequência empresarial, com melhorias significativas de desempenho e excelente custo-benefício. Em comparação com o modelo Baichuan2, a criação de conteúdo aumentou em 20%, a resposta a perguntas de conhecimento em 17% e a capacidade de interpretação de papéis em 40%. O desempenho geral é superior ao do GPT-3.5." + }, + "Baichuan3-Turbo-128k": { + "description": "Possui uma janela de contexto ultra longa de 128K, otimizada para cenários de alta frequência empresarial, com melhorias significativas de desempenho e excelente custo-benefício. Em comparação com o modelo Baichuan2, a criação de conteúdo aumentou em 20%, a resposta a perguntas de conhecimento em 17% e a capacidade de interpretação de papéis em 40%. O desempenho geral é superior ao do GPT-3.5." + }, + "Baichuan4": { + "description": "O modelo é o melhor do país, superando modelos estrangeiros em tarefas em chinês, como enciclopédias, textos longos e criação de conteúdo. Também possui capacidades multimodais líderes na indústria, com desempenho excepcional em várias avaliações de referência." + }, + "Gryphe/MythoMax-L2-13b": { + "description": "MythoMax-L2 (13B) é um modelo inovador, adequado para aplicações em múltiplas áreas e tarefas complexas." + }, + "Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Hermes 2 Mixtral 8x7B DPO é uma fusão de múltiplos modelos altamente flexível, projetada para oferecer uma experiência criativa excepcional." + }, + "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) é um modelo de instrução de alta precisão, adequado para cálculos complexos." + }, + "NousResearch/Nous-Hermes-2-Yi-34B": { + "description": "Nous Hermes-2 Yi (34B) oferece saídas de linguagem otimizadas e diversas possibilidades de aplicação." + }, + "Pro-128k": { + "description": "Spark Pro-128K possui capacidade de processamento de contexto extremamente grande, capaz de lidar com até 128K de informações de contexto, especialmente adequado para análise completa e processamento de associações lógicas de longo prazo em conteúdos longos, podendo fornecer lógica fluida e consistente e suporte a diversas citações em comunicações textuais complexas." + }, + "Qwen/Qwen1.5-110B-Chat": { + "description": "Como uma versão de teste do Qwen2, Qwen1.5 utiliza dados em larga escala para alcançar funcionalidades de diálogo mais precisas." + }, + "Qwen/Qwen1.5-14B-Chat": { + "description": "Qwen1.5 é treinado com um grande conjunto de dados, especializado em tarefas linguísticas complexas." + }, + "Qwen/Qwen1.5-32B-Chat": { + "description": "Qwen1.5 possui habilidades de perguntas e respostas em múltiplos domínios e geração de texto." + }, + "Qwen/Qwen1.5-72B-Chat": { + "description": "Qwen 1.5 Chat (72B) oferece respostas rápidas e capacidade de diálogo natural, adequado para ambientes multilíngues." + }, + "Qwen/Qwen1.5-7B-Chat": { + "description": "Qwen1.5 melhora a capacidade de expressão em diálogos ao combinar pré-treinamento avançado e ajuste fino." + }, + "Qwen/Qwen2-1.5B-Instruct": { + "description": "Qwen2 é uma nova série de modelos de linguagem de grande porte, projetada para otimizar o processamento de tarefas instrucionais." + }, + "Qwen/Qwen2-57B-A14B-Instruct": { + "description": "Qwen2 é uma nova série, com o modelo 57B A14B se destacando em tarefas instrucionais." + }, + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 é um modelo de linguagem universal avançado, suportando diversos tipos de instruções." + }, + "Qwen/Qwen2-7B-Instruct": { + "description": "Qwen2 é uma nova série de modelos de linguagem de grande porte, com capacidades de compreensão e geração mais robustas." + }, + "Qwen/Qwen2-Math-72B-Instruct": { + "description": "Qwen2-Math foca na resolução de problemas na área de matemática, oferecendo respostas profissionais para questões de alta dificuldade." + }, + "THUDM/chatglm3-6b": { + "description": "Como um modelo de linguagem de conversa bilíngue, ChatGLM3 pode lidar com tarefas de conversão entre chinês e inglês." + }, + "THUDM/glm-4-9b-chat": { + "description": "GLM-4 9B é uma versão de código aberto, oferecendo uma experiência de diálogo otimizada para aplicações de conversa." + }, + "abab5.5-chat": { + "description": "Voltado para cenários de produtividade, suportando o processamento de tarefas complexas e geração de texto eficiente, adequado para aplicações em áreas profissionais." + }, + "abab5.5s-chat": { + "description": "Projetado para cenários de diálogo de personagens em chinês, oferecendo capacidade de geração de diálogos de alta qualidade em chinês, adequado para várias aplicações." + }, + "abab6.5g-chat": { + "description": "Projetado para diálogos de personagens multilíngues, suportando geração de diálogos de alta qualidade em inglês e várias outras línguas." + }, + "abab6.5s-chat": { + "description": "Adequado para uma ampla gama de tarefas de processamento de linguagem natural, incluindo geração de texto, sistemas de diálogo, etc." + }, + "abab6.5t-chat": { + "description": "Otimizado para cenários de diálogo de personagens em chinês, oferecendo capacidade de geração de diálogos fluentes e que respeitam os hábitos de expressão em chinês." + }, + "accounts/fireworks/models/firefunction-v1": { + "description": "Modelo de chamada de função de código aberto da Fireworks, oferecendo excelente capacidade de execução de instruções e características personalizáveis." + }, + "accounts/fireworks/models/firefunction-v2": { + "description": "O Firefunction-v2 da Fireworks é um modelo de chamada de função de alto desempenho, desenvolvido com base no Llama-3 e otimizado para cenários como chamadas de função, diálogos e seguimento de instruções." + }, + "accounts/fireworks/models/firellava-13b": { + "description": "fireworks-ai/FireLLaVA-13b é um modelo de linguagem visual que pode receber entradas de imagem e texto simultaneamente, treinado com dados de alta qualidade, adequado para tarefas multimodais." + }, + "accounts/fireworks/models/gemma2-9b-it": { + "description": "O modelo Gemma 2 9B Instruct, baseado na tecnologia anterior da Google, é adequado para responder perguntas, resumir e realizar inferências em diversas tarefas de geração de texto." + }, + "accounts/fireworks/models/llama-v3-70b-instruct": { + "description": "O modelo Llama 3 70B Instruct é otimizado para diálogos multilíngues e compreensão de linguagem natural, superando a maioria dos modelos concorrentes." + }, + "accounts/fireworks/models/llama-v3-70b-instruct-hf": { + "description": "O modelo Llama 3 70B Instruct (versão HF) mantém consistência com os resultados da implementação oficial, adequado para tarefas de seguimento de instruções de alta qualidade." + }, + "accounts/fireworks/models/llama-v3-8b-instruct": { + "description": "O modelo Llama 3 8B Instruct é otimizado para diálogos e tarefas multilíngues, apresentando desempenho excepcional e eficiência." + }, + "accounts/fireworks/models/llama-v3-8b-instruct-hf": { + "description": "O modelo Llama 3 8B Instruct (versão HF) é consistente com os resultados da implementação oficial, apresentando alta consistência e compatibilidade entre plataformas." + }, + "accounts/fireworks/models/llama-v3p1-405b-instruct": { + "description": "O modelo Llama 3.1 405B Instruct possui parâmetros em escala extremamente grande, adequado para seguimento de instruções em tarefas complexas e cenários de alta carga." + }, + "accounts/fireworks/models/llama-v3p1-70b-instruct": { + "description": "O modelo Llama 3.1 70B Instruct oferece excelente compreensão e geração de linguagem natural, sendo a escolha ideal para tarefas de diálogo e análise." + }, + "accounts/fireworks/models/llama-v3p1-8b-instruct": { + "description": "O modelo Llama 3.1 8B Instruct é otimizado para diálogos multilíngues, superando a maioria dos modelos de código aberto e fechado em benchmarks do setor." + }, + "accounts/fireworks/models/mixtral-8x22b-instruct": { + "description": "O modelo Mixtral MoE 8x22B Instruct, com parâmetros em grande escala e arquitetura de múltiplos especialistas, suporta o processamento eficiente de tarefas complexas." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct": { + "description": "O modelo Mixtral MoE 8x7B Instruct, com uma arquitetura de múltiplos especialistas, oferece seguimento e execução de instruções de forma eficiente." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct-hf": { + "description": "O modelo Mixtral MoE 8x7B Instruct (versão HF) apresenta desempenho consistente com a implementação oficial, adequado para uma variedade de cenários de tarefas eficientes." + }, + "accounts/fireworks/models/mythomax-l2-13b": { + "description": "O modelo MythoMax L2 13B combina novas técnicas de fusão, sendo especializado em narrativas e interpretação de personagens." + }, + "accounts/fireworks/models/phi-3-vision-128k-instruct": { + "description": "O modelo Phi 3 Vision Instruct é um modelo multimodal leve, capaz de processar informações visuais e textuais complexas, com forte capacidade de raciocínio." + }, + "accounts/fireworks/models/starcoder-16b": { + "description": "O modelo StarCoder 15.5B suporta tarefas de programação avançadas, com capacidade multilíngue aprimorada, adequado para geração e compreensão de código complexos." + }, + "accounts/fireworks/models/starcoder-7b": { + "description": "O modelo StarCoder 7B é treinado para mais de 80 linguagens de programação, apresentando excelente capacidade de preenchimento de código e compreensão de contexto." + }, + "accounts/yi-01-ai/models/yi-large": { + "description": "O modelo Yi-Large oferece excelente capacidade de processamento multilíngue, adequado para diversas tarefas de geração e compreensão de linguagem." + }, + "anthropic.claude-3-5-sonnet-20240620-v1:0": { + "description": "O Claude 3.5 Sonnet eleva o padrão da indústria, superando modelos concorrentes e o Claude 3 Opus, apresentando um desempenho excepcional em avaliações amplas, ao mesmo tempo que mantém a velocidade e o custo de nossos modelos de nível médio." + }, + "anthropic.claude-3-haiku-20240307-v1:0": { + "description": "O Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, oferecendo uma velocidade de resposta quase instantânea. Ele pode responder rapidamente a consultas e solicitações simples. Os clientes poderão construir uma experiência de IA sem costura que imita a interação humana. O Claude 3 Haiku pode processar imagens e retornar saídas de texto, com uma janela de contexto de 200K." + }, + "anthropic.claude-3-opus-20240229-v1:0": { + "description": "O Claude 3 Opus é o modelo de IA mais poderoso da Anthropic, com desempenho de ponta em tarefas altamente complexas. Ele pode lidar com prompts abertos e cenários não vistos, apresentando fluência excepcional e compreensão semelhante à humana. O Claude 3 Opus demonstra as possibilidades de geração de IA na vanguarda. O Claude 3 Opus pode processar imagens e retornar saídas de texto, com uma janela de contexto de 200K." + }, + "anthropic.claude-3-sonnet-20240229-v1:0": { + "description": "O Claude 3 Sonnet da Anthropic alcança um equilíbrio ideal entre inteligência e velocidade — especialmente adequado para cargas de trabalho empresariais. Ele oferece a máxima utilidade a um custo inferior ao dos concorrentes e foi projetado para ser um modelo confiável e durável, adequado para implantações de IA em larga escala. O Claude 3 Sonnet pode processar imagens e retornar saídas de texto, com uma janela de contexto de 200K." + }, + "anthropic.claude-instant-v1": { + "description": "Um modelo rápido, econômico e ainda muito capaz, capaz de lidar com uma variedade de tarefas, incluindo diálogos cotidianos, análise de texto, resumos e perguntas e respostas de documentos." + }, + "anthropic.claude-v2": { + "description": "O modelo da Anthropic demonstra alta capacidade em uma ampla gama de tarefas, desde diálogos complexos e geração de conteúdo criativo até o seguimento detalhado de instruções." + }, + "anthropic.claude-v2:1": { + "description": "A versão atualizada do Claude 2, com o dobro da janela de contexto, além de melhorias na confiabilidade, taxa de alucinação e precisão baseada em evidências em documentos longos e contextos RAG." + }, + "anthropic/claude-3-haiku": { + "description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para oferecer respostas quase instantâneas. Ele possui desempenho direcionado rápido e preciso." + }, + "anthropic/claude-3-opus": { + "description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para lidar com tarefas altamente complexas. Ele se destaca em desempenho, inteligência, fluência e compreensão." + }, + "anthropic/claude-3.5-sonnet": { + "description": "Claude 3.5 Sonnet oferece capacidades que vão além do Opus e uma velocidade superior ao Sonnet, mantendo o mesmo preço do Sonnet. O Sonnet é especialmente habilidoso em programação, ciência de dados, processamento visual e tarefas de agente." + }, + "aya": { + "description": "Aya 23 é um modelo multilíngue lançado pela Cohere, suportando 23 idiomas, facilitando aplicações linguísticas diversificadas." + }, + "aya:35b": { + "description": "Aya 23 é um modelo multilíngue lançado pela Cohere, suportando 23 idiomas, facilitando aplicações linguísticas diversificadas." + }, + "charglm-3": { + "description": "O CharGLM-3 é projetado para interpretação de personagens e companhia emocional, suportando memória de múltiplas rodadas e diálogos personalizados, com ampla aplicação." + }, + "chatgpt-4o-latest": { + "description": "O ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais atual. Ele combina uma poderosa capacidade de compreensão e geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico." + }, + "claude-2.0": { + "description": "Claude 2 oferece avanços em capacidades críticas para empresas, incluindo um contexto líder do setor de 200K tokens, uma redução significativa na taxa de alucinação do modelo, prompts de sistema e uma nova funcionalidade de teste: chamadas de ferramentas." + }, + "claude-2.1": { + "description": "Claude 2 oferece avanços em capacidades críticas para empresas, incluindo um contexto líder do setor de 200K tokens, uma redução significativa na taxa de alucinação do modelo, prompts de sistema e uma nova funcionalidade de teste: chamadas de ferramentas." + }, + "claude-3-5-sonnet-20240620": { + "description": "Claude 3.5 Sonnet oferece capacidades que superam o Opus e uma velocidade mais rápida que o Sonnet, mantendo o mesmo preço. O Sonnet é especialmente bom em programação, ciência de dados, processamento visual e tarefas de agente." + }, + "claude-3-haiku-20240307": { + "description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas. Ele possui desempenho direcionado rápido e preciso." + }, + "claude-3-opus-20240229": { + "description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para lidar com tarefas altamente complexas. Ele se destaca em desempenho, inteligência, fluência e compreensão." + }, + "claude-3-sonnet-20240229": { + "description": "Claude 3 Sonnet oferece um equilíbrio ideal entre inteligência e velocidade para cargas de trabalho empresariais. Ele fornece máxima utilidade a um custo mais baixo, sendo confiável e adequado para implantação em larga escala." + }, + "claude-instant-1.2": { + "description": "O modelo da Anthropic é utilizado para geração de texto de baixa latência e alta taxa de transferência, suportando a geração de centenas de páginas de texto." + }, + "codegeex-4": { + "description": "O CodeGeeX-4 é um poderoso assistente de programação AI, suportando perguntas e respostas inteligentes e autocompletar em várias linguagens de programação, aumentando a eficiência do desenvolvimento." + }, + "codegemma": { + "description": "CodeGemma é um modelo de linguagem leve especializado em diferentes tarefas de programação, suportando iterações rápidas e integração." + }, + "codegemma:2b": { + "description": "CodeGemma é um modelo de linguagem leve especializado em diferentes tarefas de programação, suportando iterações rápidas e integração." + }, + "codellama": { + "description": "Code Llama é um LLM focado em geração e discussão de código, combinando suporte a uma ampla gama de linguagens de programação, adequado para ambientes de desenvolvedores." + }, + "codellama:13b": { + "description": "Code Llama é um LLM focado em geração e discussão de código, combinando suporte a uma ampla gama de linguagens de programação, adequado para ambientes de desenvolvedores." + }, + "codellama:34b": { + "description": "Code Llama é um LLM focado em geração e discussão de código, combinando suporte a uma ampla gama de linguagens de programação, adequado para ambientes de desenvolvedores." + }, + "codellama:70b": { + "description": "Code Llama é um LLM focado em geração e discussão de código, combinando suporte a uma ampla gama de linguagens de programação, adequado para ambientes de desenvolvedores." + }, + "codeqwen": { + "description": "CodeQwen1.5 é um modelo de linguagem de grande escala treinado com uma vasta quantidade de dados de código, projetado para resolver tarefas de programação complexas." + }, + "codestral": { + "description": "Codestral é o primeiro modelo de código da Mistral AI, oferecendo suporte excepcional para tarefas de geração de código." + }, + "codestral-latest": { + "description": "Codestral é um modelo gerador de ponta focado em geração de código, otimizado para preenchimento intermediário e tarefas de conclusão de código." + }, + "cognitivecomputations/dolphin-mixtral-8x22b": { + "description": "Dolphin Mixtral 8x22B é um modelo projetado para seguir instruções, diálogos e programação." + }, + "command-r": { + "description": "Command R é um LLM otimizado para tarefas de diálogo e longos contextos, especialmente adequado para interações dinâmicas e gerenciamento de conhecimento." + }, + "command-r-plus": { + "description": "Command R+ é um modelo de linguagem de grande porte de alto desempenho, projetado para cenários empresariais reais e aplicações complexas." + }, + "databricks/dbrx-instruct": { + "description": "DBRX Instruct oferece capacidade de processamento de instruções altamente confiável, suportando aplicações em diversos setores." + }, + "deepseek-ai/DeepSeek-Coder-V2-Instruct": { + "description": "DeepSeek Coder V2 é projetado para tarefas de código, focando na geração de código eficiente." + }, + "deepseek-ai/DeepSeek-V2-Chat": { + "description": "DeepSeek V2 possui 6.7 bilhões de parâmetros, suportando processamento de texto em inglês e chinês." + }, + "deepseek-ai/DeepSeek-V2.5": { + "description": "DeepSeek V2.5 combina as excelentes características das versões anteriores, aprimorando a capacidade geral e de codificação." + }, + "deepseek-ai/deepseek-llm-67b-chat": { + "description": "DeepSeek 67B é um modelo avançado treinado para diálogos de alta complexidade." + }, + "deepseek-chat": { + "description": "Um novo modelo de código aberto que combina capacidades gerais e de codificação, não apenas preservando a capacidade de diálogo geral do modelo Chat original e a poderosa capacidade de processamento de código do modelo Coder, mas também alinhando-se melhor às preferências humanas. Além disso, o DeepSeek-V2.5 também alcançou melhorias significativas em várias áreas, como tarefas de escrita e seguimento de instruções." + }, + "deepseek-coder-v2": { + "description": "DeepSeek Coder V2 é um modelo de código de especialistas abertos, destacando-se em tarefas de codificação, comparável ao GPT4-Turbo." + }, + "deepseek-coder-v2:236b": { + "description": "DeepSeek Coder V2 é um modelo de código de especialistas abertos, destacando-se em tarefas de codificação, comparável ao GPT4-Turbo." + }, + "deepseek-v2": { + "description": "DeepSeek V2 é um modelo de linguagem eficiente Mixture-of-Experts, adequado para demandas de processamento econômico." + }, + "deepseek-v2:236b": { + "description": "DeepSeek V2 236B é o modelo de código projetado do DeepSeek, oferecendo forte capacidade de geração de código." + }, + "deepseek/deepseek-chat": { + "description": "Um novo modelo de código aberto que integra capacidades gerais e de codificação, não apenas preservando a capacidade de diálogo geral do modelo Chat original e a poderosa capacidade de processamento de código do modelo Coder, mas também alinhando-se melhor às preferências humanas. Além disso, o DeepSeek-V2.5 também alcançou melhorias significativas em várias áreas, como tarefas de escrita e seguimento de instruções." + }, + "emohaa": { + "description": "O Emohaa é um modelo psicológico com capacidade de consultoria profissional, ajudando os usuários a entender questões emocionais." + }, + "gemini-1.0-pro-001": { + "description": "Gemini 1.0 Pro 001 (Ajuste) oferece desempenho estável e ajustável, sendo a escolha ideal para soluções de tarefas complexas." + }, + "gemini-1.0-pro-002": { + "description": "Gemini 1.0 Pro 002 (Ajuste) oferece excelente suporte multimodal, focando na resolução eficaz de tarefas complexas." + }, + "gemini-1.0-pro-latest": { + "description": "Gemini 1.0 Pro é o modelo de IA de alto desempenho do Google, projetado para expansão em uma ampla gama de tarefas." + }, + "gemini-1.5-flash-001": { + "description": "Gemini 1.5 Flash 001 é um modelo multimodal eficiente, suportando a expansão de aplicações amplas." + }, + "gemini-1.5-flash-8b-exp-0827": { + "description": "Gemini 1.5 Flash 8B 0827 é projetado para lidar com cenários de tarefas em larga escala, oferecendo velocidade de processamento incomparável." + }, + "gemini-1.5-flash-exp-0827": { + "description": "Gemini 1.5 Flash 0827 oferece capacidade de processamento multimodal otimizada, adequada para uma variedade de cenários de tarefas complexas." + }, + "gemini-1.5-flash-latest": { + "description": "Gemini 1.5 Flash é o mais recente modelo de IA multimodal do Google, com capacidade de processamento rápido, suportando entradas de texto, imagem e vídeo, adequado para uma variedade de tarefas de expansão eficiente." + }, + "gemini-1.5-pro-001": { + "description": "Gemini 1.5 Pro 001 é uma solução de IA multimodal escalável, suportando uma ampla gama de tarefas complexas." + }, + "gemini-1.5-pro-exp-0801": { + "description": "Gemini 1.5 Pro 0801 oferece excelente capacidade de processamento multimodal, proporcionando maior flexibilidade para o desenvolvimento de aplicações." + }, + "gemini-1.5-pro-exp-0827": { + "description": "Gemini 1.5 Pro 0827 combina as mais recentes tecnologias de otimização, trazendo maior eficiência no processamento de dados multimodais." + }, + "gemini-1.5-pro-latest": { + "description": "Gemini 1.5 Pro suporta até 2 milhões de tokens, sendo a escolha ideal para modelos multimodais de médio porte, adequados para suporte multifacetado em tarefas complexas." + }, + "gemma-7b-it": { + "description": "Gemma 7B é adequado para o processamento de tarefas de pequeno a médio porte, combinando custo e eficiência." + }, + "gemma2": { + "description": "Gemma 2 é um modelo eficiente lançado pelo Google, abrangendo uma variedade de cenários de aplicação, desde aplicações pequenas até processamento de dados complexos." + }, + "gemma2-9b-it": { + "description": "Gemma 2 9B é um modelo otimizado para integração de tarefas e ferramentas específicas." + }, + "gemma2:27b": { + "description": "Gemma 2 é um modelo eficiente lançado pelo Google, abrangendo uma variedade de cenários de aplicação, desde aplicações pequenas até processamento de dados complexos." + }, + "gemma2:2b": { + "description": "Gemma 2 é um modelo eficiente lançado pelo Google, abrangendo uma variedade de cenários de aplicação, desde aplicações pequenas até processamento de dados complexos." + }, + "general": { + "description": "Spark Lite é um modelo de linguagem leve, com latência extremamente baixa e alta capacidade de processamento, totalmente gratuito e aberto, suportando funcionalidade de busca online em tempo real. Sua característica de resposta rápida o torna excelente em aplicações de inferência e ajuste de modelo em dispositivos de baixa potência, proporcionando aos usuários um excelente custo-benefício e experiência inteligente, especialmente em perguntas e respostas, geração de conteúdo e cenários de busca." + }, + "generalv3": { + "description": "Spark Pro é um modelo de linguagem de alto desempenho otimizado para áreas profissionais, focando em matemática, programação, medicina, educação e outros campos, e suportando busca online e plugins integrados como clima e data. Seu modelo otimizado apresenta desempenho excepcional e eficiência em perguntas e respostas complexas, compreensão de linguagem e criação de texto de alto nível, sendo a escolha ideal para cenários de aplicação profissional." + }, + "generalv3.5": { + "description": "Spark3.5 Max é a versão mais completa, suportando busca online e muitos plugins integrados. Suas capacidades centrais totalmente otimizadas, juntamente com a definição de papéis do sistema e a funcionalidade de chamada de funções, fazem com que seu desempenho em vários cenários de aplicação complexos seja extremamente excepcional." + }, + "glm-4": { + "description": "O GLM-4 é a versão antiga lançada em janeiro de 2024, atualmente substituída pelo mais poderoso GLM-4-0520." + }, + "glm-4-0520": { + "description": "O GLM-4-0520 é a versão mais recente do modelo, projetada para tarefas altamente complexas e diversificadas, com desempenho excepcional." + }, + "glm-4-air": { + "description": "O GLM-4-Air é uma versão econômica, com desempenho próximo ao GLM-4, oferecendo alta velocidade a um preço acessível." + }, + "glm-4-airx": { + "description": "O GLM-4-AirX oferece uma versão eficiente do GLM-4-Air, com velocidade de inferência até 2,6 vezes mais rápida." + }, + "glm-4-alltools": { + "description": "O GLM-4-AllTools é um modelo de agente multifuncional, otimizado para suportar planejamento de instruções complexas e chamadas de ferramentas, como navegação na web, interpretação de código e geração de texto, adequado para execução de múltiplas tarefas." + }, + "glm-4-flash": { + "description": "O GLM-4-Flash é a escolha ideal para tarefas simples, com a maior velocidade e o preço mais acessível." + }, + "glm-4-long": { + "description": "O GLM-4-Long suporta entradas de texto superlongas, adequado para tarefas de memória e processamento de documentos em larga escala." + }, + "glm-4-plus": { + "description": "O GLM-4-Plus, como um modelo de alta inteligência, possui uma forte capacidade de lidar com textos longos e tarefas complexas, com desempenho amplamente aprimorado." + }, + "glm-4v": { + "description": "O GLM-4V oferece uma forte capacidade de compreensão e raciocínio de imagens, suportando várias tarefas visuais." + }, + "glm-4v-plus": { + "description": "O GLM-4V-Plus possui a capacidade de entender conteúdo de vídeo e múltiplas imagens, adequado para tarefas multimodais." + }, + "google/gemini-flash-1.5-exp": { + "description": "Gemini 1.5 Flash 0827 oferece capacidade de processamento multimodal otimizada, adequada para uma variedade de cenários de tarefas complexas." + }, + "google/gemini-pro-1.5-exp": { + "description": "Gemini 1.5 Pro 0827 combina as mais recentes tecnologias de otimização, proporcionando uma capacidade de processamento de dados multimodal mais eficiente." + }, + "google/gemma-2-27b-it": { + "description": "Gemma 2 continua a filosofia de design leve e eficiente." + }, + "google/gemma-2-9b-it": { + "description": "Gemma 2 é uma série de modelos de texto de código aberto leve da Google." + }, + "google/gemma-2-9b-it:free": { + "description": "Gemma 2 é uma série de modelos de texto de código aberto leve da Google." + }, + "google/gemma-2b-it": { + "description": "Gemma Instruct (2B) oferece capacidade básica de processamento de instruções, adequada para aplicações leves." + }, + "gpt-3.5-turbo": { + "description": "O GPT 3.5 Turbo é adequado para uma variedade de tarefas de geração e compreensão de texto, atualmente apontando para gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-0125": { + "description": "O GPT 3.5 Turbo é adequado para uma variedade de tarefas de geração e compreensão de texto, atualmente apontando para gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-1106": { + "description": "O GPT 3.5 Turbo é adequado para uma variedade de tarefas de geração e compreensão de texto, atualmente apontando para gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-instruct": { + "description": "O GPT 3.5 Turbo é adequado para uma variedade de tarefas de geração e compreensão de texto, atualmente apontando para gpt-3.5-turbo-0125." + }, + "gpt-4": { + "description": "O GPT-4 oferece uma janela de contexto maior, capaz de lidar com entradas de texto mais longas, adequado para cenários que exigem integração ampla de informações e análise de dados." + }, + "gpt-4-0125-preview": { + "description": "O mais recente modelo GPT-4 Turbo possui funcionalidades visuais. Agora, solicitações visuais podem ser feitas usando o modo JSON e chamadas de função. O GPT-4 Turbo é uma versão aprimorada, oferecendo suporte econômico para tarefas multimodais. Ele encontra um equilíbrio entre precisão e eficiência, adequado para aplicações que requerem interação em tempo real." + }, + "gpt-4-0613": { + "description": "O GPT-4 oferece uma janela de contexto maior, capaz de lidar com entradas de texto mais longas, adequado para cenários que exigem integração ampla de informações e análise de dados." + }, + "gpt-4-1106-preview": { + "description": "O mais recente modelo GPT-4 Turbo possui funcionalidades visuais. Agora, solicitações visuais podem ser feitas usando o modo JSON e chamadas de função. O GPT-4 Turbo é uma versão aprimorada, oferecendo suporte econômico para tarefas multimodais. Ele encontra um equilíbrio entre precisão e eficiência, adequado para aplicações que requerem interação em tempo real." + }, + "gpt-4-1106-vision-preview": { + "description": "O mais recente modelo GPT-4 Turbo possui funcionalidades visuais. Agora, solicitações visuais podem ser feitas usando o modo JSON e chamadas de função. O GPT-4 Turbo é uma versão aprimorada, oferecendo suporte econômico para tarefas multimodais. Ele encontra um equilíbrio entre precisão e eficiência, adequado para aplicações que requerem interação em tempo real." + }, + "gpt-4-32k": { + "description": "O GPT-4 oferece uma janela de contexto maior, capaz de lidar com entradas de texto mais longas, adequado para cenários que exigem integração ampla de informações e análise de dados." + }, + "gpt-4-32k-0613": { + "description": "O GPT-4 oferece uma janela de contexto maior, capaz de lidar com entradas de texto mais longas, adequado para cenários que exigem integração ampla de informações e análise de dados." + }, + "gpt-4-turbo": { + "description": "O mais recente modelo GPT-4 Turbo possui funcionalidades visuais. Agora, solicitações visuais podem ser feitas usando o modo JSON e chamadas de função. O GPT-4 Turbo é uma versão aprimorada, oferecendo suporte econômico para tarefas multimodais. Ele encontra um equilíbrio entre precisão e eficiência, adequado para aplicações que requerem interação em tempo real." + }, + "gpt-4-turbo-2024-04-09": { + "description": "O mais recente modelo GPT-4 Turbo possui funcionalidades visuais. Agora, solicitações visuais podem ser feitas usando o modo JSON e chamadas de função. O GPT-4 Turbo é uma versão aprimorada, oferecendo suporte econômico para tarefas multimodais. Ele encontra um equilíbrio entre precisão e eficiência, adequado para aplicações que requerem interação em tempo real." + }, + "gpt-4-turbo-preview": { + "description": "O mais recente modelo GPT-4 Turbo possui funcionalidades visuais. Agora, solicitações visuais podem ser feitas usando o modo JSON e chamadas de função. O GPT-4 Turbo é uma versão aprimorada, oferecendo suporte econômico para tarefas multimodais. Ele encontra um equilíbrio entre precisão e eficiência, adequado para aplicações que requerem interação em tempo real." + }, + "gpt-4-vision-preview": { + "description": "O mais recente modelo GPT-4 Turbo possui funcionalidades visuais. Agora, solicitações visuais podem ser feitas usando o modo JSON e chamadas de função. O GPT-4 Turbo é uma versão aprimorada, oferecendo suporte econômico para tarefas multimodais. Ele encontra um equilíbrio entre precisão e eficiência, adequado para aplicações que requerem interação em tempo real." + }, + "gpt-4o": { + "description": "O ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais atual. Ele combina uma poderosa capacidade de compreensão e geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico." + }, + "gpt-4o-2024-05-13": { + "description": "O ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais atual. Ele combina uma poderosa capacidade de compreensão e geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico." + }, + "gpt-4o-2024-08-06": { + "description": "O ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais atual. Ele combina uma poderosa capacidade de compreensão e geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico." + }, + "gpt-4o-mini": { + "description": "O GPT-4o mini é o mais recente modelo lançado pela OpenAI após o GPT-4 Omni, suportando entrada de texto e imagem e gerando texto como saída. Como seu modelo compacto mais avançado, ele é muito mais acessível do que outros modelos de ponta recentes, custando mais de 60% menos que o GPT-3.5 Turbo. Ele mantém uma inteligência de ponta, ao mesmo tempo que oferece um custo-benefício significativo. O GPT-4o mini obteve uma pontuação de 82% no teste MMLU e atualmente está classificado acima do GPT-4 em preferências de chat." + }, + "gryphe/mythomax-l2-13b": { + "description": "MythoMax l2 13B é um modelo de linguagem que combina criatividade e inteligência, integrando vários modelos de ponta." + }, + "internlm/internlm2_5-20b-chat": { + "description": "O modelo de código aberto inovador InternLM2.5, com um grande número de parâmetros, melhora a inteligência do diálogo." + }, + "internlm/internlm2_5-7b-chat": { + "description": "InternLM2.5 oferece soluções de diálogo inteligente em múltiplos cenários." + }, + "llama-3.1-70b-instruct": { + "description": "O modelo Llama 3.1 70B Instruct possui 70B de parâmetros, capaz de oferecer desempenho excepcional em tarefas de geração de texto e instrução em larga escala." + }, + "llama-3.1-70b-versatile": { + "description": "Llama 3.1 70B oferece capacidade de raciocínio AI mais poderosa, adequada para aplicações complexas, suportando um processamento computacional extenso e garantindo eficiência e precisão." + }, + "llama-3.1-8b-instant": { + "description": "Llama 3.1 8B é um modelo de alto desempenho, oferecendo capacidade de geração de texto rápida, ideal para cenários de aplicação que exigem eficiência em larga escala e custo-benefício." + }, + "llama-3.1-8b-instruct": { + "description": "O modelo Llama 3.1 8B Instruct possui 8B de parâmetros, suportando a execução eficiente de tarefas de instrução, oferecendo excelente capacidade de geração de texto." + }, + "llama-3.1-sonar-huge-128k-online": { + "description": "O modelo Llama 3.1 Sonar Huge Online possui 405B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, projetado para aplicações de chat online complexas." + }, + "llama-3.1-sonar-large-128k-chat": { + "description": "O modelo Llama 3.1 Sonar Large Chat possui 70B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, adequado para tarefas de chat offline complexas." + }, + "llama-3.1-sonar-large-128k-online": { + "description": "O modelo Llama 3.1 Sonar Large Online possui 70B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, adequado para tarefas de chat de alta capacidade e diversidade." + }, + "llama-3.1-sonar-small-128k-chat": { + "description": "O modelo Llama 3.1 Sonar Small Chat possui 8B de parâmetros, projetado para chats offline, suportando um comprimento de contexto de aproximadamente 127.000 tokens." + }, + "llama-3.1-sonar-small-128k-online": { + "description": "O modelo Llama 3.1 Sonar Small Online possui 8B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, projetado para chats online, capaz de processar eficientemente diversas interações textuais." + }, + "llama3-70b-8192": { + "description": "Meta Llama 3 70B oferece capacidade de processamento incomparável para complexidade, projetado sob medida para projetos de alta demanda." + }, + "llama3-8b-8192": { + "description": "Meta Llama 3 8B oferece desempenho de raciocínio de alta qualidade, adequado para uma variedade de necessidades de aplicação." + }, + "llama3-groq-70b-8192-tool-use-preview": { + "description": "Llama 3 Groq 70B Tool Use oferece poderosa capacidade de chamada de ferramentas, suportando o processamento eficiente de tarefas complexas." + }, + "llama3-groq-8b-8192-tool-use-preview": { + "description": "Llama 3 Groq 8B Tool Use é um modelo otimizado para uso eficiente de ferramentas, suportando cálculos paralelos rápidos." + }, + "llama3.1": { + "description": "Llama 3.1 é um modelo líder lançado pela Meta, suportando até 405B de parâmetros, aplicável em diálogos complexos, tradução multilíngue e análise de dados." + }, + "llama3.1:405b": { + "description": "Llama 3.1 é um modelo líder lançado pela Meta, suportando até 405B de parâmetros, aplicável em diálogos complexos, tradução multilíngue e análise de dados." + }, + "llama3.1:70b": { + "description": "Llama 3.1 é um modelo líder lançado pela Meta, suportando até 405B de parâmetros, aplicável em diálogos complexos, tradução multilíngue e análise de dados." + }, + "llava": { + "description": "LLaVA é um modelo multimodal que combina um codificador visual e Vicuna, projetado para forte compreensão visual e linguística." + }, + "llava-v1.5-7b-4096-preview": { + "description": "LLaVA 1.5 7B oferece capacidade de processamento visual integrada, gerando saídas complexas a partir de informações visuais." + }, + "llava:13b": { + "description": "LLaVA é um modelo multimodal que combina um codificador visual e Vicuna, projetado para forte compreensão visual e linguística." + }, + "llava:34b": { + "description": "LLaVA é um modelo multimodal que combina um codificador visual e Vicuna, projetado para forte compreensão visual e linguística." + }, + "mathstral": { + "description": "MathΣtral é projetado para pesquisa científica e raciocínio matemático, oferecendo capacidade de cálculo eficaz e interpretação de resultados." + }, + "meta-llama/Llama-2-13b-chat-hf": { + "description": "LLaMA-2 Chat (13B) oferece excelente capacidade de processamento de linguagem e uma experiência interativa notável." + }, + "meta-llama/Llama-3-70b-chat-hf": { + "description": "LLaMA-3 Chat (70B) é um modelo de chat poderoso, suportando necessidades de diálogo complexas." + }, + "meta-llama/Llama-3-8b-chat-hf": { + "description": "LLaMA-3 Chat (8B) oferece suporte multilíngue, abrangendo um rico conhecimento em diversas áreas." + }, + "meta-llama/Meta-Llama-3-70B-Instruct": { + "description": "LLaMA 3 suporta geração de texto de grande capacidade e interpretação de instruções." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { + "description": "Llama 3 70B Instruct Lite é ideal para ambientes que exigem alta eficiência e baixa latência." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": { + "description": "Llama 3 70B Instruct Turbo oferece uma capacidade excepcional de compreensão e geração de linguagem, adequado para as tarefas computacionais mais exigentes." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Lite": { + "description": "Llama 3 8B Instruct Lite é adequado para ambientes com recursos limitados, oferecendo um excelente equilíbrio de desempenho." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": { + "description": "Llama 3 8B Instruct Turbo é um modelo de linguagem de alto desempenho, suportando uma ampla gama de cenários de aplicação." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct": { + "description": "LLaMA 3.1 405B é um modelo poderoso para pré-treinamento e ajuste de instruções." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": { + "description": "O modelo Llama 3.1 Turbo 405B oferece suporte a um contexto de capacidade extremamente grande para processamento de grandes volumes de dados, destacando-se em aplicações de inteligência artificial em larga escala." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct": { + "description": "LLaMA 3.1 70B oferece suporte a diálogos multilíngues de forma eficiente." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": { + "description": "O modelo Llama 3.1 70B é ajustado para aplicações de alta carga, quantizado para FP8, oferecendo maior eficiência computacional e precisão, garantindo desempenho excepcional em cenários complexos." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct": { + "description": "LLaMA 3.1 oferece suporte multilíngue, sendo um dos modelos geradores líderes da indústria." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": { + "description": "O modelo Llama 3.1 8B utiliza quantização FP8, suportando até 131.072 tokens de contexto, destacando-se entre os modelos de código aberto, ideal para tarefas complexas e superando muitos benchmarks do setor." + }, + "meta-llama/llama-3-70b-instruct": { + "description": "Llama 3 70B Instruct é otimizado para cenários de diálogo de alta qualidade, apresentando desempenho excepcional em várias avaliações humanas." + }, + "meta-llama/llama-3-8b-instruct": { + "description": "Llama 3 8B Instruct otimiza cenários de diálogo de alta qualidade, com desempenho superior a muitos modelos fechados." + }, + "meta-llama/llama-3.1-405b-instruct": { + "description": "Llama 3.1 405B Instruct é a versão mais recente da Meta, otimizada para gerar diálogos de alta qualidade, superando muitos modelos fechados de liderança." + }, + "meta-llama/llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct é projetado para diálogos de alta qualidade, destacando-se em avaliações humanas, especialmente em cenários de alta interação." + }, + "meta-llama/llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct é a versão mais recente lançada pela Meta, otimizada para cenários de diálogo de alta qualidade, superando muitos modelos fechados de ponta." + }, + "meta-llama/llama-3.1-8b-instruct:free": { + "description": "LLaMA 3.1 oferece suporte multilíngue e é um dos modelos geradores líderes do setor." + }, + "meta.llama3-1-405b-instruct-v1:0": { + "description": "Meta Llama 3.1 405B Instruct é o maior e mais poderoso modelo da série Llama 3.1 Instruct, sendo um modelo altamente avançado para raciocínio conversacional e geração de dados sintéticos, que também pode ser usado como base para pré-treinamento ou ajuste fino em domínios específicos. Os modelos de linguagem de grande escala (LLMs) multilíngues oferecidos pelo Llama 3.1 são um conjunto de modelos geradores pré-treinados e ajustados por instruções, incluindo tamanhos de 8B, 70B e 405B (entrada/saída de texto). Os modelos de texto ajustados por instruções do Llama 3.1 (8B, 70B, 405B) são otimizados para casos de uso de diálogo multilíngue e superaram muitos modelos de chat de código aberto disponíveis em benchmarks comuns da indústria. O Llama 3.1 é projetado para uso comercial e de pesquisa em várias línguas. Os modelos de texto ajustados por instruções são adequados para chats semelhantes a assistentes, enquanto os modelos pré-treinados podem se adaptar a várias tarefas de geração de linguagem natural. O modelo Llama 3.1 também suporta a utilização de sua saída para melhorar outros modelos, incluindo geração de dados sintéticos e refinamento. O Llama 3.1 é um modelo de linguagem autoregressivo que utiliza uma arquitetura de transformador otimizada. As versões ajustadas utilizam ajuste fino supervisionado (SFT) e aprendizado por reforço com feedback humano (RLHF) para alinhar-se às preferências humanas em relação à utilidade e segurança." + }, + "meta.llama3-1-70b-instruct-v1:0": { + "description": "A versão atualizada do Meta Llama 3.1 70B Instruct, incluindo um comprimento de contexto expandido de 128K, multilinguismo e capacidades de raciocínio aprimoradas. Os modelos de linguagem de grande porte (LLMs) do Llama 3.1 são um conjunto de modelos geradores pré-treinados e ajustados por instruções, incluindo tamanhos de 8B, 70B e 405B (entrada/saída de texto). Os modelos de texto ajustados por instruções do Llama 3.1 (8B, 70B, 405B) são otimizados para casos de uso de diálogo multilíngue e superaram muitos modelos de chat de código aberto disponíveis em benchmarks de indústria comuns. O Llama 3.1 é projetado para uso comercial e de pesquisa em várias línguas. Os modelos de texto ajustados por instruções são adequados para chats semelhantes a assistentes, enquanto os modelos pré-treinados podem se adaptar a várias tarefas de geração de linguagem natural. O modelo Llama 3.1 também suporta a utilização de suas saídas para melhorar outros modelos, incluindo geração de dados sintéticos e refinamento. O Llama 3.1 é um modelo de linguagem autoregressivo usando uma arquitetura de transformador otimizada. As versões ajustadas utilizam ajuste fino supervisionado (SFT) e aprendizado por reforço com feedback humano (RLHF) para alinhar-se às preferências humanas por ajuda e segurança." + }, + "meta.llama3-1-8b-instruct-v1:0": { + "description": "A versão atualizada do Meta Llama 3.1 8B Instruct, incluindo um comprimento de contexto expandido de 128K, multilinguismo e capacidades de raciocínio aprimoradas. Os modelos de linguagem de grande porte (LLMs) do Llama 3.1 são um conjunto de modelos geradores pré-treinados e ajustados por instruções, incluindo tamanhos de 8B, 70B e 405B (entrada/saída de texto). Os modelos de texto ajustados por instruções do Llama 3.1 (8B, 70B, 405B) são otimizados para casos de uso de diálogo multilíngue e superaram muitos modelos de chat de código aberto disponíveis em benchmarks de indústria comuns. O Llama 3.1 é projetado para uso comercial e de pesquisa em várias línguas. Os modelos de texto ajustados por instruções são adequados para chats semelhantes a assistentes, enquanto os modelos pré-treinados podem se adaptar a várias tarefas de geração de linguagem natural. O modelo Llama 3.1 também suporta a utilização de suas saídas para melhorar outros modelos, incluindo geração de dados sintéticos e refinamento. O Llama 3.1 é um modelo de linguagem autoregressivo usando uma arquitetura de transformador otimizada. As versões ajustadas utilizam ajuste fino supervisionado (SFT) e aprendizado por reforço com feedback humano (RLHF) para alinhar-se às preferências humanas por ajuda e segurança." + }, + "meta.llama3-70b-instruct-v1:0": { + "description": "Meta Llama 3 é um modelo de linguagem de grande escala (LLM) aberto voltado para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e expandir suas ideias de IA geradora de forma responsável. Como parte de um sistema de base para inovação da comunidade global, é ideal para criação de conteúdo, IA de diálogo, compreensão de linguagem, P&D e aplicações empresariais." + }, + "meta.llama3-8b-instruct-v1:0": { + "description": "Meta Llama 3 é um modelo de linguagem de grande escala (LLM) aberto voltado para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e expandir suas ideias de IA geradora de forma responsável. Como parte de um sistema de base para inovação da comunidade global, é ideal para dispositivos de borda com capacidade de computação e recursos limitados, além de tempos de treinamento mais rápidos." + }, + "microsoft/wizardlm 2-7b": { + "description": "WizardLM 2 7B é o modelo leve e rápido mais recente da Microsoft AI, com desempenho próximo a 10 vezes o de modelos de código aberto existentes." + }, + "microsoft/wizardlm-2-8x22b": { + "description": "WizardLM-2 8x22B é o modelo Wizard mais avançado da Microsoft, demonstrando um desempenho extremamente competitivo." + }, + "minicpm-v": { + "description": "MiniCPM-V é a nova geração de grandes modelos multimodais lançada pela OpenBMB, com excelente capacidade de reconhecimento de OCR e compreensão multimodal, suportando uma ampla gama de cenários de aplicação." + }, + "mistral": { + "description": "Mistral é um modelo de 7B lançado pela Mistral AI, adequado para demandas de processamento de linguagem variáveis." + }, + "mistral-large": { + "description": "Mixtral Large é o modelo de destaque da Mistral, combinando capacidades de geração de código, matemática e raciocínio, suportando uma janela de contexto de 128k." + }, + "mistral-large-latest": { + "description": "Mistral Large é o modelo de destaque, especializado em tarefas multilíngues, raciocínio complexo e geração de código, sendo a escolha ideal para aplicações de alto nível." + }, + "mistral-nemo": { + "description": "Mistral Nemo é um modelo de 12B desenvolvido em colaboração entre a Mistral AI e a NVIDIA, oferecendo desempenho eficiente." + }, + "mistralai/Mistral-7B-Instruct-v0.1": { + "description": "Mistral (7B) Instruct é conhecido por seu alto desempenho, adequado para diversas tarefas de linguagem." + }, + "mistralai/Mistral-7B-Instruct-v0.2": { + "description": "Mistral 7B é um modelo ajustado sob demanda, oferecendo respostas otimizadas para tarefas." + }, + "mistralai/Mistral-7B-Instruct-v0.3": { + "description": "Mistral (7B) Instruct v0.3 oferece capacidade computacional eficiente e compreensão de linguagem natural, adequada para uma ampla gama de aplicações." + }, + "mistralai/Mixtral-8x22B-Instruct-v0.1": { + "description": "Mixtral-8x22B Instruct (141B) é um super modelo de linguagem, suportando demandas de processamento extremamente altas." + }, + "mistralai/Mixtral-8x7B-Instruct-v0.1": { + "description": "Mixtral 8x7B é um modelo de especialistas esparsos pré-treinados, utilizado para tarefas de texto de uso geral." + }, + "mistralai/mistral-7b-instruct": { + "description": "Mistral 7B Instruct é um modelo de padrão industrial de alto desempenho, com otimização de velocidade e suporte a longos contextos." + }, + "mistralai/mistral-nemo": { + "description": "Mistral Nemo é um modelo de 7.3B parâmetros com suporte multilíngue e programação de alto desempenho." + }, + "mixtral": { + "description": "Mixtral é o modelo de especialistas da Mistral AI, com pesos de código aberto, oferecendo suporte em geração de código e compreensão de linguagem." + }, + "mixtral-8x7b-32768": { + "description": "Mixtral 8x7B oferece alta capacidade de computação paralela com tolerância a falhas, adequado para tarefas complexas." + }, + "mixtral:8x22b": { + "description": "Mixtral é o modelo de especialistas da Mistral AI, com pesos de código aberto, oferecendo suporte em geração de código e compreensão de linguagem." + }, + "moonshot-v1-128k": { + "description": "Moonshot V1 128K é um modelo com capacidade de processamento de contexto ultra longo, adequado para gerar textos muito longos, atendendo a demandas complexas de geração, capaz de lidar com até 128.000 tokens, ideal para pesquisa, acadêmicos e geração de documentos extensos." + }, + "moonshot-v1-32k": { + "description": "Moonshot V1 32K oferece capacidade de processamento de contexto de comprimento médio, capaz de lidar com 32.768 tokens, especialmente adequado para gerar vários documentos longos e diálogos complexos, aplicável em criação de conteúdo, geração de relatórios e sistemas de diálogo." + }, + "moonshot-v1-8k": { + "description": "Moonshot V1 8K é projetado para tarefas de geração de texto curto, com desempenho de processamento eficiente, capaz de lidar com 8.192 tokens, ideal para diálogos curtos, anotações e geração rápida de conteúdo." + }, + "nousresearch/hermes-2-pro-llama-3-8b": { + "description": "Hermes 2 Pro Llama 3 8B é uma versão aprimorada do Nous Hermes 2, contendo os conjuntos de dados mais recentes desenvolvidos internamente." + }, + "o1-mini": { + "description": "o1-mini é um modelo de raciocínio rápido e econômico, projetado para cenários de programação, matemática e ciências. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023." + }, + "o1-preview": { + "description": "o1 é o novo modelo de raciocínio da OpenAI, adequado para tarefas complexas que exigem amplo conhecimento geral. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023." + }, + "open-codestral-mamba": { + "description": "Codestral Mamba é um modelo de linguagem Mamba 2 focado em geração de código, oferecendo forte suporte para tarefas avançadas de codificação e raciocínio." + }, + "open-mistral-7b": { + "description": "Mistral 7B é um modelo compacto, mas de alto desempenho, especializado em processamento em lote e tarefas simples, como classificação e geração de texto, com boa capacidade de raciocínio." + }, + "open-mistral-nemo": { + "description": "Mistral Nemo é um modelo de 12B desenvolvido em colaboração com a Nvidia, oferecendo excelente desempenho em raciocínio e codificação, fácil de integrar e substituir." + }, + "open-mixtral-8x22b": { + "description": "Mixtral 8x22B é um modelo de especialistas maior, focado em tarefas complexas, oferecendo excelente capacidade de raciocínio e maior taxa de transferência." + }, + "open-mixtral-8x7b": { + "description": "Mixtral 8x7B é um modelo de especialistas esparsos, utilizando múltiplos parâmetros para aumentar a velocidade de raciocínio, adequado para tarefas de geração de linguagem e código." + }, + "openai/gpt-4o-2024-08-06": { + "description": "ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais atual. Ele combina forte compreensão e capacidade de geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico." + }, + "openai/gpt-4o-mini": { + "description": "GPT-4o mini é o mais recente modelo da OpenAI, lançado após o GPT-4 Omni, que suporta entrada de texto e imagem e saída de texto. Como seu modelo compacto mais avançado, é muito mais barato do que outros modelos de ponta recentes e custa mais de 60% menos que o GPT-3.5 Turbo. Ele mantém inteligência de ponta, ao mesmo tempo que oferece uma relação custo-benefício significativa. O GPT-4o mini obteve uma pontuação de 82% no teste MMLU e atualmente está classificado acima do GPT-4 em preferências de chat." + }, + "openai/o1-mini": { + "description": "o1-mini é um modelo de raciocínio rápido e econômico, projetado para cenários de programação, matemática e ciências. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023." + }, + "openai/o1-preview": { + "description": "o1 é o novo modelo de raciocínio da OpenAI, adequado para tarefas complexas que exigem amplo conhecimento geral. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023." + }, + "openchat/openchat-7b": { + "description": "OpenChat 7B é uma biblioteca de modelos de linguagem de código aberto ajustada com a estratégia de 'C-RLFT (refinamento de aprendizado por reforço condicional)'." + }, + "openrouter/auto": { + "description": "Com base no comprimento do contexto, tema e complexidade, sua solicitação será enviada para Llama 3 70B Instruct, Claude 3.5 Sonnet (autoajustável) ou GPT-4o." + }, + "phi3": { + "description": "Phi-3 é um modelo leve e aberto lançado pela Microsoft, adequado para integração eficiente e raciocínio de conhecimento em larga escala." + }, + "phi3:14b": { + "description": "Phi-3 é um modelo leve e aberto lançado pela Microsoft, adequado para integração eficiente e raciocínio de conhecimento em larga escala." + }, + "qwen-long": { + "description": "O Qwen é um modelo de linguagem em larga escala que suporta contextos de texto longos e funcionalidades de diálogo baseadas em documentos longos e múltiplos cenários." + }, + "qwen-max": { + "description": "O Qwen é um modelo de linguagem em larga escala com trilhões de parâmetros, suportando entradas em diferentes idiomas, incluindo chinês e inglês, atualmente a versão do produto Qwen 2.5 por trás do modelo API." + }, + "qwen-max-longcontext": { + "description": "O Qwen é um modelo de linguagem em larga escala com trilhões de parâmetros, suportando entradas em diferentes idiomas, incluindo chinês e inglês, com uma janela de contexto expandida." + }, + "qwen-plus": { + "description": "O Qwen é uma versão aprimorada do modelo de linguagem em larga escala, suportando entradas em diferentes idiomas, incluindo chinês e inglês." + }, + "qwen-turbo": { + "description": "O Qwen é um modelo de linguagem em larga escala que suporta entradas em diferentes idiomas, incluindo chinês e inglês." + }, + "qwen-vl-chat-v1": { + "description": "O Qwen VL suporta uma maneira de interação flexível, incluindo múltiplas imagens, perguntas e respostas em várias rodadas, e capacidades criativas." + }, + "qwen-vl-max": { + "description": "O Qwen é um modelo de linguagem visual em larga escala. Em comparação com a versão aprimorada, ele melhora ainda mais a capacidade de raciocínio visual e a adesão a instruções, oferecendo um nível mais alto de percepção e cognição visual." + }, + "qwen-vl-plus": { + "description": "O Qwen é uma versão aprimorada do modelo de linguagem visual em larga escala, melhorando significativamente a capacidade de reconhecimento de detalhes e texto, suportando imagens com resolução superior a um milhão de pixels e qualquer proporção de largura e altura." + }, + "qwen-vl-v1": { + "description": "Inicializado com o modelo de linguagem Qwen-7B, adicionando um modelo de imagem, um modelo pré-treinado com resolução de entrada de imagem de 448." + }, + "qwen/qwen-2-7b-instruct:free": { + "description": "Qwen2 é uma nova série de grandes modelos de linguagem, com capacidades de compreensão e geração mais robustas." + }, + "qwen2": { + "description": "Qwen2 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação." + }, + "qwen2-57b-a14b-instruct": { + "description": "O Qwen2 é um modelo de 57B de código aberto com 14B de parâmetros ativados do MOE." + }, + "qwen2-72b-instruct": { + "description": "O Qwen2 é um modelo de 72B de código aberto." + }, + "qwen2-7b-instruct": { + "description": "O Qwen2 é um modelo de 7B de código aberto." + }, + "qwen2-math-72b-instruct": { + "description": "O modelo Qwen2-Math possui uma forte capacidade de resolução de problemas matemáticos." + }, + "qwen2:0.5b": { + "description": "Qwen2 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação." + }, + "qwen2:1.5b": { + "description": "Qwen2 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação." + }, + "qwen2:72b": { + "description": "Qwen2 é a nova geração de modelo de linguagem em larga escala da Alibaba, oferecendo desempenho excepcional para atender a diversas necessidades de aplicação." + }, + "solar-1-mini-chat": { + "description": "Solar Mini é um LLM compacto, com desempenho superior ao GPT-3.5, possuindo forte capacidade multilíngue, suportando inglês e coreano, oferecendo uma solução eficiente e compacta." + }, + "solar-1-mini-chat-ja": { + "description": "Solar Mini (Ja) expande as capacidades do Solar Mini, focando no japonês, enquanto mantém eficiência e desempenho excepcional no uso do inglês e coreano." + }, + "solar-pro": { + "description": "Solar Pro é um LLM de alta inteligência lançado pela Upstage, focado na capacidade de seguir instruções em um único GPU, com pontuação IFEval acima de 80. Atualmente suporta inglês, com uma versão oficial planejada para lançamento em novembro de 2024, que expandirá o suporte a idiomas e comprimento de contexto." + }, + "step-1-128k": { + "description": "Equilibra desempenho e custo, adequado para cenários gerais." + }, + "step-1-256k": { + "description": "Possui capacidade de processamento de contexto ultra longo, especialmente adequado para análise de documentos longos." + }, + "step-1-32k": { + "description": "Suporta diálogos de comprimento médio, adequado para diversas aplicações." + }, + "step-1-8k": { + "description": "Modelo pequeno, adequado para tarefas leves." + }, + "step-1-flash": { + "description": "Modelo de alta velocidade, adequado para diálogos em tempo real." + }, + "step-1v-32k": { + "description": "Suporta entradas visuais, aprimorando a experiência de interação multimodal." + }, + "step-1v-8k": { + "description": "Modelo visual compacto, adequado para tarefas básicas de texto e imagem." + }, + "step-2-16k": { + "description": "Suporta interações de contexto em larga escala, adequado para cenários de diálogo complexos." + }, + "taichu_llm": { + "description": "O modelo de linguagem Taichu possui uma forte capacidade de compreensão de linguagem, além de habilidades em criação de texto, perguntas e respostas, programação de código, cálculos matemáticos, raciocínio lógico, análise de sentimentos e resumo de texto. Inova ao combinar pré-treinamento com grandes dados e conhecimento rico de múltiplas fontes, aprimorando continuamente a tecnologia de algoritmos e absorvendo novos conhecimentos de vocabulário, estrutura, gramática e semântica de grandes volumes de dados textuais, proporcionando aos usuários informações e serviços mais convenientes e uma experiência mais inteligente." + }, + "togethercomputer/StripedHyena-Nous-7B": { + "description": "StripedHyena Nous (7B) oferece capacidade de computação aprimorada através de estratégias e arquiteturas de modelo eficientes." + }, + "upstage/SOLAR-10.7B-Instruct-v1.0": { + "description": "Upstage SOLAR Instruct v1 (11B) é adequado para tarefas de instrução refinadas, oferecendo excelente capacidade de processamento de linguagem." + }, + "wizardlm2": { + "description": "WizardLM 2 é um modelo de linguagem fornecido pela Microsoft AI, destacando-se em diálogos complexos, multilíngue, raciocínio e assistentes inteligentes." + }, + "wizardlm2:8x22b": { + "description": "WizardLM 2 é um modelo de linguagem fornecido pela Microsoft AI, destacando-se em diálogos complexos, multilíngue, raciocínio e assistentes inteligentes." + }, + "yi-large": { + "description": "Modelo de nova geração com trilhões de parâmetros, oferecendo capacidades excepcionais de perguntas e respostas e geração de texto." + }, + "yi-large-fc": { + "description": "Baseado no modelo yi-large, suporta e aprimora a capacidade de chamadas de ferramentas, adequado para diversos cenários de negócios que exigem a construção de agentes ou fluxos de trabalho." + }, + "yi-large-preview": { + "description": "Versão inicial, recomenda-se o uso do yi-large (nova versão)." + }, + "yi-large-rag": { + "description": "Serviço de alto nível baseado no modelo yi-large, combinando técnicas de recuperação e geração para fornecer respostas precisas, com serviços de busca em tempo real na web." + }, + "yi-large-turbo": { + "description": "Excelente relação custo-benefício e desempenho excepcional. Ajuste de alta precisão baseado em desempenho, velocidade de raciocínio e custo." + }, + "yi-medium": { + "description": "Modelo de tamanho médio com ajuste fino, equilibrando capacidades e custo. Otimização profunda da capacidade de seguir instruções." + }, + "yi-medium-200k": { + "description": "Janela de contexto ultra longa de 200K, oferecendo compreensão e geração de texto em profundidade." + }, + "yi-spark": { + "description": "Modelo leve e ágil. Oferece capacidades aprimoradas de cálculos matemáticos e escrita de código." + }, + "yi-vision": { + "description": "Modelo para tarefas visuais complexas, oferecendo alta performance em compreensão e análise de imagens." + } +} diff --git a/locales/pt-BR/providers.json b/locales/pt-BR/providers.json new file mode 100644 index 000000000000..00e1889ad099 --- /dev/null +++ b/locales/pt-BR/providers.json @@ -0,0 +1,80 @@ +{ + "ai360": { + "description": "360 AI é a plataforma de modelos e serviços de IA lançada pela empresa 360, oferecendo uma variedade de modelos avançados de processamento de linguagem natural, incluindo 360GPT2 Pro, 360GPT Pro, 360GPT Turbo e 360GPT Turbo Responsibility 8K. Esses modelos combinam grandes parâmetros e capacidades multimodais, sendo amplamente aplicados em geração de texto, compreensão semântica, sistemas de diálogo e geração de código. Com uma estratégia de preços flexível, a 360 AI atende a diversas necessidades dos usuários, apoiando a integração de desenvolvedores e promovendo a inovação e o desenvolvimento de aplicações inteligentes." + }, + "anthropic": { + "description": "A Anthropic é uma empresa focada em pesquisa e desenvolvimento de inteligência artificial, oferecendo uma gama de modelos de linguagem avançados, como Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus e Claude 3 Haiku. Esses modelos alcançam um equilíbrio ideal entre inteligência, velocidade e custo, adequando-se a uma variedade de cenários de aplicação, desde cargas de trabalho empresariais até respostas rápidas. O Claude 3.5 Sonnet, como seu modelo mais recente, se destacou em várias avaliações, mantendo uma alta relação custo-benefício." + }, + "azure": { + "description": "Azure oferece uma variedade de modelos avançados de IA, incluindo GPT-3.5 e a mais recente série GPT-4, suportando diversos tipos de dados e tarefas complexas, com foco em soluções de IA seguras, confiáveis e sustentáveis." + }, + "baichuan": { + "description": "Baichuan Intelligent é uma empresa focada no desenvolvimento de grandes modelos de inteligência artificial, cujos modelos se destacam em tarefas em chinês, como enciclopédias de conhecimento, processamento de textos longos e criação de conteúdo, superando modelos mainstream estrangeiros. A Baichuan Intelligent também possui capacidades multimodais líderes do setor, destacando-se em várias avaliações de autoridade. Seus modelos incluem Baichuan 4, Baichuan 3 Turbo e Baichuan 3 Turbo 128k, otimizados para diferentes cenários de aplicação, oferecendo soluções com alta relação custo-benefício." + }, + "bedrock": { + "description": "Bedrock é um serviço oferecido pela Amazon AWS, focado em fornecer modelos de linguagem e visão de IA avançados para empresas. Sua família de modelos inclui a série Claude da Anthropic, a série Llama 3.1 da Meta, entre outros, abrangendo uma variedade de opções, desde modelos leves até de alto desempenho, suportando geração de texto, diálogos, processamento de imagens e outras tarefas, adequando-se a aplicações empresariais de diferentes escalas e necessidades." + }, + "deepseek": { + "description": "A DeepSeek é uma empresa focada em pesquisa e aplicação de tecnologia de inteligência artificial, cujo modelo mais recente, DeepSeek-V2.5, combina capacidades de diálogo geral e processamento de código, alcançando melhorias significativas em alinhamento com preferências humanas, tarefas de escrita e seguimento de instruções." + }, + "fireworksai": { + "description": "Fireworks AI é um fornecedor líder de serviços de modelos de linguagem avançados, focando em chamadas de função e processamento multimodal. Seu modelo mais recente, Firefunction V2, baseado em Llama-3, é otimizado para chamadas de função, diálogos e seguimento de instruções. O modelo de linguagem visual FireLLaVA-13B suporta entradas mistas de imagem e texto. Outros modelos notáveis incluem a série Llama e a série Mixtral, oferecendo suporte eficiente para seguimento e geração de instruções multilíngues." + }, + "google": { + "description": "A série Gemini do Google é seu modelo de IA mais avançado e versátil, desenvolvido pela Google DeepMind, projetado para ser multimodal, suportando compreensão e processamento sem costura de texto, código, imagens, áudio e vídeo. Adequado para uma variedade de ambientes, desde data centers até dispositivos móveis, melhorando significativamente a eficiência e a aplicabilidade dos modelos de IA." + }, + "groq": { + "description": "O motor de inferência LPU da Groq se destacou em testes de benchmark independentes de modelos de linguagem de grande escala (LLM), redefinindo os padrões de soluções de IA com sua velocidade e eficiência impressionantes. A Groq representa uma velocidade de inferência em tempo real, demonstrando bom desempenho em implantações baseadas em nuvem." + }, + "minimax": { + "description": "MiniMax é uma empresa de tecnologia de inteligência artificial geral fundada em 2021, dedicada a co-criar inteligência com os usuários. A MiniMax desenvolveu internamente diferentes modelos gerais de grande escala, incluindo um modelo de texto MoE com trilhões de parâmetros, um modelo de voz e um modelo de imagem. Também lançou aplicações como Conch AI." + }, + "mistral": { + "description": "A Mistral oferece modelos avançados gerais, especializados e de pesquisa, amplamente utilizados em raciocínio complexo, tarefas multilíngues, geração de código, entre outros, permitindo que os usuários integrem funcionalidades personalizadas por meio de interfaces de chamada de função." + }, + "moonshot": { + "description": "Moonshot é uma plataforma de código aberto lançada pela Beijing Dark Side Technology Co., Ltd., oferecendo uma variedade de modelos de processamento de linguagem natural, com ampla gama de aplicações, incluindo, mas não se limitando a, criação de conteúdo, pesquisa acadêmica, recomendações inteligentes e diagnósticos médicos, suportando processamento de textos longos e tarefas de geração complexas." + }, + "novita": { + "description": "Novita AI é uma plataforma que oferece uma variedade de modelos de linguagem de grande escala e serviços de geração de imagens de IA, sendo flexível, confiável e econômica. Suporta os mais recentes modelos de código aberto, como Llama3 e Mistral, e fornece soluções de API abrangentes, amigáveis ao usuário e escaláveis para o desenvolvimento de aplicações de IA, adequadas para o rápido crescimento de startups de IA." + }, + "ollama": { + "description": "Os modelos oferecidos pela Ollama abrangem amplamente áreas como geração de código, operações matemáticas, processamento multilíngue e interações de diálogo, atendendo a diversas necessidades de implantação em nível empresarial e local." + }, + "openai": { + "description": "OpenAI é uma das principais instituições de pesquisa em inteligência artificial do mundo, cujos modelos, como a série GPT, estão na vanguarda do processamento de linguagem natural. A OpenAI se dedica a transformar vários setores por meio de soluções de IA inovadoras e eficientes. Seus produtos apresentam desempenho e custo-benefício significativos, sendo amplamente utilizados em pesquisa, negócios e aplicações inovadoras." + }, + "openrouter": { + "description": "OpenRouter é uma plataforma de serviço que oferece interfaces para diversos modelos de ponta, suportando OpenAI, Anthropic, LLaMA e mais, adequada para diversas necessidades de desenvolvimento e aplicação. Os usuários podem escolher flexivelmente o modelo e o preço mais adequados às suas necessidades, melhorando a experiência de IA." + }, + "perplexity": { + "description": "Perplexity é um fornecedor líder de modelos de geração de diálogo, oferecendo uma variedade de modelos avançados Llama 3.1, suportando aplicações online e offline, especialmente adequados para tarefas complexas de processamento de linguagem natural." + }, + "qwen": { + "description": "Qwen é um modelo de linguagem de grande escala desenvolvido pela Alibaba Cloud, com forte capacidade de compreensão e geração de linguagem natural. Ele pode responder a várias perguntas, criar conteúdo escrito, expressar opiniões e escrever código, atuando em vários campos." + }, + "siliconcloud": { + "description": "SiliconFlow se dedica a acelerar a AGI para beneficiar a humanidade, melhorando a eficiência da IA em larga escala por meio de uma pilha GenAI fácil de usar e de baixo custo." + }, + "spark": { + "description": "O modelo Spark da iFlytek oferece poderosas capacidades de IA em múltiplos domínios e idiomas, utilizando tecnologia avançada de processamento de linguagem natural para construir aplicações inovadoras adequadas a cenários verticais como hardware inteligente, saúde inteligente e finanças inteligentes." + }, + "stepfun": { + "description": "O modelo StepFun possui capacidades de multimodalidade e raciocínio complexo líderes do setor, suportando compreensão de textos longos e um poderoso mecanismo de busca autônomo." + }, + "taichu": { + "description": "O Instituto de Automação da Academia Chinesa de Ciências e o Instituto de Pesquisa em Inteligência Artificial de Wuhan lançaram uma nova geração de grandes modelos multimodais, suportando tarefas abrangentes de perguntas e respostas, criação de texto, geração de imagens, compreensão 3D, análise de sinais, entre outras, com capacidades cognitivas, de compreensão e criação mais fortes, proporcionando uma nova experiência interativa." + }, + "togetherai": { + "description": "A Together AI se dedica a alcançar desempenho de ponta por meio de modelos de IA inovadores, oferecendo amplas capacidades de personalização, incluindo suporte para escalabilidade rápida e processos de implantação intuitivos, atendendo a diversas necessidades empresariais." + }, + "upstage": { + "description": "Upstage se concentra no desenvolvimento de modelos de IA para diversas necessidades comerciais, incluindo Solar LLM e Document AI, visando alcançar uma inteligência geral artificial (AGI) que funcione. Crie agentes de diálogo simples por meio da API de Chat e suporte chamadas de função, tradução, incorporação e aplicações em domínios específicos." + }, + "zeroone": { + "description": "01.AI se concentra na tecnologia de inteligência artificial da era 2.0, promovendo fortemente a inovação e aplicação de 'humano + inteligência artificial', utilizando modelos poderosos e tecnologia de IA avançada para aumentar a produtividade humana e realizar a capacitação tecnológica." + }, + "zhipu": { + "description": "Zhipu AI oferece uma plataforma aberta para modelos multimodais e de linguagem, suportando uma ampla gama de cenários de aplicação de IA, incluindo processamento de texto, compreensão de imagens e assistência em programação." + } +} diff --git a/locales/ru-RU/common.json b/locales/ru-RU/common.json index 3af12af83b34..dfb77b63f043 100644 --- a/locales/ru-RU/common.json +++ b/locales/ru-RU/common.json @@ -195,8 +195,8 @@ }, "tab": { "chat": "Чат", + "discover": "Открыть", "files": "Файлы", - "market": "Обзор", "me": "я", "setting": "Настройки" }, diff --git a/locales/ru-RU/discover.json b/locales/ru-RU/discover.json new file mode 100644 index 000000000000..1259a910fb9a --- /dev/null +++ b/locales/ru-RU/discover.json @@ -0,0 +1,204 @@ +{ + "assistants": { + "addAgent": "Добавить помощника", + "addAgentAndConverse": "Добавить помощника и начать беседу", + "addAgentSuccess": "Успешно добавлено", + "conversation": { + "l1": "Привет, я **{{name}}**, вы можете задавать мне любые вопросы, и я постараюсь на них ответить ~", + "l2": "Вот мои возможности: ", + "l3": "Давайте начнем беседу!" + }, + "description": "Описание помощника", + "detail": "Детали", + "list": "Список помощников", + "more": "Больше", + "plugins": "Интеграция плагинов", + "recentSubmits": "Недавние обновления", + "suggestions": "Рекомендуемые", + "systemRole": "Настройки помощника", + "try": "Попробовать" + }, + "back": "Вернуться к открытиям", + "category": { + "assistant": { + "academic": "Академический", + "all": "Все", + "career": "Карьера", + "copywriting": "Копирайтинг", + "design": "Дизайн", + "education": "Образование", + "emotions": "Эмоции", + "entertainment": "Развлечения", + "games": "Игры", + "general": "Общее", + "life": "Жизнь", + "marketing": "Маркетинг", + "office": "Офис", + "programming": "Программирование", + "translation": "Перевод" + }, + "plugin": { + "all": "Все", + "gaming-entertainment": "Игры и развлечения", + "life-style": "Стиль жизни", + "media-generate": "Генерация медиа", + "science-education": "Наука и образование", + "social": "Социальные медиа", + "stocks-finance": "Финансовые рынки", + "tools": "Полезные инструменты", + "web-search": "Веб-поиск" + } + }, + "cleanFilter": "Очистить фильтр", + "create": "Создать", + "createGuide": { + "func1": { + "desc1": "В окне беседы перейдите в настройки, нажав на значок в правом верхнем углу, чтобы попасть на страницу настроек помощника;", + "desc2": "Нажмите кнопку 'Отправить на рынок помощников' в правом верхнем углу.", + "tag": "Метод 1", + "title": "Отправить через LobeChat" + }, + "func2": { + "button": "Перейти в репозиторий помощников на Github", + "desc": "Если вы хотите добавить помощника в индекс, создайте запись с помощью agent-template.json или agent-template-full.json в каталоге plugins, напишите краткое описание и соответствующие теги, затем создайте запрос на слияние.", + "tag": "Метод 2", + "title": "Отправить через Github" + } + }, + "dislike": "Не нравится", + "filter": "Фильтр", + "filterBy": { + "authorRange": { + "everyone": "Все авторы", + "followed": "Подписанные авторы", + "title": "Диапазон авторов" + }, + "contentLength": "Минимальная длина контекста", + "maxToken": { + "title": "Установить максимальную длину (Token)", + "unlimited": "Без ограничений" + }, + "other": { + "functionCall": "Поддержка вызова функций", + "title": "Другие", + "vision": "Поддержка визуального распознавания", + "withKnowledge": "С включенной базой знаний", + "withTool": "С включенным плагином" + }, + "pricing": "Цена модели", + "timePeriod": { + "all": "Все время", + "day": "Последние 24 часа", + "month": "Последние 30 дней", + "title": "Период времени", + "week": "Последние 7 дней", + "year": "Последний год" + } + }, + "home": { + "featuredAssistants": "Рекомендуемые помощники", + "featuredModels": "Рекомендуемые модели", + "featuredProviders": "Рекомендуемые поставщики моделей", + "featuredTools": "Рекомендуемые плагины", + "more": "Узнать больше" + }, + "like": "Нравится", + "models": { + "chat": "Начать беседу", + "contentLength": "Максимальная длина контекста", + "free": "Бесплатно", + "guide": "Руководство по настройке", + "list": "Список моделей", + "more": "Больше", + "parameterList": { + "defaultValue": "Значение по умолчанию", + "docs": "Посмотреть документацию", + "frequency_penalty": { + "desc": "Эта настройка регулирует частоту повторного использования определенных слов, уже появившихся во входных данных. Более высокие значения снижают вероятность такого повторения, в то время как отрицательные значения имеют противоположный эффект. Штраф за слова не увеличивается с увеличением частоты появления. Отрицательные значения будут поощрять повторное использование слов.", + "title": "Штраф за частоту" + }, + "max_tokens": { + "desc": "Эта настройка определяет максимальную длину, которую модель может сгенерировать за один ответ. Установка более высокого значения позволяет модели генерировать более длинные ответы, в то время как более низкое значение ограничивает длину ответа, делая его более кратким. В зависимости от различных сценариев использования разумная настройка этого значения может помочь достичь ожидаемой длины и степени детализации ответа.", + "title": "Ограничение на один ответ" + }, + "presence_penalty": { + "desc": "Эта настройка предназначена для контроля повторного использования слов в зависимости от их частоты появления во входных данных. Она пытается реже использовать те слова, которые встречаются чаще, пропорционально их частоте. Штраф за слова увеличивается с увеличением частоты появления. Отрицательные значения будут поощрять повторное использование слов.", + "title": "Свежесть темы" + }, + "range": "Диапазон", + "temperature": { + "desc": "Эта настройка влияет на разнообразие ответов модели. Более низкие значения приводят к более предсказуемым и типичным ответам, в то время как более высокие значения поощряют более разнообразные и необычные ответы. Когда значение установлено на 0, модель всегда дает один и тот же ответ на данный ввод.", + "title": "Случайность" + }, + "title": "Параметры модели", + "top_p": { + "desc": "Эта настройка ограничивает выбор модели до определенного процента наиболее вероятных слов: выбираются только те слова, которые достигают накопленной вероятности P. Более низкие значения делают ответы модели более предсказуемыми, в то время как значение по умолчанию позволяет модели выбирать из всего диапазона слов.", + "title": "Ядерная выборка" + }, + "type": "Тип" + }, + "providerInfo": { + "apiTooltip": "LobeChat поддерживает использование пользовательского API-ключа для этого поставщика.", + "input": "Цена ввода", + "inputTooltip": "Стоимость за миллион токенов", + "latency": "Задержка", + "latencyTooltip": "Среднее время ответа поставщика на первый токен", + "maxOutput": "Максимальная длина вывода", + "maxOutputTooltip": "Максимальное количество токенов, которые может сгенерировать эта конечная точка", + "officialTooltip": "Официальный сервис LobeHub", + "output": "Цена вывода", + "outputTooltip": "Стоимость за миллион токенов", + "streamCancellationTooltip": "Этот поставщик поддерживает функцию отмены потока.", + "throughput": "Пропускная способность", + "throughputTooltip": "Среднее количество токенов, передаваемых в секунду для потоковых запросов" + }, + "suggestions": "Связанные модели", + "supportedProviders": "Поставщики, поддерживающие эту модель" + }, + "plugins": { + "community": "Сообщество плагинов", + "install": "Установить плагин", + "installed": "Установлено", + "list": "Список плагинов", + "meta": { + "description": "Описание", + "parameter": "Параметр", + "title": "Параметры инструмента", + "type": "Тип" + }, + "more": "Больше", + "official": "Официальные плагины", + "recentSubmits": "Недавние обновления", + "suggestions": "Рекомендуемые" + }, + "providers": { + "config": "Конфигурация провайдера", + "list": "Список поставщиков моделей", + "modelCount": "{{count}} моделей", + "modelSite": "Документация модели", + "more": "Больше", + "officialSite": "Официальный сайт", + "showAllModels": "Показать все модели", + "suggestions": "Связанные провайдеры", + "supportedModels": "Поддерживаемые модели" + }, + "search": { + "placeholder": "Поиск по названию или ключевым словам...", + "result": "{{count}} результатов поиска по {{keyword}}", + "searching": "Поиск..." + }, + "sort": { + "mostLiked": "Наиболее понравившиеся", + "mostUsed": "Наиболее используемые", + "newest": "Сначала новые", + "oldest": "Сначала старые", + "recommended": "Рекомендуемые" + }, + "tab": { + "assistants": "Ассистенты", + "home": "Главная", + "models": "Модели", + "plugins": "Плагины", + "providers": "Поставщики моделей" + } +} diff --git a/locales/ru-RU/metadata.json b/locales/ru-RU/metadata.json index 79a26aaa4e02..d5ac78f4701e 100644 --- a/locales/ru-RU/metadata.json +++ b/locales/ru-RU/metadata.json @@ -3,9 +3,26 @@ "description": "{{appName}} предлагает вам лучший опыт использования ChatGPT, Claude, Gemini и OLLaMA WebUI", "title": "{{appName}}: личный инструмент AI для повышения эффективности, дайте себе более умный мозг" }, - "market": { - "description": "Создание контента, копирайтинг, вопросы и ответы, генерация изображений, генерация видео, генерация речи, интеллектуальные агенты, автоматизация рабочих процессов, настройте своего персонального AI помощника", - "title": "Рынок помощников" + "discover": { + "assistants": { + "description": "Создание контента, копирайтинг, вопросы и ответы, генерация изображений, генерация видео, генерация речи, интеллектуальные агенты, автоматизированные рабочие процессы, настройка вашего собственного AI / GPTs / OLLaMA интеллектуального помощника", + "title": "AI помощники" + }, + "description": "Создание контента, копирайтинг, вопросы и ответы, генерация изображений, генерация видео, генерация речи, интеллектуальные агенты, автоматизированные рабочие процессы, настройка AI приложений, настройка вашего собственного рабочего стола AI приложений", + "models": { + "description": "Изучите основные AI модели OpenAI / GPT / Claude 3 / Gemini / Ollama / Azure / DeepSeek", + "title": "AI модели" + }, + "plugins": { + "description": "Ищите генерацию графиков, научные исследования, генерацию изображений, генерацию видео, генерацию речи и автоматизированные рабочие процессы, интегрируя богатые возможности плагинов для вашего помощника.", + "title": "AI плагины" + }, + "providers": { + "description": "Изучите основных поставщиков моделей OpenAI / Qwen / Ollama / Anthropic / DeepSeek / Google Gemini / OpenRouter", + "title": "Поставщики AI моделей" + }, + "search": "Поиск", + "title": "Открыть" }, "plugins": { "description": "Поиск, генерация графиков, академические исследования, генерация изображений, генерация видео, генерация речи, автоматизация рабочих процессов, настройте возможности ToolCall для ChatGPT / Claude", diff --git a/locales/ru-RU/models.json b/locales/ru-RU/models.json new file mode 100644 index 000000000000..4c8ec1ed6e50 --- /dev/null +++ b/locales/ru-RU/models.json @@ -0,0 +1,845 @@ +{ + "01-ai/Yi-1.5-34B-Chat-16K": { + "description": "Yi-1.5 34B, с богатым набором обучающих образцов, демонстрирует превосходные результаты в отраслевых приложениях." + }, + "01-ai/Yi-1.5-6B-Chat": { + "description": "Yi-1.5 — это эволюционная версия серии Yi, обладающая высококачественным предобучением и богатым набором данных для дообучения." + }, + "01-ai/Yi-1.5-9B-Chat-16K": { + "description": "Yi-1.5 9B поддерживает 16K токенов, обеспечивая эффективные и плавные возможности генерации языка." + }, + "360gpt-pro": { + "description": "360GPT Pro, как важный член серии моделей AI от 360, удовлетворяет разнообразные приложения обработки текста с высокой эффективностью, поддерживает понимание длинных текстов и многораундные диалоги." + }, + "360gpt-turbo": { + "description": "360GPT Turbo предлагает мощные вычислительные и диалоговые возможности, обладает выдающимся пониманием семантики и эффективностью генерации, что делает его идеальным решением для интеллектуальных помощников для предприятий и разработчиков." + }, + "360gpt-turbo-responsibility-8k": { + "description": "360GPT Turbo Responsibility 8K акцентирует внимание на семантической безопасности и ответственности, специально разработан для приложений с высокими требованиями к безопасности контента, обеспечивая точность и надежность пользовательского опыта." + }, + "360gpt2-pro": { + "description": "360GPT2 Pro — это продвинутая модель обработки естественного языка, выпущенная компанией 360, обладающая выдающимися способностями к генерации и пониманию текста, особенно в области генерации и творчества, способная обрабатывать сложные языковые преобразования и ролевые задачи." + }, + "4.0Ultra": { + "description": "Spark4.0 Ultra — это самая мощная версия в серии больших моделей Xinghuo, которая, обновив сетевые поисковые связи, улучшает понимание и обобщение текстового контента. Это всестороннее решение для повышения производительности в офисе и точного реагирования на запросы, являющееся ведущим интеллектуальным продуктом в отрасли." + }, + "Baichuan2-Turbo": { + "description": "Использует технологии улучшенного поиска для полной связи между большой моделью и отраслевыми знаниями, а также знаниями из сети. Поддерживает загрузку различных документов, таких как PDF и Word, а также ввод URL, обеспечивая своевременное и полное получение информации с точными и профессиональными результатами." + }, + "Baichuan3-Turbo": { + "description": "Оптимизирован для высокочастотных корпоративных сценариев, значительно улучшает результаты и предлагает высокую стоимость. По сравнению с моделью Baichuan2, создание контента увеличилось на 20%, ответы на вопросы на 17%, а способности ролевого взаимодействия на 40%. Общая эффективность лучше, чем у GPT3.5." + }, + "Baichuan3-Turbo-128k": { + "description": "Обладает 128K сверхдлинным контекстным окном, оптимизированным для высокочастотных корпоративных сценариев, значительно улучшает результаты и предлагает высокую стоимость. По сравнению с моделью Baichuan2, создание контента увеличилось на 20%, ответы на вопросы на 17%, а способности ролевого взаимодействия на 40%. Общая эффективность лучше, чем у GPT3.5." + }, + "Baichuan4": { + "description": "Модель обладает лучшими возможностями в стране, превосходя зарубежные модели в задачах на знание, длинные тексты и генерацию контента. Также обладает передовыми мультимодальными возможностями и показывает отличные результаты в нескольких авторитетных тестах." + }, + "Gryphe/MythoMax-L2-13b": { + "description": "MythoMax-L2 (13B) — это инновационная модель, подходящая для многообластных приложений и сложных задач." + }, + "Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Hermes 2 Mixtral 8x7B DPO — это высокоадаптивная многомодельная комбинация, предназначенная для предоставления выдающегося творческого опыта." + }, + "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) — это высокоточная модель команд, подходящая для сложных вычислений." + }, + "NousResearch/Nous-Hermes-2-Yi-34B": { + "description": "Nous Hermes-2 Yi (34B) предлагает оптимизированный языковой вывод и разнообразные возможности применения." + }, + "Pro-128k": { + "description": "Spark Pro-128K оснащен возможностями обработки контекста большого объема, способным обрабатывать до 128K контекстной информации, особенно подходит для анализа длинных текстов и обработки долгосрочных логических связей, обеспечивая плавную и последовательную логику и разнообразную поддержку ссылок в сложных текстовых коммуникациях." + }, + "Qwen/Qwen1.5-110B-Chat": { + "description": "Как тестовая версия Qwen2, Qwen1.5 использует большие объемы данных для достижения более точных диалоговых функций." + }, + "Qwen/Qwen1.5-14B-Chat": { + "description": "Qwen1.5, обученный на больших наборах данных, хорошо справляется со сложными языковыми задачами." + }, + "Qwen/Qwen1.5-32B-Chat": { + "description": "Qwen1.5 обладает способностями к многопрофильным ответам на вопросы и генерации текстов." + }, + "Qwen/Qwen1.5-72B-Chat": { + "description": "Qwen 1.5 Chat (72B) обеспечивает быстрые ответы и естественные диалоговые возможности, подходящие для многоязычной среды." + }, + "Qwen/Qwen1.5-7B-Chat": { + "description": "Qwen1.5 улучшает способности диалогового выражения, сочетая высококачественное предобучение и дообучение." + }, + "Qwen/Qwen2-1.5B-Instruct": { + "description": "Qwen2 — это новая серия крупных языковых моделей, предназначенная для оптимизации обработки инструктивных задач." + }, + "Qwen/Qwen2-57B-A14B-Instruct": { + "description": "Qwen2 — это новая серия, модель 57B A14B показывает выдающиеся результаты в инструктивных задачах." + }, + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 — это передовая универсальная языковая модель, поддерживающая множество типов команд." + }, + "Qwen/Qwen2-7B-Instruct": { + "description": "Qwen2 — это новая серия крупных языковых моделей с более сильными способностями к пониманию и генерации." + }, + "Qwen/Qwen2-Math-72B-Instruct": { + "description": "Qwen2-Math сосредоточен на решении математических задач, предоставляя профессиональные ответы на сложные вопросы." + }, + "THUDM/chatglm3-6b": { + "description": "ChatGLM3, как двуязычная языковая модель, может обрабатывать задачи по преобразованию между китайским и английским языками." + }, + "THUDM/glm-4-9b-chat": { + "description": "GLM-4 9B — это открытая версия, обеспечивающая оптимизированный диалоговый опыт для приложений." + }, + "abab5.5-chat": { + "description": "Ориентирован на производственные сценарии, поддерживает обработку сложных задач и эффективную генерацию текста, подходит для профессиональных приложений." + }, + "abab5.5s-chat": { + "description": "Специально разработан для диалогов на китайском языке, обеспечивая высококачественную генерацию диалогов на китайском, подходит для различных приложений." + }, + "abab6.5g-chat": { + "description": "Специально разработан для многоязычных диалогов, поддерживает высококачественную генерацию диалогов на английском и других языках." + }, + "abab6.5s-chat": { + "description": "Подходит для широкого спектра задач обработки естественного языка, включая генерацию текста, диалоговые системы и т.д." + }, + "abab6.5t-chat": { + "description": "Оптимизирован для диалогов на китайском языке, обеспечивая плавную генерацию диалогов, соответствующую китайским языковым привычкам." + }, + "accounts/fireworks/models/firefunction-v1": { + "description": "Открытая модель вызова функций от Fireworks, обеспечивающая выдающиеся возможности выполнения команд и открытые настраиваемые функции." + }, + "accounts/fireworks/models/firefunction-v2": { + "description": "Firefunction-v2 от компании Fireworks — это высокопроизводительная модель вызова функций, разработанная на основе Llama-3 и оптимизированная для вызова функций, диалогов и выполнения команд." + }, + "accounts/fireworks/models/firellava-13b": { + "description": "fireworks-ai/FireLLaVA-13b — это визуальная языковая модель, способная одновременно обрабатывать изображения и текстовые вводы, обученная на высококачественных данных, подходящая для мультимодальных задач." + }, + "accounts/fireworks/models/gemma2-9b-it": { + "description": "Gemma 2 9B для команд, основанная на предыдущих технологиях Google, подходит для ответов на вопросы, резюмирования и вывода текста." + }, + "accounts/fireworks/models/llama-v3-70b-instruct": { + "description": "Модель Llama 3 70B для команд, специально оптимизированная для многоязычных диалогов и понимания естественного языка, превосходит большинство конкурентных моделей." + }, + "accounts/fireworks/models/llama-v3-70b-instruct-hf": { + "description": "Модель Llama 3 70B для команд (HF версия), результаты которой совпадают с официальной реализацией, подходит для высококачественных задач выполнения команд." + }, + "accounts/fireworks/models/llama-v3-8b-instruct": { + "description": "Модель Llama 3 8B для команд, оптимизированная для диалогов и многоязычных задач, демонстрирует выдающиеся и эффективные результаты." + }, + "accounts/fireworks/models/llama-v3-8b-instruct-hf": { + "description": "Модель Llama 3 8B для команд (HF версия), результаты которой совпадают с официальной реализацией, обладает высокой согласованностью и совместимостью между платформами." + }, + "accounts/fireworks/models/llama-v3p1-405b-instruct": { + "description": "Модель Llama 3.1 405B для команд, обладающая огромным количеством параметров, подходит для сложных задач и сценариев с высокой нагрузкой." + }, + "accounts/fireworks/models/llama-v3p1-70b-instruct": { + "description": "Модель Llama 3.1 70B для команд, обеспечивающая выдающиеся возможности понимания и генерации естественного языка, является идеальным выбором для диалоговых и аналитических задач." + }, + "accounts/fireworks/models/llama-v3p1-8b-instruct": { + "description": "Модель Llama 3.1 8B для команд, оптимизированная для многоязычных диалогов, способная превосходить большинство открытых и закрытых моделей по общим отраслевым стандартам." + }, + "accounts/fireworks/models/mixtral-8x22b-instruct": { + "description": "Mixtral MoE 8x22B для команд, с большим количеством параметров и архитектурой с несколькими экспертами, всесторонне поддерживает эффективную обработку сложных задач." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct": { + "description": "Mixtral MoE 8x7B для команд, архитектура с несколькими экспертами обеспечивает эффективное выполнение и следование командам." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct-hf": { + "description": "Mixtral MoE 8x7B для команд (HF версия), производительность которой совпадает с официальной реализацией, подходит для множества эффективных задач." + }, + "accounts/fireworks/models/mythomax-l2-13b": { + "description": "Модель MythoMax L2 13B, использующая новые технологии объединения, хорошо подходит для повествования и ролевых игр." + }, + "accounts/fireworks/models/phi-3-vision-128k-instruct": { + "description": "Phi 3 Vision для команд, легковесная мультимодальная модель, способная обрабатывать сложную визуальную и текстовую информацию, обладая высокой способностью к выводу." + }, + "accounts/fireworks/models/starcoder-16b": { + "description": "Модель StarCoder 15.5B, поддерживающая сложные задачи программирования, с улучшенными многоязычными возможностями, подходит для генерации и понимания сложного кода." + }, + "accounts/fireworks/models/starcoder-7b": { + "description": "Модель StarCoder 7B, обученная на более чем 80 языках программирования, обладает выдающимися способностями к заполнению кода и пониманию контекста." + }, + "accounts/yi-01-ai/models/yi-large": { + "description": "Модель Yi-Large, обладающая выдающимися возможностями обработки нескольких языков, подходит для различных задач генерации и понимания языка." + }, + "anthropic.claude-3-5-sonnet-20240620-v1:0": { + "description": "Claude 3.5 Sonnet устанавливает новые отраслевые стандарты, превосходя модели конкурентов и Claude 3 Opus, демонстрируя отличные результаты в широком спектре оценок, при этом обладая скоростью и стоимостью наших моделей среднего уровня." + }, + "anthropic.claude-3-haiku-20240307-v1:0": { + "description": "Claude 3 Haiku — это самая быстрая и компактная модель от Anthropic, обеспечивающая почти мгновенную скорость ответа. Она может быстро отвечать на простые запросы и запросы. Клиенты смогут создать бесшовный AI-опыт, имитирующий человеческое взаимодействие. Claude 3 Haiku может обрабатывать изображения и возвращать текстовый вывод, имея контекстное окно в 200K." + }, + "anthropic.claude-3-opus-20240229-v1:0": { + "description": "Claude 3 Opus — это самый мощный AI-модель от Anthropic, обладающая передовыми характеристиками в области высоко сложных задач. Она может обрабатывать открытые подсказки и невидимые сценарии, демонстрируя отличную плавность и человеческое понимание. Claude 3 Opus демонстрирует передовые возможности генеративного AI. Claude 3 Opus может обрабатывать изображения и возвращать текстовый вывод, имея контекстное окно в 200K." + }, + "anthropic.claude-3-sonnet-20240229-v1:0": { + "description": "Claude 3 Sonnet от Anthropic достигает идеального баланса между интеллектом и скоростью — особенно подходит для корпоративных рабочих нагрузок. Он предлагает максимальную полезность по цене ниже конкурентов и разработан как надежный, высокопрочный основной механизм для масштабируемых AI-развертываний. Claude 3 Sonnet может обрабатывать изображения и возвращать текстовый вывод, имея контекстное окно в 200K." + }, + "anthropic.claude-instant-v1": { + "description": "Быстрая, экономичная и все еще очень мощная модель, способная обрабатывать широкий спектр задач, включая повседневные диалоги, текстовый анализ, резюме и вопросы к документам." + }, + "anthropic.claude-v2": { + "description": "Модель Anthropic демонстрирует высокие способности в широком спектре задач, от сложных диалогов и генерации креативного контента до детального следования инструкциям." + }, + "anthropic.claude-v2:1": { + "description": "Обновленная версия Claude 2, обладающая двойным контекстным окном и улучшениями в надежности, уровне галлюцинаций и точности на основе доказательств в длинных документах и контексте RAG." + }, + "anthropic/claude-3-haiku": { + "description": "Claude 3 Haiku — это самая быстрая и компактная модель от Anthropic, предназначенная для почти мгновенных ответов. Она обладает быстрой и точной направленной производительностью." + }, + "anthropic/claude-3-opus": { + "description": "Claude 3 Opus — это самая мощная модель от Anthropic для обработки высококомплексных задач. Она демонстрирует выдающиеся результаты по производительности, интеллекту, плавности и пониманию." + }, + "anthropic/claude-3.5-sonnet": { + "description": "Claude 3.5 Sonnet предлагает возможности, превосходящие Opus, и скорость, превышающую Sonnet, при этом сохраняя ту же цену. Sonnet особенно хорошо справляется с программированием, наукой о данных, визуальной обработкой и агентскими задачами." + }, + "aya": { + "description": "Aya 23 — это многоязычная модель, выпущенная Cohere, поддерживающая 23 языка, обеспечивая удобство для многоязычных приложений." + }, + "aya:35b": { + "description": "Aya 23 — это многоязычная модель, выпущенная Cohere, поддерживающая 23 языка, обеспечивая удобство для многоязычных приложений." + }, + "charglm-3": { + "description": "CharGLM-3 разработан для ролевых игр и эмоционального сопровождения, поддерживает сверхдлинную многократную память и персонализированные диалоги, имеет широкое применение." + }, + "chatgpt-4o-latest": { + "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощное понимание языка и генерацию, подходя для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку." + }, + "claude-2.0": { + "description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая ведущие в отрасли 200K токенов контекста, значительное снижение частоты галлюцинаций модели, системные подсказки и новую тестовую функцию: вызов инструментов." + }, + "claude-2.1": { + "description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая ведущие в отрасли 200K токенов контекста, значительное снижение частоты галлюцинаций модели, системные подсказки и новую тестовую функцию: вызов инструментов." + }, + "claude-3-5-sonnet-20240620": { + "description": "Claude 3.5 Sonnet предлагает возможности, превосходящие Opus, и скорость, быстрее Sonnet, при этом сохраняя ту же цену. Sonnet особенно хорош в программировании, науке о данных, визуальной обработке и задачах агентов." + }, + "claude-3-haiku-20240307": { + "description": "Claude 3 Haiku — это самая быстрая и компактная модель от Anthropic, предназначенная для достижения почти мгновенных ответов. Она обладает быстрой и точной направленной производительностью." + }, + "claude-3-opus-20240229": { + "description": "Claude 3 Opus — это самая мощная модель от Anthropic для обработки высококомплексных задач. Она демонстрирует выдающиеся результаты по производительности, интеллекту, плавности и пониманию." + }, + "claude-3-sonnet-20240229": { + "description": "Claude 3 Sonnet обеспечивает идеальный баланс между интеллектом и скоростью для корпоративных рабочих нагрузок. Он предлагает максимальную полезность по более низкой цене, надежен и подходит для масштабного развертывания." + }, + "claude-instant-1.2": { + "description": "Модель Anthropic для текстовой генерации с низкой задержкой и высокой пропускной способностью, поддерживающая генерацию сотен страниц текста." + }, + "codegeex-4": { + "description": "CodeGeeX-4 — это мощный AI помощник по программированию, поддерживающий интеллектуальные ответы и автозаполнение кода на различных языках программирования, повышая эффективность разработки." + }, + "codegemma": { + "description": "CodeGemma — это легковесная языковая модель, специально разработанная для различных задач программирования, поддерживающая быструю итерацию и интеграцию." + }, + "codegemma:2b": { + "description": "CodeGemma — это легковесная языковая модель, специально разработанная для различных задач программирования, поддерживающая быструю итерацию и интеграцию." + }, + "codellama": { + "description": "Code Llama — это LLM, сосредоточенная на генерации и обсуждении кода, поддерживающая широкий спектр языков программирования, подходит для среды разработчиков." + }, + "codellama:13b": { + "description": "Code Llama — это LLM, сосредоточенная на генерации и обсуждении кода, поддерживающая широкий спектр языков программирования, подходит для среды разработчиков." + }, + "codellama:34b": { + "description": "Code Llama — это LLM, сосредоточенная на генерации и обсуждении кода, поддерживающая широкий спектр языков программирования, подходит для среды разработчиков." + }, + "codellama:70b": { + "description": "Code Llama — это LLM, сосредоточенная на генерации и обсуждении кода, поддерживающая широкий спектр языков программирования, подходит для среды разработчиков." + }, + "codeqwen": { + "description": "CodeQwen1.5 — это крупномасштабная языковая модель, обученная на большом объёме кодовых данных, специально разработанная для решения сложных задач программирования." + }, + "codestral": { + "description": "Codestral — это первая модель кода от Mistral AI, обеспечивающая отличную поддержку для задач генерации кода." + }, + "codestral-latest": { + "description": "Codestral — это передовая генеративная модель, сосредоточенная на генерации кода, оптимизированная для промежуточного заполнения и задач дополнения кода." + }, + "cognitivecomputations/dolphin-mixtral-8x22b": { + "description": "Dolphin Mixtral 8x22B — это модель, разработанная для соблюдения инструкций, диалогов и программирования." + }, + "command-r": { + "description": "Command R — это LLM, оптимизированная для диалогов и задач с длинным контекстом, особенно подходит для динамического взаимодействия и управления знаниями." + }, + "command-r-plus": { + "description": "Command R+ — это высокопроизводительная большая языковая модель, специально разработанная для реальных бизнес-сценариев и сложных приложений." + }, + "databricks/dbrx-instruct": { + "description": "DBRX Instruct предлагает высокую надежность в обработке команд, поддерживая приложения в различных отраслях." + }, + "deepseek-ai/DeepSeek-Coder-V2-Instruct": { + "description": "DeepSeek Coder V2 разработан для задач программирования, сосредоточен на эффективной генерации кода." + }, + "deepseek-ai/DeepSeek-V2-Chat": { + "description": "DeepSeek V2 обладает 6.7 миллиарда параметров и поддерживает обработку текстов на английском и китайском языках." + }, + "deepseek-ai/DeepSeek-V2.5": { + "description": "DeepSeek V2.5 объединяет отличительные черты предыдущих версий, улучшая общие и кодировочные способности." + }, + "deepseek-ai/deepseek-llm-67b-chat": { + "description": "DeepSeek 67B — это передовая модель, обученная для высококомплексных диалогов." + }, + "deepseek-chat": { + "description": "Новая открытая модель, объединяющая общие и кодовые возможности, не только сохраняет общие диалоговые способности оригинальной модели Chat и мощные возможности обработки кода модели Coder, но и лучше согласуется с человеческими предпочтениями. Кроме того, DeepSeek-V2.5 значительно улучшила производительность в таких задачах, как написание текстов и следование инструкциям." + }, + "deepseek-coder-v2": { + "description": "DeepSeek Coder V2 — это открытая смешанная экспертная модель кода, показывающая отличные результаты в задачах кода, сопоставимая с GPT4-Turbo." + }, + "deepseek-coder-v2:236b": { + "description": "DeepSeek Coder V2 — это открытая смешанная экспертная модель кода, показывающая отличные результаты в задачах кода, сопоставимая с GPT4-Turbo." + }, + "deepseek-v2": { + "description": "DeepSeek V2 — это эффективная языковая модель Mixture-of-Experts, подходящая для экономически эффективных потребностей обработки." + }, + "deepseek-v2:236b": { + "description": "DeepSeek V2 236B — это модель кода DeepSeek, обеспечивающая мощные возможности генерации кода." + }, + "deepseek/deepseek-chat": { + "description": "Новая открытая модель, объединяющая общие и кодовые возможности, не только сохраняет общие диалоговые способности оригинальной модели Chat и мощные возможности обработки кода модели Coder, но и лучше соответствует человеческим предпочтениям. Кроме того, DeepSeek-V2.5 значительно улучшила свои результаты в задачах написания, следования инструкциям и других областях." + }, + "emohaa": { + "description": "Emohaa — это психологическая модель, обладающая профессиональными консультационными способностями, помогающая пользователям понимать эмоциональные проблемы." + }, + "gemini-1.0-pro-001": { + "description": "Gemini 1.0 Pro 001 (Тюнинг) предлагает стабильную и настраиваемую производительность, что делает её идеальным выбором для решения сложных задач." + }, + "gemini-1.0-pro-002": { + "description": "Gemini 1.0 Pro 002 (Тюнинг) предлагает выдающуюся поддержку многомодальности, сосредотачиваясь на эффективном решении сложных задач." + }, + "gemini-1.0-pro-latest": { + "description": "Gemini 1.0 Pro — это высокопроизводительная модель ИИ от Google, разработанная для масштабирования широкого спектра задач." + }, + "gemini-1.5-flash-001": { + "description": "Gemini 1.5 Flash 001 — это эффективная многомодальная модель, поддерживающая масштабирование для широкого спектра приложений." + }, + "gemini-1.5-flash-8b-exp-0827": { + "description": "Gemini 1.5 Flash 8B 0827 разработан для обработки масштабных задач, обеспечивая непревзойдённую скорость обработки." + }, + "gemini-1.5-flash-exp-0827": { + "description": "Gemini 1.5 Flash 0827 предлагает оптимизированные многомодальные возможности обработки, подходящие для различных сложных задач." + }, + "gemini-1.5-flash-latest": { + "description": "Gemini 1.5 Flash — это последняя многомодальная модель ИИ от Google, обладающая высокой скоростью обработки и поддерживающая текстовые, графические и видео входы, что делает её эффективной для масштабирования различных задач." + }, + "gemini-1.5-pro-001": { + "description": "Gemini 1.5 Pro 001 — это масштабируемое решение для многомодального ИИ, поддерживающее широкий спектр сложных задач." + }, + "gemini-1.5-pro-exp-0801": { + "description": "Gemini 1.5 Pro 0801 предлагает выдающиеся возможности многомодальной обработки, обеспечивая большую гибкость для разработки приложений." + }, + "gemini-1.5-pro-exp-0827": { + "description": "Gemini 1.5 Pro 0827 сочетает в себе новейшие оптимизационные технологии, обеспечивая более эффективные возможности обработки многомодальных данных." + }, + "gemini-1.5-pro-latest": { + "description": "Gemini 1.5 Pro поддерживает до 2 миллионов токенов и является идеальным выбором для средних многомодальных моделей, обеспечивая многостороннюю поддержку для сложных задач." + }, + "gemma-7b-it": { + "description": "Gemma 7B подходит для обработки задач среднего и малого масштаба, обеспечивая экономическую эффективность." + }, + "gemma2": { + "description": "Gemma 2 — это высокоэффективная модель, выпущенная Google, охватывающая широкий спектр приложений от малых до сложных задач обработки данных." + }, + "gemma2-9b-it": { + "description": "Gemma 2 9B — это модель, оптимизированная для конкретных задач и интеграции инструментов." + }, + "gemma2:27b": { + "description": "Gemma 2 — это высокоэффективная модель, выпущенная Google, охватывающая широкий спектр приложений от малых до сложных задач обработки данных." + }, + "gemma2:2b": { + "description": "Gemma 2 — это высокоэффективная модель, выпущенная Google, охватывающая широкий спектр приложений от малых до сложных задач обработки данных." + }, + "general": { + "description": "Spark Lite — это легковесная большая языковая модель с крайне низкой задержкой и высокой эффективностью обработки, полностью бесплатная и открытая, поддерживающая функцию онлайн-поиска в реальном времени. Ее быстрая реакция делает ее выдающимся выбором для применения в низкопроизводительных устройствах и тонкой настройке моделей, обеспечивая пользователям отличное соотношение цены и качества, особенно в задачах на знание, генерацию контента и поисковых сценариях." + }, + "generalv3": { + "description": "Spark Pro — это высокопроизводительная большая языковая модель, оптимизированная для профессиональных областей, таких как математика, программирование, медицина и образование, поддерживающая сетевой поиск и встроенные плагины для погоды, даты и т.д. Оптимизированная модель демонстрирует выдающиеся результаты и высокую эффективность в сложных задачах на знание, понимании языка и высокоуровневом создании текстов, что делает ее идеальным выбором для профессиональных приложений." + }, + "generalv3.5": { + "description": "Spark3.5 Max — это самая полная версия, поддерживающая сетевой поиск и множество встроенных плагинов. Его полностью оптимизированные основные возможности, а также функции настройки системных ролей и вызовов функций делают его выдающимся и эффективным в различных сложных приложениях." + }, + "glm-4": { + "description": "GLM-4 — это старая флагманская версия, выпущенная в январе 2024 года, которая была заменена более мощной GLM-4-0520." + }, + "glm-4-0520": { + "description": "GLM-4-0520 — это последняя версия модели, специально разработанная для высоко сложных и разнообразных задач, демонстрирующая выдающиеся результаты." + }, + "glm-4-air": { + "description": "GLM-4-Air — это экономически эффективная версия, производительность которой близка к GLM-4, обеспечивая высокую скорость и доступную цену." + }, + "glm-4-airx": { + "description": "GLM-4-AirX предлагает эффективную версию GLM-4-Air, скорость вывода может достигать 2.6 раз быстрее." + }, + "glm-4-alltools": { + "description": "GLM-4-AllTools — это многофункциональная модель агента, оптимизированная для поддержки сложного планирования инструкций и вызовов инструментов, таких как веб-серфинг, интерпретация кода и генерация текста, подходящая для выполнения множества задач." + }, + "glm-4-flash": { + "description": "GLM-4-Flash — это идеальный выбор для обработки простых задач, с самой высокой скоростью и самой низкой ценой." + }, + "glm-4-long": { + "description": "GLM-4-Long поддерживает сверхдлинные текстовые вводы, подходит для задач, требующих памяти, и обработки больших документов." + }, + "glm-4-plus": { + "description": "GLM-4-Plus, как флагман с высоким интеллектом, обладает мощными способностями обработки длинных текстов и сложных задач, с полным улучшением производительности." + }, + "glm-4v": { + "description": "GLM-4V предлагает мощные способности понимания и вывода изображений, поддерживает множество визуальных задач." + }, + "glm-4v-plus": { + "description": "GLM-4V-Plus обладает способностью понимать видео-контент и множество изображений, подходит для мультимодальных задач." + }, + "google/gemini-flash-1.5-exp": { + "description": "Gemini 1.5 Flash 0827 предлагает оптимизированные мультимодальные возможности обработки, подходящие для различных сложных задач." + }, + "google/gemini-pro-1.5-exp": { + "description": "Gemini 1.5 Pro 0827 сочетает в себе новейшие оптимизационные технологии, обеспечивая более эффективную обработку мультимодальных данных." + }, + "google/gemma-2-27b-it": { + "description": "Gemma 2 продолжает концепцию легковесного и эффективного дизайна." + }, + "google/gemma-2-9b-it": { + "description": "Gemma 2 — это легковесная серия текстовых моделей с открытым исходным кодом от Google." + }, + "google/gemma-2-9b-it:free": { + "description": "Gemma 2 — это облегченная открытая текстовая модель от Google." + }, + "google/gemma-2b-it": { + "description": "Gemma Instruct (2B) предлагает базовые возможности обработки команд, подходящие для легковесных приложений." + }, + "gpt-3.5-turbo": { + "description": "GPT 3.5 Turbo подходит для различных задач генерации и понимания текста, в настоящее время ссылается на gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-0125": { + "description": "GPT 3.5 Turbo подходит для различных задач генерации и понимания текста, в настоящее время ссылается на gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-1106": { + "description": "GPT 3.5 Turbo подходит для различных задач генерации и понимания текста, в настоящее время ссылается на gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-instruct": { + "description": "GPT 3.5 Turbo подходит для различных задач генерации и понимания текста, в настоящее время ссылается на gpt-3.5-turbo-0125." + }, + "gpt-4": { + "description": "GPT-4 предлагает более широкий контекстный диапазон, способный обрабатывать более длинные текстовые вводы, подходя для сценариев, требующих обширной интеграции информации и анализа данных." + }, + "gpt-4-0125-preview": { + "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени." + }, + "gpt-4-0613": { + "description": "GPT-4 предлагает более широкий контекстный диапазон, способный обрабатывать более длинные текстовые вводы, подходя для сценариев, требующих обширной интеграции информации и анализа данных." + }, + "gpt-4-1106-preview": { + "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени." + }, + "gpt-4-1106-vision-preview": { + "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени." + }, + "gpt-4-32k": { + "description": "GPT-4 предлагает более широкий контекстный диапазон, способный обрабатывать более длинные текстовые вводы, подходя для сценариев, требующих обширной интеграции информации и анализа данных." + }, + "gpt-4-32k-0613": { + "description": "GPT-4 предлагает более широкий контекстный диапазон, способный обрабатывать более длинные текстовые вводы, подходя для сценариев, требующих обширной интеграции информации и анализа данных." + }, + "gpt-4-turbo": { + "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени." + }, + "gpt-4-turbo-2024-04-09": { + "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени." + }, + "gpt-4-turbo-preview": { + "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени." + }, + "gpt-4-vision-preview": { + "description": "Последняя модель GPT-4 Turbo обладает визуальными функциями. Теперь визуальные запросы могут использовать JSON-формат и вызовы функций. GPT-4 Turbo — это улучшенная версия, обеспечивающая экономически эффективную поддержку для мультимодальных задач. Она находит баланс между точностью и эффективностью, подходя для приложений, требующих взаимодействия в реальном времени." + }, + "gpt-4o": { + "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощное понимание языка и генерацию, подходя для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку." + }, + "gpt-4o-2024-05-13": { + "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощное понимание языка и генерацию, подходя для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку." + }, + "gpt-4o-2024-08-06": { + "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощное понимание языка и генерацию, подходя для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку." + }, + "gpt-4o-mini": { + "description": "GPT-4o mini — это последняя модель, выпущенная OpenAI после GPT-4 Omni, поддерживающая ввод изображений и текстов с выводом текста. Как их самый продвинутый компактный модель, она значительно дешевле других недавних передовых моделей и более чем на 60% дешевле GPT-3.5 Turbo. Она сохраняет передовой уровень интеллекта при значительном соотношении цена-качество. GPT-4o mini набрала 82% на тесте MMLU и в настоящее время занимает более высокое место в предпочтениях чата по сравнению с GPT-4." + }, + "gryphe/mythomax-l2-13b": { + "description": "MythoMax l2 13B — это языковая модель, объединяющая креативность и интеллект, основанная на нескольких ведущих моделях." + }, + "internlm/internlm2_5-20b-chat": { + "description": "Инновационная открытая модель InternLM2.5, благодаря большому количеству параметров, повышает интеллектуальность диалогов." + }, + "internlm/internlm2_5-7b-chat": { + "description": "InternLM2.5 предлагает интеллектуальные решения для диалогов в различных сценариях." + }, + "llama-3.1-70b-instruct": { + "description": "Модель Llama 3.1 70B для команд, обладающая 70B параметрами, обеспечивает выдающуюся производительность в задачах генерации текста и выполнения команд." + }, + "llama-3.1-70b-versatile": { + "description": "Llama 3.1 70B предлагает более мощные возможности ИИ вывода, подходит для сложных приложений, поддерживает огромное количество вычислительных процессов и гарантирует эффективность и точность." + }, + "llama-3.1-8b-instant": { + "description": "Llama 3.1 8B — это высокоэффективная модель, обеспечивающая быструю генерацию текста, идеально подходящая для приложений, требующих масштабной эффективности и экономичности." + }, + "llama-3.1-8b-instruct": { + "description": "Модель Llama 3.1 8B для команд, обладающая 8B параметрами, обеспечивает эффективное выполнение задач с указаниями и предлагает высококачественные возможности генерации текста." + }, + "llama-3.1-sonar-huge-128k-online": { + "description": "Модель Llama 3.1 Sonar Huge Online, обладающая 405B параметрами, поддерживает контекст длиной около 127,000 токенов, предназначена для сложных онлайн-чат-приложений." + }, + "llama-3.1-sonar-large-128k-chat": { + "description": "Модель Llama 3.1 Sonar Large Chat, обладающая 70B параметрами, поддерживает контекст длиной около 127,000 токенов, подходит для сложных оффлайн-чатов." + }, + "llama-3.1-sonar-large-128k-online": { + "description": "Модель Llama 3.1 Sonar Large Online, обладающая 70B параметрами, поддерживает контекст длиной около 127,000 токенов, подходит для задач с высокой нагрузкой и разнообразными чатами." + }, + "llama-3.1-sonar-small-128k-chat": { + "description": "Модель Llama 3.1 Sonar Small Chat, обладающая 8B параметрами, специально разработана для оффлайн-чатов и поддерживает контекст длиной около 127,000 токенов." + }, + "llama-3.1-sonar-small-128k-online": { + "description": "Модель Llama 3.1 Sonar Small Online, обладающая 8B параметрами, поддерживает контекст длиной около 127,000 токенов, специально разработана для онлайн-чатов и эффективно обрабатывает различные текстовые взаимодействия." + }, + "llama3-70b-8192": { + "description": "Meta Llama 3 70B предлагает непревзойдённые возможности обработки сложности, специально разработанные для высоких требований проектов." + }, + "llama3-8b-8192": { + "description": "Meta Llama 3 8B обеспечивает высококачественную производительность вывода, подходящую для многообразных приложений." + }, + "llama3-groq-70b-8192-tool-use-preview": { + "description": "Llama 3 Groq 70B Tool Use предлагает мощные возможности вызова инструментов, поддерживая эффективную обработку сложных задач." + }, + "llama3-groq-8b-8192-tool-use-preview": { + "description": "Llama 3 Groq 8B Tool Use — это модель, оптимизированная для эффективного использования инструментов, поддерживающая быструю параллельную обработку." + }, + "llama3.1": { + "description": "Llama 3.1 — это передовая модель, выпущенная Meta, поддерживающая до 405B параметров, применимая в сложных диалогах, многоязычном переводе и анализе данных." + }, + "llama3.1:405b": { + "description": "Llama 3.1 — это передовая модель, выпущенная Meta, поддерживающая до 405B параметров, применимая в сложных диалогах, многоязычном переводе и анализе данных." + }, + "llama3.1:70b": { + "description": "Llama 3.1 — это передовая модель, выпущенная Meta, поддерживающая до 405B параметров, применимая в сложных диалогах, многоязычном переводе и анализе данных." + }, + "llava": { + "description": "LLaVA — это многомодальная модель, объединяющая визуальный кодировщик и Vicuna, предназначенная для мощного понимания визуальной и языковой информации." + }, + "llava-v1.5-7b-4096-preview": { + "description": "LLaVA 1.5 7B предлагает возможности визуальной обработки, генерируя сложные выходные данные на основе визуальной информации." + }, + "llava:13b": { + "description": "LLaVA — это многомодальная модель, объединяющая визуальный кодировщик и Vicuna, предназначенная для мощного понимания визуальной и языковой информации." + }, + "llava:34b": { + "description": "LLaVA — это многомодальная модель, объединяющая визуальный кодировщик и Vicuna, предназначенная для мощного понимания визуальной и языковой информации." + }, + "mathstral": { + "description": "MathΣtral специально разработан для научных исследований и математического вывода, обеспечивая эффективные вычислительные возможности и интерпретацию результатов." + }, + "meta-llama/Llama-2-13b-chat-hf": { + "description": "LLaMA-2 Chat (13B) предлагает отличные возможности обработки языка и выдающийся опыт взаимодействия." + }, + "meta-llama/Llama-3-70b-chat-hf": { + "description": "LLaMA-3 Chat (70B) — мощная модель для чата, поддерживающая сложные диалоговые запросы." + }, + "meta-llama/Llama-3-8b-chat-hf": { + "description": "LLaMA-3 Chat (8B) предлагает многоязычную поддержку и охватывает широкий спектр областей знаний." + }, + "meta-llama/Meta-Llama-3-70B-Instruct": { + "description": "LLaMA 3 поддерживает генерацию больших объемов текста и интерпретацию инструкций." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { + "description": "Llama 3 70B Instruct Lite подходит для сред, требующих высокой производительности и низкой задержки." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": { + "description": "Llama 3 70B Instruct Turbo обеспечивает выдающиеся возможности понимания и генерации языка, подходящие для самых требовательных вычислительных задач." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Lite": { + "description": "Llama 3 8B Instruct Lite подходит для ресурсов ограниченных сред, обеспечивая отличное соотношение производительности." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": { + "description": "Llama 3 8B Instruct Turbo — это высокоэффективная большая языковая модель, поддерживающая широкий спектр приложений." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct": { + "description": "LLaMA 3.1 405B — это мощная модель, основанная на предобучении и настройке инструкций." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": { + "description": "Модель Llama 3.1 Turbo 405B предлагает огромную поддержку контекста для обработки больших данных и демонстрирует выдающиеся результаты в масштабных приложениях искусственного интеллекта." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct": { + "description": "LLaMA 3.1 70B предлагает эффективную поддержку диалогов на нескольких языках." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": { + "description": "Модель Llama 3.1 70B была тщательно настроена для высоконагруженных приложений, квантованная до FP8 для повышения вычислительной мощности и точности, обеспечивая выдающиеся результаты в сложных сценариях." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct": { + "description": "LLaMA 3.1 предлагает поддержку нескольких языков и является одной из ведущих генеративных моделей в отрасли." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": { + "description": "Модель Llama 3.1 8B использует FP8-квантование и поддерживает до 131,072 контекстных токенов, являясь выдающейся среди открытых моделей, подходящей для сложных задач и превосходящей многие отраслевые стандарты." + }, + "meta-llama/llama-3-70b-instruct": { + "description": "Llama 3 70B Instruct оптимизирован для высококачественных диалоговых сцен и показывает отличные результаты в различных оценках." + }, + "meta-llama/llama-3-8b-instruct": { + "description": "Llama 3 8B Instruct оптимизирован для высококачественных диалоговых сцен, его производительность превосходит многие закрытые модели." + }, + "meta-llama/llama-3.1-405b-instruct": { + "description": "Llama 3.1 405B Instruct — это последняя версия от Meta, оптимизированная для генерации высококачественных диалогов, превосходящая многие ведущие закрытые модели." + }, + "meta-llama/llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct разработан для высококачественных диалогов и показывает выдающиеся результаты в оценках, особенно в высокоинтерактивных сценах." + }, + "meta-llama/llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct — это последняя версия от Meta, оптимизированная для высококачественных диалоговых сцен, превосходящая многие ведущие закрытые модели." + }, + "meta-llama/llama-3.1-8b-instruct:free": { + "description": "LLaMA 3.1 предлагает поддержку нескольких языков и является одной из ведущих генеративных моделей в отрасли." + }, + "meta.llama3-1-405b-instruct-v1:0": { + "description": "Meta Llama 3.1 405B Instruct — это самая большая и мощная модель в линейке Llama 3.1 Instruct, представляющая собой высокоразвёрнутую модель для диалогового вывода и генерации синтетических данных, также может использоваться в качестве основы для специализированного предобучения или дообучения в определённых областях. Многоязычные большие языковые модели (LLMs), предлагаемые Llama 3.1, представляют собой набор предобученных генеративных моделей с настройкой на инструкции, включая размеры 8B, 70B и 405B (вход/выход текста). Модели текста с настройкой на инструкции Llama 3.1 (8B, 70B, 405B) оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные открытые модели чата в общепринятых отраслевых бенчмарках. Llama 3.1 предназначена для коммерческого и исследовательского использования на нескольких языках. Модели текста с настройкой на инструкции подходят для диалогов, похожих на помощников, в то время как предобученные модели могут адаптироваться к различным задачам генерации естественного языка. Модели Llama 3.1 также поддерживают использование их вывода для улучшения других моделей, включая генерацию синтетических данных и уточнение. Llama 3.1 является саморегрессионной языковой моделью, использующей оптимизированную архитектуру трансформеров. Настроенные версии используют контролируемое дообучение (SFT) и обучение с подкреплением с человеческой обратной связью (RLHF), чтобы соответствовать предпочтениям людей в отношении полезности и безопасности." + }, + "meta.llama3-1-70b-instruct-v1:0": { + "description": "Обновленная версия Meta Llama 3.1 70B Instruct, включающая расширенную длину контекста до 128K, многоязычность и улучшенные способности вывода. Многоязычные большие языковые модели (LLMs), предлагаемые Llama 3.1, представляют собой набор предобученных, настроенных на инструкции генеративных моделей, включая размеры 8B, 70B и 405B (ввод/вывод текста). Настроенные на инструкции текстовые модели (8B, 70B, 405B) оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные открытые модели чата в общих отраслевых бенчмарках. Llama 3.1 предназначена для коммерческого и исследовательского использования на нескольких языках. Настроенные на инструкции текстовые модели подходят для диалогов, похожих на помощника, в то время как предобученные модели могут адаптироваться к различным задачам генерации естественного языка. Модели Llama 3.1 также поддерживают использование вывода своих моделей для улучшения других моделей, включая генерацию синтетических данных и уточнение. Llama 3.1 — это саморегрессионная языковая модель, использующая оптимизированную архитектуру трансформеров. Настроенные версии используют контролируемую донастройку (SFT) и обучение с подкреплением с человеческой обратной связью (RLHF), чтобы соответствовать человеческим предпочтениям по полезности и безопасности." + }, + "meta.llama3-1-8b-instruct-v1:0": { + "description": "Обновленная версия Meta Llama 3.1 8B Instruct, включающая расширенную длину контекста до 128K, многоязычность и улучшенные способности вывода. Многоязычные большие языковые модели (LLMs), предлагаемые Llama 3.1, представляют собой набор предобученных, настроенных на инструкции генеративных моделей, включая размеры 8B, 70B и 405B (ввод/вывод текста). Настроенные на инструкции текстовые модели (8B, 70B, 405B) оптимизированы для многоязычных диалоговых случаев и превосходят многие доступные открытые модели чата в общих отраслевых бенчмарках. Llama 3.1 предназначена для коммерческого и исследовательского использования на нескольких языках. Настроенные на инструкции текстовые модели подходят для диалогов, похожих на помощника, в то время как предобученные модели могут адаптироваться к различным задачам генерации естественного языка. Модели Llama 3.1 также поддерживают использование вывода своих моделей для улучшения других моделей, включая генерацию синтетических данных и уточнение. Llama 3.1 — это саморегрессионная языковая модель, использующая оптимизированную архитектуру трансформеров. Настроенные версии используют контролируемую донастройку (SFT) и обучение с подкреплением с человеческой обратной связью (RLHF), чтобы соответствовать человеческим предпочтениям по полезности и безопасности." + }, + "meta.llama3-70b-instruct-v1:0": { + "description": "Meta Llama 3 — это открытая большая языковая модель (LLM), ориентированная на разработчиков, исследователей и предприятия, предназначенная для помощи в создании, экспериментировании и ответственном масштабировании их идей по генеративному ИИ. В качестве части базовой системы для инноваций глобального сообщества она идеально подходит для создания контента, диалогового ИИ, понимания языка, НИОКР и корпоративных приложений." + }, + "meta.llama3-8b-instruct-v1:0": { + "description": "Meta Llama 3 — это открытая большая языковая модель (LLM), ориентированная на разработчиков, исследователей и предприятия, предназначенная для помощи в создании, экспериментировании и ответственном масштабировании их идей по генеративному ИИ. В качестве части базовой системы для инноваций глобального сообщества она идеально подходит для устройств с ограниченными вычислительными мощностями и ресурсами, а также для более быстрого времени обучения." + }, + "microsoft/wizardlm 2-7b": { + "description": "WizardLM 2 7B — это новая быстрая и легкая модель от Microsoft AI, производительность которой близка к 10-кратной производительности существующих открытых моделей." + }, + "microsoft/wizardlm-2-8x22b": { + "description": "WizardLM-2 8x22B — это передовая модель Wizard от Microsoft, демонстрирующая исключительно конкурентоспособные результаты." + }, + "minicpm-v": { + "description": "MiniCPM-V — это новое поколение мультимодальной большой модели от OpenBMB, обладающее выдающимися возможностями OCR и мультимодального понимания, поддерживающее широкий спектр приложений." + }, + "mistral": { + "description": "Mistral — это 7B модель, выпущенная Mistral AI, подходящая для разнообразных языковых задач." + }, + "mistral-large": { + "description": "Mixtral Large — это флагманская модель от Mistral, объединяющая возможности генерации кода, математики и вывода, поддерживающая контекстное окно 128k." + }, + "mistral-large-latest": { + "description": "Mistral Large — это флагманская большая модель, хорошо подходящая для многоязычных задач, сложного вывода и генерации кода, идеальный выбор для высококлассных приложений." + }, + "mistral-nemo": { + "description": "Mistral Nemo, разработанный в сотрудничестве между Mistral AI и NVIDIA, является высокоэффективной 12B моделью." + }, + "mistralai/Mistral-7B-Instruct-v0.1": { + "description": "Mistral (7B) Instruct известен своей высокой производительностью и подходит для множества языковых задач." + }, + "mistralai/Mistral-7B-Instruct-v0.2": { + "description": "Mistral 7B — это модель с настройкой по запросу, предлагающая оптимизированные ответы на задачи." + }, + "mistralai/Mistral-7B-Instruct-v0.3": { + "description": "Mistral (7B) Instruct v0.3 обеспечивает эффективные вычислительные возможности и понимание естественного языка, подходящие для широкого спектра приложений." + }, + "mistralai/Mixtral-8x22B-Instruct-v0.1": { + "description": "Mixtral-8x22B Instruct (141B) — это супер большая языковая модель, поддерживающая крайне высокие требования к обработке." + }, + "mistralai/Mixtral-8x7B-Instruct-v0.1": { + "description": "Mixtral 8x7B — это предобученная модель разреженных смешанных экспертов, предназначенная для универсальных текстовых задач." + }, + "mistralai/mistral-7b-instruct": { + "description": "Mistral 7B Instruct — это высокопроизводительная модель стандартов отрасли, оптимизированная для скорости и поддержки длинного контекста." + }, + "mistralai/mistral-nemo": { + "description": "Mistral Nemo — это модель с 7.3B параметрами, поддерживающая несколько языков и высокопроизводительное программирование." + }, + "mixtral": { + "description": "Mixtral — это экспертная модель от Mistral AI, обладающая открытыми весами и поддерживающая генерацию кода и понимание языка." + }, + "mixtral-8x7b-32768": { + "description": "Mixtral 8x7B предлагает высокую отказоустойчивость параллельной обработки, подходящей для сложных задач." + }, + "mixtral:8x22b": { + "description": "Mixtral — это экспертная модель от Mistral AI, обладающая открытыми весами и поддерживающая генерацию кода и понимание языка." + }, + "moonshot-v1-128k": { + "description": "Moonshot V1 128K — это модель с возможностями обработки сверхдлинного контекста, подходящая для генерации очень длинных текстов, удовлетворяющая требованиям сложных задач генерации, способная обрабатывать до 128 000 токенов, идеально подходящая для научных исследований, академических и крупных документальных приложений." + }, + "moonshot-v1-32k": { + "description": "Moonshot V1 32K предлагает возможности обработки контекста средней длины, способная обрабатывать 32 768 токенов, особенно подходит для генерации различных длинных документов и сложных диалогов, применяется в создании контента, генерации отчетов и диалоговых систем." + }, + "moonshot-v1-8k": { + "description": "Moonshot V1 8K специально разработан для генерации коротких текстов, обладая высокой производительностью обработки, способный обрабатывать 8 192 токена, идеально подходит для кратких диалогов, стенографирования и быстрой генерации контента." + }, + "nousresearch/hermes-2-pro-llama-3-8b": { + "description": "Hermes 2 Pro Llama 3 8B — это обновленная версия Nous Hermes 2, содержащая последние внутренние разработанные наборы данных." + }, + "o1-mini": { + "description": "o1-mini — это быстрое и экономичное модель вывода, разработанная для программирования, математики и научных приложений. Модель имеет контекст 128K и срок знания до октября 2023 года." + }, + "o1-preview": { + "description": "o1 — это новая модель вывода от OpenAI, подходящая для сложных задач, требующих обширных общих знаний. Модель имеет контекст 128K и срок знания до октября 2023 года." + }, + "open-codestral-mamba": { + "description": "Codestral Mamba — это языковая модель Mamba 2, сосредоточенная на генерации кода, обеспечивающая мощную поддержку для сложных задач по коду и выводу." + }, + "open-mistral-7b": { + "description": "Mistral 7B — это компактная, но высокопроизводительная модель, хорошо подходящая для пакетной обработки и простых задач, таких как классификация и генерация текста, обладающая хорошими возможностями вывода." + }, + "open-mistral-nemo": { + "description": "Mistral Nemo — это 12B модель, разработанная в сотрудничестве с Nvidia, обеспечивающая выдающиеся возможности вывода и кодирования, легко интегрируемая и заменяемая." + }, + "open-mixtral-8x22b": { + "description": "Mixtral 8x22B — это более крупная экспертная модель, сосредоточенная на сложных задачах, предлагающая выдающиеся возможности вывода и более высокую пропускную способность." + }, + "open-mixtral-8x7b": { + "description": "Mixtral 8x7B — это разреженная экспертная модель, использующая несколько параметров для повышения скорости вывода, подходит для обработки многоязычных и кодовых задач." + }, + "openai/gpt-4o-2024-08-06": { + "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощные возможности понимания и генерации языка, подходящие для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку." + }, + "openai/gpt-4o-mini": { + "description": "GPT-4o mini — это последняя модель от OpenAI, выпущенная после GPT-4 Omni, поддерживающая ввод изображений и текста с выводом текста. Как их самый продвинутый компактный модель, она значительно дешевле других недавних передовых моделей и более чем на 60% дешевле GPT-3.5 Turbo. Она сохраняет передовой уровень интеллекта при значительном соотношении цена-качество. GPT-4o mini набрала 82% в тесте MMLU и в настоящее время занимает более высокое место по предпочтениям в чате, чем GPT-4." + }, + "openai/o1-mini": { + "description": "o1-mini — это быстрое и экономичное модель вывода, разработанная для программирования, математики и научных приложений. Модель имеет контекст 128K и срок знания до октября 2023 года." + }, + "openai/o1-preview": { + "description": "o1 — это новая модель вывода от OpenAI, подходящая для сложных задач, требующих обширных общих знаний. Модель имеет контекст 128K и срок знания до октября 2023 года." + }, + "openchat/openchat-7b": { + "description": "OpenChat 7B — это открытая языковая модель, оптимизированная с помощью стратегии \"C-RLFT (условное обучение с подкреплением)\"." + }, + "openrouter/auto": { + "description": "В зависимости от длины контекста, темы и сложности ваш запрос будет отправлен в Llama 3 70B Instruct, Claude 3.5 Sonnet (саморегулирующийся) или GPT-4o." + }, + "phi3": { + "description": "Phi-3 — это легковесная открытая модель, выпущенная Microsoft, подходящая для эффективной интеграции и масштабного вывода знаний." + }, + "phi3:14b": { + "description": "Phi-3 — это легковесная открытая модель, выпущенная Microsoft, подходящая для эффективной интеграции и масштабного вывода знаний." + }, + "qwen-long": { + "description": "Qwen — это сверхмасштабная языковая модель, поддерживающая длинный контекст текста и диалоговые функции на основе длинных документов и нескольких документов." + }, + "qwen-max": { + "description": "Qwen — это сверхмасштабная языковая модель с триллионом параметров, поддерживающая ввод на разных языках, включая китайский и английский, в настоящее время это API модель, лежащая в основе продукта Qwen 2.5." + }, + "qwen-max-longcontext": { + "description": "Qwen — это сверхмасштабная языковая модель с триллионом параметров, поддерживающая ввод на разных языках, включая китайский и английский, с расширенным контекстным окном." + }, + "qwen-plus": { + "description": "Qwen — это улучшенная версия сверхмасштабной языковой модели, поддерживающая ввод на разных языках, включая китайский и английский." + }, + "qwen-turbo": { + "description": "Qwen — это сверхмасштабная языковая модель, поддерживающая ввод на разных языках, включая китайский и английский." + }, + "qwen-vl-chat-v1": { + "description": "Qwen VL поддерживает гибкие способы взаимодействия, включая многократные изображения, многократные вопросы и ответы, а также творческие способности." + }, + "qwen-vl-max": { + "description": "Qwen — это сверхмасштабная визуально-языковая модель. По сравнению с улучшенной версией, еще больше улучшены способности визуального вывода и соблюдения инструкций, обеспечивая более высокий уровень визуального восприятия и понимания." + }, + "qwen-vl-plus": { + "description": "Qwen — это улучшенная версия крупномасштабной визуально-языковой модели. Существенно улучшена способность распознавания деталей и текстов, поддерживает изображения с разрешением более миллиона пикселей и произвольным соотношением сторон." + }, + "qwen-vl-v1": { + "description": "Инициализированная языковой моделью Qwen-7B, добавлена модель изображения, предобученная модель с разрешением входного изображения 448." + }, + "qwen/qwen-2-7b-instruct:free": { + "description": "Qwen2 — это новая серия крупных языковых моделей с более сильными возможностями понимания и генерации." + }, + "qwen2": { + "description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений." + }, + "qwen2-57b-a14b-instruct": { + "description": "Qwen2 — это открытая 57B модель с 14B активированными параметрами MOE." + }, + "qwen2-72b-instruct": { + "description": "Qwen2 — это открытая 72B модель, доступная для внешнего использования." + }, + "qwen2-7b-instruct": { + "description": "Qwen2 — это открытая 7B модель, доступная для внешнего использования." + }, + "qwen2-math-72b-instruct": { + "description": "Модель Qwen2-Math обладает мощными способностями решения математических задач." + }, + "qwen2:0.5b": { + "description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений." + }, + "qwen2:1.5b": { + "description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений." + }, + "qwen2:72b": { + "description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений." + }, + "solar-1-mini-chat": { + "description": "Solar Mini — это компактная LLM, производительность которой превосходит GPT-3.5, обладая мощными многоязычными возможностями, поддерживает английский и корейский языки, предлагая эффективное и компактное решение." + }, + "solar-1-mini-chat-ja": { + "description": "Solar Mini (Ja) расширяет возможности Solar Mini, сосредоточиваясь на японском языке, при этом сохраняя высокую эффективность и выдающуюся производительность в использовании английского и корейского языков." + }, + "solar-pro": { + "description": "Solar Pro — это высокоинтеллектуальная LLM, выпущенная Upstage, сосредоточенная на способности следовать инструкциям на одном GPU, с оценкой IFEval выше 80. В настоящее время поддерживает английский язык, официальная версия запланирована на ноябрь 2024 года, с расширением языковой поддержки и длины контекста." + }, + "step-1-128k": { + "description": "Балансирует производительность и стоимость, подходит для общих сценариев." + }, + "step-1-256k": { + "description": "Обладает сверхдлинной способностью обработки контекста, особенно подходит для анализа длинных документов." + }, + "step-1-32k": { + "description": "Поддерживает диалоги средней длины, подходит для различных приложений." + }, + "step-1-8k": { + "description": "Маленькая модель, подходящая для легковесных задач." + }, + "step-1-flash": { + "description": "Высокоскоростная модель, подходящая для реального времени диалогов." + }, + "step-1v-32k": { + "description": "Поддерживает визуальный ввод, улучшая мультимодальный опыт взаимодействия." + }, + "step-1v-8k": { + "description": "Небольшая визуальная модель, подходящая для базовых задач с текстом и изображениями." + }, + "step-2-16k": { + "description": "Поддерживает масштабные взаимодействия контекста, подходит для сложных диалоговых сценариев." + }, + "taichu_llm": { + "description": "Модель языка TaiChu обладает выдающимися способностями к пониманию языка, а также к созданию текстов, ответам на вопросы, программированию, математическим вычислениям, логическому выводу, анализу эмоций и резюмированию текстов. Инновационно сочетает предобучение на больших данных с богатством многопоточных знаний, постоянно совершенствуя алгоритмические технологии и поглощая новые знания о словах, структуре, грамматике и семантике из огромных объемов текстовых данных, обеспечивая пользователям более удобную информацию и услуги, а также более интеллектуальный опыт." + }, + "togethercomputer/StripedHyena-Nous-7B": { + "description": "StripedHyena Nous (7B) обеспечивает повышенные вычислительные возможности благодаря эффективным стратегиям и архитектуре модели." + }, + "upstage/SOLAR-10.7B-Instruct-v1.0": { + "description": "Upstage SOLAR Instruct v1 (11B) подходит для детализированных командных задач, обеспечивая отличные возможности обработки языка." + }, + "wizardlm2": { + "description": "WizardLM 2 — это языковая модель, предоставляемая Microsoft AI, которая особенно хорошо проявляет себя в сложных диалогах, многоязычных задачах, выводе и интеллектуальных помощниках." + }, + "wizardlm2:8x22b": { + "description": "WizardLM 2 — это языковая модель, предоставляемая Microsoft AI, которая особенно хорошо проявляет себя в сложных диалогах, многоязычных задачах, выводе и интеллектуальных помощниках." + }, + "yi-large": { + "description": "Совершенно новая модель с триллионом параметров, обеспечивающая выдающиеся возможности для вопросов и ответов, а также генерации текста." + }, + "yi-large-fc": { + "description": "На основе модели yi-large поддерживает и усиливает возможности вызова инструментов, подходит для различных бизнес-сценариев, требующих создания агентов или рабочих процессов." + }, + "yi-large-preview": { + "description": "Начальная версия, рекомендуется использовать yi-large (новую версию)." + }, + "yi-large-rag": { + "description": "Высококлассный сервис на основе модели yi-large, объединяющий технологии поиска и генерации для предоставления точных ответов и услуг по поиску информации в реальном времени." + }, + "yi-large-turbo": { + "description": "Высокая стоимость и выдающаяся производительность. Балансировка высокой точности на основе производительности, скорости вывода и затрат." + }, + "yi-medium": { + "description": "Модель среднего размера с улучшенной настройкой, сбалансированная по возможностям и стоимости. Глубокая оптимизация способности следовать указаниям." + }, + "yi-medium-200k": { + "description": "200K сверхдлинное окно контекста, обеспечивающее глубокое понимание и генерацию длинных текстов." + }, + "yi-spark": { + "description": "Маленькая и мощная, легковесная и быстрая модель. Обеспечивает улучшенные математические вычисления и возможности написания кода." + }, + "yi-vision": { + "description": "Модель для сложных визуальных задач, обеспечивающая высокую производительность в понимании и анализе изображений." + } +} diff --git a/locales/ru-RU/providers.json b/locales/ru-RU/providers.json new file mode 100644 index 000000000000..b2d61ba0780e --- /dev/null +++ b/locales/ru-RU/providers.json @@ -0,0 +1,80 @@ +{ + "ai360": { + "description": "360 AI — это платформа AI-моделей и услуг, запущенная компанией 360, предлагающая множество передовых моделей обработки естественного языка, включая 360GPT2 Pro, 360GPT Pro, 360GPT Turbo и 360GPT Turbo Responsibility 8K. Эти модели сочетают в себе масштабные параметры и мультимодальные возможности, широко применяются в генерации текста, семантическом понимании, диалоговых системах и генерации кода. Благодаря гибкой ценовой политике 360 AI удовлетворяет разнообразные потребности пользователей, поддерживает интеграцию разработчиков и способствует инновациям и развитию интеллектуальных приложений." + }, + "anthropic": { + "description": "Anthropic — это компания, сосредоточенная на исследованиях и разработке искусственного интеллекта, предлагающая ряд передовых языковых моделей, таких как Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus и Claude 3 Haiku. Эти модели достигают идеального баланса между интеллектом, скоростью и стоимостью, подходя для различных сценариев применения, от корпоративных рабочих нагрузок до быстрого реагирования. Claude 3.5 Sonnet, как их последняя модель, показала отличные результаты в нескольких оценках, сохраняя при этом высокую стоимость-эффективность." + }, + "azure": { + "description": "Azure предлагает множество передовых AI-моделей, включая GPT-3.5 и новейшую серию GPT-4, поддерживающих различные типы данных и сложные задачи, с акцентом на безопасность, надежность и устойчивые AI-решения." + }, + "baichuan": { + "description": "Baichuan Intelligent — это компания, сосредоточенная на разработке больших моделей искусственного интеллекта, чьи модели показывают выдающиеся результаты в области китайских задач, таких как знаниевые энциклопедии, обработка длинных текстов и генерация контента, превосходя зарубежные модели. Baichuan Intelligent также обладает передовыми мультимодальными возможностями и показала отличные результаты в нескольких авторитетных оценках. Их модели включают Baichuan 4, Baichuan 3 Turbo и Baichuan 3 Turbo 128k, оптимизированные для различных сценариев применения, предлагая высокоэффективные решения." + }, + "bedrock": { + "description": "Bedrock — это сервис, предоставляемый Amazon AWS, сосредоточенный на предоставлении предприятиям передовых AI-языковых и визуальных моделей. Его семейство моделей включает серию Claude от Anthropic, серию Llama 3.1 от Meta и другие, охватывающие широкий спектр от легковесных до высокопроизводительных решений, поддерживающих текстовую генерацию, диалоги, обработку изображений и другие задачи, подходящие для предприятий различного масштаба и потребностей." + }, + "deepseek": { + "description": "DeepSeek — это компания, сосредоточенная на исследованиях и применении технологий искусственного интеллекта, ее последняя модель DeepSeek-V2.5 объединяет возможности общего диалога и обработки кода, достигнув значительных улучшений в области согласования с человеческими предпочтениями, написания текстов и выполнения инструкций." + }, + "fireworksai": { + "description": "Fireworks AI — это ведущий поставщик высококлассных языковых моделей, сосредоточенный на вызовах функций и мультимодальной обработке. Их последняя модель Firefunction V2 основана на Llama-3 и оптимизирована для вызовов функций, диалогов и выполнения инструкций. Модель визуального языка FireLLaVA-13B поддерживает смешанный ввод изображений и текста. Другие заметные модели включают серию Llama и серию Mixtral, предлагая эффективную поддержку многоязычных инструкций и генерации." + }, + "google": { + "description": "Серия Gemini от Google является самой передовой и универсальной AI-моделью, разработанной Google DeepMind, специально созданной для мультимодальной обработки, поддерживающей бесшовное понимание и обработку текста, кода, изображений, аудио и видео. Подходит для различных сред, от дата-центров до мобильных устройств, значительно повышая эффективность и универсальность AI-моделей." + }, + "groq": { + "description": "Инженерный движок LPU от Groq показал выдающиеся результаты в последних независимых бенчмарках больших языковых моделей (LLM), переопределяя стандарты AI-решений благодаря своей удивительной скорости и эффективности. Groq представляет собой образец мгновенной скорости вывода, демонстрируя хорошие результаты в облачных развертываниях." + }, + "minimax": { + "description": "MiniMax — это компания по разработке универсального искусственного интеллекта, основанная в 2021 году, стремящаяся к совместному созданию интеллекта с пользователями. MiniMax самостоятельно разработала универсальные большие модели различных модальностей, включая текстовые модели с триллионом параметров, модели речи и модели изображений. Также были запущены приложения, такие как Conch AI." + }, + "mistral": { + "description": "Mistral предлагает передовые универсальные, специализированные и исследовательские модели, широко применяемые в сложном выводе, многоязычных задачах, генерации кода и других областях. Через интерфейсы вызова функций пользователи могут интегрировать пользовательские функции для реализации конкретных приложений." + }, + "moonshot": { + "description": "Moonshot — это открытая платформа, запущенная Beijing Dark Side Technology Co., Ltd., предлагающая различные модели обработки естественного языка, охватывающие широкий спектр областей применения, включая, но не ограничиваясь, создание контента, академические исследования, интеллектуальные рекомендации, медицинскую диагностику и т. д., поддерживающая обработку длинных текстов и сложные задачи генерации." + }, + "novita": { + "description": "Novita AI — это платформа, предлагающая API-сервисы для различных больших языковых моделей и генерации изображений AI, гибкая, надежная и экономически эффективная. Она поддерживает новейшие открытые модели, такие как Llama3, Mistral и предоставляет комплексные, удобные для пользователя и автоматически масштабируемые API-решения для разработки генеративных AI-приложений, подходящие для быстрого роста AI-стартапов." + }, + "ollama": { + "description": "Модели, предлагаемые Ollama, охватывают широкий спектр областей, включая генерацию кода, математические вычисления, многоязыковую обработку и диалоговое взаимодействие, поддерживая разнообразные потребности в развертывании на уровне предприятий и локализации." + }, + "openai": { + "description": "OpenAI является ведущим мировым исследовательским институтом в области искусственного интеллекта, чьи модели, такие как серия GPT, продвигают границы обработки естественного языка. OpenAI стремится изменить множество отраслей с помощью инновационных и эффективных AI-решений. Их продукты обладают выдающимися характеристиками и экономичностью, широко используются в исследованиях, бизнесе и инновационных приложениях." + }, + "openrouter": { + "description": "OpenRouter — это сервисная платформа, предлагающая интерфейсы для различных передовых больших моделей, поддерживающая OpenAI, Anthropic, LLaMA и другие, подходящая для разнообразных потребностей в разработке и применении. Пользователи могут гибко выбирать оптимальные модели и цены в зависимости от своих потребностей, что способствует улучшению AI-опыта." + }, + "perplexity": { + "description": "Perplexity — это ведущий поставщик моделей генерации диалогов, предлагающий множество передовых моделей Llama 3.1, поддерживающих онлайн и оффлайн приложения, особенно подходящих для сложных задач обработки естественного языка." + }, + "qwen": { + "description": "Qwen — это сверхбольшая языковая модель, разработанная Alibaba Cloud, обладающая мощными возможностями понимания и генерации естественного языка. Она может отвечать на различные вопросы, создавать текстовый контент, выражать мнения и писать код, играя важную роль в различных областях." + }, + "siliconcloud": { + "description": "SiliconFlow стремится ускорить AGI, чтобы принести пользу человечеству, повышая эффективность масштабного AI с помощью простого и экономичного стека GenAI." + }, + "spark": { + "description": "Стартап iFlytek Starfire предоставляет мощные AI-возможности в различных областях и языках, используя передовые технологии обработки естественного языка для создания инновационных приложений, подходящих для умных устройств, умного здравоохранения, умных финансов и других вертикальных сценариев." + }, + "stepfun": { + "description": "StepFun — это большая модель, обладающая передовыми мультимодальными и сложными выводными возможностями, поддерживающая понимание сверхдлинных текстов и мощные функции автономного поиска." + }, + "taichu": { + "description": "Новая генерация мультимодальных больших моделей, разработанная Институтом автоматизации Китайской академии наук и Институтом искусственного интеллекта Уханя, поддерживает многораундные вопросы и ответы, создание текстов, генерацию изображений, 3D-понимание, анализ сигналов и другие комплексные задачи, обладая более сильными когнитивными, понимательными и творческими способностями, предлагая новый опыт взаимодействия." + }, + "togetherai": { + "description": "Together AI стремится достичь передовых результатов с помощью инновационных AI-моделей, предлагая широкий спектр возможностей для настройки, включая поддержку быстрого масштабирования и интуитивно понятные процессы развертывания, чтобы удовлетворить различные потребности бизнеса." + }, + "upstage": { + "description": "Upstage сосредоточен на разработке AI-моделей для различных бизнес-потребностей, включая Solar LLM и документальный AI, с целью достижения искусственного общего интеллекта (AGI). Создавайте простые диалоговые агенты через Chat API и поддерживайте вызовы функций, переводы, встраивания и приложения в конкретных областях." + }, + "zeroone": { + "description": "01.AI сосредоточен на технологиях искусственного интеллекта 2.0, активно продвигая инновации и применение \"человек + искусственный интеллект\", используя мощные модели и передовые AI-технологии для повышения производительности человека и реализации технологического потенциала." + }, + "zhipu": { + "description": "Zhipu AI предлагает открытую платформу для мультимодальных и языковых моделей, поддерживающую широкий спектр AI-приложений, включая обработку текста, понимание изображений и помощь в программировании." + } +} diff --git a/locales/tr-TR/common.json b/locales/tr-TR/common.json index 27bae75e3f6b..0c261e9fd664 100644 --- a/locales/tr-TR/common.json +++ b/locales/tr-TR/common.json @@ -195,8 +195,8 @@ }, "tab": { "chat": "Chat", + "discover": "Keşfet", "files": "Dosyalar", - "market": "Keşfet", "me": "ben", "setting": "Ayarlar" }, diff --git a/locales/tr-TR/discover.json b/locales/tr-TR/discover.json new file mode 100644 index 000000000000..0896540a6138 --- /dev/null +++ b/locales/tr-TR/discover.json @@ -0,0 +1,204 @@ +{ + "assistants": { + "addAgent": "Asistan Ekle", + "addAgentAndConverse": "Asistan Ekle ve Sohbet Et", + "addAgentSuccess": "Başarıyla Eklendi", + "conversation": { + "l1": "Merhaba, ben **{{name}}**. Bana her türlü soruyu sorabilirsin, elimden gelenin en iyisini yapacağım ~", + "l2": "İşte yeteneklerimin tanıtımı: ", + "l3": "Haydi sohbete başlayalım!" + }, + "description": "Asistan Tanıtımı", + "detail": "Detaylar", + "list": "Asistan Listesi", + "more": "Daha Fazla", + "plugins": "Entegre Eklentiler", + "recentSubmits": "Son Güncellemeler", + "suggestions": "İlgili Öneriler", + "systemRole": "Asistan Ayarları", + "try": "Deneyin" + }, + "back": "Geri Dön", + "category": { + "assistant": { + "academic": "Akademik", + "all": "Hepsi", + "career": "Kariyer", + "copywriting": "Metin Yazarlığı", + "design": "Tasarım", + "education": "Eğitim", + "emotions": "Duygular", + "entertainment": "Eğlence", + "games": "Oyunlar", + "general": "Genel", + "life": "Hayat", + "marketing": "Pazarlama", + "office": "Ofis", + "programming": "Programlama", + "translation": "Çeviri" + }, + "plugin": { + "all": "Hepsi", + "gaming-entertainment": "Oyun Eğlencesi", + "life-style": "Yaşam Tarzı", + "media-generate": "Medya Üretimi", + "science-education": "Bilim ve Eğitim", + "social": "Sosyal Medya", + "stocks-finance": "Hisse Senedi ve Finans", + "tools": "Pratik Araçlar", + "web-search": "Web Arama" + } + }, + "cleanFilter": "Filtreyi Temizle", + "create": "Oluştur", + "createGuide": { + "func1": { + "desc1": "Sohbet penceresinde sağ üst köşedeki ayarlar üzerinden eklemek istediğin asistanın ayar sayfasına git;", + "desc2": "Sağ üst köşedeki asistan pazarına gönder butonuna tıkla.", + "tag": "Yöntem 1", + "title": "LobeChat ile Gönder" + }, + "func2": { + "button": "Github Asistan Deposu'na Git", + "desc": "Asistanı dizine eklemek istiyorsanız, plugins dizininde agent-template.json veya agent-template-full.json kullanarak bir giriş oluşturun, kısa bir açıklama yazın ve uygun şekilde etiketleyin, ardından bir çekme isteği oluşturun.", + "tag": "Yöntem 2", + "title": "Github ile Gönder" + } + }, + "dislike": "Beğenmedim", + "filter": "Filtrele", + "filterBy": { + "authorRange": { + "everyone": "Tüm Yazarlar", + "followed": "Takip Edilen Yazarlar", + "title": "Yazar Aralığı" + }, + "contentLength": "Minimum Bağlam Uzunluğu", + "maxToken": { + "title": "Maksimum Uzunluğu Belirle (Token)", + "unlimited": "Sınırsız" + }, + "other": { + "functionCall": "Fonksiyon Çağrısını Destekle", + "title": "Diğer", + "vision": "Görsel Tanımayı Destekle", + "withKnowledge": "Bilgi Tabanı ile", + "withTool": "Araç ile" + }, + "pricing": "Model Fiyatı", + "timePeriod": { + "all": "Tüm Zamanlar", + "day": "Son 24 Saat", + "month": "Son 30 Gün", + "title": "Zaman Aralığı", + "week": "Son 7 Gün", + "year": "Son 1 Yıl" + } + }, + "home": { + "featuredAssistants": "Öne Çıkan Asistanlar", + "featuredModels": "Öne Çıkan Modeller", + "featuredProviders": "Öne Çıkan Model Sağlayıcıları", + "featuredTools": "Öne Çıkan Araçlar", + "more": "Daha Fazla Keşfet" + }, + "like": "Beğendim", + "models": { + "chat": "Sohbete Başla", + "contentLength": "Maksimum Bağlam Uzunluğu", + "free": "Ücretsiz", + "guide": "Yapılandırma Kılavuzu", + "list": "Model Listesi", + "more": "Daha Fazla", + "parameterList": { + "defaultValue": "Varsayılan Değer", + "docs": "Belgeleri Görüntüle", + "frequency_penalty": { + "desc": "Bu ayar, modelin girdi içinde zaten bulunan belirli kelimelerin tekrar kullanım sıklığını ayarlamak için kullanılır. Daha yüksek değerler, bu tekrarların olasılığını azaltırken, negatif değerler ters etki yaratır. Kelime cezası, tekrar sayısına göre artmaz. Negatif değerler, kelimelerin tekrar kullanımını teşvik eder.", + "title": "Frekans Cezası" + }, + "max_tokens": { + "desc": "Bu ayar, modelin tek bir yanıtında üretebileceği maksimum uzunluğu tanımlar. Daha yüksek bir değer ayarlamak, modelin daha uzun yanıtlar üretmesine izin verirken, daha düşük bir değer yanıtın uzunluğunu kısıtlayarak daha özlü hale getirir. Farklı uygulama senaryolarına göre bu değeri makul bir şekilde ayarlamak, beklenen yanıt uzunluğuna ve ayrıntı seviyesine ulaşmaya yardımcı olabilir.", + "title": "Tek Yanıt Sınırı" + }, + "presence_penalty": { + "desc": "Bu ayar, kelimelerin girdi içinde görünme sıklığına göre tekrar kullanımını kontrol etmeyi amaçlar. Girdi içinde daha fazla bulunan kelimeleri daha az kullanmaya çalışır, kullanma sıklığı görünme sıklığı ile orantılıdır. Kelime cezası, tekrar sayısına göre artar. Negatif değerler, kelimelerin tekrar kullanımını teşvik eder.", + "title": "Konu Tazeliği" + }, + "range": "Aralık", + "temperature": { + "desc": "Bu ayar, modelin yanıtlarının çeşitliliğini etkiler. Daha düşük değerler daha öngörülebilir ve tipik yanıtlar verirken, daha yüksek değerler daha çeşitli ve nadir yanıtları teşvik eder. Değer 0 olarak ayarlandığında, model belirli bir girdi için her zaman aynı yanıtı verir.", + "title": "Rastgelelik" + }, + "title": "Model Parametreleri", + "top_p": { + "desc": "Bu ayar, modelin seçimlerini olasılığı en yüksek olan belirli bir oranla sınırlamak için kullanılır: yalnızca P'ye ulaşan toplam olasılığa sahip en iyi kelimeleri seçer. Daha düşük değerler, modelin yanıtlarını daha öngörülebilir hale getirirken, varsayılan ayar modelin tüm kelime yelpazesinden seçim yapmasına izin verir.", + "title": "Nükleer Örnekleme" + }, + "type": "Tür" + }, + "providerInfo": { + "apiTooltip": "LobeChat, bu sağlayıcı için özel API anahtarları kullanmayı destekler.", + "input": "Girdi Fiyatı", + "inputTooltip": "Her milyon Token için maliyet", + "latency": "Gecikme", + "latencyTooltip": "Sağlayıcının ilk Token'ı gönderme ortalama süresi", + "maxOutput": "Maksimum Çıktı Uzunluğu", + "maxOutputTooltip": "Bu uç noktanın üretebileceği maksimum Token sayısı", + "officialTooltip": "LobeHub Resmi Hizmeti", + "output": "Çıktı Fiyatı", + "outputTooltip": "Her milyon Token için maliyet", + "streamCancellationTooltip": "Bu sağlayıcı akış iptal işlevini destekler.", + "throughput": "Verim", + "throughputTooltip": "Akış talepleri başına saniyede iletilen ortalama Token sayısı" + }, + "suggestions": "İlgili Modeller", + "supportedProviders": "Bu modeli destekleyen sağlayıcılar" + }, + "plugins": { + "community": "Topluluk Eklentisi", + "install": "Eklenti Yükle", + "installed": "Yüklü", + "list": "Eklenti Listesi", + "meta": { + "description": "Açıklama", + "parameter": "Parametre", + "title": "Araç Parametreleri", + "type": "Tür" + }, + "more": "Daha Fazla", + "official": "Resmi Eklenti", + "recentSubmits": "Son Güncellemeler", + "suggestions": "İlgili Öneriler" + }, + "providers": { + "config": "Sağlayıcıyı Yapılandır", + "list": "Model Sağlayıcıları Listesi", + "modelCount": "{{count}} model", + "modelSite": "Model belgeleri", + "more": "Daha Fazla", + "officialSite": "Resmi site", + "showAllModels": "Tüm modelleri göster", + "suggestions": "İlgili Sağlayıcılar", + "supportedModels": "Desteklenen Modeller" + }, + "search": { + "placeholder": "İsim, tanım veya anahtar kelime ara...", + "result": "{{count}} adet {{keyword}} ile ilgili arama sonucu", + "searching": "Aranıyor..." + }, + "sort": { + "mostLiked": "En Çok Beğenilen", + "mostUsed": "En Çok Kullanılan", + "newest": "En Yeniler", + "oldest": "En Eski", + "recommended": "Tavsiye Edilen" + }, + "tab": { + "assistants": "Asistanlar", + "home": "Ana Sayfa", + "models": "Modeller", + "plugins": "Eklentiler", + "providers": "Model Sağlayıcıları" + } +} diff --git a/locales/tr-TR/metadata.json b/locales/tr-TR/metadata.json index 33733e824700..66892ae76502 100644 --- a/locales/tr-TR/metadata.json +++ b/locales/tr-TR/metadata.json @@ -3,9 +3,26 @@ "description": "{{appName}} size en iyi ChatGPT, Claude, Gemini, OLLaMA WebUI deneyimini sunar", "title": "{{appName}}: Kişisel AI verimlilik aracı, kendinize daha akıllı bir zihin verin" }, - "market": { - "description": "İçerik oluşturma, metin yazımı, soru-cevap, görsel oluşturma, video oluşturma, ses oluşturma, akıllı ajan, otomatik iş akışları, size özel AI akıllı asistanınızı özelleştirin", - "title": "Asistan Pazarı" + "discover": { + "assistants": { + "description": "İçerik oluşturma, metin yazımı, soru-cevap, görsel oluşturma, video oluşturma, ses oluşturma, akıllı Ajan, otomatik iş akışları, size özel AI / GPTs / OLLaMA akıllı asistanınızı özelleştirin.", + "title": "Yapay Zeka Asistanları" + }, + "description": "İçerik oluşturma, metin yazımı, soru-cevap, görsel oluşturma, video oluşturma, ses oluşturma, akıllı Ajan, otomatik iş akışları, özelleştirilmiş AI uygulamaları, size özel AI uygulama çalışma alanınızı oluşturun.", + "models": { + "description": "Ana akım AI modellerini keşfedin: OpenAI / GPT / Claude 3 / Gemini / Ollama / Azure / DeepSeek.", + "title": "Yapay Zeka Modelleri" + }, + "plugins": { + "description": "Grafik oluşturma, akademik, görüntü oluşturma, video oluşturma, ses oluşturma, otomatik iş akışları için asistanınıza zengin eklenti yetenekleri entegre edin.", + "title": "Yapay Zeka Eklentileri" + }, + "providers": { + "description": "Ana akım model sağlayıcılarını keşfedin: OpenAI / Qwen / Ollama / Anthropic / DeepSeek / Google Gemini / OpenRouter.", + "title": "Yapay Zeka Modeli Sağlayıcıları" + }, + "search": "Ara", + "title": "Keşfet" }, "plugins": { "description": "Arama, grafik oluşturma, akademik, görsel oluşturma, video oluşturma, ses oluşturma, otomatik iş akışları, ChatGPT / Claude için özel ToolCall eklenti yeteneklerini özelleştirin", diff --git a/locales/tr-TR/models.json b/locales/tr-TR/models.json new file mode 100644 index 000000000000..7a017961302b --- /dev/null +++ b/locales/tr-TR/models.json @@ -0,0 +1,845 @@ +{ + "01-ai/Yi-1.5-34B-Chat-16K": { + "description": "Yi-1.5 34B, zengin eğitim örnekleri ile endüstri uygulamalarında üstün performans sunar." + }, + "01-ai/Yi-1.5-6B-Chat": { + "description": "Yi-1.5, Yi serisinin evrimsel versiyonudur, yüksek kaliteli ön eğitim ve zengin ince ayar verilerine sahiptir." + }, + "01-ai/Yi-1.5-9B-Chat-16K": { + "description": "Yi-1.5 9B, 16K Token desteği sunar, etkili ve akıcı dil oluşturma yeteneği sağlar." + }, + "360gpt-pro": { + "description": "360GPT Pro, 360 AI model serisinin önemli bir üyesi olarak, çeşitli doğal dil uygulama senaryolarını karşılamak için etkili metin işleme yeteneği sunar, uzun metin anlama ve çoklu diyalog gibi işlevleri destekler." + }, + "360gpt-turbo": { + "description": "360GPT Turbo, güçlü hesaplama ve diyalog yetenekleri sunar, mükemmel anlam anlama ve oluşturma verimliliğine sahiptir, işletmeler ve geliştiriciler için ideal bir akıllı asistan çözümüdür." + }, + "360gpt-turbo-responsibility-8k": { + "description": "360GPT Turbo Responsibility 8K, anlam güvenliği ve sorumluluk odaklılığı vurgular, içerik güvenliği konusunda yüksek gereksinimlere sahip uygulama senaryoları için tasarlanmıştır, kullanıcı deneyiminin doğruluğunu ve sağlamlığını garanti eder." + }, + "360gpt2-pro": { + "description": "360GPT2 Pro, 360 şirketi tarafından sunulan yüksek düzeyde doğal dil işleme modelidir, mükemmel metin oluşturma ve anlama yeteneğine sahiptir, özellikle oluşturma ve yaratma alanında olağanüstü performans gösterir, karmaşık dil dönüşümleri ve rol canlandırma görevlerini işleyebilir." + }, + "4.0Ultra": { + "description": "Spark4.0 Ultra, Xinghuo büyük model serisinin en güçlü versiyonudur, çevrimiçi arama bağlantısını yükseltirken, metin içeriğini anlama ve özetleme yeteneğini artırır. Ofis verimliliğini artırmak ve taleplere doğru yanıt vermek için kapsamlı bir çözüm sunar, sektördeki akıllı ürünlerin öncüsüdür." + }, + "Baichuan2-Turbo": { + "description": "Arama artırma teknolojisi kullanarak büyük model ile alan bilgisi ve tüm ağ bilgisi arasında kapsamlı bir bağlantı sağlar. PDF, Word gibi çeşitli belge yüklemelerini ve URL girişini destekler, bilgi edinimi zamanında ve kapsamlıdır, çıktı sonuçları doğru ve profesyoneldir." + }, + "Baichuan3-Turbo": { + "description": "Kurumsal yüksek frekanslı senaryolar için optimize edilmiş, etkisi büyük ölçüde artırılmış ve yüksek maliyet etkinliği sunmaktadır. Baichuan2 modeline kıyasla, içerik üretimi %20, bilgi sorgulama %17, rol oynama yeteneği %40 oranında artmıştır. Genel performansı GPT3.5'ten daha iyidir." + }, + "Baichuan3-Turbo-128k": { + "description": "128K ultra uzun bağlam penceresine sahip, kurumsal yüksek frekanslı senaryolar için optimize edilmiş, etkisi büyük ölçüde artırılmış ve yüksek maliyet etkinliği sunmaktadır. Baichuan2 modeline kıyasla, içerik üretimi %20, bilgi sorgulama %17, rol oynama yeteneği %40 oranında artmıştır. Genel performansı GPT3.5'ten daha iyidir." + }, + "Baichuan4": { + "description": "Model yetenekleri ülke içinde birinci sırada, bilgi ansiklopedisi, uzun metinler, yaratıcı üretim gibi Çince görevlerde yurtdışındaki önde gelen modelleri geride bırakmaktadır. Ayrıca, sektör lideri çok modlu yeteneklere sahiptir ve birçok yetkili değerlendirme kriterinde mükemmel performans göstermektedir." + }, + "Gryphe/MythoMax-L2-13b": { + "description": "MythoMax-L2 (13B), çok alanlı uygulamalar ve karmaşık görevler için uygun yenilikçi bir modeldir." + }, + "Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Hermes 2 Mixtral 8x7B DPO, olağanüstü yaratıcı deneyimler sunmak için tasarlanmış son derece esnek bir çoklu model birleşimidir." + }, + "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B), karmaşık hesaplamalar için yüksek hassasiyetli bir talimat modelidir." + }, + "NousResearch/Nous-Hermes-2-Yi-34B": { + "description": "Nous Hermes-2 Yi (34B), optimize edilmiş dil çıktısı ve çeşitli uygulama olasılıkları sunar." + }, + "Pro-128k": { + "description": "Spark Pro-128K, olağanüstü bağlam işleme yeteneği ile donatılmıştır, 128K'ya kadar bağlam bilgisi işleyebilir, özellikle uzun metin içeriklerinde bütünsel analiz ve uzun vadeli mantıksal bağlantı işleme gerektiren durumlar için uygundur, karmaşık metin iletişiminde akıcı ve tutarlı bir mantık ile çeşitli alıntı desteği sunar." + }, + "Qwen/Qwen1.5-110B-Chat": { + "description": "Qwen2'nin test sürümü olan Qwen1.5, büyük ölçekli verilerle daha hassas diyalog yetenekleri sunar." + }, + "Qwen/Qwen1.5-14B-Chat": { + "description": "Qwen1.5, büyük ölçekli veri setleri ile eğitilmiş olup, karmaşık dil görevlerinde uzmandır." + }, + "Qwen/Qwen1.5-32B-Chat": { + "description": "Qwen1.5, çok alanlı bilgi sorgulama ve metin oluşturma yeteneğine sahiptir." + }, + "Qwen/Qwen1.5-72B-Chat": { + "description": "Qwen 1.5 Chat (72B), hızlı yanıt ve doğal diyalog yetenekleri sunar, çok dilli ortamlara uygundur." + }, + "Qwen/Qwen1.5-7B-Chat": { + "description": "Qwen1.5, gelişmiş ön eğitim ve ince ayar kombinasyonu ile diyalog ifade yeteneğini artırır." + }, + "Qwen/Qwen2-1.5B-Instruct": { + "description": "Qwen2, talimat tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir." + }, + "Qwen/Qwen2-57B-A14B-Instruct": { + "description": "Qwen2, talimat görevlerinde mükemmel performans gösteren 57B A14B modelidir." + }, + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2, çok çeşitli talimat türlerini destekleyen gelişmiş bir genel dil modelidir." + }, + "Qwen/Qwen2-7B-Instruct": { + "description": "Qwen2, daha güçlü anlama ve oluşturma yeteneklerine sahip yeni bir büyük dil modeli serisidir." + }, + "Qwen/Qwen2-Math-72B-Instruct": { + "description": "Qwen2-Math, matematik alanındaki sorunları çözmeye odaklanır ve zorlu sorulara profesyonel yanıtlar sunar." + }, + "THUDM/chatglm3-6b": { + "description": "Çift dilli diyalog dil modeli olarak, ChatGLM3, Çince ve İngilizce dönüşüm görevlerini işleyebilir." + }, + "THUDM/glm-4-9b-chat": { + "description": "GLM-4 9B açık kaynak versiyonu, diyalog uygulamaları için optimize edilmiş bir diyalog deneyimi sunar." + }, + "abab5.5-chat": { + "description": "Üretkenlik senaryoları için tasarlanmış, karmaşık görev işleme ve verimli metin üretimini destekler, profesyonel alan uygulamaları için uygundur." + }, + "abab5.5s-chat": { + "description": "Çin karakter diyalog senaryoları için tasarlanmış, yüksek kaliteli Çin diyalog üretim yeteneği sunar ve çeşitli uygulama senaryoları için uygundur." + }, + "abab6.5g-chat": { + "description": "Çok dilli karakter diyalogları için tasarlanmış, İngilizce ve diğer birçok dilde yüksek kaliteli diyalog üretimini destekler." + }, + "abab6.5s-chat": { + "description": "Metin üretimi, diyalog sistemleri gibi geniş doğal dil işleme görevleri için uygundur." + }, + "abab6.5t-chat": { + "description": "Çin karakter diyalog senaryoları için optimize edilmiş, akıcı ve Çin ifade alışkanlıklarına uygun diyalog üretim yeteneği sunar." + }, + "accounts/fireworks/models/firefunction-v1": { + "description": "Fireworks açık kaynak fonksiyon çağrı modeli, mükemmel talimat yürütme yetenekleri ve özelleştirilebilir özellikler sunar." + }, + "accounts/fireworks/models/firefunction-v2": { + "description": "Fireworks şirketinin en son ürünü Firefunction-v2, Llama-3 tabanlı, fonksiyon çağrıları, diyalog ve talimat takibi gibi senaryolar için özel olarak optimize edilmiş yüksek performanslı bir modeldir." + }, + "accounts/fireworks/models/firellava-13b": { + "description": "fireworks-ai/FireLLaVA-13b, hem görüntü hem de metin girdilerini alabilen, yüksek kaliteli verilerle eğitilmiş bir görsel dil modelidir ve çok modlu görevler için uygundur." + }, + "accounts/fireworks/models/gemma2-9b-it": { + "description": "Gemma 2 9B talimat modeli, önceki Google teknolojilerine dayanarak, soru yanıtlama, özetleme ve akıl yürütme gibi çeşitli metin üretim görevleri için uygundur." + }, + "accounts/fireworks/models/llama-v3-70b-instruct": { + "description": "Llama 3 70B talimat modeli, çok dilli diyalog ve doğal dil anlama için optimize edilmiştir, çoğu rakip modelden daha iyi performans gösterir." + }, + "accounts/fireworks/models/llama-v3-70b-instruct-hf": { + "description": "Llama 3 70B talimat modeli (HF versiyonu), resmi uygulama sonuçlarıyla uyumlu olup yüksek kaliteli talimat takibi görevleri için uygundur." + }, + "accounts/fireworks/models/llama-v3-8b-instruct": { + "description": "Llama 3 8B talimat modeli, diyalog ve çok dilli görevler için optimize edilmiştir, mükemmel ve etkili performans sunar." + }, + "accounts/fireworks/models/llama-v3-8b-instruct-hf": { + "description": "Llama 3 8B talimat modeli (HF versiyonu), resmi uygulama sonuçlarıyla uyumlu olup yüksek tutarlılık ve platformlar arası uyumluluk sunar." + }, + "accounts/fireworks/models/llama-v3p1-405b-instruct": { + "description": "Llama 3.1 405B talimat modeli, devasa parametreler ile karmaşık görevler ve yüksek yük senaryolarında talimat takibi için uygundur." + }, + "accounts/fireworks/models/llama-v3p1-70b-instruct": { + "description": "Llama 3.1 70B talimat modeli, mükemmel doğal dil anlama ve üretim yetenekleri sunar, diyalog ve analiz görevleri için idealdir." + }, + "accounts/fireworks/models/llama-v3p1-8b-instruct": { + "description": "Llama 3.1 8B talimat modeli, çok dilli diyaloglar için optimize edilmiştir ve yaygın endüstri standartlarını aşmaktadır." + }, + "accounts/fireworks/models/mixtral-8x22b-instruct": { + "description": "Mixtral MoE 8x22B talimat modeli, büyük ölçekli parametreler ve çok uzmanlı mimarisi ile karmaşık görevlerin etkili işlenmesini destekler." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct": { + "description": "Mixtral MoE 8x7B talimat modeli, çok uzmanlı mimarisi ile etkili talimat takibi ve yürütme sunar." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct-hf": { + "description": "Mixtral MoE 8x7B talimat modeli (HF versiyonu), resmi uygulama ile uyumlu olup çeşitli yüksek verimli görev senaryoları için uygundur." + }, + "accounts/fireworks/models/mythomax-l2-13b": { + "description": "MythoMax L2 13B modeli, yenilikçi birleşim teknolojileri ile hikaye anlatımı ve rol yapma konularında uzmandır." + }, + "accounts/fireworks/models/phi-3-vision-128k-instruct": { + "description": "Phi 3 Vision talimat modeli, karmaşık görsel ve metin bilgilerini işleyebilen hafif çok modlu bir modeldir ve güçlü akıl yürütme yeteneklerine sahiptir." + }, + "accounts/fireworks/models/starcoder-16b": { + "description": "StarCoder 15.5B modeli, ileri düzey programlama görevlerini destekler, çok dilli yetenekleri artırır ve karmaşık kod üretimi ve anlama için uygundur." + }, + "accounts/fireworks/models/starcoder-7b": { + "description": "StarCoder 7B modeli, 80'den fazla programlama dili için eğitilmiş olup, mükemmel programlama tamamlama yetenekleri ve bağlam anlama sunar." + }, + "accounts/yi-01-ai/models/yi-large": { + "description": "Yi-Large modeli, mükemmel çok dilli işleme yetenekleri sunar ve her türlü dil üretimi ve anlama görevleri için uygundur." + }, + "anthropic.claude-3-5-sonnet-20240620-v1:0": { + "description": "Claude 3.5 Sonnet, endüstri standartlarını yükselterek, rakip modelleri ve Claude 3 Opus'u geride bırakarak geniş bir değerlendirmede mükemmel performans sergilerken, orta seviye modellerimizin hızı ve maliyeti ile birlikte gelir." + }, + "anthropic.claude-3-haiku-20240307-v1:0": { + "description": "Claude 3 Haiku, Anthropic'in en hızlı ve en kompakt modelidir, neredeyse anında yanıt hızı sunar. Basit sorgular ve taleplere hızlı bir şekilde yanıt verebilir. Müşteriler, insan etkileşimini taklit eden kesintisiz bir AI deneyimi oluşturabileceklerdir. Claude 3 Haiku, görüntüleri işleyebilir ve metin çıktısı döndürebilir, 200K bağlam penceresine sahiptir." + }, + "anthropic.claude-3-opus-20240229-v1:0": { + "description": "Claude 3 Opus, Anthropic'in en güçlü AI modelidir, son derece karmaşık görevlerde en ileri düzey performansa sahiptir. Açık uçlu istemleri ve daha önce görülmemiş senaryoları işleyebilir, mükemmel akıcılık ve insan benzeri anlama yeteneğine sahiptir. Claude 3 Opus, üretken AI olasılıklarının öncüsüdür. Claude 3 Opus, görüntüleri işleyebilir ve metin çıktısı döndürebilir, 200K bağlam penceresine sahiptir." + }, + "anthropic.claude-3-sonnet-20240229-v1:0": { + "description": "Anthropic'in Claude 3 Sonnet, zeka ve hız arasında ideal bir denge sağlar - özellikle kurumsal iş yükleri için uygundur. Rakiplerine göre daha düşük bir fiyatla maksimum fayda sunar ve ölçeklenebilir AI dağıtımları için güvenilir, dayanıklı bir ana makine olarak tasarlanmıştır. Claude 3 Sonnet, görüntüleri işleyebilir ve metin çıktısı döndürebilir, 200K bağlam penceresine sahiptir." + }, + "anthropic.claude-instant-v1": { + "description": "Günlük diyaloglar, metin analizi, özetleme ve belge soru-cevap gibi bir dizi görevi işleyebilen hızlı, ekonomik ve hala oldukça yetenekli bir modeldir." + }, + "anthropic.claude-v2": { + "description": "Anthropic, karmaşık diyaloglardan yaratıcı içerik üretimine ve ayrıntılı talimat takibine kadar geniş bir görev yelpazesinde yüksek yetenek sergileyen bir modeldir." + }, + "anthropic.claude-v2:1": { + "description": "Claude 2'nin güncellenmiş versiyonu, iki kat daha büyük bir bağlam penceresine sahiptir ve uzun belgeler ve RAG bağlamındaki güvenilirlik, yanılsama oranı ve kanıta dayalı doğrulukta iyileştirmeler sunar." + }, + "anthropic/claude-3-haiku": { + "description": "Claude 3 Haiku, Anthropic'in en hızlı ve en kompakt modelidir; neredeyse anlık yanıtlar sağlamak için tasarlanmıştır. Hızlı ve doğru yönlendirme performansına sahiptir." + }, + "anthropic/claude-3-opus": { + "description": "Claude 3 Opus, Anthropic'in son derece karmaşık görevleri işlemek için en güçlü modelidir. Performans, zeka, akıcılık ve anlama açısından olağanüstü bir performans sergiler." + }, + "anthropic/claude-3.5-sonnet": { + "description": "Claude 3.5 Sonnet, Opus'tan daha fazla yetenek ve Sonnet'ten daha hızlı bir hız sunar; aynı zamanda Sonnet ile aynı fiyatı korur. Sonnet, programlama, veri bilimi, görsel işleme ve ajan görevlerinde özellikle başarılıdır." + }, + "aya": { + "description": "Aya 23, Cohere tarafından sunulan çok dilli bir modeldir, 23 dili destekler ve çok dilli uygulamalar için kolaylık sağlar." + }, + "aya:35b": { + "description": "Aya 23, Cohere tarafından sunulan çok dilli bir modeldir, 23 dili destekler ve çok dilli uygulamalar için kolaylık sağlar." + }, + "charglm-3": { + "description": "CharGLM-3, rol yapma ve duygusal destek için tasarlanmış, ultra uzun çok turlu bellek ve kişiselleştirilmiş diyalog desteği sunan bir modeldir, geniş bir uygulama yelpazesine sahiptir." + }, + "chatgpt-4o-latest": { + "description": "ChatGPT-4o, güncel versiyonunu korumak için gerçek zamanlı olarak güncellenen dinamik bir modeldir. Güçlü dil anlama ve üretme yeteneklerini birleştirir, müşteri hizmetleri, eğitim ve teknik destek gibi geniş ölçekli uygulama senaryoları için uygundur." + }, + "claude-2.0": { + "description": "Claude 2, işletmelere kritik yeteneklerin ilerlemesini sunar, sektördeki en iyi 200K token bağlamı, model yanılsamalarının önemli ölçüde azaltılması, sistem ipuçları ve yeni bir test özelliği: araç çağrısı içerir." + }, + "claude-2.1": { + "description": "Claude 2, işletmelere kritik yeteneklerin ilerlemesini sunar, sektördeki en iyi 200K token bağlamı, model yanılsamalarının önemli ölçüde azaltılması, sistem ipuçları ve yeni bir test özelliği: araç çağrısı içerir." + }, + "claude-3-5-sonnet-20240620": { + "description": "Claude 3.5 Sonnet, Opus'tan daha fazla yetenek ve Sonnet'ten daha hızlı bir performans sunar, aynı zamanda Sonnet ile aynı fiyatı korur. Sonnet, programlama, veri bilimi, görsel işleme ve ajan görevlerinde özellikle başarılıdır." + }, + "claude-3-haiku-20240307": { + "description": "Claude 3 Haiku, Anthropic'in en hızlı ve en kompakt modelidir, neredeyse anlık yanıtlar sağlamak için tasarlanmıştır. Hızlı ve doğru yönlendirme performansına sahiptir." + }, + "claude-3-opus-20240229": { + "description": "Claude 3 Opus, Anthropic'in yüksek karmaşıklıkta görevleri işlemek için en güçlü modelidir. Performans, zeka, akıcılık ve anlama açısından mükemmel bir şekilde öne çıkar." + }, + "claude-3-sonnet-20240229": { + "description": "Claude 3 Sonnet, akıllı ve hızlı bir denge sunarak kurumsal iş yükleri için idealdir. Daha düşük bir fiyatla maksimum fayda sağlar, güvenilir ve büyük ölçekli dağıtım için uygundur." + }, + "claude-instant-1.2": { + "description": "Anthropic'in modeli, düşük gecikme ve yüksek verimlilikte metin üretimi için kullanılır, yüzlerce sayfa metin üretebilir." + }, + "codegeex-4": { + "description": "CodeGeeX-4, çeşitli programlama dillerinde akıllı soru-cevap ve kod tamamlama desteği sunan güçlü bir AI programlama asistanıdır, geliştirme verimliliğini artırır." + }, + "codegemma": { + "description": "CodeGemma, farklı programlama görevleri için özel olarak tasarlanmış hafif bir dil modelidir, hızlı iterasyon ve entegrasyonu destekler." + }, + "codegemma:2b": { + "description": "CodeGemma, farklı programlama görevleri için özel olarak tasarlanmış hafif bir dil modelidir, hızlı iterasyon ve entegrasyonu destekler." + }, + "codellama": { + "description": "Code Llama, kod üretimi ve tartışmalarına odaklanan bir LLM'dir, geniş programlama dili desteği ile geliştirici ortamları için uygundur." + }, + "codellama:13b": { + "description": "Code Llama, kod üretimi ve tartışmalarına odaklanan bir LLM'dir, geniş programlama dili desteği ile geliştirici ortamları için uygundur." + }, + "codellama:34b": { + "description": "Code Llama, kod üretimi ve tartışmalarına odaklanan bir LLM'dir, geniş programlama dili desteği ile geliştirici ortamları için uygundur." + }, + "codellama:70b": { + "description": "Code Llama, kod üretimi ve tartışmalarına odaklanan bir LLM'dir, geniş programlama dili desteği ile geliştirici ortamları için uygundur." + }, + "codeqwen": { + "description": "CodeQwen1.5, büyük miktarda kod verisi ile eğitilmiş büyük bir dil modelidir, karmaşık programlama görevlerini çözmek için özel olarak tasarlanmıştır." + }, + "codestral": { + "description": "Codestral, Mistral AI'nın ilk kod modelidir, kod üretim görevlerine mükemmel destek sunar." + }, + "codestral-latest": { + "description": "Codestral, kod üretimine odaklanan son teknoloji bir üretim modelidir, ara doldurma ve kod tamamlama görevlerini optimize etmiştir." + }, + "cognitivecomputations/dolphin-mixtral-8x22b": { + "description": "Dolphin Mixtral 8x22B, talimat takibi, diyalog ve programlama için tasarlanmış bir modeldir." + }, + "command-r": { + "description": "Command R, diyalog ve uzun bağlam görevleri için optimize edilmiş bir LLM'dir, dinamik etkileşim ve bilgi yönetimi için özellikle uygundur." + }, + "command-r-plus": { + "description": "Command R+, gerçek işletme senaryoları ve karmaşık uygulamalar için tasarlanmış yüksek performanslı bir büyük dil modelidir." + }, + "databricks/dbrx-instruct": { + "description": "DBRX Instruct, yüksek güvenilirlikte talimat işleme yetenekleri sunar ve çok çeşitli endüstri uygulamalarını destekler." + }, + "deepseek-ai/DeepSeek-Coder-V2-Instruct": { + "description": "DeepSeek Coder V2, kod görevleri için tasarlanmış olup, etkili kod oluşturma üzerine odaklanmaktadır." + }, + "deepseek-ai/DeepSeek-V2-Chat": { + "description": "DeepSeek V2, 6.7 milyar parametreye sahiptir ve İngilizce ve Çince metin işleme desteği sunar." + }, + "deepseek-ai/DeepSeek-V2.5": { + "description": "DeepSeek V2.5, önceki sürümlerin mükemmel özelliklerini bir araya getirir, genel ve kodlama yeteneklerini artırır." + }, + "deepseek-ai/deepseek-llm-67b-chat": { + "description": "DeepSeek 67B, yüksek karmaşıklıkta diyaloglar için eğitilmiş gelişmiş bir modeldir." + }, + "deepseek-chat": { + "description": "Genel ve kod yeteneklerini birleştiren yeni bir açık kaynak modeli, yalnızca mevcut Chat modelinin genel diyalog yeteneklerini ve Coder modelinin güçlü kod işleme yeteneklerini korumakla kalmaz, aynı zamanda insan tercihleri ile daha iyi hizalanmıştır. Ayrıca, DeepSeek-V2.5 yazım görevleri, talimat takibi gibi birçok alanda büyük iyileştirmeler sağlamıştır." + }, + "deepseek-coder-v2": { + "description": "DeepSeek Coder V2, açık kaynaklı bir karışık uzman kod modelidir, kod görevlerinde mükemmel performans sergiler ve GPT4-Turbo ile karşılaştırılabilir." + }, + "deepseek-coder-v2:236b": { + "description": "DeepSeek Coder V2, açık kaynaklı bir karışık uzman kod modelidir, kod görevlerinde mükemmel performans sergiler ve GPT4-Turbo ile karşılaştırılabilir." + }, + "deepseek-v2": { + "description": "DeepSeek V2, ekonomik ve verimli işleme ihtiyaçları için uygun, etkili bir Mixture-of-Experts dil modelidir." + }, + "deepseek-v2:236b": { + "description": "DeepSeek V2 236B, DeepSeek'in tasarım kodu modelidir, güçlü kod üretim yetenekleri sunar." + }, + "deepseek/deepseek-chat": { + "description": "Genel ve kod yeteneklerini birleştiren yeni açık kaynak model, yalnızca mevcut Chat modelinin genel diyalog yeteneklerini ve Coder modelinin güçlü kod işleme yeteneklerini korumakla kalmaz, aynı zamanda insan tercihleriyle daha iyi hizalanmıştır. Ayrıca, DeepSeek-V2.5 yazma görevleri, talimat takibi gibi birçok alanda da büyük iyileştirmeler sağlamıştır." + }, + "emohaa": { + "description": "Emohaa, duygusal sorunları anlamalarına yardımcı olmak için profesyonel danışmanlık yeteneklerine sahip bir psikolojik modeldir." + }, + "gemini-1.0-pro-001": { + "description": "Gemini 1.0 Pro 001 (Tuning), kararlı ve ayarlanabilir bir performans sunar, karmaşık görev çözümleri için ideal bir seçimdir." + }, + "gemini-1.0-pro-002": { + "description": "Gemini 1.0 Pro 002 (Tuning), mükemmel çok modlu destek sunar ve karmaşık görevlerin etkili bir şekilde çözülmesine odaklanır." + }, + "gemini-1.0-pro-latest": { + "description": "Gemini 1.0 Pro, Google'ın yüksek performanslı AI modelidir ve geniş görev genişletmeleri için tasarlanmıştır." + }, + "gemini-1.5-flash-001": { + "description": "Gemini 1.5 Flash 001, geniş uygulama alanları için destekleyen verimli bir çok modlu modeldir." + }, + "gemini-1.5-flash-8b-exp-0827": { + "description": "Gemini 1.5 Flash 8B 0827, büyük ölçekli görev senaryolarını işlemek için tasarlanmış, eşsiz bir işleme hızı sunar." + }, + "gemini-1.5-flash-exp-0827": { + "description": "Gemini 1.5 Flash 0827, çeşitli karmaşık görev senaryoları için optimize edilmiş çok modlu işleme yeteneği sunar." + }, + "gemini-1.5-flash-latest": { + "description": "Gemini 1.5 Flash, Google'ın en son çok modlu AI modelidir, hızlı işleme yeteneğine sahiptir ve metin, görüntü ve video girişi destekler, çeşitli görevlerin verimli bir şekilde genişletilmesine olanak tanır." + }, + "gemini-1.5-pro-001": { + "description": "Gemini 1.5 Pro 001, geniş karmaşık görevleri destekleyen ölçeklenebilir bir çok modlu AI çözümüdür." + }, + "gemini-1.5-pro-exp-0801": { + "description": "Gemini 1.5 Pro 0801, mükemmel çok modlu işleme yeteneği sunar ve uygulama geliştirmeye daha fazla esneklik kazandırır." + }, + "gemini-1.5-pro-exp-0827": { + "description": "Gemini 1.5 Pro 0827, en son optimize edilmiş teknolojileri bir araya getirerek daha verimli çok modlu veri işleme yeteneği sunar." + }, + "gemini-1.5-pro-latest": { + "description": "Gemini 1.5 Pro, 2 milyon token'a kadar destekler, orta ölçekli çok modlu modeller için ideal bir seçimdir ve karmaşık görevler için çok yönlü destek sunar." + }, + "gemma-7b-it": { + "description": "Gemma 7B, orta ölçekli görev işleme için uygundur ve maliyet etkinliği sunar." + }, + "gemma2": { + "description": "Gemma 2, Google tarafından sunulan verimli bir modeldir, küçük uygulamalardan karmaşık veri işleme senaryolarına kadar çeşitli uygulama alanlarını kapsar." + }, + "gemma2-9b-it": { + "description": "Gemma 2 9B, belirli görevler ve araç entegrasyonu için optimize edilmiş bir modeldir." + }, + "gemma2:27b": { + "description": "Gemma 2, Google tarafından sunulan verimli bir modeldir, küçük uygulamalardan karmaşık veri işleme senaryolarına kadar çeşitli uygulama alanlarını kapsar." + }, + "gemma2:2b": { + "description": "Gemma 2, Google tarafından sunulan verimli bir modeldir, küçük uygulamalardan karmaşık veri işleme senaryolarına kadar çeşitli uygulama alanlarını kapsar." + }, + "general": { + "description": "Spark Lite, son derece düşük gecikme ve yüksek verimlilik sunan hafif bir büyük dil modelidir, tamamen ücretsiz ve açık olup, gerçek zamanlı çevrimiçi arama işlevini destekler. Hızlı yanıt verme özelliği, düşük hesaplama gücüne sahip cihazlarda çıkarım uygulamaları ve model ince ayarlarında mükemmel performans gösterir, kullanıcılara mükemmel maliyet etkinliği ve akıllı deneyim sunar, özellikle bilgi sorgulama, içerik oluşturma ve arama senaryolarında başarılıdır." + }, + "generalv3": { + "description": "Spark Pro, profesyonel alanlar için optimize edilmiş yüksek performanslı büyük dil modelidir, matematik, programlama, sağlık, eğitim gibi birçok alana odaklanır ve çevrimiçi arama ile yerleşik hava durumu, tarih gibi eklentileri destekler. Optimize edilmiş modeli, karmaşık bilgi sorgulama, dil anlama ve yüksek düzeyde metin oluşturma konularında mükemmel performans ve yüksek verimlilik sergiler, profesyonel uygulama senaryoları için ideal bir seçimdir." + }, + "generalv3.5": { + "description": "Spark3.5 Max, en kapsamlı özelliklere sahip versiyondur, çevrimiçi arama ve birçok yerleşik eklentiyi destekler. Kapsamlı optimize edilmiş temel yetenekleri ve sistem rol ayarları ile fonksiyon çağırma özellikleri, çeşitli karmaşık uygulama senaryolarında son derece mükemmel ve olağanüstü performans sergiler." + }, + "glm-4": { + "description": "GLM-4, Ocak 2024'te piyasaya sürülen eski amiral gemisi versiyonudur, şu anda daha güçlü GLM-4-0520 ile değiştirilmiştir." + }, + "glm-4-0520": { + "description": "GLM-4-0520, son derece karmaşık ve çeşitli görevler için tasarlanmış en yeni model versiyonudur, olağanüstü performans sergiler." + }, + "glm-4-air": { + "description": "GLM-4-Air, maliyet etkin bir versiyondur, GLM-4'e yakın performans sunar ve hızlı hız ve uygun fiyat sağlar." + }, + "glm-4-airx": { + "description": "GLM-4-AirX, GLM-4-Air'ın verimli bir versiyonunu sunar, çıkarım hızı 2.6 katına kadar çıkabilir." + }, + "glm-4-alltools": { + "description": "GLM-4-AllTools, karmaşık talimat planlaması ve araç çağrıları gibi çok işlevli görevleri desteklemek için optimize edilmiş bir akıllı modeldir. İnternet tarayıcıları, kod açıklamaları ve metin üretimi gibi çoklu görevleri yerine getirmek için uygundur." + }, + "glm-4-flash": { + "description": "GLM-4-Flash, basit görevleri işlemek için ideal bir seçimdir, en hızlı ve en uygun fiyatlıdır." + }, + "glm-4-long": { + "description": "GLM-4-Long, ultra uzun metin girişlerini destekler, bellek tabanlı görevler ve büyük ölçekli belge işleme için uygundur." + }, + "glm-4-plus": { + "description": "GLM-4-Plus, güçlü uzun metin işleme ve karmaşık görevler için yeteneklere sahip yüksek akıllı bir amiral gemisidir, performansı tamamen artırılmıştır." + }, + "glm-4v": { + "description": "GLM-4V, güçlü görüntü anlama ve akıl yürütme yetenekleri sunar, çeşitli görsel görevleri destekler." + }, + "glm-4v-plus": { + "description": "GLM-4V-Plus, video içeriği ve çoklu görüntüleri anlama yeteneğine sahiptir, çok modlu görevler için uygundur." + }, + "google/gemini-flash-1.5-exp": { + "description": "Gemini 1.5 Flash 0827, optimize edilmiş çok modlu işleme yetenekleri sunar ve çeşitli karmaşık görev senaryolarına uygundur." + }, + "google/gemini-pro-1.5-exp": { + "description": "Gemini 1.5 Pro 0827, en son optimize edilmiş teknolojileri birleştirerek daha verimli çok modlu veri işleme yetenekleri sunar." + }, + "google/gemma-2-27b-it": { + "description": "Gemma 2, hafiflik ve verimlilik tasarım felsefesini sürdürmektedir." + }, + "google/gemma-2-9b-it": { + "description": "Gemma 2, Google'ın hafif açık kaynak metin modeli serisidir." + }, + "google/gemma-2-9b-it:free": { + "description": "Gemma 2, Google'ın hafif açık kaynak metin modeli serisidir." + }, + "google/gemma-2b-it": { + "description": "Gemma Instruct (2B), temel talimat işleme yetenekleri sunar ve hafif uygulamalar için uygundur." + }, + "gpt-3.5-turbo": { + "description": "GPT 3.5 Turbo, çeşitli metin üretimi ve anlama görevleri için uygundur, şu anda gpt-3.5-turbo-0125'e işaret ediyor." + }, + "gpt-3.5-turbo-0125": { + "description": "GPT 3.5 Turbo, çeşitli metin üretimi ve anlama görevleri için uygundur, şu anda gpt-3.5-turbo-0125'e işaret ediyor." + }, + "gpt-3.5-turbo-1106": { + "description": "GPT 3.5 Turbo, çeşitli metin üretimi ve anlama görevleri için uygundur, şu anda gpt-3.5-turbo-0125'e işaret ediyor." + }, + "gpt-3.5-turbo-instruct": { + "description": "GPT 3.5 Turbo, çeşitli metin üretimi ve anlama görevleri için uygundur, şu anda gpt-3.5-turbo-0125'e işaret ediyor." + }, + "gpt-4": { + "description": "GPT-4, daha büyük bir bağlam penceresi sunarak daha uzun metin girişlerini işleyebilir, geniş bilgi entegrasyonu ve veri analizi gerektiren senaryolar için uygundur." + }, + "gpt-4-0125-preview": { + "description": "En son GPT-4 Turbo modeli görsel işlevselliğe sahiptir. Artık görsel talepler JSON formatı ve fonksiyon çağrıları ile işlenebilir. GPT-4 Turbo, çok modlu görevler için maliyet etkin bir destek sunan geliştirilmiş bir versiyondur. Doğruluk ve verimlilik arasında bir denge sağlar, gerçek zamanlı etkileşim gerektiren uygulama senaryoları için uygundur." + }, + "gpt-4-0613": { + "description": "GPT-4, daha büyük bir bağlam penceresi sunarak daha uzun metin girişlerini işleyebilir, geniş bilgi entegrasyonu ve veri analizi gerektiren senaryolar için uygundur." + }, + "gpt-4-1106-preview": { + "description": "En son GPT-4 Turbo modeli görsel işlevselliğe sahiptir. Artık görsel talepler JSON formatı ve fonksiyon çağrıları ile işlenebilir. GPT-4 Turbo, çok modlu görevler için maliyet etkin bir destek sunan geliştirilmiş bir versiyondur. Doğruluk ve verimlilik arasında bir denge sağlar, gerçek zamanlı etkileşim gerektiren uygulama senaryoları için uygundur." + }, + "gpt-4-1106-vision-preview": { + "description": "En son GPT-4 Turbo modeli görsel işlevselliğe sahiptir. Artık görsel talepler JSON formatı ve fonksiyon çağrıları ile işlenebilir. GPT-4 Turbo, çok modlu görevler için maliyet etkin bir destek sunan geliştirilmiş bir versiyondur. Doğruluk ve verimlilik arasında bir denge sağlar, gerçek zamanlı etkileşim gerektiren uygulama senaryoları için uygundur." + }, + "gpt-4-32k": { + "description": "GPT-4, daha büyük bir bağlam penceresi sunarak daha uzun metin girişlerini işleyebilir, geniş bilgi entegrasyonu ve veri analizi gerektiren senaryolar için uygundur." + }, + "gpt-4-32k-0613": { + "description": "GPT-4, daha büyük bir bağlam penceresi sunarak daha uzun metin girişlerini işleyebilir, geniş bilgi entegrasyonu ve veri analizi gerektiren senaryolar için uygundur." + }, + "gpt-4-turbo": { + "description": "En son GPT-4 Turbo modeli görsel işlevselliğe sahiptir. Artık görsel talepler JSON formatı ve fonksiyon çağrıları ile işlenebilir. GPT-4 Turbo, çok modlu görevler için maliyet etkin bir destek sunan geliştirilmiş bir versiyondur. Doğruluk ve verimlilik arasında bir denge sağlar, gerçek zamanlı etkileşim gerektiren uygulama senaryoları için uygundur." + }, + "gpt-4-turbo-2024-04-09": { + "description": "En son GPT-4 Turbo modeli görsel işlevselliğe sahiptir. Artık görsel talepler JSON formatı ve fonksiyon çağrıları ile işlenebilir. GPT-4 Turbo, çok modlu görevler için maliyet etkin bir destek sunan geliştirilmiş bir versiyondur. Doğruluk ve verimlilik arasında bir denge sağlar, gerçek zamanlı etkileşim gerektiren uygulama senaryoları için uygundur." + }, + "gpt-4-turbo-preview": { + "description": "En son GPT-4 Turbo modeli görsel işlevselliğe sahiptir. Artık görsel talepler JSON formatı ve fonksiyon çağrıları ile işlenebilir. GPT-4 Turbo, çok modlu görevler için maliyet etkin bir destek sunan geliştirilmiş bir versiyondur. Doğruluk ve verimlilik arasında bir denge sağlar, gerçek zamanlı etkileşim gerektiren uygulama senaryoları için uygundur." + }, + "gpt-4-vision-preview": { + "description": "En son GPT-4 Turbo modeli görsel işlevselliğe sahiptir. Artık görsel talepler JSON formatı ve fonksiyon çağrıları ile işlenebilir. GPT-4 Turbo, çok modlu görevler için maliyet etkin bir destek sunan geliştirilmiş bir versiyondur. Doğruluk ve verimlilik arasında bir denge sağlar, gerçek zamanlı etkileşim gerektiren uygulama senaryoları için uygundur." + }, + "gpt-4o": { + "description": "ChatGPT-4o, güncel versiyonunu korumak için gerçek zamanlı olarak güncellenen dinamik bir modeldir. Güçlü dil anlama ve üretme yeteneklerini birleştirir, müşteri hizmetleri, eğitim ve teknik destek gibi geniş ölçekli uygulama senaryoları için uygundur." + }, + "gpt-4o-2024-05-13": { + "description": "ChatGPT-4o, güncel versiyonunu korumak için gerçek zamanlı olarak güncellenen dinamik bir modeldir. Güçlü dil anlama ve üretme yeteneklerini birleştirir, müşteri hizmetleri, eğitim ve teknik destek gibi geniş ölçekli uygulama senaryoları için uygundur." + }, + "gpt-4o-2024-08-06": { + "description": "ChatGPT-4o, güncel versiyonunu korumak için gerçek zamanlı olarak güncellenen dinamik bir modeldir. Güçlü dil anlama ve üretme yeteneklerini birleştirir, müşteri hizmetleri, eğitim ve teknik destek gibi geniş ölçekli uygulama senaryoları için uygundur." + }, + "gpt-4o-mini": { + "description": "GPT-4o mini, OpenAI'nin GPT-4 Omni'den sonra tanıttığı en yeni modeldir. Görsel ve metin girişi destekler ve metin çıktısı verir. En gelişmiş küçük model olarak, diğer son zamanlardaki öncü modellere göre çok daha ucuzdur ve GPT-3.5 Turbo'dan %60'tan fazla daha ucuzdur. En son teknolojiyi korurken, önemli bir maliyet etkinliği sunar. GPT-4o mini, MMLU testinde %82 puan almış olup, şu anda sohbet tercihleri açısından GPT-4'ün üzerinde yer almaktadır." + }, + "gryphe/mythomax-l2-13b": { + "description": "MythoMax l2 13B, birden fazla üst düzey modelin birleşimiyle yaratıcı ve zeka odaklı bir dil modelidir." + }, + "internlm/internlm2_5-20b-chat": { + "description": "Yenilikçi açık kaynak modeli InternLM2.5, büyük ölçekli parametreler ile diyalog zekasını artırmıştır." + }, + "internlm/internlm2_5-7b-chat": { + "description": "InternLM2.5, çoklu senaryolarda akıllı diyalog çözümleri sunar." + }, + "llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct modeli, 70B parametreye sahiptir ve büyük metin üretimi ve talimat görevlerinde mükemmel performans sunar." + }, + "llama-3.1-70b-versatile": { + "description": "Llama 3.1 70B, daha güçlü AI akıl yürütme yeteneği sunar, karmaşık uygulamalar için uygundur ve yüksek verimlilik ve doğruluk sağlamak için çok sayıda hesaplama işlemini destekler." + }, + "llama-3.1-8b-instant": { + "description": "Llama 3.1 8B, hızlı metin üretim yeteneği sunan yüksek performanslı bir modeldir ve büyük ölçekli verimlilik ve maliyet etkinliği gerektiren uygulama senaryoları için son derece uygundur." + }, + "llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct modeli, 8B parametreye sahiptir ve görsel talimat görevlerinin etkili bir şekilde yürütülmesini sağlar, kaliteli metin üretim yetenekleri sunar." + }, + "llama-3.1-sonar-huge-128k-online": { + "description": "Llama 3.1 Sonar Huge Online modeli, 405B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, karmaşık çevrimiçi sohbet uygulamaları için tasarlanmıştır." + }, + "llama-3.1-sonar-large-128k-chat": { + "description": "Llama 3.1 Sonar Large Chat modeli, 70B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, karmaşık çevrimdışı sohbet görevleri için uygundur." + }, + "llama-3.1-sonar-large-128k-online": { + "description": "Llama 3.1 Sonar Large Online modeli, 70B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, yüksek kapasiteli ve çeşitli sohbet görevleri için uygundur." + }, + "llama-3.1-sonar-small-128k-chat": { + "description": "Llama 3.1 Sonar Small Chat modeli, 8B parametreye sahiptir ve çevrimdışı sohbet için tasarlanmıştır, yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler." + }, + "llama-3.1-sonar-small-128k-online": { + "description": "Llama 3.1 Sonar Small Online modeli, 8B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, çevrimiçi sohbet için tasarlanmıştır ve çeşitli metin etkileşimlerini etkili bir şekilde işler." + }, + "llama3-70b-8192": { + "description": "Meta Llama 3 70B, eşsiz karmaşıklık işleme yeteneği sunar ve yüksek talepli projeler için özel olarak tasarlanmıştır." + }, + "llama3-8b-8192": { + "description": "Meta Llama 3 8B, yüksek kaliteli akıl yürütme performansı sunar ve çok çeşitli uygulama ihtiyaçları için uygundur." + }, + "llama3-groq-70b-8192-tool-use-preview": { + "description": "Llama 3 Groq 70B Tool Use, güçlü araç çağırma yetenekleri sunar ve karmaşık görevlerin verimli bir şekilde işlenmesini destekler." + }, + "llama3-groq-8b-8192-tool-use-preview": { + "description": "Llama 3 Groq 8B Tool Use, verimli araç kullanımı için optimize edilmiş bir modeldir ve hızlı paralel hesaplamayı destekler." + }, + "llama3.1": { + "description": "Llama 3.1, Meta tarafından sunulan öncü bir modeldir, 405B parametreye kadar destekler ve karmaşık diyaloglar, çok dilli çeviri ve veri analizi alanlarında kullanılabilir." + }, + "llama3.1:405b": { + "description": "Llama 3.1, Meta tarafından sunulan öncü bir modeldir, 405B parametreye kadar destekler ve karmaşık diyaloglar, çok dilli çeviri ve veri analizi alanlarında kullanılabilir." + }, + "llama3.1:70b": { + "description": "Llama 3.1, Meta tarafından sunulan öncü bir modeldir, 405B parametreye kadar destekler ve karmaşık diyaloglar, çok dilli çeviri ve veri analizi alanlarında kullanılabilir." + }, + "llava": { + "description": "LLaVA, görsel kodlayıcı ve Vicuna'yı birleştiren çok modlu bir modeldir, güçlü görsel ve dil anlama yetenekleri sunar." + }, + "llava-v1.5-7b-4096-preview": { + "description": "LLaVA 1.5 7B, görsel işleme yeteneklerini birleştirir ve görsel bilgi girişi ile karmaşık çıktılar üretir." + }, + "llava:13b": { + "description": "LLaVA, görsel kodlayıcı ve Vicuna'yı birleştiren çok modlu bir modeldir, güçlü görsel ve dil anlama yetenekleri sunar." + }, + "llava:34b": { + "description": "LLaVA, görsel kodlayıcı ve Vicuna'yı birleştiren çok modlu bir modeldir, güçlü görsel ve dil anlama yetenekleri sunar." + }, + "mathstral": { + "description": "MathΣtral, bilimsel araştırma ve matematik akıl yürütme için tasarlanmış, etkili hesaplama yetenekleri ve sonuç açıklamaları sunar." + }, + "meta-llama/Llama-2-13b-chat-hf": { + "description": "LLaMA-2 Chat (13B), mükemmel dil işleme yetenekleri ve olağanüstü etkileşim deneyimi sunar." + }, + "meta-llama/Llama-3-70b-chat-hf": { + "description": "LLaMA-3 Chat (70B), karmaşık diyalog ihtiyaçlarını destekleyen güçlü bir sohbet modelidir." + }, + "meta-llama/Llama-3-8b-chat-hf": { + "description": "LLaMA-3 Chat (8B), çok dilli desteği ile zengin alan bilgilerini kapsar." + }, + "meta-llama/Meta-Llama-3-70B-Instruct": { + "description": "LLaMA 3, büyük hacimli metin oluşturma ve talimat çözümleme desteği sunar." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { + "description": "Llama 3 70B Instruct Lite, yüksek performans ve düşük gecikme gerektiren ortamlara uygundur." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": { + "description": "Llama 3 70B Instruct Turbo, en zorlu hesaplama görevleri için mükemmel dil anlama ve üretim yetenekleri sunar." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Lite": { + "description": "Llama 3 8B Instruct Lite, kaynak kısıtlı ortamlara uygun, mükemmel denge performansı sunar." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": { + "description": "Llama 3 8B Instruct Turbo, geniş uygulama alanlarını destekleyen yüksek performanslı bir büyük dil modelidir." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct": { + "description": "LLaMA 3.1 405B, ön eğitim ve talimat ayarlaması için güçlü bir modeldir." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": { + "description": "405B Llama 3.1 Turbo modeli, büyük veri işleme için devasa bağlam desteği sunar ve büyük ölçekli AI uygulamalarında öne çıkar." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct": { + "description": "LLaMA 3.1 70B, çok dilli yüksek verimli diyalog desteği sunmaktadır." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": { + "description": "Llama 3.1 70B modeli, yüksek yük uygulamaları için ince ayar yapılmış, FP8'e kuantize edilerek daha verimli hesaplama gücü ve doğruluk sağlar, karmaşık senaryolarda mükemmel performans sunar." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct": { + "description": "LLaMA 3.1, çok dilli destek sunan, sektördeki önde gelen üretim modellerinden biridir." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": { + "description": "Llama 3.1 8B modeli, FP8 kuantizasyonu ile 131,072'ye kadar bağlam belirteci destekler, karmaşık görevler için mükemmel bir açık kaynak modelidir ve birçok endüstri standardını aşar." + }, + "meta-llama/llama-3-70b-instruct": { + "description": "Llama 3 70B Instruct, yüksek kaliteli diyalog senaryoları için optimize edilmiştir ve çeşitli insan değerlendirmelerinde mükemmel performans göstermektedir." + }, + "meta-llama/llama-3-8b-instruct": { + "description": "Llama 3 8B Instruct, yüksek kaliteli diyalog senaryoları için optimize edilmiştir ve birçok kapalı kaynak modelden daha iyi performans göstermektedir." + }, + "meta-llama/llama-3.1-405b-instruct": { + "description": "Llama 3.1 405B Instruct, Meta'nın en son sunduğu versiyon olup, yüksek kaliteli diyalog üretimi için optimize edilmiştir ve birçok önde gelen kapalı kaynak modelden daha iyi performans göstermektedir." + }, + "meta-llama/llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct, yüksek kaliteli diyalog için tasarlanmış olup, insan değerlendirmelerinde öne çıkmakta ve özellikle yüksek etkileşimli senaryolar için uygundur." + }, + "meta-llama/llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct, Meta tarafından sunulan en son versiyon olup, yüksek kaliteli diyalog senaryoları için optimize edilmiştir ve birçok önde gelen kapalı kaynak modelden daha iyi performans göstermektedir." + }, + "meta-llama/llama-3.1-8b-instruct:free": { + "description": "LLaMA 3.1, çok dilli destek sunar ve sektördeki en önde gelen üretim modellerinden biridir." + }, + "meta.llama3-1-405b-instruct-v1:0": { + "description": "Meta Llama 3.1 405B Instruct, Llama 3.1 Instruct modelinin en büyük ve en güçlü versiyonudur. Bu, son derece gelişmiş bir diyalog akıl yürütme ve veri sentezleme modelidir ve belirli alanlarda uzmanlaşmış sürekli ön eğitim veya ince ayar için bir temel olarak da kullanılabilir. Llama 3.1, çok dilli büyük dil modelleri (LLM'ler) sunar ve 8B, 70B ve 405B boyutlarında önceden eğitilmiş, talimat ayarlı üretim modellerinden oluşur (metin girişi/çıkışı). Llama 3.1'in talimat ayarlı metin modelleri (8B, 70B, 405B), çok dilli diyalog kullanım durumları için optimize edilmiştir ve yaygın endüstri benchmark testlerinde birçok mevcut açık kaynaklı sohbet modelini geride bırakmıştır. Llama 3.1, çok dilli ticari ve araştırma amaçları için tasarlanmıştır. Talimat ayarlı metin modelleri, asistan benzeri sohbetler için uygundur, önceden eğitilmiş modeller ise çeşitli doğal dil üretim görevlerine uyum sağlayabilir. Llama 3.1 modeli, diğer modellerin çıktısını iyileştirmek için de kullanılabilir, bu da veri sentezleme ve rafine etme işlemlerini içerir. Llama 3.1, optimize edilmiş bir transformer mimarisi kullanarak oluşturulmuş bir otoregresif dil modelidir. Ayarlanmış versiyon, insan yardımseverliği ve güvenlik tercihleri ile uyumlu hale getirmek için denetimli ince ayar (SFT) ve insan geri bildirimi ile güçlendirilmiş öğrenme (RLHF) kullanır." + }, + "meta.llama3-1-70b-instruct-v1:0": { + "description": "Meta Llama 3.1 70B Instruct'un güncellenmiş versiyonu, genişletilmiş 128K bağlam uzunluğu, çok dilli yetenek ve geliştirilmiş akıl yürütme yetenekleri içerir. Llama 3.1 tarafından sağlanan çok dilli büyük dil modelleri (LLM'ler), 8B, 70B ve 405B boyutlarında önceden eğitilmiş, talimat ayarlı üretim modelleridir (metin girişi/çıkışı). Llama 3.1 talimat ayarlı metin modelleri (8B, 70B, 405B), çok dilli diyalog kullanım durumları için optimize edilmiştir ve birçok mevcut açık kaynaklı sohbet modelini yaygın endüstri benchmark testlerinde geçmiştir. Llama 3.1, çok dilli ticari ve araştırma amaçları için kullanılmak üzere tasarlanmıştır. Talimat ayarlı metin modelleri, asistan benzeri sohbetler için uygundur, önceden eğitilmiş modeller ise çeşitli doğal dil üretim görevlerine uyum sağlayabilir. Llama 3.1 modeli, diğer modellerin çıktısını iyileştirmek için de kullanılabilir, bu da sentetik veri üretimi ve rafine etme işlemlerini içerir. Llama 3.1, optimize edilmiş bir dönüştürücü mimarisi kullanarak oluşturulmuş bir otoregresif dil modelidir. Ayarlanmış versiyonlar, insan yardımseverliği ve güvenlik tercihlerini karşılamak için denetimli ince ayar (SFT) ve insan geri bildirimli pekiştirmeli öğrenme (RLHF) kullanır." + }, + "meta.llama3-1-8b-instruct-v1:0": { + "description": "Meta Llama 3.1 8B Instruct'un güncellenmiş versiyonu, genişletilmiş 128K bağlam uzunluğu, çok dilli yetenek ve geliştirilmiş akıl yürütme yetenekleri içerir. Llama 3.1 tarafından sağlanan çok dilli büyük dil modelleri (LLM'ler), 8B, 70B ve 405B boyutlarında önceden eğitilmiş, talimat ayarlı üretim modelleridir (metin girişi/çıkışı). Llama 3.1 talimat ayarlı metin modelleri (8B, 70B, 405B), çok dilli diyalog kullanım durumları için optimize edilmiştir ve birçok mevcut açık kaynaklı sohbet modelini yaygın endüstri benchmark testlerinde geçmiştir. Llama 3.1, çok dilli ticari ve araştırma amaçları için kullanılmak üzere tasarlanmıştır. Talimat ayarlı metin modelleri, asistan benzeri sohbetler için uygundur, önceden eğitilmiş modeller ise çeşitli doğal dil üretim görevlerine uyum sağlayabilir. Llama 3.1 modeli, diğer modellerin çıktısını iyileştirmek için de kullanılabilir, bu da sentetik veri üretimi ve rafine etme işlemlerini içerir. Llama 3.1, optimize edilmiş bir dönüştürücü mimarisi kullanarak oluşturulmuş bir otoregresif dil modelidir. Ayarlanmış versiyonlar, insan yardımseverliği ve güvenlik tercihlerini karşılamak için denetimli ince ayar (SFT) ve insan geri bildirimli pekiştirmeli öğrenme (RLHF) kullanır." + }, + "meta.llama3-70b-instruct-v1:0": { + "description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modelidir (LLM) ve onların üretken AI fikirlerini inşa etmelerine, denemelerine ve sorumlu bir şekilde genişletmelerine yardımcı olmak için tasarlanmıştır. Küresel topluluk yeniliğinin temel sistemlerinden biri olarak, içerik oluşturma, diyalog AI, dil anlama, araştırma ve işletme uygulamaları için son derece uygundur." + }, + "meta.llama3-8b-instruct-v1:0": { + "description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modelidir (LLM) ve onların üretken AI fikirlerini inşa etmelerine, denemelerine ve sorumlu bir şekilde genişletmelerine yardımcı olmak için tasarlanmıştır. Küresel topluluk yeniliğinin temel sistemlerinden biri olarak, sınırlı hesaplama gücü ve kaynaklara sahip, kenar cihazları ve daha hızlı eğitim süreleri için son derece uygundur." + }, + "microsoft/wizardlm 2-7b": { + "description": "WizardLM 2 7B, Microsoft AI'nın en son hızlı ve hafif modelidir ve mevcut açık kaynak lider modellerin performansına yakın bir performans sunmaktadır." + }, + "microsoft/wizardlm-2-8x22b": { + "description": "WizardLM-2 8x22B, Microsoft'un en gelişmiş AI Wizard modelidir ve son derece rekabetçi bir performans sergiler." + }, + "minicpm-v": { + "description": "MiniCPM-V, OpenBMB tarafından sunulan yeni nesil çok modlu büyük bir modeldir; olağanüstü OCR tanıma ve çok modlu anlama yeteneklerine sahiptir ve geniş bir uygulama yelpazesini destekler." + }, + "mistral": { + "description": "Mistral, Mistral AI tarafından sunulan 7B modelidir, değişken dil işleme ihtiyaçları için uygundur." + }, + "mistral-large": { + "description": "Mixtral Large, Mistral'ın amiral gemisi modelidir, kod üretimi, matematik ve akıl yürütme yeteneklerini birleştirir, 128k bağlam penceresini destekler." + }, + "mistral-large-latest": { + "description": "Mistral Large, çok dilli görevler, karmaşık akıl yürütme ve kod üretimi için ideal bir seçimdir ve yüksek uç uygulamalar için tasarlanmıştır." + }, + "mistral-nemo": { + "description": "Mistral Nemo, Mistral AI ve NVIDIA işbirliği ile sunulan, yüksek verimli 12B modelidir." + }, + "mistralai/Mistral-7B-Instruct-v0.1": { + "description": "Mistral (7B) Instruct, yüksek performansıyla tanınır ve çeşitli dil görevleri için uygundur." + }, + "mistralai/Mistral-7B-Instruct-v0.2": { + "description": "Mistral 7B, talebe göre ince ayar yapılmış bir modeldir ve görevler için optimize edilmiş yanıtlar sunar." + }, + "mistralai/Mistral-7B-Instruct-v0.3": { + "description": "Mistral (7B) Instruct v0.3, geniş uygulamalar için etkili hesaplama gücü ve doğal dil anlama sunar." + }, + "mistralai/Mixtral-8x22B-Instruct-v0.1": { + "description": "Mixtral-8x22B Instruct (141B), son derece büyük bir dil modelidir ve çok yüksek işleme taleplerini destekler." + }, + "mistralai/Mixtral-8x7B-Instruct-v0.1": { + "description": "Mixtral 8x7B, genel metin görevleri için kullanılan önceden eğitilmiş seyrek karışık uzman modelidir." + }, + "mistralai/mistral-7b-instruct": { + "description": "Mistral 7B Instruct, hız optimizasyonu ve uzun bağlam desteği sunan yüksek performanslı bir endüstri standart modelidir." + }, + "mistralai/mistral-nemo": { + "description": "Mistral Nemo, çok dilli destek ve yüksek performanslı programlama sunan 7.3B parametreli bir modeldir." + }, + "mixtral": { + "description": "Mixtral, Mistral AI'nın uzman modelidir, açık kaynak ağırlıkları ile birlikte gelir ve kod üretimi ve dil anlama konularında destek sunar." + }, + "mixtral-8x7b-32768": { + "description": "Mixtral 8x7B, yüksek hata toleransına sahip paralel hesaplama yeteneği sunar ve karmaşık görevler için uygundur." + }, + "mixtral:8x22b": { + "description": "Mixtral, Mistral AI'nın uzman modelidir, açık kaynak ağırlıkları ile birlikte gelir ve kod üretimi ve dil anlama konularında destek sunar." + }, + "moonshot-v1-128k": { + "description": "Moonshot V1 128K, ultra uzun bağlam işleme yeteneğine sahip bir modeldir, karmaşık üretim görevlerini karşılamak için ultra uzun metinler üretmekte kullanılabilir, 128,000 token'a kadar içeriği işleyebilir, araştırma, akademik ve büyük belgelerin üretilmesi gibi uygulama senaryoları için son derece uygundur." + }, + "moonshot-v1-32k": { + "description": "Moonshot V1 32K, orta uzunlukta bağlam işleme yeteneği sunar, 32,768 token'ı işleyebilir, çeşitli uzun belgeler ve karmaşık diyaloglar üretmek için özellikle uygundur, içerik oluşturma, rapor üretimi ve diyalog sistemleri gibi alanlarda kullanılabilir." + }, + "moonshot-v1-8k": { + "description": "Moonshot V1 8K, kısa metin görevleri için tasarlanmış, yüksek verimlilikte işleme performansı sunar, 8,192 token'ı işleyebilir, kısa diyaloglar, not alma ve hızlı içerik üretimi için son derece uygundur." + }, + "nousresearch/hermes-2-pro-llama-3-8b": { + "description": "Hermes 2 Pro Llama 3 8B, Nous Hermes 2'nin güncellenmiş versiyonudur ve en son iç geliştirme veri setlerini içermektedir." + }, + "o1-mini": { + "description": "o1-mini, programlama, matematik ve bilim uygulama senaryoları için tasarlanmış hızlı ve ekonomik bir akıl yürütme modelidir. Bu model, 128K bağlam ve Ekim 2023 bilgi kesim tarihi ile donatılmıştır." + }, + "o1-preview": { + "description": "o1, OpenAI'nin geniş genel bilgiye ihtiyaç duyan karmaşık görevler için uygun yeni bir akıl yürütme modelidir. Bu model, 128K bağlam ve Ekim 2023 bilgi kesim tarihi ile donatılmıştır." + }, + "open-codestral-mamba": { + "description": "Codestral Mamba, kod üretimine odaklanan Mamba 2 dil modelidir ve ileri düzey kod ve akıl yürütme görevlerine güçlü destek sunar." + }, + "open-mistral-7b": { + "description": "Mistral 7B, kompakt ama yüksek performanslı bir modeldir, sınıflandırma ve metin üretimi gibi basit görevlerde iyi bir akıl yürütme yeteneğine sahiptir." + }, + "open-mistral-nemo": { + "description": "Mistral Nemo, Nvidia ile işbirliği içinde geliştirilmiş 12B modelidir, mükemmel akıl yürütme ve kodlama performansı sunar, entegrasyonu ve değiştirilmesi kolaydır." + }, + "open-mixtral-8x22b": { + "description": "Mixtral 8x22B, karmaşık görevler için odaklanmış daha büyük bir uzman modelidir, mükemmel akıl yürütme yeteneği ve daha yüksek bir verim sunar." + }, + "open-mixtral-8x7b": { + "description": "Mixtral 8x7B, birden fazla parametre kullanarak akıl yürütme hızını artıran seyrek uzman modelidir, çok dilli ve kod üretim görevlerini işlemek için uygundur." + }, + "openai/gpt-4o-2024-08-06": { + "description": "ChatGPT-4o, dinamik bir modeldir; en güncel versiyonu korumak için gerçek zamanlı olarak güncellenir. Güçlü dil anlama ve üretme yeteneklerini birleştirir, geniş ölçekli uygulama senaryoları için uygundur; müşteri hizmetleri, eğitim ve teknik destek gibi." + }, + "openai/gpt-4o-mini": { + "description": "GPT-4o mini, OpenAI'nin GPT-4 Omni'den sonra sunduğu en son modeldir; görsel ve metin girişi destekler ve metin çıktısı verir. En gelişmiş küçük model olarak, diğer son zamanlardaki öncü modellere göre çok daha ucuzdur ve GPT-3.5 Turbo'dan %60'tan fazla daha ucuzdur. En son teknolojiyi korurken, önemli bir maliyet etkinliği sunar. GPT-4o mini, MMLU testinde %82 puan almış olup, şu anda sohbet tercihleri açısından GPT-4'ün üzerinde bir sıralamaya sahiptir." + }, + "openai/o1-mini": { + "description": "o1-mini, programlama, matematik ve bilim uygulama senaryoları için tasarlanmış hızlı ve ekonomik bir akıl yürütme modelidir. Bu model, 128K bağlam ve Ekim 2023 bilgi kesim tarihi ile donatılmıştır." + }, + "openai/o1-preview": { + "description": "o1, OpenAI'nin geniş genel bilgiye ihtiyaç duyan karmaşık görevler için uygun yeni bir akıl yürütme modelidir. Bu model, 128K bağlam ve Ekim 2023 bilgi kesim tarihi ile donatılmıştır." + }, + "openchat/openchat-7b": { + "description": "OpenChat 7B, 'C-RLFT (koşullu pekiştirme öğrenimi ince ayarı)' stratejisi ile ince ayar yapılmış açık kaynak dil modeli kütüphanesidir." + }, + "openrouter/auto": { + "description": "Bağlam uzunluğu, konu ve karmaşıklığa göre isteğiniz, Llama 3 70B Instruct, Claude 3.5 Sonnet (kendini ayarlama) veya GPT-4o'ya gönderilecektir." + }, + "phi3": { + "description": "Phi-3, Microsoft tarafından sunulan hafif bir açık modeldir, verimli entegrasyon ve büyük ölçekli bilgi akıl yürütme için uygundur." + }, + "phi3:14b": { + "description": "Phi-3, Microsoft tarafından sunulan hafif bir açık modeldir, verimli entegrasyon ve büyük ölçekli bilgi akıl yürütme için uygundur." + }, + "qwen-long": { + "description": "Tongyi Qianwen, uzun metin bağlamını destekleyen ve uzun belgeler, çoklu belgeler gibi çeşitli senaryolar için diyalog işlevselliği sunan büyük ölçekli bir dil modelidir." + }, + "qwen-max": { + "description": "Tongyi Qianwen, yüz milyar seviyesinde büyük ölçekli bir dil modelidir. Çince, İngilizce gibi farklı dillerde girişi destekler ve şu anda Tongyi Qianwen 2.5 ürün versiyonunun arkasındaki API modelidir." + }, + "qwen-max-longcontext": { + "description": "Tongyi Qianwen, yüz milyar seviyesinde büyük ölçekli bir dil modelidir. Çince, İngilizce gibi farklı dillerde girişi destekler ve bağlam penceresini genişletmiştir." + }, + "qwen-plus": { + "description": "Tongyi Qianwen, Çince, İngilizce gibi farklı dillerde girişi destekleyen büyük ölçekli dil modelinin geliştirilmiş versiyonudur." + }, + "qwen-turbo": { + "description": "Tongyi Qianwen, Çince, İngilizce gibi farklı dillerde girişi destekleyen büyük ölçekli bir dil modelidir." + }, + "qwen-vl-chat-v1": { + "description": "Tongyi Qianwen VL, çoklu görüntü, çok turlu soru-cevap, yaratım gibi esnek etkileşim yöntemlerini destekleyen bir modeldir." + }, + "qwen-vl-max": { + "description": "Tongyi Qianwen, büyük ölçekli görsel dil modelidir. Geliştirilmiş versiyonuna göre görsel akıl yürütme ve talimatları takip etme yeteneklerini daha da artırır, daha yüksek görsel algı ve biliş düzeyi sunar." + }, + "qwen-vl-plus": { + "description": "Tongyi Qianwen, büyük ölçekli görsel dil modelinin geliştirilmiş versiyonudur. Detay tanıma ve metin tanıma yeteneklerini önemli ölçüde artırır, bir milyondan fazla piksel çözünürlüğü ve herhangi bir en-boy oranı spesifikasyonunu destekler." + }, + "qwen-vl-v1": { + "description": "Qwen-7B dil modeli ile başlatılan, 448 çözünürlükte görüntü girişi olan önceden eğitilmiş bir modeldir." + }, + "qwen/qwen-2-7b-instruct:free": { + "description": "Qwen2, daha güçlü anlama ve üretme yeteneklerine sahip yeni bir büyük dil modeli serisidir." + }, + "qwen2": { + "description": "Qwen2, Alibaba'nın yeni nesil büyük ölçekli dil modelidir, mükemmel performans ile çeşitli uygulama ihtiyaçlarını destekler." + }, + "qwen2-57b-a14b-instruct": { + "description": "Tongyi Qianwen 2, halka açık kaynak kodlu 57B ölçeğinde 14B etkin parametreli MOE modelidir." + }, + "qwen2-72b-instruct": { + "description": "Tongyi Qianwen 2, halka açık kaynak kodlu 72B ölçeğinde bir modeldir." + }, + "qwen2-7b-instruct": { + "description": "Tongyi Qianwen 2, halka açık kaynak kodlu 7B ölçeğinde bir modeldir." + }, + "qwen2-math-72b-instruct": { + "description": "Qwen2-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir." + }, + "qwen2:0.5b": { + "description": "Qwen2, Alibaba'nın yeni nesil büyük ölçekli dil modelidir, mükemmel performans ile çeşitli uygulama ihtiyaçlarını destekler." + }, + "qwen2:1.5b": { + "description": "Qwen2, Alibaba'nın yeni nesil büyük ölçekli dil modelidir, mükemmel performans ile çeşitli uygulama ihtiyaçlarını destekler." + }, + "qwen2:72b": { + "description": "Qwen2, Alibaba'nın yeni nesil büyük ölçekli dil modelidir, mükemmel performans ile çeşitli uygulama ihtiyaçlarını destekler." + }, + "solar-1-mini-chat": { + "description": "Solar Mini, kompakt bir LLM'dir, GPT-3.5'ten daha iyi performans gösterir, güçlü çok dilli yeteneklere sahiptir, İngilizce ve Koreceyi destekler, etkili ve hafif bir çözüm sunar." + }, + "solar-1-mini-chat-ja": { + "description": "Solar Mini (Ja), Solar Mini'nin yeteneklerini genişletir, Japonca'ya odaklanır ve İngilizce ile Korece kullanımında yüksek verimlilik ve mükemmel performans sunar." + }, + "solar-pro": { + "description": "Solar Pro, Upstage tarafından sunulan yüksek akıllı LLM'dir, tek GPU talimat takibi yeteneğine odaklanır, IFEval puanı 80'in üzerindedir. Şu anda İngilizceyi desteklemekte olup, resmi versiyonu 2024 Kasım'da piyasaya sürülmesi planlanmaktadır ve dil desteği ile bağlam uzunluğunu genişletecektir." + }, + "step-1-128k": { + "description": "Performans ve maliyet arasında denge sağlar, genel senaryolar için uygundur." + }, + "step-1-256k": { + "description": "Ultra uzun bağlam işleme yeteneklerine sahiptir, özellikle uzun belgelerin analizine uygundur." + }, + "step-1-32k": { + "description": "Orta uzunlukta diyalogları destekler, çeşitli uygulama senaryoları için uygundur." + }, + "step-1-8k": { + "description": "Küçük model, hafif görevler için uygundur." + }, + "step-1-flash": { + "description": "Yüksek hızlı model, gerçek zamanlı diyaloglar için uygundur." + }, + "step-1v-32k": { + "description": "Görsel girdi desteği sunar, çok modlu etkileşim deneyimini artırır." + }, + "step-1v-8k": { + "description": "Küçük görsel model, temel metin ve görsel görevler için uygundur." + }, + "step-2-16k": { + "description": "Büyük ölçekli bağlam etkileşimlerini destekler, karmaşık diyalog senaryoları için uygundur." + }, + "taichu_llm": { + "description": "Zidong Taichu dil büyük modeli, güçlü dil anlama yeteneği ile metin oluşturma, bilgi sorgulama, kod programlama, matematik hesaplama, mantıksal akıl yürütme, duygu analizi, metin özeti gibi yeteneklere sahiptir. Yenilikçi bir şekilde büyük veri ön eğitimi ile çok kaynaklı zengin bilgiyi birleştirir, algoritma teknolojisini sürekli olarak geliştirir ve büyük metin verilerinden kelime, yapı, dil bilgisi, anlam gibi yeni bilgileri sürekli olarak edinir, modelin performansını sürekli olarak evrimleştirir. Kullanıcılara daha kolay bilgi ve hizmetler sunar ve daha akıllı bir deneyim sağlar." + }, + "togethercomputer/StripedHyena-Nous-7B": { + "description": "StripedHyena Nous (7B), etkili stratejiler ve model mimarisi ile artırılmış hesaplama yetenekleri sunar." + }, + "upstage/SOLAR-10.7B-Instruct-v1.0": { + "description": "Upstage SOLAR Instruct v1 (11B), ince ayar gerektiren talimat görevleri için uygundur ve mükemmel dil işleme yetenekleri sunar." + }, + "wizardlm2": { + "description": "WizardLM 2, Microsoft AI tarafından sunulan bir dil modelidir, karmaşık diyaloglar, çok dilli, akıl yürütme ve akıllı asistan alanlarında özellikle başarılıdır." + }, + "wizardlm2:8x22b": { + "description": "WizardLM 2, Microsoft AI tarafından sunulan bir dil modelidir, karmaşık diyaloglar, çok dilli, akıl yürütme ve akıllı asistan alanlarında özellikle başarılıdır." + }, + "yi-large": { + "description": "Yeni nesil yüz milyar parametreli model, güçlü soru yanıtlama ve metin üretim yetenekleri sunar." + }, + "yi-large-fc": { + "description": "yi-large modelinin temelinde, araç çağrısı yeteneklerini destekleyip güçlendiren bir yapı sunar, çeşitli ajan veya iş akışı kurma gereksinimleri için uygundur." + }, + "yi-large-preview": { + "description": "Erken sürüm, yi-large (yeni sürüm) kullanılması önerilir." + }, + "yi-large-rag": { + "description": "yi-large modelinin güçlü bir hizmeti, arama ve üretim teknolojilerini birleştirerek doğru yanıtlar sunar, gerçek zamanlı olarak tüm ağdan bilgi arama hizmeti sağlar." + }, + "yi-large-turbo": { + "description": "Son derece yüksek maliyet performansı ve mükemmel performans. Performans ve akıl yürütme hızı, maliyet açısından yüksek hassasiyetli ayarlama yapılır." + }, + "yi-medium": { + "description": "Orta boyutlu model, dengeli yetenekler ve yüksek maliyet performansı sunar. Talimat takibi yetenekleri derinlemesine optimize edilmiştir." + }, + "yi-medium-200k": { + "description": "200K ultra uzun bağlam penceresi, uzun metinlerin derinlemesine anlaşılması ve üretilmesi yetenekleri sunar." + }, + "yi-spark": { + "description": "Küçük ama etkili, hafif ve hızlı bir modeldir. Güçlendirilmiş matematiksel işlemler ve kod yazma yetenekleri sunar." + }, + "yi-vision": { + "description": "Karmaşık görsel görevler için model, yüksek performanslı resim anlama ve analiz yetenekleri sunar." + } +} diff --git a/locales/tr-TR/providers.json b/locales/tr-TR/providers.json new file mode 100644 index 000000000000..0da81274643a --- /dev/null +++ b/locales/tr-TR/providers.json @@ -0,0 +1,80 @@ +{ + "ai360": { + "description": "360 AI, 360 şirketi tarafından sunulan yapay zeka modeli ve hizmet platformudur. 360GPT2 Pro, 360GPT Pro, 360GPT Turbo ve 360GPT Turbo Responsibility 8K gibi çeşitli gelişmiş doğal dil işleme modelleri sunmaktadır. Bu modeller, büyük ölçekli parametreler ve çok modlu yetenekleri birleştirerek metin üretimi, anlamsal anlama, diyalog sistemleri ve kod üretimi gibi alanlarda geniş bir uygulama yelpazesine sahiptir. Esnek fiyatlandırma stratejileri ile 360 AI, çeşitli kullanıcı ihtiyaçlarını karşılamakta ve geliştiricilerin entegrasyonunu destekleyerek akıllı uygulamaların yenilik ve gelişimini teşvik etmektedir." + }, + "anthropic": { + "description": "Anthropic, yapay zeka araştırma ve geliştirmeye odaklanan bir şirkettir. Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus ve Claude 3 Haiku gibi bir dizi gelişmiş dil modeli sunmaktadır. Bu modeller, zeka, hız ve maliyet arasında ideal bir denge sağlamaktadır ve kurumsal düzeydeki iş yüklerinden hızlı yanıt gerektiren çeşitli uygulama senaryolarına kadar geniş bir yelpazede kullanılmaktadır. Claude 3.5 Sonnet, en son modeli olarak, birçok değerlendirmede mükemmel performans sergilemekte ve yüksek maliyet etkinliğini korumaktadır." + }, + "azure": { + "description": "Azure, GPT-3.5 ve en son GPT-4 serisi gibi çeşitli gelişmiş yapay zeka modelleri sunar. Farklı veri türlerini ve karmaşık görevleri destekleyerek güvenli, güvenilir ve sürdürülebilir yapay zeka çözümleri sağlamaya odaklanmaktadır." + }, + "baichuan": { + "description": "Baichuan Intelligent, yapay zeka büyük modellerinin geliştirilmesine odaklanan bir şirkettir. Modelleri, yerel bilgi ansiklopedisi, uzun metin işleme ve üretim gibi Çince görevlerde mükemmel performans sergilemekte ve uluslararası ana akım modelleri aşmaktadır. Baichuan Intelligent ayrıca sektördeki lider çok modlu yeteneklere sahiptir ve birçok otoriter değerlendirmede mükemmel sonuçlar elde etmiştir. Modelleri, Baichuan 4, Baichuan 3 Turbo ve Baichuan 3 Turbo 128k gibi farklı uygulama senaryolarına yönelik optimize edilmiş yüksek maliyet etkinliği çözümleri sunmaktadır." + }, + "bedrock": { + "description": "Bedrock, Amazon AWS tarafından sunulan bir hizmettir ve işletmelere gelişmiş yapay zeka dil modelleri ve görsel modeller sağlamaya odaklanmaktadır. Model ailesi, Anthropic'in Claude serisi, Meta'nın Llama 3.1 serisi gibi seçenekleri içermekte olup, metin üretimi, diyalog, görüntü işleme gibi çeşitli görevleri desteklemektedir. Farklı ölçek ve ihtiyaçlara uygun kurumsal uygulamalar için geniş bir yelpaze sunmaktadır." + }, + "deepseek": { + "description": "DeepSeek, yapay zeka teknolojisi araştırma ve uygulamalarına odaklanan bir şirkettir. En son modeli DeepSeek-V2.5, genel diyalog ve kod işleme yeteneklerini birleştirerek, insan tercihleriyle uyum, yazma görevleri ve talimat takibi gibi alanlarda önemli iyileştirmeler sağlamaktadır." + }, + "fireworksai": { + "description": "Fireworks AI, işlev çağrısı ve çok modlu işleme üzerine odaklanan önde gelen bir gelişmiş dil modeli hizmet sağlayıcısıdır. En son modeli Firefunction V2, Llama-3 tabanlıdır ve işlev çağrısı, diyalog ve talimat takibi için optimize edilmiştir. Görsel dil modeli FireLLaVA-13B, görüntü ve metin karışık girişi desteklemektedir. Diğer dikkat çekici modeller arasında Llama serisi ve Mixtral serisi bulunmaktadır ve etkili çok dilli talimat takibi ve üretim desteği sunmaktadır." + }, + "google": { + "description": "Google'ın Gemini serisi, Google DeepMind tarafından geliştirilen en gelişmiş ve genel yapay zeka modelleridir. Çok modlu tasarımı sayesinde metin, kod, görüntü, ses ve video gibi çeşitli veri türlerini sorunsuz bir şekilde anlama ve işleme yeteneğine sahiptir. Veri merkezlerinden mobil cihazlara kadar çeşitli ortamlarda kullanılabilir, yapay zeka modellerinin verimliliğini ve uygulama kapsamını büyük ölçüde artırmaktadır." + }, + "groq": { + "description": "Groq'un LPU çıkarım motoru, en son bağımsız büyük dil modeli (LLM) benchmark testlerinde mükemmel performans sergilemekte ve olağanüstü hız ve verimliliği ile yapay zeka çözümlerinin standartlarını yeniden tanımlamaktadır. Groq, bulut tabanlı dağıtımlarda iyi bir performans sergileyen anlık çıkarım hızının temsilcisidir." + }, + "minimax": { + "description": "MiniMax, 2021 yılında kurulan genel yapay zeka teknolojisi şirketidir ve kullanıcılarla birlikte akıllı çözümler yaratmayı hedeflemektedir. MiniMax, farklı modlarda genel büyük modeller geliştirmiştir. Bunlar arasında trilyon parametreli MoE metin büyük modeli, ses büyük modeli ve görüntü büyük modeli bulunmaktadır. Ayrıca, Conch AI gibi uygulamalar da sunmaktadır." + }, + "mistral": { + "description": "Mistral, karmaşık akıl yürütme, çok dilli görevler, kod üretimi gibi alanlarda geniş bir uygulama yelpazesine sahip gelişmiş genel, profesyonel ve araştırma modelleri sunmaktadır. Fonksiyon çağrısı arayüzü aracılığıyla kullanıcılar, özel işlevleri entegre ederek belirli uygulamalar gerçekleştirebilirler." + }, + "moonshot": { + "description": "Moonshot, Beijing Yuezhi Anmian Technology Co., Ltd. tarafından sunulan açık kaynaklı bir platformdur. İçerik oluşturma, akademik araştırma, akıllı öneri, tıbbi teşhis gibi geniş bir uygulama alanına sahip çeşitli doğal dil işleme modelleri sunmaktadır. Uzun metin işleme ve karmaşık üretim görevlerini desteklemektedir." + }, + "novita": { + "description": "Novita AI, çeşitli büyük dil modelleri ve yapay zeka görüntü üretimi API hizmetleri sunan bir platformdur. Esnek, güvenilir ve maliyet etkin bir yapıya sahiptir. Llama3, Mistral gibi en son açık kaynak modelleri desteklemekte ve üretken yapay zeka uygulama geliştirme için kapsamlı, kullanıcı dostu ve otomatik ölçeklenebilir API çözümleri sunmaktadır. Bu, yapay zeka girişimlerinin hızlı gelişimi için uygundur." + }, + "ollama": { + "description": "Ollama'nın sunduğu modeller, kod üretimi, matematiksel işlemler, çok dilli işleme ve diyalog etkileşimi gibi alanları kapsamaktadır. Kurumsal düzeyde ve yerelleştirilmiş dağıtım için çeşitli ihtiyaçları desteklemektedir." + }, + "openai": { + "description": "OpenAI, dünya çapında lider bir yapay zeka araştırma kuruluşudur. Geliştirdiği modeller, GPT serisi gibi, doğal dil işleme alanında öncü adımlar atmaktadır. OpenAI, yenilikçi ve etkili yapay zeka çözümleri ile birçok sektörü dönüştürmeyi hedeflemektedir. Ürünleri, belirgin performans ve maliyet etkinliği ile araştırma, ticaret ve yenilikçi uygulamalarda yaygın olarak kullanılmaktadır." + }, + "openrouter": { + "description": "OpenRouter, OpenAI, Anthropic, LLaMA ve daha fazlasını destekleyen çeşitli öncü büyük model arayüzleri sunan bir hizmet platformudur. Kullanıcılar, ihtiyaçlarına göre en uygun modeli ve fiyatı esnek bir şekilde seçerek yapay zeka deneyimlerini geliştirebilirler." + }, + "perplexity": { + "description": "Perplexity, çeşitli gelişmiş Llama 3.1 modelleri sunan önde gelen bir diyalog üretim modeli sağlayıcısıdır. Hem çevrimiçi hem de çevrimdışı uygulamaları desteklemekte olup, özellikle karmaşık doğal dil işleme görevleri için uygundur." + }, + "qwen": { + "description": "Tongyi Qianwen, Alibaba Cloud tarafından geliştirilen büyük ölçekli bir dil modelidir ve güçlü doğal dil anlama ve üretme yeteneklerine sahiptir. Çeşitli soruları yanıtlayabilir, metin içeriği oluşturabilir, görüşlerini ifade edebilir ve kod yazabilir. Birçok alanda etkili bir şekilde kullanılmaktadır." + }, + "siliconcloud": { + "description": "SiliconFlow, insanlığa fayda sağlamak amacıyla AGI'yi hızlandırmaya odaklanmakta ve kullanıcı dostu ve maliyet etkin GenAI yığınları ile büyük ölçekli yapay zeka verimliliğini artırmayı hedeflemektedir." + }, + "spark": { + "description": "iFlytek'in Xinghuo büyük modeli, çok alanlı ve çok dilli güçlü yapay zeka yetenekleri sunmaktadır. Gelişmiş doğal dil işleme teknolojisini kullanarak, akıllı donanım, akıllı sağlık, akıllı finans gibi çeşitli dikey senaryolar için yenilikçi uygulamalar geliştirmektedir." + }, + "stepfun": { + "description": "StepFun büyük modeli, sektördeki lider çok modlu ve karmaşık akıl yürütme yeteneklerine sahiptir. Uzun metin anlama ve güçlü kendi kendine yönlendirme arama motoru işlevlerini desteklemektedir." + }, + "taichu": { + "description": "Çin Bilimler Akademisi Otomasyon Araştırma Enstitüsü ve Wuhan Yapay Zeka Araştırma Enstitüsü, çok modlu büyük modelin yeni neslini sunmaktadır. Çoklu soru-cevap, metin oluşturma, görüntü üretimi, 3D anlama, sinyal analizi gibi kapsamlı soru-cevap görevlerini desteklemekte ve daha güçlü bilişsel, anlama ve yaratma yetenekleri sunarak yeni bir etkileşim deneyimi sağlamaktadır." + }, + "togetherai": { + "description": "Together AI, yenilikçi yapay zeka modelleri aracılığıyla lider performans elde etmeye odaklanmaktadır. Hızlı ölçeklenme desteği ve sezgisel dağıtım süreçleri dahil olmak üzere geniş özelleştirme yetenekleri sunarak işletmelerin çeşitli ihtiyaçlarını karşılamaktadır." + }, + "upstage": { + "description": "Upstage, çeşitli ticari ihtiyaçlar için yapay zeka modelleri geliştirmeye odaklanmaktadır. Solar LLM ve belge AI gibi modeller, insan yapımı genel zeka (AGI) hedeflemektedir. Chat API aracılığıyla basit diyalog ajanları oluşturmakta ve işlev çağrısı, çeviri, gömme ve belirli alan uygulamalarını desteklemektedir." + }, + "zeroone": { + "description": "01.AI, yapay zeka 2.0 çağının yapay zeka teknolojisine odaklanmakta ve 'insan + yapay zeka' yenilik ve uygulamalarını teşvik etmektedir. Son derece güçlü modeller ve gelişmiş yapay zeka teknolojileri kullanarak insan üretkenliğini artırmayı ve teknolojik güçlendirmeyi hedeflemektedir." + }, + "zhipu": { + "description": "Zhipu AI, çok modlu ve dil modellerinin açık platformunu sunmakta, metin işleme, görüntü anlama ve programlama yardımı gibi geniş bir yapay zeka uygulama senaryosunu desteklemektedir." + } +} diff --git a/locales/vi-VN/common.json b/locales/vi-VN/common.json index 68fb85b5f4a8..2f27fdfa1dd1 100644 --- a/locales/vi-VN/common.json +++ b/locales/vi-VN/common.json @@ -195,8 +195,8 @@ }, "tab": { "chat": "Trò chuyện", + "discover": "Khám phá", "files": "Tệp", - "market": "Thị trường", "me": "Tôi", "setting": "Cài đặt" }, diff --git a/locales/vi-VN/discover.json b/locales/vi-VN/discover.json new file mode 100644 index 000000000000..804488c247e7 --- /dev/null +++ b/locales/vi-VN/discover.json @@ -0,0 +1,204 @@ +{ + "assistants": { + "addAgent": "Thêm trợ lý", + "addAgentAndConverse": "Thêm trợ lý và trò chuyện", + "addAgentSuccess": "Thêm thành công", + "conversation": { + "l1": "Xin chào, tôi là **{{name}}**, bạn có thể hỏi tôi bất kỳ câu hỏi nào, tôi sẽ cố gắng trả lời bạn ~", + "l2": "Dưới đây là giới thiệu về khả năng của tôi: ", + "l3": "Hãy bắt đầu cuộc trò chuyện nào!" + }, + "description": "Giới thiệu trợ lý", + "detail": "Chi tiết", + "list": "Danh sách trợ lý", + "more": "Thêm", + "plugins": "Tích hợp plugin", + "recentSubmits": "Cập nhật gần đây", + "suggestions": "Gợi ý liên quan", + "systemRole": "Cài đặt trợ lý", + "try": "Thử ngay" + }, + "back": "Quay lại khám phá", + "category": { + "assistant": { + "academic": "Học thuật", + "all": "Tất cả", + "career": "Nghề nghiệp", + "copywriting": "Viết nội dung", + "design": "Thiết kế", + "education": "Giáo dục", + "emotions": "Cảm xúc", + "entertainment": "Giải trí", + "games": "Trò chơi", + "general": "Chung", + "life": "Cuộc sống", + "marketing": "Tiếp thị", + "office": "Văn phòng", + "programming": "Lập trình", + "translation": "Dịch thuật" + }, + "plugin": { + "all": "Tất cả", + "gaming-entertainment": "Giải trí trò chơi", + "life-style": "Phong cách sống", + "media-generate": "Tạo nội dung truyền thông", + "science-education": "Khoa học và giáo dục", + "social": "Mạng xã hội", + "stocks-finance": "Chứng khoán và tài chính", + "tools": "Công cụ hữu ích", + "web-search": "Tìm kiếm trên web" + } + }, + "cleanFilter": "Xóa bộ lọc", + "create": "Tạo mới", + "createGuide": { + "func1": { + "desc1": "Vào trang cài đặt của trợ lý bạn muốn gửi thông qua biểu tượng cài đặt ở góc trên bên phải trong cửa sổ trò chuyện;", + "desc2": "Nhấn nút gửi đến thị trường trợ lý ở góc trên bên phải.", + "tag": "Phương pháp một", + "title": "Gửi qua LobeChat" + }, + "func2": { + "button": "Đi đến kho trợ lý trên Github", + "desc": "Nếu bạn muốn thêm trợ lý vào chỉ mục, hãy sử dụng agent-template.json hoặc agent-template-full.json để tạo một mục trong thư mục plugins, viết mô tả ngắn gọn và gán thẻ phù hợp, sau đó tạo một yêu cầu kéo.", + "tag": "Phương pháp hai", + "title": "Gửi qua Github" + } + }, + "dislike": "Không thích", + "filter": "Bộ lọc", + "filterBy": { + "authorRange": { + "everyone": "Tất cả tác giả", + "followed": "Tác giả đã theo dõi", + "title": "Phạm vi tác giả" + }, + "contentLength": "Độ dài ngữ cảnh tối thiểu", + "maxToken": { + "title": "Đặt độ dài tối đa (Token)", + "unlimited": "Không giới hạn" + }, + "other": { + "functionCall": "Hỗ trợ gọi hàm", + "title": "Khác", + "vision": "Hỗ trợ nhận diện hình ảnh", + "withKnowledge": "Kèm theo kho kiến thức", + "withTool": "Kèm theo plugin" + }, + "pricing": "Giá mô hình", + "timePeriod": { + "all": "Tất cả thời gian", + "day": "24 giờ qua", + "month": "30 ngày qua", + "title": "Phạm vi thời gian", + "week": "7 ngày qua", + "year": "1 năm qua" + } + }, + "home": { + "featuredAssistants": "Trợ lý nổi bật", + "featuredModels": "Mô hình nổi bật", + "featuredProviders": "Nhà cung cấp mô hình nổi bật", + "featuredTools": "Plugin nổi bật", + "more": "Khám phá thêm" + }, + "like": "Thích", + "models": { + "chat": "Bắt đầu cuộc trò chuyện", + "contentLength": "Độ dài ngữ cảnh tối đa", + "free": "Miễn phí", + "guide": "Hướng dẫn cấu hình", + "list": "Danh sách mô hình", + "more": "Thêm", + "parameterList": { + "defaultValue": "Giá trị mặc định", + "docs": "Xem tài liệu", + "frequency_penalty": { + "desc": "Cài đặt này điều chỉnh tần suất mà mô hình lặp lại các từ cụ thể đã xuất hiện trong đầu vào. Giá trị cao hơn làm giảm khả năng lặp lại này, trong khi giá trị âm tạo ra hiệu ứng ngược lại. Hình phạt từ vựng không tăng theo số lần xuất hiện. Giá trị âm sẽ khuyến khích việc lặp lại từ vựng.", + "title": "Hình phạt tần suất" + }, + "max_tokens": { + "desc": "Cài đặt này xác định độ dài tối đa mà mô hình có thể tạo ra trong một lần phản hồi. Việc đặt giá trị cao hơn cho phép mô hình tạo ra những phản hồi dài hơn, trong khi giá trị thấp hơn sẽ giới hạn độ dài của phản hồi, giúp nó ngắn gọn hơn. Tùy thuộc vào các tình huống ứng dụng khác nhau, điều chỉnh giá trị này một cách hợp lý có thể giúp đạt được độ dài và mức độ chi tiết mong muốn của phản hồi.", + "title": "Giới hạn phản hồi một lần" + }, + "presence_penalty": { + "desc": "Cài đặt này nhằm kiểm soát việc lặp lại từ vựng dựa trên tần suất xuất hiện của từ trong đầu vào. Nó cố gắng sử dụng ít hơn những từ đã xuất hiện nhiều trong đầu vào, với tần suất sử dụng tỷ lệ thuận với tần suất xuất hiện. Hình phạt từ vựng tăng theo số lần xuất hiện. Giá trị âm sẽ khuyến khích việc lặp lại từ vựng.", + "title": "Độ mới của chủ đề" + }, + "range": "Phạm vi", + "temperature": { + "desc": "Cài đặt này ảnh hưởng đến sự đa dạng trong phản hồi của mô hình. Giá trị thấp hơn dẫn đến phản hồi dễ đoán và điển hình hơn, trong khi giá trị cao hơn khuyến khích phản hồi đa dạng và không thường gặp. Khi giá trị được đặt là 0, mô hình sẽ luôn đưa ra cùng một phản hồi cho đầu vào nhất định.", + "title": "Ngẫu nhiên" + }, + "title": "Tham số mô hình", + "top_p": { + "desc": "Cài đặt này giới hạn lựa chọn của mô hình chỉ trong một tỷ lệ từ có khả năng cao nhất: chỉ chọn những từ hàng đầu có xác suất tích lũy đạt P. Giá trị thấp hơn làm cho phản hồi của mô hình dễ đoán hơn, trong khi cài đặt mặc định cho phép mô hình chọn từ toàn bộ phạm vi từ vựng.", + "title": "Lấy mẫu hạt nhân" + }, + "type": "Loại" + }, + "providerInfo": { + "apiTooltip": "LobeChat hỗ trợ sử dụng khóa API tùy chỉnh cho nhà cung cấp này.", + "input": "Giá đầu vào", + "inputTooltip": "Chi phí cho mỗi triệu Token", + "latency": "Độ trễ", + "latencyTooltip": "Thời gian phản hồi trung bình để nhà cung cấp gửi Token đầu tiên", + "maxOutput": "Độ dài đầu ra tối đa", + "maxOutputTooltip": "Số Token tối đa mà điểm cuối này có thể tạo ra", + "officialTooltip": "Dịch vụ chính thức của LobeHub", + "output": "Giá đầu ra", + "outputTooltip": "Chi phí cho mỗi triệu Token", + "streamCancellationTooltip": "Nhà cung cấp này hỗ trợ chức năng hủy luồng.", + "throughput": "Thông lượng", + "throughputTooltip": "Số Token trung bình được truyền trong mỗi yêu cầu luồng mỗi giây" + }, + "suggestions": "Mô hình liên quan", + "supportedProviders": "Nhà cung cấp hỗ trợ mô hình này" + }, + "plugins": { + "community": "Plugin cộng đồng", + "install": "Cài đặt plugin", + "installed": "Đã cài đặt", + "list": "Danh sách plugin", + "meta": { + "description": "Mô tả", + "parameter": "Tham số", + "title": "Tham số công cụ", + "type": "Loại" + }, + "more": "Thêm", + "official": "Plugin chính thức", + "recentSubmits": "Cập nhật gần đây", + "suggestions": "Gợi ý liên quan" + }, + "providers": { + "config": "Cấu hình nhà cung cấp", + "list": "Danh sách nhà cung cấp mô hình", + "modelCount": "{{count}} mô hình", + "modelSite": "Tài liệu mô hình", + "more": "Thêm", + "officialSite": "Trang web chính thức", + "showAllModels": "Hiển thị tất cả các mô hình", + "suggestions": "Nhà cung cấp liên quan", + "supportedModels": "Mô hình được hỗ trợ" + }, + "search": { + "placeholder": "Tìm kiếm tên, mô tả hoặc từ khóa...", + "result": "{{count}} kết quả tìm kiếm về {{keyword}}", + "searching": "Đang tìm kiếm..." + }, + "sort": { + "mostLiked": "Nhiều người thích nhất", + "mostUsed": "Sử dụng nhiều nhất", + "newest": "Mới nhất", + "oldest": "Cũ nhất", + "recommended": "Được đề xuất" + }, + "tab": { + "assistants": "Trợ lý", + "home": "Trang chủ", + "models": "Mô hình", + "plugins": "Plugin", + "providers": "Nhà cung cấp mô hình" + } +} diff --git a/locales/vi-VN/metadata.json b/locales/vi-VN/metadata.json index 924ce19bd902..365a60c61115 100644 --- a/locales/vi-VN/metadata.json +++ b/locales/vi-VN/metadata.json @@ -3,9 +3,26 @@ "description": "{{appName}} mang đến cho bạn trải nghiệm tốt nhất với ChatGPT, Claude, Gemini, OLLaMA WebUI", "title": "{{appName}}: Công cụ AI cá nhân, giúp bạn có một bộ não thông minh hơn" }, - "market": { - "description": "Sáng tạo nội dung, viết quảng cáo, hỏi đáp, tạo hình ảnh, tạo video, tạo giọng nói, tác nhân thông minh, quy trình tự động hóa, tùy chỉnh trợ lý AI thông minh riêng của bạn", - "title": "Thị trường trợ lý" + "discover": { + "assistants": { + "description": "Sáng tạo nội dung, viết quảng cáo, hỏi đáp, tạo hình ảnh, tạo video, tạo giọng nói, Agent thông minh, quy trình tự động hóa, tùy chỉnh trợ lý AI / GPTs / OLLaMA của riêng bạn", + "title": "Trợ lý AI" + }, + "description": "Sáng tạo nội dung, viết quảng cáo, hỏi đáp, tạo hình ảnh, tạo video, tạo giọng nói, Agent thông minh, quy trình tự động hóa, ứng dụng AI tùy chỉnh, tùy chỉnh bảng điều khiển ứng dụng AI của riêng bạn", + "models": { + "description": "Khám phá các mô hình AI phổ biến như OpenAI / GPT / Claude 3 / Gemini / Ollama / Azure / DeepSeek", + "title": "Mô hình AI" + }, + "plugins": { + "description": "Tìm kiếm biểu đồ, học thuật, tạo hình ảnh, tạo video, tạo giọng nói, tự động hóa quy trình làm việc, tích hợp khả năng phong phú của các plugin cho trợ lý của bạn", + "title": "Plugin AI" + }, + "providers": { + "description": "Khám phá các nhà cung cấp mô hình phổ biến như OpenAI / Qwen / Ollama / Anthropic / DeepSeek / Google Gemini / OpenRouter", + "title": "Nhà cung cấp dịch vụ mô hình AI" + }, + "search": "Tìm kiếm", + "title": "Khám Phá" }, "plugins": { "description": "Tìm kiếm, tạo biểu đồ, học thuật, tạo hình ảnh, tạo video, tạo giọng nói, quy trình tự động hóa, tùy chỉnh khả năng plugin ToolCall dành riêng cho ChatGPT / Claude", diff --git a/locales/vi-VN/models.json b/locales/vi-VN/models.json new file mode 100644 index 000000000000..1675a50889d8 --- /dev/null +++ b/locales/vi-VN/models.json @@ -0,0 +1,845 @@ +{ + "01-ai/Yi-1.5-34B-Chat-16K": { + "description": "Yi-1.5 34B, với mẫu huấn luyện phong phú, cung cấp hiệu suất vượt trội trong ứng dụng ngành." + }, + "01-ai/Yi-1.5-6B-Chat": { + "description": "Yi-1.5 là phiên bản tiến hóa của dòng Yi, có đào tạo trước chất lượng cao và dữ liệu tinh chỉnh phong phú." + }, + "01-ai/Yi-1.5-9B-Chat-16K": { + "description": "Yi-1.5 9B hỗ trợ 16K Tokens, cung cấp khả năng tạo ngôn ngữ hiệu quả và mượt mà." + }, + "360gpt-pro": { + "description": "360GPT Pro là thành viên quan trọng trong dòng mô hình AI của 360, đáp ứng nhu cầu đa dạng của các ứng dụng ngôn ngữ tự nhiên với khả năng xử lý văn bản hiệu quả, hỗ trợ hiểu văn bản dài và đối thoại nhiều vòng." + }, + "360gpt-turbo": { + "description": "360GPT Turbo cung cấp khả năng tính toán và đối thoại mạnh mẽ, có khả năng hiểu ngữ nghĩa và hiệu suất tạo ra xuất sắc, là giải pháp trợ lý thông minh lý tưởng cho doanh nghiệp và nhà phát triển." + }, + "360gpt-turbo-responsibility-8k": { + "description": "360GPT Turbo Responsibility 8K nhấn mạnh an toàn ngữ nghĩa và định hướng trách nhiệm, được thiết kế đặc biệt cho các tình huống ứng dụng có yêu cầu cao về an toàn nội dung, đảm bảo độ chính xác và độ ổn định trong trải nghiệm người dùng." + }, + "360gpt2-pro": { + "description": "360GPT2 Pro là mô hình xử lý ngôn ngữ tự nhiên cao cấp do công ty 360 phát hành, có khả năng tạo và hiểu văn bản xuất sắc, đặc biệt trong lĩnh vực tạo ra và sáng tạo, có thể xử lý các nhiệm vụ chuyển đổi ngôn ngữ phức tạp và diễn xuất vai trò." + }, + "4.0Ultra": { + "description": "Spark4.0 Ultra là phiên bản mạnh mẽ nhất trong dòng mô hình lớn Xinghuo, nâng cao khả năng hiểu và tóm tắt nội dung văn bản trong khi nâng cấp liên kết tìm kiếm trực tuyến. Đây là giải pháp toàn diện nhằm nâng cao năng suất văn phòng và đáp ứng chính xác nhu cầu, là sản phẩm thông minh dẫn đầu ngành." + }, + "Baichuan2-Turbo": { + "description": "Sử dụng công nghệ tăng cường tìm kiếm để kết nối toàn diện giữa mô hình lớn và kiến thức lĩnh vực, kiến thức toàn cầu. Hỗ trợ tải lên nhiều loại tài liệu như PDF, Word và nhập URL, thông tin được thu thập kịp thời và toàn diện, kết quả đầu ra chính xác và chuyên nghiệp." + }, + "Baichuan3-Turbo": { + "description": "Tối ưu hóa cho các tình huống doanh nghiệp thường xuyên, hiệu quả được cải thiện đáng kể, chi phí hiệu quả cao. So với mô hình Baichuan2, sáng tạo nội dung tăng 20%, trả lời câu hỏi kiến thức tăng 17%, khả năng đóng vai tăng 40%. Hiệu quả tổng thể tốt hơn GPT3.5." + }, + "Baichuan3-Turbo-128k": { + "description": "Có cửa sổ ngữ cảnh siêu dài 128K, tối ưu hóa cho các tình huống doanh nghiệp thường xuyên, hiệu quả được cải thiện đáng kể, chi phí hiệu quả cao. So với mô hình Baichuan2, sáng tạo nội dung tăng 20%, trả lời câu hỏi kiến thức tăng 17%, khả năng đóng vai tăng 40%. Hiệu quả tổng thể tốt hơn GPT3.5." + }, + "Baichuan4": { + "description": "Mô hình có khả năng hàng đầu trong nước, vượt trội hơn các mô hình chính thống nước ngoài trong các nhiệm vụ tiếng Trung như bách khoa toàn thư, văn bản dài, sáng tạo nội dung. Cũng có khả năng đa phương tiện hàng đầu trong ngành, thể hiện xuất sắc trong nhiều tiêu chuẩn đánh giá uy tín." + }, + "Gryphe/MythoMax-L2-13b": { + "description": "MythoMax-L2 (13B) là một mô hình sáng tạo, phù hợp cho nhiều lĩnh vực ứng dụng và nhiệm vụ phức tạp." + }, + "Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Hermes 2 Mixtral 8x7B DPO là một mô hình kết hợp đa dạng, nhằm cung cấp trải nghiệm sáng tạo xuất sắc." + }, + "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) là mô hình chỉ dẫn chính xác cao, phù hợp cho tính toán phức tạp." + }, + "NousResearch/Nous-Hermes-2-Yi-34B": { + "description": "Nous Hermes-2 Yi (34B) cung cấp đầu ra ngôn ngữ tối ưu và khả năng ứng dụng đa dạng." + }, + "Pro-128k": { + "description": "Spark Pro-128K được cấu hình với khả năng xử lý ngữ cảnh cực lớn, có thể xử lý tới 128K thông tin ngữ cảnh, đặc biệt phù hợp cho việc phân tích toàn bộ và xử lý mối liên hệ logic lâu dài trong nội dung văn bản dài, có thể cung cấp logic mạch lạc và hỗ trợ trích dẫn đa dạng trong giao tiếp văn bản phức tạp." + }, + "Qwen/Qwen1.5-110B-Chat": { + "description": "Là phiên bản thử nghiệm của Qwen2, Qwen1.5 sử dụng dữ liệu quy mô lớn để đạt được chức năng đối thoại chính xác hơn." + }, + "Qwen/Qwen1.5-14B-Chat": { + "description": "Qwen1.5 được đào tạo từ bộ dữ liệu quy mô lớn, xuất sắc trong các nhiệm vụ ngôn ngữ phức tạp." + }, + "Qwen/Qwen1.5-32B-Chat": { + "description": "Qwen1.5 có khả năng trả lời câu hỏi đa lĩnh vực và tạo văn bản." + }, + "Qwen/Qwen1.5-72B-Chat": { + "description": "Qwen 1.5 Chat (72B) cung cấp phản hồi nhanh và khả năng đối thoại tự nhiên, phù hợp cho môi trường đa ngôn ngữ." + }, + "Qwen/Qwen1.5-7B-Chat": { + "description": "Qwen1.5 nâng cao khả năng diễn đạt trong đối thoại thông qua việc kết hợp giữa đào tạo trước cao cấp và tinh chỉnh." + }, + "Qwen/Qwen2-1.5B-Instruct": { + "description": "Qwen2 là dòng mô hình ngôn ngữ lớn hoàn toàn mới, nhằm tối ưu hóa việc xử lý các nhiệm vụ theo hướng dẫn." + }, + "Qwen/Qwen2-57B-A14B-Instruct": { + "description": "Qwen2 là dòng mới, mô hình 57B A14B thể hiện xuất sắc trong các nhiệm vụ theo hướng dẫn." + }, + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 là mô hình ngôn ngữ tổng quát tiên tiến, hỗ trợ nhiều loại chỉ dẫn." + }, + "Qwen/Qwen2-7B-Instruct": { + "description": "Qwen2 là dòng mô hình ngôn ngữ lớn hoàn toàn mới, có khả năng hiểu và tạo ra mạnh mẽ hơn." + }, + "Qwen/Qwen2-Math-72B-Instruct": { + "description": "Qwen2-Math tập trung vào việc giải quyết các vấn đề trong lĩnh vực toán học, cung cấp giải pháp chuyên nghiệp cho các bài toán khó." + }, + "THUDM/chatglm3-6b": { + "description": "Là mô hình ngôn ngữ hội thoại song ngữ, ChatGLM3 có khả năng xử lý các nhiệm vụ chuyển đổi giữa tiếng Trung và tiếng Anh." + }, + "THUDM/glm-4-9b-chat": { + "description": "GLM-4 9B là phiên bản mã nguồn mở, cung cấp trải nghiệm đối thoại tối ưu cho các ứng dụng hội thoại." + }, + "abab5.5-chat": { + "description": "Hướng đến các tình huống sản xuất, hỗ trợ xử lý nhiệm vụ phức tạp và sinh văn bản hiệu quả, phù hợp cho các ứng dụng trong lĩnh vực chuyên môn." + }, + "abab5.5s-chat": { + "description": "Được thiết kế đặc biệt cho các tình huống đối thoại bằng tiếng Trung, cung cấp khả năng sinh đối thoại chất lượng cao bằng tiếng Trung, phù hợp cho nhiều tình huống ứng dụng." + }, + "abab6.5g-chat": { + "description": "Được thiết kế đặc biệt cho các cuộc đối thoại đa ngôn ngữ, hỗ trợ sinh đối thoại chất lượng cao bằng tiếng Anh và nhiều ngôn ngữ khác." + }, + "abab6.5s-chat": { + "description": "Phù hợp cho nhiều nhiệm vụ xử lý ngôn ngữ tự nhiên, bao gồm sinh văn bản, hệ thống đối thoại, v.v." + }, + "abab6.5t-chat": { + "description": "Tối ưu hóa cho các tình huống đối thoại bằng tiếng Trung, cung cấp khả năng sinh đối thoại mượt mà và phù hợp với thói quen diễn đạt tiếng Trung." + }, + "accounts/fireworks/models/firefunction-v1": { + "description": "Mô hình gọi hàm mã nguồn mở của Fireworks, cung cấp khả năng thực hiện chỉ dẫn xuất sắc và tính năng tùy chỉnh mở." + }, + "accounts/fireworks/models/firefunction-v2": { + "description": "Firefunction-v2 mới nhất của công ty Fireworks là một mô hình gọi hàm hiệu suất cao, được phát triển dựa trên Llama-3 và được tối ưu hóa nhiều, đặc biệt phù hợp cho các tình huống gọi hàm, đối thoại và theo dõi chỉ dẫn." + }, + "accounts/fireworks/models/firellava-13b": { + "description": "fireworks-ai/FireLLaVA-13b là một mô hình ngôn ngữ hình ảnh, có thể nhận cả hình ảnh và văn bản đầu vào, được huấn luyện bằng dữ liệu chất lượng cao, phù hợp cho các nhiệm vụ đa mô hình." + }, + "accounts/fireworks/models/gemma2-9b-it": { + "description": "Mô hình chỉ dẫn Gemma 2 9B, dựa trên công nghệ trước đó của Google, phù hợp cho nhiều nhiệm vụ tạo văn bản như trả lời câu hỏi, tóm tắt và suy luận." + }, + "accounts/fireworks/models/llama-v3-70b-instruct": { + "description": "Mô hình chỉ dẫn Llama 3 70B, được tối ưu hóa cho đối thoại đa ngôn ngữ và hiểu ngôn ngữ tự nhiên, hiệu suất vượt trội hơn nhiều mô hình cạnh tranh." + }, + "accounts/fireworks/models/llama-v3-70b-instruct-hf": { + "description": "Mô hình chỉ dẫn Llama 3 70B (phiên bản HF), giữ nguyên kết quả với thực hiện chính thức, phù hợp cho các nhiệm vụ theo dõi chỉ dẫn chất lượng cao." + }, + "accounts/fireworks/models/llama-v3-8b-instruct": { + "description": "Mô hình chỉ dẫn Llama 3 8B, được tối ưu hóa cho đối thoại và các nhiệm vụ đa ngôn ngữ, thể hiện hiệu suất xuất sắc và hiệu quả." + }, + "accounts/fireworks/models/llama-v3-8b-instruct-hf": { + "description": "Mô hình chỉ dẫn Llama 3 8B (phiên bản HF), kết quả nhất quán với thực hiện chính thức, có tính nhất quán cao và tương thích đa nền tảng." + }, + "accounts/fireworks/models/llama-v3p1-405b-instruct": { + "description": "Mô hình chỉ dẫn Llama 3.1 405B, có số lượng tham số cực lớn, phù hợp cho các nhiệm vụ phức tạp và theo dõi chỉ dẫn trong các tình huống tải cao." + }, + "accounts/fireworks/models/llama-v3p1-70b-instruct": { + "description": "Mô hình chỉ dẫn Llama 3.1 70B, cung cấp khả năng hiểu và sinh ngôn ngữ tự nhiên xuất sắc, là lựa chọn lý tưởng cho các nhiệm vụ đối thoại và phân tích." + }, + "accounts/fireworks/models/llama-v3p1-8b-instruct": { + "description": "Mô hình chỉ dẫn Llama 3.1 8B, được tối ưu hóa cho đối thoại đa ngôn ngữ, có thể vượt qua hầu hết các mô hình mã nguồn mở và đóng trong các tiêu chuẩn ngành phổ biến." + }, + "accounts/fireworks/models/mixtral-8x22b-instruct": { + "description": "Mô hình chỉ dẫn Mixtral MoE 8x22B, với số lượng tham số lớn và kiến trúc nhiều chuyên gia, hỗ trợ toàn diện cho việc xử lý hiệu quả các nhiệm vụ phức tạp." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct": { + "description": "Mô hình chỉ dẫn Mixtral MoE 8x7B, kiến trúc nhiều chuyên gia cung cấp khả năng theo dõi và thực hiện chỉ dẫn hiệu quả." + }, + "accounts/fireworks/models/mixtral-8x7b-instruct-hf": { + "description": "Mô hình chỉ dẫn Mixtral MoE 8x7B (phiên bản HF), hiệu suất nhất quán với thực hiện chính thức, phù hợp cho nhiều tình huống nhiệm vụ hiệu quả." + }, + "accounts/fireworks/models/mythomax-l2-13b": { + "description": "Mô hình MythoMax L2 13B, kết hợp công nghệ hợp nhất mới, xuất sắc trong việc kể chuyện và đóng vai." + }, + "accounts/fireworks/models/phi-3-vision-128k-instruct": { + "description": "Mô hình chỉ dẫn Phi 3 Vision, mô hình đa mô hình nhẹ, có khả năng xử lý thông tin hình ảnh và văn bản phức tạp, với khả năng suy luận mạnh mẽ." + }, + "accounts/fireworks/models/starcoder-16b": { + "description": "Mô hình StarCoder 15.5B, hỗ trợ các nhiệm vụ lập trình nâng cao, khả năng đa ngôn ngữ được cải thiện, phù hợp cho việc tạo và hiểu mã phức tạp." + }, + "accounts/fireworks/models/starcoder-7b": { + "description": "Mô hình StarCoder 7B, được huấn luyện cho hơn 80 ngôn ngữ lập trình, có khả năng điền mã và hiểu ngữ cảnh xuất sắc." + }, + "accounts/yi-01-ai/models/yi-large": { + "description": "Mô hình Yi-Large, có khả năng xử lý đa ngôn ngữ xuất sắc, có thể được sử dụng cho nhiều nhiệm vụ sinh và hiểu ngôn ngữ." + }, + "anthropic.claude-3-5-sonnet-20240620-v1:0": { + "description": "Claude 3.5 Sonnet nâng cao tiêu chuẩn ngành, hiệu suất vượt trội hơn các mô hình cạnh tranh và Claude 3 Opus, thể hiện xuất sắc trong nhiều đánh giá, đồng thời có tốc độ và chi phí của mô hình tầm trung của chúng tôi." + }, + "anthropic.claude-3-haiku-20240307-v1:0": { + "description": "Claude 3 Haiku là mô hình nhanh nhất và gọn nhẹ nhất của Anthropic, cung cấp tốc độ phản hồi gần như ngay lập tức. Nó có thể nhanh chóng trả lời các truy vấn và yêu cầu đơn giản. Khách hàng sẽ có thể xây dựng trải nghiệm AI liền mạch mô phỏng tương tác của con người. Claude 3 Haiku có thể xử lý hình ảnh và trả về đầu ra văn bản, với cửa sổ ngữ cảnh 200K." + }, + "anthropic.claude-3-opus-20240229-v1:0": { + "description": "Claude 3 Opus là mô hình AI mạnh nhất của Anthropic, có hiệu suất tiên tiến trong các nhiệm vụ phức tạp. Nó có thể xử lý các gợi ý mở và các tình huống chưa thấy, với độ trôi chảy và khả năng hiểu giống con người xuất sắc. Claude 3 Opus thể hiện những khả năng tiên tiến của AI sinh. Claude 3 Opus có thể xử lý hình ảnh và trả về đầu ra văn bản, với cửa sổ ngữ cảnh 200K." + }, + "anthropic.claude-3-sonnet-20240229-v1:0": { + "description": "Claude 3 Sonnet của Anthropic đạt được sự cân bằng lý tưởng giữa trí thông minh và tốc độ - đặc biệt phù hợp cho khối lượng công việc doanh nghiệp. Nó cung cấp hiệu quả tối đa với giá thấp hơn đối thủ, được thiết kế để trở thành một máy chủ đáng tin cậy và bền bỉ, phù hợp cho triển khai AI quy mô lớn. Claude 3 Sonnet có thể xử lý hình ảnh và trả về đầu ra văn bản, với cửa sổ ngữ cảnh 200K." + }, + "anthropic.claude-instant-v1": { + "description": "Một mô hình nhanh chóng, kinh tế nhưng vẫn rất mạnh mẽ, có thể xử lý một loạt các nhiệm vụ bao gồm đối thoại hàng ngày, phân tích văn bản, tóm tắt và hỏi đáp tài liệu." + }, + "anthropic.claude-v2": { + "description": "Mô hình của Anthropic thể hiện khả năng cao trong nhiều nhiệm vụ từ đối thoại phức tạp và sinh nội dung sáng tạo đến tuân thủ chỉ dẫn chi tiết." + }, + "anthropic.claude-v2:1": { + "description": "Phiên bản cập nhật của Claude 2, có cửa sổ ngữ cảnh gấp đôi, cùng với độ tin cậy, tỷ lệ ảo giác và độ chính xác dựa trên bằng chứng được cải thiện trong các tài liệu dài và ngữ cảnh RAG." + }, + "anthropic/claude-3-haiku": { + "description": "Claude 3 Haiku là mô hình nhanh nhất và nhỏ gọn nhất của Anthropic, được thiết kế để đạt được phản hồi gần như ngay lập tức. Nó có hiệu suất định hướng nhanh chóng và chính xác." + }, + "anthropic/claude-3-opus": { + "description": "Claude 3 Opus là mô hình mạnh mẽ nhất của Anthropic, được sử dụng để xử lý các nhiệm vụ phức tạp cao. Nó thể hiện xuất sắc về hiệu suất, trí thông minh, sự trôi chảy và khả năng hiểu biết." + }, + "anthropic/claude-3.5-sonnet": { + "description": "Claude 3.5 Sonnet cung cấp khả năng vượt trội hơn Opus và tốc độ nhanh hơn Sonnet, trong khi vẫn giữ giá tương tự. Sonnet đặc biệt xuất sắc trong lập trình, khoa học dữ liệu, xử lý hình ảnh và các nhiệm vụ đại lý." + }, + "aya": { + "description": "Aya 23 là mô hình đa ngôn ngữ do Cohere phát hành, hỗ trợ 23 ngôn ngữ, tạo điều kiện thuận lợi cho các ứng dụng ngôn ngữ đa dạng." + }, + "aya:35b": { + "description": "Aya 23 là mô hình đa ngôn ngữ do Cohere phát hành, hỗ trợ 23 ngôn ngữ, tạo điều kiện thuận lợi cho các ứng dụng ngôn ngữ đa dạng." + }, + "charglm-3": { + "description": "CharGLM-3 được thiết kế đặc biệt cho vai trò và đồng hành cảm xúc, hỗ trợ trí nhớ nhiều vòng siêu dài và đối thoại cá nhân hóa, ứng dụng rộng rãi." + }, + "chatgpt-4o-latest": { + "description": "ChatGPT-4o là một mô hình động, được cập nhật theo thời gian thực để giữ phiên bản mới nhất. Nó kết hợp khả năng hiểu và sinh ngôn ngữ mạnh mẽ, phù hợp cho các ứng dụng quy mô lớn, bao gồm dịch vụ khách hàng, giáo dục và hỗ trợ kỹ thuật." + }, + "claude-2.0": { + "description": "Claude 2 cung cấp những tiến bộ quan trọng trong khả năng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu trong ngành, giảm đáng kể tỷ lệ ảo giác của mô hình, nhắc nhở hệ thống và một tính năng kiểm tra mới: gọi công cụ." + }, + "claude-2.1": { + "description": "Claude 2 cung cấp những tiến bộ quan trọng trong khả năng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu trong ngành, giảm đáng kể tỷ lệ ảo giác của mô hình, nhắc nhở hệ thống và một tính năng kiểm tra mới: gọi công cụ." + }, + "claude-3-5-sonnet-20240620": { + "description": "Claude 3.5 Sonnet cung cấp khả năng vượt trội so với Opus và tốc độ nhanh hơn Sonnet, đồng thời giữ nguyên mức giá như Sonnet. Sonnet đặc biệt xuất sắc trong lập trình, khoa học dữ liệu, xử lý hình ảnh và các nhiệm vụ đại lý." + }, + "claude-3-haiku-20240307": { + "description": "Claude 3 Haiku là mô hình nhanh nhất và gọn nhẹ nhất của Anthropic, được thiết kế để đạt được phản hồi gần như ngay lập tức. Nó có hiệu suất định hướng nhanh và chính xác." + }, + "claude-3-opus-20240229": { + "description": "Claude 3 Opus là mô hình mạnh mẽ nhất của Anthropic để xử lý các nhiệm vụ phức tạp. Nó thể hiện xuất sắc về hiệu suất, trí thông minh, sự trôi chảy và khả năng hiểu biết." + }, + "claude-3-sonnet-20240229": { + "description": "Claude 3 Sonnet cung cấp sự cân bằng lý tưởng giữa trí thông minh và tốc độ cho khối lượng công việc doanh nghiệp. Nó cung cấp hiệu suất tối đa với mức giá thấp hơn, đáng tin cậy và phù hợp cho triển khai quy mô lớn." + }, + "claude-instant-1.2": { + "description": "Mô hình của Anthropic được sử dụng cho việc sinh văn bản với độ trễ thấp và thông lượng cao, hỗ trợ sinh hàng trăm trang văn bản." + }, + "codegeex-4": { + "description": "CodeGeeX-4 là trợ lý lập trình AI mạnh mẽ, hỗ trợ nhiều ngôn ngữ lập trình với câu hỏi thông minh và hoàn thành mã, nâng cao hiệu suất phát triển." + }, + "codegemma": { + "description": "CodeGemma là mô hình ngôn ngữ nhẹ chuyên dụng cho các nhiệm vụ lập trình khác nhau, hỗ trợ lặp lại và tích hợp nhanh chóng." + }, + "codegemma:2b": { + "description": "CodeGemma là mô hình ngôn ngữ nhẹ chuyên dụng cho các nhiệm vụ lập trình khác nhau, hỗ trợ lặp lại và tích hợp nhanh chóng." + }, + "codellama": { + "description": "Code Llama là một LLM tập trung vào việc sinh và thảo luận mã, kết hợp hỗ trợ cho nhiều ngôn ngữ lập trình, phù hợp cho môi trường phát triển." + }, + "codellama:13b": { + "description": "Code Llama là một LLM tập trung vào việc sinh và thảo luận mã, kết hợp hỗ trợ cho nhiều ngôn ngữ lập trình, phù hợp cho môi trường phát triển." + }, + "codellama:34b": { + "description": "Code Llama là một LLM tập trung vào việc sinh và thảo luận mã, kết hợp hỗ trợ cho nhiều ngôn ngữ lập trình, phù hợp cho môi trường phát triển." + }, + "codellama:70b": { + "description": "Code Llama là một LLM tập trung vào việc sinh và thảo luận mã, kết hợp hỗ trợ cho nhiều ngôn ngữ lập trình, phù hợp cho môi trường phát triển." + }, + "codeqwen": { + "description": "CodeQwen1.5 là mô hình ngôn ngữ quy mô lớn được đào tạo trên một lượng lớn dữ liệu mã, chuyên giải quyết các nhiệm vụ lập trình phức tạp." + }, + "codestral": { + "description": "Codestral là mô hình mã đầu tiên của Mistral AI, cung cấp hỗ trợ xuất sắc cho các nhiệm vụ sinh mã." + }, + "codestral-latest": { + "description": "Codestral là mô hình sinh mã tiên tiến tập trung vào việc sinh mã, tối ưu hóa cho các nhiệm vụ điền vào khoảng trống và hoàn thiện mã." + }, + "cognitivecomputations/dolphin-mixtral-8x22b": { + "description": "Dolphin Mixtral 8x22B là mô hình được thiết kế cho việc tuân thủ hướng dẫn, đối thoại và lập trình." + }, + "command-r": { + "description": "Command R là LLM được tối ưu hóa cho các nhiệm vụ đối thoại và ngữ cảnh dài, đặc biệt phù hợp cho tương tác động và quản lý kiến thức." + }, + "command-r-plus": { + "description": "Command R+ là một mô hình ngôn ngữ lớn hiệu suất cao, được thiết kế cho các tình huống doanh nghiệp thực tế và ứng dụng phức tạp." + }, + "databricks/dbrx-instruct": { + "description": "DBRX Instruct cung cấp khả năng xử lý chỉ dẫn đáng tin cậy, hỗ trợ nhiều ứng dụng trong ngành." + }, + "deepseek-ai/DeepSeek-Coder-V2-Instruct": { + "description": "DeepSeek Coder V2 được thiết kế cho các nhiệm vụ mã, tập trung vào việc tạo mã hiệu quả." + }, + "deepseek-ai/DeepSeek-V2-Chat": { + "description": "DeepSeek V2 có 6.7 tỷ tham số, hỗ trợ xử lý văn bản tiếng Anh và tiếng Trung." + }, + "deepseek-ai/DeepSeek-V2.5": { + "description": "DeepSeek V2.5 kết hợp các đặc điểm xuất sắc của các phiên bản trước, tăng cường khả năng tổng quát và mã hóa." + }, + "deepseek-ai/deepseek-llm-67b-chat": { + "description": "DeepSeek 67B là mô hình tiên tiến được huấn luyện cho các cuộc đối thoại phức tạp." + }, + "deepseek-chat": { + "description": "Mô hình mã nguồn mở mới kết hợp khả năng tổng quát và mã, không chỉ giữ lại khả năng đối thoại tổng quát của mô hình Chat ban đầu và khả năng xử lý mã mạnh mẽ của mô hình Coder, mà còn tốt hơn trong việc phù hợp với sở thích của con người. Hơn nữa, DeepSeek-V2.5 cũng đã đạt được sự cải thiện lớn trong nhiều khía cạnh như nhiệm vụ viết, theo dõi chỉ dẫn." + }, + "deepseek-coder-v2": { + "description": "DeepSeek Coder V2 là mô hình mã nguồn mở hỗn hợp chuyên gia, thể hiện xuất sắc trong các nhiệm vụ mã, tương đương với GPT4-Turbo." + }, + "deepseek-coder-v2:236b": { + "description": "DeepSeek Coder V2 là mô hình mã nguồn mở hỗn hợp chuyên gia, thể hiện xuất sắc trong các nhiệm vụ mã, tương đương với GPT4-Turbo." + }, + "deepseek-v2": { + "description": "DeepSeek V2 là mô hình ngôn ngữ Mixture-of-Experts hiệu quả, phù hợp cho các nhu cầu xử lý tiết kiệm." + }, + "deepseek-v2:236b": { + "description": "DeepSeek V2 236B là mô hình mã thiết kế của DeepSeek, cung cấp khả năng sinh mã mạnh mẽ." + }, + "deepseek/deepseek-chat": { + "description": "Mô hình mã nguồn mở mới kết hợp khả năng tổng quát và mã, không chỉ giữ lại khả năng đối thoại tổng quát của mô hình Chat ban đầu và khả năng xử lý mã mạnh mẽ của mô hình Coder, mà còn tốt hơn trong việc phù hợp với sở thích của con người. Hơn nữa, DeepSeek-V2.5 cũng đã đạt được sự cải thiện lớn trong nhiều lĩnh vực như nhiệm vụ viết, theo dõi chỉ dẫn." + }, + "emohaa": { + "description": "Emohaa là mô hình tâm lý, có khả năng tư vấn chuyên nghiệp, giúp người dùng hiểu các vấn đề cảm xúc." + }, + "gemini-1.0-pro-001": { + "description": "Gemini 1.0 Pro 001 (Tuning) cung cấp hiệu suất ổn định và có thể điều chỉnh, là lựa chọn lý tưởng cho các giải pháp nhiệm vụ phức tạp." + }, + "gemini-1.0-pro-002": { + "description": "Gemini 1.0 Pro 002 (Tuning) cung cấp hỗ trợ đa phương thức xuất sắc, tập trung vào việc giải quyết hiệu quả các nhiệm vụ phức tạp." + }, + "gemini-1.0-pro-latest": { + "description": "Gemini 1.0 Pro là mô hình AI hiệu suất cao của Google, được thiết kế để mở rộng cho nhiều nhiệm vụ." + }, + "gemini-1.5-flash-001": { + "description": "Gemini 1.5 Flash 001 là một mô hình đa phương thức hiệu quả, hỗ trợ mở rộng cho nhiều ứng dụng." + }, + "gemini-1.5-flash-8b-exp-0827": { + "description": "Gemini 1.5 Flash 8B 0827 được thiết kế để xử lý các tình huống nhiệm vụ quy mô lớn, cung cấp tốc độ xử lý vô song." + }, + "gemini-1.5-flash-exp-0827": { + "description": "Gemini 1.5 Flash 0827 cung cấp khả năng xử lý đa phương thức được tối ưu hóa, phù hợp cho nhiều tình huống nhiệm vụ phức tạp." + }, + "gemini-1.5-flash-latest": { + "description": "Gemini 1.5 Flash là mô hình AI đa phương thức mới nhất của Google, có khả năng xử lý nhanh, hỗ trợ đầu vào văn bản, hình ảnh và video, phù hợp cho việc mở rộng hiệu quả cho nhiều nhiệm vụ." + }, + "gemini-1.5-pro-001": { + "description": "Gemini 1.5 Pro 001 là giải pháp AI đa phương thức có thể mở rộng, hỗ trợ nhiều nhiệm vụ phức tạp." + }, + "gemini-1.5-pro-exp-0801": { + "description": "Gemini 1.5 Pro 0801 cung cấp khả năng xử lý đa phương thức xuất sắc, mang lại sự linh hoạt lớn hơn cho phát triển ứng dụng." + }, + "gemini-1.5-pro-exp-0827": { + "description": "Gemini 1.5 Pro 0827 kết hợp công nghệ tối ưu hóa mới nhất, mang lại khả năng xử lý dữ liệu đa phương thức hiệu quả hơn." + }, + "gemini-1.5-pro-latest": { + "description": "Gemini 1.5 Pro hỗ trợ lên đến 2 triệu tokens, là lựa chọn lý tưởng cho mô hình đa phương thức trung bình, phù hợp cho hỗ trợ đa diện cho các nhiệm vụ phức tạp." + }, + "gemma-7b-it": { + "description": "Gemma 7B phù hợp cho việc xử lý các nhiệm vụ quy mô vừa và nhỏ, đồng thời mang lại hiệu quả chi phí." + }, + "gemma2": { + "description": "Gemma 2 là mô hình hiệu quả do Google phát hành, bao gồm nhiều ứng dụng từ nhỏ đến xử lý dữ liệu phức tạp." + }, + "gemma2-9b-it": { + "description": "Gemma 2 9B là một mô hình được tối ưu hóa cho các nhiệm vụ cụ thể và tích hợp công cụ." + }, + "gemma2:27b": { + "description": "Gemma 2 là mô hình hiệu quả do Google phát hành, bao gồm nhiều ứng dụng từ nhỏ đến xử lý dữ liệu phức tạp." + }, + "gemma2:2b": { + "description": "Gemma 2 là mô hình hiệu quả do Google phát hành, bao gồm nhiều ứng dụng từ nhỏ đến xử lý dữ liệu phức tạp." + }, + "general": { + "description": "Spark Lite là một mô hình ngôn ngữ lớn nhẹ, có độ trễ cực thấp và khả năng xử lý hiệu quả, hoàn toàn miễn phí và mở, hỗ trợ chức năng tìm kiếm trực tuyến theo thời gian thực. Đặc điểm phản hồi nhanh giúp nó thể hiện xuất sắc trong các ứng dụng suy luận trên thiết bị có công suất thấp và tinh chỉnh mô hình, mang lại hiệu quả chi phí và trải nghiệm thông minh xuất sắc cho người dùng, đặc biệt trong các tình huống hỏi đáp kiến thức, tạo nội dung và tìm kiếm." + }, + "generalv3": { + "description": "Spark Pro là một mô hình ngôn ngữ lớn hiệu suất cao được tối ưu hóa cho các lĩnh vực chuyên môn, tập trung vào toán học, lập trình, y tế, giáo dục và nhiều lĩnh vực khác, đồng thời hỗ trợ tìm kiếm trực tuyến và các plugin tích hợp như thời tiết, ngày tháng. Mô hình đã được tối ưu hóa thể hiện xuất sắc và hiệu suất cao trong các nhiệm vụ hỏi đáp kiến thức phức tạp, hiểu ngôn ngữ và sáng tạo văn bản cấp cao, là lựa chọn lý tưởng cho các tình huống ứng dụng chuyên nghiệp." + }, + "generalv3.5": { + "description": "Spark3.5 Max là phiên bản toàn diện nhất, hỗ trợ tìm kiếm trực tuyến và nhiều plugin tích hợp. Khả năng cốt lõi đã được tối ưu hóa toàn diện cùng với thiết lập vai trò hệ thống và chức năng gọi hàm, giúp nó thể hiện xuất sắc và nổi bật trong nhiều tình huống ứng dụng phức tạp." + }, + "glm-4": { + "description": "GLM-4 là phiên bản flagship cũ phát hành vào tháng 1 năm 2024, hiện đã được GLM-4-0520 mạnh mẽ hơn thay thế." + }, + "glm-4-0520": { + "description": "GLM-4-0520 là phiên bản mô hình mới nhất, được thiết kế cho các nhiệm vụ phức tạp và đa dạng, thể hiện xuất sắc." + }, + "glm-4-air": { + "description": "GLM-4-Air là phiên bản có giá trị sử dụng cao, hiệu suất gần giống GLM-4, cung cấp tốc độ nhanh và giá cả phải chăng." + }, + "glm-4-airx": { + "description": "GLM-4-AirX cung cấp phiên bản hiệu quả của GLM-4-Air, tốc độ suy luận có thể đạt 2.6 lần." + }, + "glm-4-alltools": { + "description": "GLM-4-AllTools là một mô hình tác nhân đa chức năng, được tối ưu hóa để hỗ trợ lập kế hoạch chỉ dẫn phức tạp và gọi công cụ, như duyệt web, giải thích mã và sinh văn bản, phù hợp cho thực hiện nhiều nhiệm vụ." + }, + "glm-4-flash": { + "description": "GLM-4-Flash là lựa chọn lý tưởng cho các nhiệm vụ đơn giản, tốc độ nhanh nhất và giá cả phải chăng nhất." + }, + "glm-4-long": { + "description": "GLM-4-Long hỗ trợ đầu vào văn bản siêu dài, phù hợp cho các nhiệm vụ ghi nhớ và xử lý tài liệu quy mô lớn." + }, + "glm-4-plus": { + "description": "GLM-4-Plus là mô hình flagship thông minh cao, có khả năng xử lý văn bản dài và nhiệm vụ phức tạp, hiệu suất được nâng cao toàn diện." + }, + "glm-4v": { + "description": "GLM-4V cung cấp khả năng hiểu và suy luận hình ảnh mạnh mẽ, hỗ trợ nhiều nhiệm vụ hình ảnh." + }, + "glm-4v-plus": { + "description": "GLM-4V-Plus có khả năng hiểu nội dung video và nhiều hình ảnh, phù hợp cho các nhiệm vụ đa phương tiện." + }, + "google/gemini-flash-1.5-exp": { + "description": "Gemini 1.5 Flash 0827 cung cấp khả năng xử lý đa phương thức tối ưu, phù hợp cho nhiều tình huống nhiệm vụ phức tạp." + }, + "google/gemini-pro-1.5-exp": { + "description": "Gemini 1.5 Pro 0827 kết hợp công nghệ tối ưu mới nhất, mang lại khả năng xử lý dữ liệu đa phương thức hiệu quả hơn." + }, + "google/gemma-2-27b-it": { + "description": "Gemma 2 tiếp tục triết lý thiết kế nhẹ và hiệu quả." + }, + "google/gemma-2-9b-it": { + "description": "Gemma 2 là một loạt mô hình văn bản mã nguồn mở nhẹ của Google." + }, + "google/gemma-2-9b-it:free": { + "description": "Gemma 2 là loạt mô hình văn bản mã nguồn mở nhẹ của Google." + }, + "google/gemma-2b-it": { + "description": "Gemma Instruct (2B) cung cấp khả năng xử lý chỉ dẫn cơ bản, phù hợp cho các ứng dụng nhẹ." + }, + "gpt-3.5-turbo": { + "description": "GPT 3.5 Turbo, phù hợp cho nhiều nhiệm vụ sinh và hiểu văn bản, hiện tại trỏ đến gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-0125": { + "description": "GPT 3.5 Turbo, phù hợp cho nhiều nhiệm vụ sinh và hiểu văn bản, hiện tại trỏ đến gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-1106": { + "description": "GPT 3.5 Turbo, phù hợp cho nhiều nhiệm vụ sinh và hiểu văn bản, hiện tại trỏ đến gpt-3.5-turbo-0125." + }, + "gpt-3.5-turbo-instruct": { + "description": "GPT 3.5 Turbo, phù hợp cho nhiều nhiệm vụ sinh và hiểu văn bản, hiện tại trỏ đến gpt-3.5-turbo-0125." + }, + "gpt-4": { + "description": "GPT-4 cung cấp một cửa sổ ngữ cảnh lớn hơn, có khả năng xử lý các đầu vào văn bản dài hơn, phù hợp cho các tình huống cần tích hợp thông tin rộng rãi và phân tích dữ liệu." + }, + "gpt-4-0125-preview": { + "description": "Mô hình GPT-4 Turbo mới nhất có chức năng hình ảnh. Hiện tại, các yêu cầu hình ảnh có thể sử dụng chế độ JSON và gọi hàm. GPT-4 Turbo là một phiên bản nâng cao, cung cấp hỗ trợ chi phí hiệu quả cho các nhiệm vụ đa phương tiện. Nó tìm thấy sự cân bằng giữa độ chính xác và hiệu quả, phù hợp cho các ứng dụng cần tương tác theo thời gian thực." + }, + "gpt-4-0613": { + "description": "GPT-4 cung cấp một cửa sổ ngữ cảnh lớn hơn, có khả năng xử lý các đầu vào văn bản dài hơn, phù hợp cho các tình huống cần tích hợp thông tin rộng rãi và phân tích dữ liệu." + }, + "gpt-4-1106-preview": { + "description": "Mô hình GPT-4 Turbo mới nhất có chức năng hình ảnh. Hiện tại, các yêu cầu hình ảnh có thể sử dụng chế độ JSON và gọi hàm. GPT-4 Turbo là một phiên bản nâng cao, cung cấp hỗ trợ chi phí hiệu quả cho các nhiệm vụ đa phương tiện. Nó tìm thấy sự cân bằng giữa độ chính xác và hiệu quả, phù hợp cho các ứng dụng cần tương tác theo thời gian thực." + }, + "gpt-4-1106-vision-preview": { + "description": "Mô hình GPT-4 Turbo mới nhất có chức năng hình ảnh. Hiện tại, các yêu cầu hình ảnh có thể sử dụng chế độ JSON và gọi hàm. GPT-4 Turbo là một phiên bản nâng cao, cung cấp hỗ trợ chi phí hiệu quả cho các nhiệm vụ đa phương tiện. Nó tìm thấy sự cân bằng giữa độ chính xác và hiệu quả, phù hợp cho các ứng dụng cần tương tác theo thời gian thực." + }, + "gpt-4-32k": { + "description": "GPT-4 cung cấp một cửa sổ ngữ cảnh lớn hơn, có khả năng xử lý các đầu vào văn bản dài hơn, phù hợp cho các tình huống cần tích hợp thông tin rộng rãi và phân tích dữ liệu." + }, + "gpt-4-32k-0613": { + "description": "GPT-4 cung cấp một cửa sổ ngữ cảnh lớn hơn, có khả năng xử lý các đầu vào văn bản dài hơn, phù hợp cho các tình huống cần tích hợp thông tin rộng rãi và phân tích dữ liệu." + }, + "gpt-4-turbo": { + "description": "Mô hình GPT-4 Turbo mới nhất có chức năng hình ảnh. Hiện tại, các yêu cầu hình ảnh có thể sử dụng chế độ JSON và gọi hàm. GPT-4 Turbo là một phiên bản nâng cao, cung cấp hỗ trợ chi phí hiệu quả cho các nhiệm vụ đa phương tiện. Nó tìm thấy sự cân bằng giữa độ chính xác và hiệu quả, phù hợp cho các ứng dụng cần tương tác theo thời gian thực." + }, + "gpt-4-turbo-2024-04-09": { + "description": "Mô hình GPT-4 Turbo mới nhất có chức năng hình ảnh. Hiện tại, các yêu cầu hình ảnh có thể sử dụng chế độ JSON và gọi hàm. GPT-4 Turbo là một phiên bản nâng cao, cung cấp hỗ trợ chi phí hiệu quả cho các nhiệm vụ đa phương tiện. Nó tìm thấy sự cân bằng giữa độ chính xác và hiệu quả, phù hợp cho các ứng dụng cần tương tác theo thời gian thực." + }, + "gpt-4-turbo-preview": { + "description": "Mô hình GPT-4 Turbo mới nhất có chức năng hình ảnh. Hiện tại, các yêu cầu hình ảnh có thể sử dụng chế độ JSON và gọi hàm. GPT-4 Turbo là một phiên bản nâng cao, cung cấp hỗ trợ chi phí hiệu quả cho các nhiệm vụ đa phương tiện. Nó tìm thấy sự cân bằng giữa độ chính xác và hiệu quả, phù hợp cho các ứng dụng cần tương tác theo thời gian thực." + }, + "gpt-4-vision-preview": { + "description": "Mô hình GPT-4 Turbo mới nhất có chức năng hình ảnh. Hiện tại, các yêu cầu hình ảnh có thể sử dụng chế độ JSON và gọi hàm. GPT-4 Turbo là một phiên bản nâng cao, cung cấp hỗ trợ chi phí hiệu quả cho các nhiệm vụ đa phương tiện. Nó tìm thấy sự cân bằng giữa độ chính xác và hiệu quả, phù hợp cho các ứng dụng cần tương tác theo thời gian thực." + }, + "gpt-4o": { + "description": "ChatGPT-4o là một mô hình động, được cập nhật theo thời gian thực để giữ phiên bản mới nhất. Nó kết hợp khả năng hiểu và sinh ngôn ngữ mạnh mẽ, phù hợp cho các ứng dụng quy mô lớn, bao gồm dịch vụ khách hàng, giáo dục và hỗ trợ kỹ thuật." + }, + "gpt-4o-2024-05-13": { + "description": "ChatGPT-4o là một mô hình động, được cập nhật theo thời gian thực để giữ phiên bản mới nhất. Nó kết hợp khả năng hiểu và sinh ngôn ngữ mạnh mẽ, phù hợp cho các ứng dụng quy mô lớn, bao gồm dịch vụ khách hàng, giáo dục và hỗ trợ kỹ thuật." + }, + "gpt-4o-2024-08-06": { + "description": "ChatGPT-4o là một mô hình động, được cập nhật theo thời gian thực để giữ phiên bản mới nhất. Nó kết hợp khả năng hiểu và sinh ngôn ngữ mạnh mẽ, phù hợp cho các ứng dụng quy mô lớn, bao gồm dịch vụ khách hàng, giáo dục và hỗ trợ kỹ thuật." + }, + "gpt-4o-mini": { + "description": "GPT-4o mini là mô hình mới nhất do OpenAI phát hành sau GPT-4 Omni, hỗ trợ đầu vào hình ảnh và đầu ra văn bản. Là mô hình nhỏ gọn tiên tiến nhất của họ, nó rẻ hơn nhiều so với các mô hình tiên tiến gần đây khác và rẻ hơn hơn 60% so với GPT-3.5 Turbo. Nó giữ lại trí thông minh tiên tiến nhất trong khi có giá trị sử dụng đáng kể. GPT-4o mini đạt 82% điểm trong bài kiểm tra MMLU và hiện đứng cao hơn GPT-4 về sở thích trò chuyện." + }, + "gryphe/mythomax-l2-13b": { + "description": "MythoMax l2 13B là mô hình ngôn ngữ kết hợp giữa sáng tạo và trí thông minh, kết hợp nhiều mô hình hàng đầu." + }, + "internlm/internlm2_5-20b-chat": { + "description": "Mô hình mã nguồn mở sáng tạo InternLM2.5, thông qua số lượng tham số lớn, nâng cao trí thông minh trong đối thoại." + }, + "internlm/internlm2_5-7b-chat": { + "description": "InternLM2.5 cung cấp giải pháp đối thoại thông minh cho nhiều tình huống." + }, + "llama-3.1-70b-instruct": { + "description": "Mô hình Llama 3.1 70B Instruct, có 70B tham số, có thể cung cấp hiệu suất xuất sắc trong các nhiệm vụ sinh văn bản và chỉ dẫn lớn." + }, + "llama-3.1-70b-versatile": { + "description": "Llama 3.1 70B cung cấp khả năng suy luận AI mạnh mẽ hơn, phù hợp cho các ứng dụng phức tạp, hỗ trợ xử lý tính toán cực lớn và đảm bảo hiệu quả và độ chính xác cao." + }, + "llama-3.1-8b-instant": { + "description": "Llama 3.1 8B là một mô hình hiệu suất cao, cung cấp khả năng sinh văn bản nhanh chóng, rất phù hợp cho các tình huống ứng dụng cần hiệu quả quy mô lớn và tiết kiệm chi phí." + }, + "llama-3.1-8b-instruct": { + "description": "Mô hình Llama 3.1 8B Instruct, có 8B tham số, hỗ trợ thực hiện nhiệm vụ chỉ dẫn hình ảnh hiệu quả, cung cấp khả năng sinh văn bản chất lượng." + }, + "llama-3.1-sonar-huge-128k-online": { + "description": "Mô hình Llama 3.1 Sonar Huge Online, có 405B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, được thiết kế cho các ứng dụng trò chuyện trực tuyến phức tạp." + }, + "llama-3.1-sonar-large-128k-chat": { + "description": "Mô hình Llama 3.1 Sonar Large Chat, có 70B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, phù hợp cho các nhiệm vụ trò chuyện ngoại tuyến phức tạp." + }, + "llama-3.1-sonar-large-128k-online": { + "description": "Mô hình Llama 3.1 Sonar Large Online, có 70B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, phù hợp cho các nhiệm vụ trò chuyện có dung lượng lớn và đa dạng." + }, + "llama-3.1-sonar-small-128k-chat": { + "description": "Mô hình Llama 3.1 Sonar Small Chat, có 8B tham số, được thiết kế cho trò chuyện ngoại tuyến, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã." + }, + "llama-3.1-sonar-small-128k-online": { + "description": "Mô hình Llama 3.1 Sonar Small Online, có 8B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, được thiết kế cho trò chuyện trực tuyến, có khả năng xử lý hiệu quả các tương tác văn bản khác nhau." + }, + "llama3-70b-8192": { + "description": "Meta Llama 3 70B cung cấp khả năng xử lý phức tạp vô song, được thiết kế riêng cho các dự án yêu cầu cao." + }, + "llama3-8b-8192": { + "description": "Meta Llama 3 8B mang lại hiệu suất suy luận chất lượng cao, phù hợp cho nhu cầu ứng dụng đa dạng." + }, + "llama3-groq-70b-8192-tool-use-preview": { + "description": "Llama 3 Groq 70B Tool Use cung cấp khả năng gọi công cụ mạnh mẽ, hỗ trợ xử lý hiệu quả cho các nhiệm vụ phức tạp." + }, + "llama3-groq-8b-8192-tool-use-preview": { + "description": "Llama 3 Groq 8B Tool Use là mô hình được tối ưu hóa cho việc sử dụng công cụ hiệu quả, hỗ trợ tính toán song song nhanh chóng." + }, + "llama3.1": { + "description": "Llama 3.1 là mô hình tiên tiến do Meta phát hành, hỗ trợ lên đến 405B tham số, có thể áp dụng cho các cuộc đối thoại phức tạp, dịch đa ngôn ngữ và phân tích dữ liệu." + }, + "llama3.1:405b": { + "description": "Llama 3.1 là mô hình tiên tiến do Meta phát hành, hỗ trợ lên đến 405B tham số, có thể áp dụng cho các cuộc đối thoại phức tạp, dịch đa ngôn ngữ và phân tích dữ liệu." + }, + "llama3.1:70b": { + "description": "Llama 3.1 là mô hình tiên tiến do Meta phát hành, hỗ trợ lên đến 405B tham số, có thể áp dụng cho các cuộc đối thoại phức tạp, dịch đa ngôn ngữ và phân tích dữ liệu." + }, + "llava": { + "description": "LLaVA là mô hình đa phương thức kết hợp bộ mã hóa hình ảnh và Vicuna, phục vụ cho việc hiểu biết mạnh mẽ về hình ảnh và ngôn ngữ." + }, + "llava-v1.5-7b-4096-preview": { + "description": "LLaVA 1.5 7B cung cấp khả năng xử lý hình ảnh tích hợp, tạo ra đầu ra phức tạp thông qua đầu vào thông tin hình ảnh." + }, + "llava:13b": { + "description": "LLaVA là mô hình đa phương thức kết hợp bộ mã hóa hình ảnh và Vicuna, phục vụ cho việc hiểu biết mạnh mẽ về hình ảnh và ngôn ngữ." + }, + "llava:34b": { + "description": "LLaVA là mô hình đa phương thức kết hợp bộ mã hóa hình ảnh và Vicuna, phục vụ cho việc hiểu biết mạnh mẽ về hình ảnh và ngôn ngữ." + }, + "mathstral": { + "description": "MathΣtral được thiết kế cho nghiên cứu khoa học và suy luận toán học, cung cấp khả năng tính toán hiệu quả và giải thích kết quả." + }, + "meta-llama/Llama-2-13b-chat-hf": { + "description": "LLaMA-2 Chat (13B) cung cấp khả năng xử lý ngôn ngữ xuất sắc và trải nghiệm tương tác tuyệt vời." + }, + "meta-llama/Llama-3-70b-chat-hf": { + "description": "LLaMA-3 Chat (70B) là mô hình trò chuyện mạnh mẽ, hỗ trợ các nhu cầu đối thoại phức tạp." + }, + "meta-llama/Llama-3-8b-chat-hf": { + "description": "LLaMA-3 Chat (8B) cung cấp hỗ trợ đa ngôn ngữ, bao gồm nhiều lĩnh vực kiến thức phong phú." + }, + "meta-llama/Meta-Llama-3-70B-Instruct": { + "description": "LLaMA 3 hỗ trợ tạo văn bản dung lượng lớn và phân tích theo hướng dẫn." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { + "description": "Llama 3 70B Instruct Lite phù hợp cho các môi trường cần hiệu suất cao và độ trễ thấp." + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": { + "description": "Llama 3 70B Instruct Turbo cung cấp khả năng hiểu và sinh ngôn ngữ xuất sắc, phù hợp cho các nhiệm vụ tính toán khắt khe nhất." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Lite": { + "description": "Llama 3 8B Instruct Lite phù hợp cho các môi trường hạn chế tài nguyên, cung cấp hiệu suất cân bằng xuất sắc." + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": { + "description": "Llama 3 8B Instruct Turbo là một mô hình ngôn ngữ lớn hiệu suất cao, hỗ trợ nhiều tình huống ứng dụng." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct": { + "description": "LLaMA 3.1 405B là mô hình mạnh mẽ cho việc đào tạo trước và điều chỉnh theo hướng dẫn." + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": { + "description": "Mô hình Llama 3.1 Turbo 405B cung cấp hỗ trợ ngữ cảnh dung lượng lớn cho xử lý dữ liệu lớn, thể hiện xuất sắc trong các ứng dụng trí tuệ nhân tạo quy mô lớn." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct": { + "description": "LLaMA 3.1 70B cung cấp hỗ trợ đối thoại hiệu quả đa ngôn ngữ." + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": { + "description": "Mô hình Llama 3.1 70B được tinh chỉnh để phù hợp với các ứng dụng tải cao, định lượng đến FP8 cung cấp khả năng tính toán và độ chính xác hiệu quả hơn, đảm bảo hiệu suất xuất sắc trong các tình huống phức tạp." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct": { + "description": "LLaMA 3.1 cung cấp hỗ trợ đa ngôn ngữ, là một trong những mô hình sinh nổi bật trong ngành." + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": { + "description": "Mô hình Llama 3.1 8B sử dụng định lượng FP8, hỗ trợ lên đến 131,072 mã ngữ cảnh, là một trong những mô hình mã nguồn mở hàng đầu, phù hợp cho các nhiệm vụ phức tạp, vượt trội hơn nhiều tiêu chuẩn ngành." + }, + "meta-llama/llama-3-70b-instruct": { + "description": "Llama 3 70B Instruct được tối ưu hóa cho các tình huống đối thoại chất lượng cao, thể hiện xuất sắc trong nhiều đánh giá của con người." + }, + "meta-llama/llama-3-8b-instruct": { + "description": "Llama 3 8B Instruct tối ưu hóa cho các tình huống đối thoại chất lượng cao, hiệu suất vượt trội hơn nhiều mô hình đóng nguồn." + }, + "meta-llama/llama-3.1-405b-instruct": { + "description": "Llama 3.1 405B Instruct là phiên bản mới nhất do Meta phát hành, tối ưu hóa cho việc tạo ra các cuộc đối thoại chất lượng cao, vượt qua nhiều mô hình đóng nguồn hàng đầu." + }, + "meta-llama/llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct được thiết kế đặc biệt cho các cuộc đối thoại chất lượng cao, thể hiện xuất sắc trong các đánh giá của con người, đặc biệt phù hợp cho các tình huống tương tác cao." + }, + "meta-llama/llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct là phiên bản mới nhất do Meta phát hành, tối ưu hóa cho các tình huống đối thoại chất lượng cao, vượt trội hơn nhiều mô hình đóng nguồn hàng đầu." + }, + "meta-llama/llama-3.1-8b-instruct:free": { + "description": "LLaMA 3.1 cung cấp hỗ trợ đa ngôn ngữ, là một trong những mô hình sinh hàng đầu trong ngành." + }, + "meta.llama3-1-405b-instruct-v1:0": { + "description": "Meta Llama 3.1 405B Instruct là mô hình lớn nhất và mạnh mẽ nhất trong mô hình Llama 3.1 Instruct, là một mô hình sinh dữ liệu và suy luận đối thoại tiên tiến, cũng có thể được sử dụng làm nền tảng cho việc tiền huấn luyện hoặc tinh chỉnh chuyên sâu trong các lĩnh vực cụ thể. Các mô hình ngôn ngữ lớn đa ngôn ngữ (LLMs) mà Llama 3.1 cung cấp là một tập hợp các mô hình sinh đã được tiền huấn luyện và điều chỉnh theo chỉ dẫn, bao gồm kích thước 8B, 70B và 405B (đầu vào/đầu ra văn bản). Các mô hình văn bản điều chỉnh theo chỉ dẫn của Llama 3.1 (8B, 70B, 405B) được tối ưu hóa cho các trường hợp đối thoại đa ngôn ngữ và đã vượt qua nhiều mô hình trò chuyện mã nguồn mở có sẵn trong các bài kiểm tra chuẩn ngành phổ biến. Llama 3.1 được thiết kế để sử dụng cho nhiều mục đích thương mại và nghiên cứu bằng nhiều ngôn ngữ. Các mô hình văn bản điều chỉnh theo chỉ dẫn phù hợp cho các cuộc trò chuyện giống như trợ lý, trong khi các mô hình đã được tiền huấn luyện có thể thích ứng với nhiều nhiệm vụ sinh ngôn ngữ tự nhiên khác nhau. Mô hình Llama 3.1 cũng hỗ trợ việc cải thiện các mô hình khác bằng cách sử dụng đầu ra của nó, bao gồm sinh dữ liệu tổng hợp và tinh chỉnh. Llama 3.1 là một mô hình ngôn ngữ tự hồi quy sử dụng kiến trúc biến áp tối ưu. Phiên bản điều chỉnh sử dụng tinh chỉnh có giám sát (SFT) và học tăng cường có phản hồi từ con người (RLHF) để phù hợp với sở thích của con người về tính hữu ích và an toàn." + }, + "meta.llama3-1-70b-instruct-v1:0": { + "description": "Phiên bản cập nhật của Meta Llama 3.1 70B Instruct, bao gồm độ dài ngữ cảnh mở rộng 128K, tính đa ngôn ngữ và khả năng suy luận cải tiến. Các mô hình ngôn ngữ lớn (LLMs) đa ngôn ngữ do Llama 3.1 cung cấp là một tập hợp các mô hình sinh đã được huấn luyện trước và điều chỉnh theo chỉ dẫn, bao gồm kích thước 8B, 70B và 405B (đầu vào/đầu ra văn bản). Các mô hình văn bản điều chỉnh theo chỉ dẫn của Llama 3.1 (8B, 70B, 405B) được tối ưu hóa cho các trường hợp đối thoại đa ngôn ngữ và đã vượt qua nhiều mô hình trò chuyện mã nguồn mở có sẵn trong các bài kiểm tra chuẩn ngành phổ biến. Llama 3.1 được thiết kế cho các mục đích thương mại và nghiên cứu đa ngôn ngữ. Các mô hình văn bản điều chỉnh theo chỉ dẫn phù hợp cho các cuộc trò chuyện giống như trợ lý, trong khi các mô hình đã được huấn luyện trước có thể thích ứng với nhiều nhiệm vụ sinh ngôn ngữ tự nhiên khác nhau. Mô hình Llama 3.1 cũng hỗ trợ việc sử dụng đầu ra của mô hình để cải thiện các mô hình khác, bao gồm tạo dữ liệu tổng hợp và tinh chỉnh. Llama 3.1 là mô hình ngôn ngữ tự hồi quy sử dụng kiến trúc biến áp được tối ưu hóa. Phiên bản điều chỉnh sử dụng tinh chỉnh giám sát (SFT) và học tăng cường có phản hồi của con người (RLHF) để phù hợp với sở thích của con người về tính hữu ích và an toàn." + }, + "meta.llama3-1-8b-instruct-v1:0": { + "description": "Phiên bản cập nhật của Meta Llama 3.1 8B Instruct, bao gồm độ dài ngữ cảnh mở rộng 128K, tính đa ngôn ngữ và khả năng suy luận cải tiến. Các mô hình ngôn ngữ lớn (LLMs) đa ngôn ngữ do Llama 3.1 cung cấp là một tập hợp các mô hình sinh đã được huấn luyện trước và điều chỉnh theo chỉ dẫn, bao gồm kích thước 8B, 70B và 405B (đầu vào/đầu ra văn bản). Các mô hình văn bản điều chỉnh theo chỉ dẫn của Llama 3.1 (8B, 70B, 405B) được tối ưu hóa cho các trường hợp đối thoại đa ngôn ngữ và đã vượt qua nhiều mô hình trò chuyện mã nguồn mở có sẵn trong các bài kiểm tra chuẩn ngành phổ biến. Llama 3.1 được thiết kế cho các mục đích thương mại và nghiên cứu đa ngôn ngữ. Các mô hình văn bản điều chỉnh theo chỉ dẫn phù hợp cho các cuộc trò chuyện giống như trợ lý, trong khi các mô hình đã được huấn luyện trước có thể thích ứng với nhiều nhiệm vụ sinh ngôn ngữ tự nhiên khác nhau. Mô hình Llama 3.1 cũng hỗ trợ việc sử dụng đầu ra của mô hình để cải thiện các mô hình khác, bao gồm tạo dữ liệu tổng hợp và tinh chỉnh. Llama 3.1 là mô hình ngôn ngữ tự hồi quy sử dụng kiến trúc biến áp được tối ưu hóa. Phiên bản điều chỉnh sử dụng tinh chỉnh giám sát (SFT) và học tăng cường có phản hồi của con người (RLHF) để phù hợp với sở thích của con người về tính hữu ích và an toàn." + }, + "meta.llama3-70b-instruct-v1:0": { + "description": "Meta Llama 3 là một mô hình ngôn ngữ lớn (LLM) mở dành cho các nhà phát triển, nhà nghiên cứu và doanh nghiệp, nhằm giúp họ xây dựng, thử nghiệm và mở rộng ý tưởng AI sinh một cách có trách nhiệm. Là một phần của hệ thống cơ sở hạ tầng đổi mới toàn cầu, nó rất phù hợp cho việc tạo nội dung, AI đối thoại, hiểu ngôn ngữ, nghiên cứu và ứng dụng doanh nghiệp." + }, + "meta.llama3-8b-instruct-v1:0": { + "description": "Meta Llama 3 là một mô hình ngôn ngữ lớn (LLM) mở dành cho các nhà phát triển, nhà nghiên cứu và doanh nghiệp, nhằm giúp họ xây dựng, thử nghiệm và mở rộng ý tưởng AI sinh một cách có trách nhiệm. Là một phần của hệ thống cơ sở hạ tầng đổi mới toàn cầu, nó rất phù hợp cho các thiết bị biên và thời gian huấn luyện nhanh hơn với khả năng tính toán và tài nguyên hạn chế." + }, + "microsoft/wizardlm 2-7b": { + "description": "WizardLM 2 7B là mô hình nhẹ và nhanh mới nhất của Microsoft AI, hiệu suất gần gấp 10 lần so với các mô hình mở nguồn hiện có." + }, + "microsoft/wizardlm-2-8x22b": { + "description": "WizardLM-2 8x22B là mô hình Wizard tiên tiến nhất của Microsoft AI, thể hiện hiệu suất cực kỳ cạnh tranh." + }, + "minicpm-v": { + "description": "MiniCPM-V là mô hình đa phương thức thế hệ mới do OpenBMB phát triển, có khả năng nhận diện OCR xuất sắc và hiểu biết đa phương thức, hỗ trợ nhiều ứng dụng khác nhau." + }, + "mistral": { + "description": "Mistral là mô hình 7B do Mistral AI phát hành, phù hợp cho các nhu cầu xử lý ngôn ngữ đa dạng." + }, + "mistral-large": { + "description": "Mixtral Large là mô hình hàng đầu của Mistral, kết hợp khả năng sinh mã, toán học và suy luận, hỗ trợ cửa sổ ngữ cảnh 128k." + }, + "mistral-large-latest": { + "description": "Mistral Large là mô hình lớn hàng đầu, chuyên về các nhiệm vụ đa ngôn ngữ, suy luận phức tạp và sinh mã, là lựa chọn lý tưởng cho các ứng dụng cao cấp." + }, + "mistral-nemo": { + "description": "Mistral Nemo được phát triển hợp tác giữa Mistral AI và NVIDIA, là mô hình 12B hiệu suất cao." + }, + "mistralai/Mistral-7B-Instruct-v0.1": { + "description": "Mistral (7B) Instruct nổi bật với hiệu suất cao, phù hợp cho nhiều nhiệm vụ ngôn ngữ." + }, + "mistralai/Mistral-7B-Instruct-v0.2": { + "description": "Mistral 7B là mô hình fine-tuning theo yêu cầu, cung cấp giải pháp tối ưu cho các nhiệm vụ." + }, + "mistralai/Mistral-7B-Instruct-v0.3": { + "description": "Mistral (7B) Instruct v0.3 cung cấp khả năng tính toán hiệu quả và hiểu ngôn ngữ tự nhiên, phù hợp cho nhiều ứng dụng." + }, + "mistralai/Mixtral-8x22B-Instruct-v0.1": { + "description": "Mixtral-8x22B Instruct (141B) là một mô hình ngôn ngữ lớn siêu cấp, hỗ trợ nhu cầu xử lý cực cao." + }, + "mistralai/Mixtral-8x7B-Instruct-v0.1": { + "description": "Mixtral 8x7B là mô hình chuyên gia hỗn hợp thưa được tiền huấn luyện, dùng cho các nhiệm vụ văn bản tổng quát." + }, + "mistralai/mistral-7b-instruct": { + "description": "Mistral 7B Instruct là mô hình tiêu chuẩn ngành với tốc độ tối ưu hóa và hỗ trợ ngữ cảnh dài." + }, + "mistralai/mistral-nemo": { + "description": "Mistral Nemo là mô hình 7.3B tham số hỗ trợ đa ngôn ngữ và lập trình hiệu suất cao." + }, + "mixtral": { + "description": "Mixtral là mô hình chuyên gia của Mistral AI, có trọng số mã nguồn mở và cung cấp hỗ trợ cho việc sinh mã và hiểu ngôn ngữ." + }, + "mixtral-8x7b-32768": { + "description": "Mixtral 8x7B cung cấp khả năng tính toán song song có độ dung sai cao, phù hợp cho các nhiệm vụ phức tạp." + }, + "mixtral:8x22b": { + "description": "Mixtral là mô hình chuyên gia của Mistral AI, có trọng số mã nguồn mở và cung cấp hỗ trợ cho việc sinh mã và hiểu ngôn ngữ." + }, + "moonshot-v1-128k": { + "description": "Moonshot V1 128K là một mô hình có khả năng xử lý ngữ cảnh siêu dài, phù hợp cho việc sinh văn bản siêu dài, đáp ứng nhu cầu nhiệm vụ sinh phức tạp, có thể xử lý nội dung lên đến 128.000 tokens, rất phù hợp cho nghiên cứu, học thuật và sinh tài liệu lớn." + }, + "moonshot-v1-32k": { + "description": "Moonshot V1 32K cung cấp khả năng xử lý ngữ cảnh độ dài trung bình, có thể xử lý 32.768 tokens, đặc biệt phù hợp cho việc sinh các tài liệu dài và đối thoại phức tạp, ứng dụng trong sáng tạo nội dung, sinh báo cáo và hệ thống đối thoại." + }, + "moonshot-v1-8k": { + "description": "Moonshot V1 8K được thiết kế đặc biệt cho các nhiệm vụ sinh văn bản ngắn, có hiệu suất xử lý cao, có thể xử lý 8.192 tokens, rất phù hợp cho các cuộc đối thoại ngắn, ghi chú nhanh và sinh nội dung nhanh chóng." + }, + "nousresearch/hermes-2-pro-llama-3-8b": { + "description": "Hermes 2 Pro Llama 3 8B là phiên bản nâng cấp của Nous Hermes 2, bao gồm bộ dữ liệu phát triển nội bộ mới nhất." + }, + "o1-mini": { + "description": "o1-mini là một mô hình suy diễn nhanh chóng và tiết kiệm chi phí, được thiết kế cho các ứng dụng lập trình, toán học và khoa học. Mô hình này có ngữ cảnh 128K và thời điểm cắt kiến thức vào tháng 10 năm 2023." + }, + "o1-preview": { + "description": "o1 là mô hình suy diễn mới của OpenAI, phù hợp cho các nhiệm vụ phức tạp cần kiến thức tổng quát rộng rãi. Mô hình này có ngữ cảnh 128K và thời điểm cắt kiến thức vào tháng 10 năm 2023." + }, + "open-codestral-mamba": { + "description": "Codestral Mamba là mô hình ngôn ngữ Mamba 2 tập trung vào sinh mã, cung cấp hỗ trợ mạnh mẽ cho các nhiệm vụ mã và suy luận tiên tiến." + }, + "open-mistral-7b": { + "description": "Mistral 7B là một mô hình nhỏ gọn nhưng hiệu suất cao, chuyên về xử lý hàng loạt và các nhiệm vụ đơn giản như phân loại và sinh văn bản, có khả năng suy luận tốt." + }, + "open-mistral-nemo": { + "description": "Mistral Nemo là một mô hình 12B được phát triển hợp tác với Nvidia, cung cấp hiệu suất suy luận và mã hóa xuất sắc, dễ dàng tích hợp và thay thế." + }, + "open-mixtral-8x22b": { + "description": "Mixtral 8x22B là một mô hình chuyên gia lớn hơn, tập trung vào các nhiệm vụ phức tạp, cung cấp khả năng suy luận xuất sắc và thông lượng cao hơn." + }, + "open-mixtral-8x7b": { + "description": "Mixtral 8x7B là một mô hình chuyên gia thưa thớt, sử dụng nhiều tham số để tăng tốc độ suy luận, phù hợp cho việc xử lý đa ngôn ngữ và sinh mã." + }, + "openai/gpt-4o-2024-08-06": { + "description": "ChatGPT-4o là một mô hình động, được cập nhật theo thời gian để giữ phiên bản mới nhất. Nó kết hợp khả năng hiểu và sinh ngôn ngữ mạnh mẽ, phù hợp cho các ứng dụng quy mô lớn, bao gồm dịch vụ khách hàng, giáo dục và hỗ trợ kỹ thuật." + }, + "openai/gpt-4o-mini": { + "description": "GPT-4o mini là mô hình mới nhất của OpenAI, được phát hành sau GPT-4 Omni, hỗ trợ đầu vào hình ảnh và văn bản, và đầu ra văn bản. Là mô hình nhỏ tiên tiến nhất của họ, nó rẻ hơn nhiều so với các mô hình tiên tiến gần đây khác và rẻ hơn hơn 60% so với GPT-3.5 Turbo. Nó giữ lại trí thông minh tiên tiến nhất trong khi có giá trị sử dụng đáng kể. GPT-4o mini đạt 82% điểm trong bài kiểm tra MMLU và hiện đứng đầu về sở thích trò chuyện so với GPT-4." + }, + "openai/o1-mini": { + "description": "o1-mini là một mô hình suy diễn nhanh chóng và tiết kiệm chi phí, được thiết kế cho các ứng dụng lập trình, toán học và khoa học. Mô hình này có ngữ cảnh 128K và thời điểm cắt kiến thức vào tháng 10 năm 2023." + }, + "openai/o1-preview": { + "description": "o1 là mô hình suy diễn mới của OpenAI, phù hợp cho các nhiệm vụ phức tạp cần kiến thức tổng quát rộng rãi. Mô hình này có ngữ cảnh 128K và thời điểm cắt kiến thức vào tháng 10 năm 2023." + }, + "openchat/openchat-7b": { + "description": "OpenChat 7B là thư viện mô hình ngôn ngữ mã nguồn mở được tinh chỉnh bằng chiến lược 'C-RLFT (tinh chỉnh tăng cường có điều kiện)'." + }, + "openrouter/auto": { + "description": "Dựa trên độ dài ngữ cảnh, chủ đề và độ phức tạp, yêu cầu của bạn sẽ được gửi đến Llama 3 70B Instruct, Claude 3.5 Sonnet (tự điều chỉnh) hoặc GPT-4o." + }, + "phi3": { + "description": "Phi-3 là mô hình mở nhẹ do Microsoft phát hành, phù hợp cho việc tích hợp hiệu quả và suy luận kiến thức quy mô lớn." + }, + "phi3:14b": { + "description": "Phi-3 là mô hình mở nhẹ do Microsoft phát hành, phù hợp cho việc tích hợp hiệu quả và suy luận kiến thức quy mô lớn." + }, + "qwen-long": { + "description": "Mô hình ngôn ngữ quy mô lớn Qwen, hỗ trợ ngữ cảnh văn bản dài và chức năng đối thoại dựa trên tài liệu dài, nhiều tài liệu." + }, + "qwen-max": { + "description": "Mô hình ngôn ngữ quy mô lớn Qwen với quy mô hàng trăm tỷ, hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và các ngôn ngữ khác, hiện là mô hình API đứng sau phiên bản sản phẩm Qwen 2.5." + }, + "qwen-max-longcontext": { + "description": "Mô hình ngôn ngữ quy mô lớn Qwen với quy mô hàng trăm tỷ, hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và các ngôn ngữ khác, mở rộng cửa sổ ngữ cảnh." + }, + "qwen-plus": { + "description": "Mô hình ngôn ngữ quy mô lớn Qwen phiên bản nâng cao, hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và các ngôn ngữ khác." + }, + "qwen-turbo": { + "description": "Mô hình ngôn ngữ quy mô lớn Qwen, hỗ trợ đầu vào bằng tiếng Trung, tiếng Anh và các ngôn ngữ khác." + }, + "qwen-vl-chat-v1": { + "description": "Mô hình Qwen VL hỗ trợ các phương thức tương tác linh hoạt, bao gồm nhiều hình ảnh, nhiều vòng hỏi đáp, sáng tạo, v.v." + }, + "qwen-vl-max": { + "description": "Mô hình ngôn ngữ hình ảnh quy mô lớn Qwen. So với phiên bản nâng cao, nâng cao khả năng suy luận hình ảnh và tuân thủ chỉ dẫn, cung cấp mức độ nhận thức và nhận thức hình ảnh cao hơn." + }, + "qwen-vl-plus": { + "description": "Mô hình ngôn ngữ hình ảnh quy mô lớn Qwen phiên bản nâng cao. Nâng cao khả năng nhận diện chi tiết và nhận diện văn bản, hỗ trợ độ phân giải hình ảnh trên một triệu pixel và tỷ lệ khung hình tùy ý." + }, + "qwen-vl-v1": { + "description": "Mô hình được khởi tạo bằng mô hình ngôn ngữ Qwen-7B, thêm mô hình hình ảnh, mô hình được huấn luyện trước với độ phân giải đầu vào hình ảnh là 448." + }, + "qwen/qwen-2-7b-instruct:free": { + "description": "Qwen2 là một loạt mô hình ngôn ngữ lớn hoàn toàn mới, có khả năng hiểu và sinh mạnh mẽ hơn." + }, + "qwen2": { + "description": "Qwen2 là mô hình ngôn ngữ quy mô lớn thế hệ mới của Alibaba, hỗ trợ các nhu cầu ứng dụng đa dạng với hiệu suất xuất sắc." + }, + "qwen2-57b-a14b-instruct": { + "description": "Mô hình Qwen2 quy mô 57B với 14B tham số kích hoạt MOE được mở nguồn cho công chúng." + }, + "qwen2-72b-instruct": { + "description": "Mô hình Qwen2 quy mô 72B được mở nguồn cho công chúng." + }, + "qwen2-7b-instruct": { + "description": "Mô hình Qwen2 quy mô 7B được mở nguồn cho công chúng." + }, + "qwen2-math-72b-instruct": { + "description": "Mô hình Qwen2-Math có khả năng giải toán mạnh mẽ." + }, + "qwen2:0.5b": { + "description": "Qwen2 là mô hình ngôn ngữ quy mô lớn thế hệ mới của Alibaba, hỗ trợ các nhu cầu ứng dụng đa dạng với hiệu suất xuất sắc." + }, + "qwen2:1.5b": { + "description": "Qwen2 là mô hình ngôn ngữ quy mô lớn thế hệ mới của Alibaba, hỗ trợ các nhu cầu ứng dụng đa dạng với hiệu suất xuất sắc." + }, + "qwen2:72b": { + "description": "Qwen2 là mô hình ngôn ngữ quy mô lớn thế hệ mới của Alibaba, hỗ trợ các nhu cầu ứng dụng đa dạng với hiệu suất xuất sắc." + }, + "solar-1-mini-chat": { + "description": "Solar Mini là một LLM dạng nhỏ gọn, hiệu suất vượt trội hơn GPT-3.5, có khả năng đa ngôn ngữ mạnh mẽ, hỗ trợ tiếng Anh và tiếng Hàn, cung cấp giải pháp hiệu quả và nhỏ gọn." + }, + "solar-1-mini-chat-ja": { + "description": "Solar Mini (Ja) mở rộng khả năng của Solar Mini, tập trung vào tiếng Nhật, đồng thời duy trì hiệu suất cao và xuất sắc trong việc sử dụng tiếng Anh và tiếng Hàn." + }, + "solar-pro": { + "description": "Solar Pro là một LLM thông minh cao do Upstage phát hành, tập trung vào khả năng tuân theo hướng dẫn trên một GPU, đạt điểm IFEval trên 80. Hiện tại hỗ trợ tiếng Anh, phiên bản chính thức dự kiến ra mắt vào tháng 11 năm 2024, sẽ mở rộng hỗ trợ ngôn ngữ và độ dài ngữ cảnh." + }, + "step-1-128k": { + "description": "Cân bằng hiệu suất và chi phí, phù hợp cho các tình huống chung." + }, + "step-1-256k": { + "description": "Có khả năng xử lý ngữ cảnh siêu dài, đặc biệt phù hợp cho phân tích tài liệu dài." + }, + "step-1-32k": { + "description": "Hỗ trợ đối thoại có độ dài trung bình, phù hợp cho nhiều tình huống ứng dụng." + }, + "step-1-8k": { + "description": "Mô hình nhỏ, phù hợp cho các nhiệm vụ nhẹ." + }, + "step-1-flash": { + "description": "Mô hình tốc độ cao, phù hợp cho đối thoại thời gian thực." + }, + "step-1v-32k": { + "description": "Hỗ trợ đầu vào hình ảnh, tăng cường trải nghiệm tương tác đa mô hình." + }, + "step-1v-8k": { + "description": "Mô hình thị giác nhỏ, phù hợp cho các nhiệm vụ cơ bản về văn bản và hình ảnh." + }, + "step-2-16k": { + "description": "Hỗ trợ tương tác ngữ cảnh quy mô lớn, phù hợp cho các tình huống đối thoại phức tạp." + }, + "taichu_llm": { + "description": "Mô hình ngôn ngữ lớn Taichu có khả năng hiểu ngôn ngữ mạnh mẽ và các khả năng như sáng tạo văn bản, trả lời câu hỏi kiến thức, lập trình mã, tính toán toán học, suy luận logic, phân tích cảm xúc, tóm tắt văn bản. Đổi mới kết hợp giữa đào tạo trước với dữ liệu phong phú từ nhiều nguồn, thông qua việc liên tục cải tiến công nghệ thuật toán và hấp thụ kiến thức mới từ dữ liệu văn bản khổng lồ, giúp mô hình ngày càng hoàn thiện. Cung cấp thông tin và dịch vụ tiện lợi hơn cho người dùng cùng trải nghiệm thông minh hơn." + }, + "togethercomputer/StripedHyena-Nous-7B": { + "description": "StripedHyena Nous (7B) cung cấp khả năng tính toán nâng cao thông qua chiến lược và kiến trúc mô hình hiệu quả." + }, + "upstage/SOLAR-10.7B-Instruct-v1.0": { + "description": "Upstage SOLAR Instruct v1 (11B) phù hợp cho các nhiệm vụ chỉ dẫn tinh vi, cung cấp khả năng xử lý ngôn ngữ xuất sắc." + }, + "wizardlm2": { + "description": "WizardLM 2 là mô hình ngôn ngữ do Microsoft AI cung cấp, đặc biệt xuất sắc trong các lĩnh vực đối thoại phức tạp, đa ngôn ngữ, suy luận và trợ lý thông minh." + }, + "wizardlm2:8x22b": { + "description": "WizardLM 2 là mô hình ngôn ngữ do Microsoft AI cung cấp, đặc biệt xuất sắc trong các lĩnh vực đối thoại phức tạp, đa ngôn ngữ, suy luận và trợ lý thông minh." + }, + "yi-large": { + "description": "Mô hình với hàng trăm tỷ tham số mới, cung cấp khả năng hỏi đáp và sinh văn bản mạnh mẽ." + }, + "yi-large-fc": { + "description": "Hỗ trợ và tăng cường khả năng gọi công cụ trên cơ sở mô hình yi-large, phù hợp cho nhiều tình huống kinh doanh cần xây dựng agent hoặc workflow." + }, + "yi-large-preview": { + "description": "Phiên bản ban đầu, khuyến nghị sử dụng yi-large (phiên bản mới)." + }, + "yi-large-rag": { + "description": "Dịch vụ cao cấp dựa trên mô hình yi-large mạnh mẽ, kết hợp công nghệ tìm kiếm và sinh để cung cấp câu trả lời chính xác, dịch vụ tìm kiếm thông tin toàn mạng theo thời gian thực." + }, + "yi-large-turbo": { + "description": "Hiệu suất vượt trội với chi phí hợp lý. Tối ưu hóa độ chính xác cao dựa trên hiệu suất, tốc độ suy luận và chi phí." + }, + "yi-medium": { + "description": "Mô hình kích thước trung bình được nâng cấp và tinh chỉnh, khả năng cân bằng, chi phí hiệu quả cao. Tối ưu hóa sâu khả năng tuân theo chỉ dẫn." + }, + "yi-medium-200k": { + "description": "Cửa sổ ngữ cảnh siêu dài 200K, cung cấp khả năng hiểu và sinh văn bản sâu cho các văn bản dài." + }, + "yi-spark": { + "description": "Mô hình nhỏ gọn và nhanh chóng. Cung cấp khả năng tính toán toán học và viết mã được tăng cường." + }, + "yi-vision": { + "description": "Mô hình cho các nhiệm vụ hình ảnh phức tạp, cung cấp khả năng hiểu và phân tích hình ảnh hiệu suất cao." + } +} diff --git a/locales/vi-VN/providers.json b/locales/vi-VN/providers.json new file mode 100644 index 000000000000..87bb933504a3 --- /dev/null +++ b/locales/vi-VN/providers.json @@ -0,0 +1,80 @@ +{ + "ai360": { + "description": "360 AI là nền tảng mô hình và dịch vụ AI do công ty 360 phát hành, cung cấp nhiều mô hình xử lý ngôn ngữ tự nhiên tiên tiến, bao gồm 360GPT2 Pro, 360GPT Pro, 360GPT Turbo và 360GPT Turbo Responsibility 8K. Những mô hình này kết hợp giữa tham số quy mô lớn và khả năng đa phương thức, được ứng dụng rộng rãi trong tạo văn bản, hiểu ngữ nghĩa, hệ thống đối thoại và tạo mã. Thông qua chiến lược giá linh hoạt, 360 AI đáp ứng nhu cầu đa dạng của người dùng, hỗ trợ nhà phát triển tích hợp, thúc đẩy sự đổi mới và phát triển ứng dụng thông minh." + }, + "anthropic": { + "description": "Anthropic là một công ty tập trung vào nghiên cứu và phát triển trí tuệ nhân tạo, cung cấp một loạt các mô hình ngôn ngữ tiên tiến như Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus và Claude 3 Haiku. Những mô hình này đạt được sự cân bằng lý tưởng giữa trí thông minh, tốc độ và chi phí, phù hợp cho nhiều ứng dụng từ khối lượng công việc doanh nghiệp đến phản hồi nhanh. Claude 3.5 Sonnet, là mô hình mới nhất của họ, thể hiện xuất sắc trong nhiều đánh giá, đồng thời duy trì tỷ lệ hiệu suất cao." + }, + "azure": { + "description": "Azure cung cấp nhiều mô hình AI tiên tiến, bao gồm GPT-3.5 và dòng GPT-4 mới nhất, hỗ trợ nhiều loại dữ liệu và nhiệm vụ phức tạp, cam kết cung cấp các giải pháp AI an toàn, đáng tin cậy và bền vững." + }, + "baichuan": { + "description": "Baichuan Intelligent là công ty tập trung vào nghiên cứu phát triển mô hình ngôn ngữ lớn AI, mô hình của họ thể hiện xuất sắc trong các nhiệm vụ tiếng Trung như bách khoa toàn thư, xử lý văn bản dài và sáng tác, vượt trội hơn so với các mô hình chính thống quốc tế. Baichuan Intelligent còn có khả năng đa phương thức hàng đầu trong ngành, thể hiện xuất sắc trong nhiều bài kiểm tra uy tín. Các mô hình của họ bao gồm Baichuan 4, Baichuan 3 Turbo và Baichuan 3 Turbo 128k, được tối ưu hóa cho các tình huống ứng dụng khác nhau, cung cấp giải pháp hiệu quả về chi phí." + }, + "bedrock": { + "description": "Bedrock là dịch vụ do Amazon AWS cung cấp, tập trung vào việc cung cấp các mô hình ngôn ngữ AI và mô hình hình ảnh tiên tiến cho doanh nghiệp. Gia đình mô hình của nó bao gồm dòng Claude của Anthropic, dòng Llama 3.1 của Meta, v.v., bao quát nhiều lựa chọn từ nhẹ đến hiệu suất cao, hỗ trợ nhiều nhiệm vụ như tạo văn bản, đối thoại, xử lý hình ảnh, phù hợp cho các ứng dụng doanh nghiệp với quy mô và nhu cầu khác nhau." + }, + "deepseek": { + "description": "DeepSeek là một công ty tập trung vào nghiên cứu và ứng dụng công nghệ trí tuệ nhân tạo, mô hình mới nhất của họ, DeepSeek-V2.5, kết hợp khả năng đối thoại chung và xử lý mã, đồng thời đạt được sự cải thiện đáng kể trong việc căn chỉnh sở thích của con người, nhiệm vụ viết và tuân theo chỉ dẫn." + }, + "fireworksai": { + "description": "Fireworks AI là nhà cung cấp dịch vụ mô hình ngôn ngữ cao cấp hàng đầu, tập trung vào gọi chức năng và xử lý đa phương thức. Mô hình mới nhất của họ, Firefunction V2, dựa trên Llama-3, được tối ưu hóa cho gọi chức năng, đối thoại và tuân theo chỉ dẫn. Mô hình ngôn ngữ hình ảnh FireLLaVA-13B hỗ trợ đầu vào hỗn hợp hình ảnh và văn bản. Các mô hình đáng chú ý khác bao gồm dòng Llama và dòng Mixtral, cung cấp hỗ trợ cho việc tuân theo và tạo ra chỉ dẫn đa ngôn ngữ hiệu quả." + }, + "google": { + "description": "Dòng Gemini của Google là mô hình AI tiên tiến và đa năng nhất của họ, được phát triển bởi Google DeepMind, được thiết kế cho đa phương thức, hỗ trợ hiểu và xử lý liền mạch văn bản, mã, hình ảnh, âm thanh và video. Phù hợp cho nhiều môi trường từ trung tâm dữ liệu đến thiết bị di động, nâng cao đáng kể hiệu quả và tính ứng dụng của mô hình AI." + }, + "groq": { + "description": "Bộ máy suy diễn LPU của Groq thể hiện xuất sắc trong các bài kiểm tra chuẩn mô hình ngôn ngữ lớn (LLM) độc lập mới nhất, định nghĩa lại tiêu chuẩn cho các giải pháp AI với tốc độ và hiệu quả đáng kinh ngạc. Groq là đại diện cho tốc độ suy diễn tức thì, thể hiện hiệu suất tốt trong triển khai dựa trên đám mây." + }, + "minimax": { + "description": "MiniMax là công ty công nghệ trí tuệ nhân tạo tổng quát được thành lập vào năm 2021, cam kết cùng người dùng sáng tạo trí thông minh. MiniMax đã tự phát triển nhiều mô hình lớn đa phương thức, bao gồm mô hình văn bản MoE với một triệu tham số, mô hình giọng nói và mô hình hình ảnh. Họ cũng đã phát hành các ứng dụng như AI Hải Lý." + }, + "mistral": { + "description": "Mistral cung cấp các mô hình tiên tiến cho mục đích chung, chuyên nghiệp và nghiên cứu, được ứng dụng rộng rãi trong suy diễn phức tạp, nhiệm vụ đa ngôn ngữ, tạo mã, v.v. Thông qua giao diện gọi chức năng, người dùng có thể tích hợp các chức năng tùy chỉnh để thực hiện các ứng dụng cụ thể." + }, + "moonshot": { + "description": "Moonshot là nền tảng mã nguồn mở do Công ty TNHH Công nghệ Mặt Trăng Bắc Kinh phát hành, cung cấp nhiều mô hình xử lý ngôn ngữ tự nhiên, ứng dụng rộng rãi trong nhiều lĩnh vực, bao gồm nhưng không giới hạn ở sáng tác nội dung, nghiên cứu học thuật, gợi ý thông minh, chẩn đoán y tế, v.v., hỗ trợ xử lý văn bản dài và nhiệm vụ tạo phức tạp." + }, + "novita": { + "description": "Novita AI là một nền tảng cung cấp dịch vụ API cho nhiều mô hình ngôn ngữ lớn và tạo hình ảnh AI, linh hoạt, đáng tin cậy và hiệu quả về chi phí. Nó hỗ trợ các mô hình mã nguồn mở mới nhất như Llama3, Mistral, và cung cấp giải pháp API toàn diện, thân thiện với người dùng và tự động mở rộng cho phát triển ứng dụng AI, phù hợp cho sự phát triển nhanh chóng của các công ty khởi nghiệp AI." + }, + "ollama": { + "description": "Mô hình do Ollama cung cấp bao quát rộng rãi các lĩnh vực như tạo mã, tính toán toán học, xử lý đa ngôn ngữ và tương tác đối thoại, hỗ trợ nhu cầu đa dạng cho triển khai doanh nghiệp và địa phương." + }, + "openai": { + "description": "OpenAI là tổ chức nghiên cứu trí tuệ nhân tạo hàng đầu thế giới, với các mô hình như dòng GPT đã thúc đẩy ranh giới của xử lý ngôn ngữ tự nhiên. OpenAI cam kết thay đổi nhiều ngành công nghiệp thông qua các giải pháp AI sáng tạo và hiệu quả. Sản phẩm của họ có hiệu suất và tính kinh tế nổi bật, được sử dụng rộng rãi trong nghiên cứu, thương mại và ứng dụng đổi mới." + }, + "openrouter": { + "description": "OpenRouter là một nền tảng dịch vụ cung cấp nhiều giao diện mô hình lớn tiên tiến, hỗ trợ OpenAI, Anthropic, LLaMA và nhiều hơn nữa, phù hợp cho nhu cầu phát triển và ứng dụng đa dạng. Người dùng có thể linh hoạt chọn mô hình và giá cả tối ưu theo nhu cầu của mình, giúp nâng cao trải nghiệm AI." + }, + "perplexity": { + "description": "Perplexity là nhà cung cấp mô hình tạo đối thoại hàng đầu, cung cấp nhiều mô hình Llama 3.1 tiên tiến, hỗ trợ ứng dụng trực tuyến và ngoại tuyến, đặc biệt phù hợp cho các nhiệm vụ xử lý ngôn ngữ tự nhiên phức tạp." + }, + "qwen": { + "description": "Qwen là mô hình ngôn ngữ quy mô lớn tự phát triển của Alibaba Cloud, có khả năng hiểu và tạo ngôn ngữ tự nhiên mạnh mẽ. Nó có thể trả lời nhiều câu hỏi, sáng tác nội dung văn bản, bày tỏ quan điểm, viết mã, v.v., hoạt động trong nhiều lĩnh vực." + }, + "siliconcloud": { + "description": "SiliconFlow cam kết tăng tốc AGI để mang lại lợi ích cho nhân loại, nâng cao hiệu quả AI quy mô lớn thông qua một ngăn xếp GenAI dễ sử dụng và chi phí thấp." + }, + "spark": { + "description": "Mô hình lớn Xinghuo của iFlytek cung cấp khả năng AI mạnh mẽ cho nhiều lĩnh vực và ngôn ngữ, sử dụng công nghệ xử lý ngôn ngữ tự nhiên tiên tiến để xây dựng các ứng dụng đổi mới phù hợp cho các lĩnh vực như phần cứng thông minh, y tế thông minh, tài chính thông minh, v.v." + }, + "stepfun": { + "description": "Mô hình lớn Star Class có khả năng đa phương thức và suy diễn phức tạp hàng đầu trong ngành, hỗ trợ hiểu văn bản siêu dài và chức năng tìm kiếm tự động mạnh mẽ." + }, + "taichu": { + "description": "Viện Nghiên cứu Tự động hóa Trung Quốc và Viện Nghiên cứu Trí tuệ Nhân tạo Vũ Hán đã phát hành mô hình lớn đa phương thức thế hệ mới, hỗ trợ các nhiệm vụ hỏi đáp toàn diện như hỏi đáp nhiều vòng, sáng tác văn bản, tạo hình ảnh, hiểu 3D, phân tích tín hiệu, v.v., với khả năng nhận thức, hiểu biết và sáng tác mạnh mẽ hơn, mang đến trải nghiệm tương tác hoàn toàn mới." + }, + "togetherai": { + "description": "Together AI cam kết đạt được hiệu suất hàng đầu thông qua các mô hình AI sáng tạo, cung cấp khả năng tùy chỉnh rộng rãi, bao gồm hỗ trợ mở rộng nhanh chóng và quy trình triển khai trực quan, đáp ứng nhiều nhu cầu của doanh nghiệp." + }, + "upstage": { + "description": "Upstage tập trung vào việc phát triển các mô hình AI cho nhiều nhu cầu thương mại khác nhau, bao gồm Solar LLM và AI tài liệu, nhằm đạt được trí thông minh nhân tạo tổng quát (AGI) cho công việc. Tạo ra các đại lý đối thoại đơn giản thông qua Chat API, và hỗ trợ gọi chức năng, dịch thuật, nhúng và ứng dụng trong các lĩnh vực cụ thể." + }, + "zeroone": { + "description": "01.AI tập trung vào công nghệ trí tuệ nhân tạo trong kỷ nguyên AI 2.0, thúc đẩy mạnh mẽ sự đổi mới và ứng dụng của \"người + trí tuệ nhân tạo\", sử dụng các mô hình mạnh mẽ và công nghệ AI tiên tiến để nâng cao năng suất của con người và thực hiện sự trao quyền công nghệ." + }, + "zhipu": { + "description": "Zhipu AI cung cấp nền tảng mở cho mô hình đa phương thức và ngôn ngữ, hỗ trợ nhiều tình huống ứng dụng AI, bao gồm xử lý văn bản, hiểu hình ảnh và hỗ trợ lập trình." + } +} diff --git a/locales/zh-CN/common.json b/locales/zh-CN/common.json index dc7ff2238f23..503b5622659b 100644 --- a/locales/zh-CN/common.json +++ b/locales/zh-CN/common.json @@ -195,8 +195,8 @@ }, "tab": { "chat": "会话", + "discover": "发现", "files": "文件", - "market": "发现", "me": "我", "setting": "设置" }, diff --git a/locales/zh-CN/discover.json b/locales/zh-CN/discover.json new file mode 100644 index 000000000000..10fd75bdc74c --- /dev/null +++ b/locales/zh-CN/discover.json @@ -0,0 +1,204 @@ +{ + "assistants": { + "addAgent": "添加助手", + "addAgentAndConverse": "添加助手并会话", + "addAgentSuccess": "添加成功", + "conversation": { + "l1": "你好,我是 **{{name}}**,你可以问我任何问题,我会尽力回答你 ~", + "l2": "以下是我的能力介绍: ", + "l3": "让我们开始对话吧!" + }, + "description": "助手介绍", + "detail": "详情", + "list": "助手列表", + "more": "更多", + "plugins": "集成插件", + "recentSubmits": "最近更新", + "suggestions": "相关推荐", + "systemRole": "助手设定", + "try": "试一下" + }, + "back": "返回发现", + "category": { + "assistant": { + "academic": "学术", + "all": "全部", + "career": "职业", + "copywriting": "文案", + "design": "设计", + "education": "教育", + "emotions": "情感", + "entertainment": "娱乐", + "games": "游戏", + "general": "通用", + "life": "生活", + "marketing": "商业", + "office": "办公", + "programming": "编程", + "translation": "翻译" + }, + "plugin": { + "all": "全部", + "gaming-entertainment": "游戏娱乐", + "life-style": "生活方式", + "media-generate": "媒体生成", + "science-education": "科学教育", + "social": "社交媒体", + "stocks-finance": "股票金融", + "tools": "实用工具", + "web-search": "网络搜索" + } + }, + "cleanFilter": "清除筛选", + "create": "创作", + "createGuide": { + "func1": { + "desc1": "在会话窗口中通过右上角设置进入你想提交助手的设置页面;", + "desc2": "点击右上角提交到助手市场按钮。", + "tag": "方法一", + "title": "通过 LobeChat 提交" + }, + "func2": { + "button": "前往 Github 助手仓库", + "desc": "如果您想将助手添加到索引中,请使用 agent-template.json 或 agent-template-full.json 在 plugins 目录中创建一个条目,编写简短的描述并适当标记,然后创建一个拉取请求。", + "tag": "方法二", + "title": "通过 Github 提交" + } + }, + "dislike": "不喜欢", + "filter": "筛选", + "filterBy": { + "authorRange": { + "everyone": "所有作者", + "followed": "关注的作者", + "title": "作者范围" + }, + "contentLength": "最小上下文长度", + "maxToken": { + "title": "设定最大长度 (Token)", + "unlimited": "无限制" + }, + "other": { + "functionCall": "支持函数调用", + "title": "其他", + "vision": "支持视觉识别", + "withKnowledge": "附带知识库", + "withTool": "附带插件" + }, + "pricing": "模型价格", + "timePeriod": { + "all": "全部时间", + "day": "近 24 小时", + "month": "近 30 天", + "title": "时间范围", + "week": "近 7 天", + "year": "近一年" + } + }, + "home": { + "featuredAssistants": "推荐助手", + "featuredModels": "推荐模型", + "featuredProviders": "推荐模型服务商", + "featuredTools": "推荐插件", + "more": "发现更多" + }, + "like": "喜欢", + "models": { + "chat": "开始会话", + "contentLength": "最大上下文长度", + "free": "免费", + "guide": "配置指南", + "list": "模型列表", + "more": "更多", + "parameterList": { + "defaultValue": "默认值", + "docs": "查看文档", + "frequency_penalty": { + "desc": "此设置调整模型重复使用输入中已经出现的特定词汇的频率。较高的值使得这种重复出现的可能性降低,而负值则产生相反的效果。词汇惩罚不随出现次数增加而增加。负值将鼓励词汇的重复使用。", + "title": "频率惩罚度" + }, + "max_tokens": { + "desc": "此设置定义了模型在单次回复中可以生成的最大长度。设置较高的值允许模型生成更长的回应,而较低的值则限制回应的长度,使其更简洁。根据不同的应用场景,合理调整此值可以帮助达到预期的回应长度和详细程度。", + "title": "单次回复限制" + }, + "presence_penalty": { + "desc": "此设置旨在根据词汇在输入中出现的频率来控制词汇的重复使用。它尝试较少使用那些在输入中出现较多的词汇,其使用频率与出现频率成比例。词汇惩罚随出现次数而增加。负值将鼓励重复使用词汇。", + "title": "话题新鲜度" + }, + "range": "范围", + "temperature": { + "desc": "此设置影响模型回应的多样性。较低的值会导致更可预测和典型的回应,而较高的值则鼓励更多样化和不常见的回应。当值设为0时,模型对于给定的输入总是给出相同的回应。", + "title": "随机性" + }, + "title": "模型参数", + "top_p": { + "desc": "此设置将模型的选择限制为可能性最高的一定比例的词汇:只选择那些累计概率达到P的顶尖词汇。较低的值使得模型的回应更加可预测,而默认设置则允许模型从全部范围的词汇中进行选择。", + "title": "核采样" + }, + "type": "类型" + }, + "providerInfo": { + "apiTooltip": "LobeChat 支持为此提供商使用自定义 API 密钥。", + "input": "输入价格", + "inputTooltip": "每百万个 Token 的成本", + "latency": "延迟", + "latencyTooltip": "服务商发送第一个 Token 的平均响应时间", + "maxOutput": "最大输出长度", + "maxOutputTooltip": "此端点可以生成的最大 Token 数", + "officialTooltip": "LobeHub 官方服务", + "output": "输出价格", + "outputTooltip": "每百万个 Token 的成本", + "streamCancellationTooltip": "此服务商支持流取消功能。", + "throughput": "吞吐量", + "throughputTooltip": "流请求每秒传输的平均 Token 数" + }, + "suggestions": "相关模型", + "supportedProviders": "支持该模型的服务商" + }, + "plugins": { + "community": "社区插件", + "install": "安装插件", + "installed": "已安装", + "list": "插件列表", + "meta": { + "description": "描述", + "parameter": "参数", + "title": "工具参数", + "type": "类型" + }, + "more": "更多", + "official": "官方插件", + "recentSubmits": "最近更新", + "suggestions": "相关推荐" + }, + "providers": { + "config": "配置服务商", + "list": "模型服务商列表", + "modelCount": "{{count}} 个模型", + "modelSite": "模型文档", + "more": "更多", + "officialSite": "官方网站", + "showAllModels": "显示所有模型", + "suggestions": "相关服务商", + "supportedModels": "支持模型" + }, + "search": { + "placeholder": "搜索名称介绍或关键词...", + "result": "{{count}} 个关于 {{keyword}} 的搜索结果", + "searching": "搜索中..." + }, + "sort": { + "mostLiked": "最多喜欢", + "mostUsed": "最多使用", + "newest": "从新到旧", + "oldest": "从旧到新", + "recommended": "推荐" + }, + "tab": { + "assistants": "助手", + "home": "首页", + "models": "模型", + "plugins": "插件", + "providers": "模型服务商" + } +} diff --git a/locales/zh-CN/metadata.json b/locales/zh-CN/metadata.json index f89509660c3b..a6fa05bd8a92 100644 --- a/locales/zh-CN/metadata.json +++ b/locales/zh-CN/metadata.json @@ -3,9 +3,26 @@ "description": "{{appName}} 带给你最好的 ChatGPT, Claude , Gemini, OLLaMA WebUI 使用体验", "title": "{{appName}}:个人 AI 效能工具,给自己一个更聪明的大脑" }, - "market": { - "description": "内容创作、文案、问答、图像生成、视频生成、语音生成、智能 Agent、自动化工作流,定制你专属的 AI 智能助手", - "title": "助手市场" + "discover": { + "assistants": { + "description": "内容创作、文案、问答、图像生成、视频生成、语音生成、智能 Agent、自动化工作流,定制你专属的 AI / GPTs / OLLaMA 智能助手", + "title": "AI助手" + }, + "description": "内容创作、文案、问答、图像生成、视频生成、语音生成、智能 Agent、自动化工作流、自定义AI应用,定制你专属的 AI 应用工作台", + "models": { + "description": "探索主流 AI 模型 OpenAI / GPT / Claude 3 / Gemini / Ollama / Azure / DeepSeek", + "title": "AI模型" + }, + "plugins": { + "description": "搜素图表生成、学术、图像生成、视频生成、语音生成、自动化工作流,为你的助手集成丰富的插件能力", + "title": "AI插件" + }, + "providers": { + "description": "探索主流模型供应商 OpenAI / Qwen / Ollama / Anthropic / DeepSeek / Google Gemini / OpenRouter", + "title": "AI模型服务商" + }, + "search": "搜索", + "title": "发现" }, "plugins": { "description": "搜素、图表生成、学术、图像生成、视频生成、语音生成、自动化工作流,定制 ChatGPT / Claude 专属的 ToolCall 插件能力", diff --git a/locales/zh-CN/models.json b/locales/zh-CN/models.json new file mode 100644 index 000000000000..cb94824f7799 --- /dev/null +++ b/locales/zh-CN/models.json @@ -0,0 +1,845 @@ +{ + "01-ai/Yi-1.5-34B-Chat-16K": { + "description": "Yi-1.5 34B, 以丰富的训练样本在行业应用中提供优越表现。" + }, + "01-ai/Yi-1.5-6B-Chat": { + "description": "Yi-1.5 是Yi系列的进化版本,拥有高质量的预训练和丰富的微调数据。" + }, + "01-ai/Yi-1.5-9B-Chat-16K": { + "description": "Yi-1.5 9B 支持16K Tokens, 提供高效、流畅的语言生成能力。" + }, + "360gpt-pro": { + "description": "360GPT Pro 作为 360 AI 模型系列的重要成员,以高效的文本处理能力满足多样化的自然语言应用场景,支持长文本理解和多轮对话等功能。" + }, + "360gpt-turbo": { + "description": "360GPT Turbo 提供强大的计算和对话能力,具备出色的语义理解和生成效率,是企业和开发者理想的智能助理解决方案。" + }, + "360gpt-turbo-responsibility-8k": { + "description": "360GPT Turbo Responsibility 8K 强调语义安全和责任导向,专为对内容安全有高度要求的应用场景设计,确保用户体验的准确性与稳健性。" + }, + "360gpt2-pro": { + "description": "360GPT2 Pro 是 360 公司推出的高级自然语言处理模型,具备卓越的文本生成和理解能力,尤其在生成与创作领域表现出色,能够处理复杂的语言转换和角色演绎任务。" + }, + "4.0Ultra": { + "description": "Spark4.0 Ultra 是星火大模型系列中最为强大的版本,在升级联网搜索链路同时,提升对文本内容的理解和总结能力。它是用于提升办公生产力和准确响应需求的全方位解决方案,是引领行业的智能产品。" + }, + "Baichuan2-Turbo": { + "description": "采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。支持PDF、Word等多种文档上传及网址输入,信息获取及时、全面,输出结果准确、专业。" + }, + "Baichuan3-Turbo": { + "description": "针对企业高频场景优化,效果大幅提升,高性价比。相对于Baichuan2模型,内容创作提升20%,知识问答提升17%, 角色扮演能力提升40%。整体效果比GPT3.5更优。" + }, + "Baichuan3-Turbo-128k": { + "description": "具备 128K 超长上下文窗口,针对企业高频场景优化,效果大幅提升,高性价比。相对于Baichuan2模型,内容创作提升20%,知识问答提升17%, 角色扮演能力提升40%。整体效果比GPT3.5更优。" + }, + "Baichuan4": { + "description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。" + }, + "Gryphe/MythoMax-L2-13b": { + "description": "MythoMax-L2 (13B) 是一种创新模型,适合多领域应用和复杂任务。" + }, + "Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Hermes 2 Mixtral 8x7B DPO 是一款高度灵活的多模型合并,旨在提供卓越的创造性体验。" + }, + "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) 是高精度的指令模型,适用于复杂计算。" + }, + "NousResearch/Nous-Hermes-2-Yi-34B": { + "description": "Nous Hermes-2 Yi (34B) 提供优化的语言输出和多样化的应用可能。" + }, + "Pro-128k": { + "description": "Spark Pro-128K 配置了特大上下文处理能力,能够处理多达128K的上下文信息,特别适合需通篇分析和长期逻辑关联处理的长文内容,可在复杂文本沟通中提供流畅一致的逻辑与多样的引用支持。" + }, + "Qwen/Qwen1.5-110B-Chat": { + "description": "作为Qwen2 的测试版,Qwen1.5 使用大规模数据实现了更精确的对话功能。" + }, + "Qwen/Qwen1.5-14B-Chat": { + "description": "Qwen1.5 通过大规模数据集训练,擅长复杂的语言任务。" + }, + "Qwen/Qwen1.5-32B-Chat": { + "description": "Qwen1.5 具备多领域问答和文本生成的能力。" + }, + "Qwen/Qwen1.5-72B-Chat": { + "description": "Qwen 1.5 Chat (72B) 提供快速响应和自然对话能力,适合多语言环境。" + }, + "Qwen/Qwen1.5-7B-Chat": { + "description": "Qwen1.5 通过结合高级预训练和微调提升对话表达能力。" + }, + "Qwen/Qwen2-1.5B-Instruct": { + "description": "Qwen2 是全新的大型语言模型系列,旨在优化指令式任务的处理。" + }, + "Qwen/Qwen2-57B-A14B-Instruct": { + "description": "Qwen2 是全新的系列,57B A14B 型号在指令任务中表现卓越。" + }, + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 是先进的通用语言模型,支持多种指令类型。" + }, + "Qwen/Qwen2-7B-Instruct": { + "description": "Qwen2 是全新的大型语言模型系列,具有更强的理解和生成能力。" + }, + "Qwen/Qwen2-Math-72B-Instruct": { + "description": "Qwen2-Math 专注于数学领域的问题求解,为高难度题提供专业解答。" + }, + "THUDM/chatglm3-6b": { + "description": "作为双语会话语言模型, ChatGLM3能处理中英文转换任务。" + }, + "THUDM/glm-4-9b-chat": { + "description": "GLM-4 9B 开放源码版本,为会话应用提供优化后的对话体验。" + }, + "abab5.5-chat": { + "description": "面向生产力场景,支持复杂任务处理和高效文本生成,适用于专业领域应用。" + }, + "abab5.5s-chat": { + "description": "专为中文人设对话场景设计,提供高质量的中文对话生成能力,适用于多种应用场景。" + }, + "abab6.5g-chat": { + "description": "专为多语种人设对话设计,支持英文及其他多种语言的高质量对话生成。" + }, + "abab6.5s-chat": { + "description": "适用于广泛的自然语言处理任务,包括文本生成、对话系统等。" + }, + "abab6.5t-chat": { + "description": "针对中文人设对话场景优化,提供流畅且符合中文表达习惯的对话生成能力。" + }, + "accounts/fireworks/models/firefunction-v1": { + "description": "Fireworks 开源函数调用模型,提供卓越的指令执行能力和开放可定制的特性。" + }, + "accounts/fireworks/models/firefunction-v2": { + "description": "Fireworks 公司最新推出的 Firefunction-v2 是一款性能卓越的函数调用模型,基于 Llama-3 开发,并通过大量优化,特别适用于函数调用、对话及指令跟随等场景。" + }, + "accounts/fireworks/models/firellava-13b": { + "description": "fireworks-ai/FireLLaVA-13b 是一款视觉语言模型,可以同时接收图像和文本输入,经过高质量数据训练,适合多模态任务。" + }, + "accounts/fireworks/models/gemma2-9b-it": { + "description": "Gemma 2 9B 指令模型,基于之前的Google技术,适合回答问题、总结和推理等多种文本生成任务。" + }, + "accounts/fireworks/models/llama-v3-70b-instruct": { + "description": "Llama 3 70B 指令模型,专为多语言对话和自然语言理解优化,性能优于多数竞争模型。" + }, + "accounts/fireworks/models/llama-v3-70b-instruct-hf": { + "description": "Llama 3 70B 指令模型(HF 版本),与官方实现结果保持一致,适合高质量的指令跟随任务。" + }, + "accounts/fireworks/models/llama-v3-8b-instruct": { + "description": "Llama 3 8B 指令模型,优化用于对话及多语言任务,表现卓越且高效。" + }, + "accounts/fireworks/models/llama-v3-8b-instruct-hf": { + "description": "Llama 3 8B 指令模型(HF 版本),与官方实现结果一致,具备高度一致性和跨平台兼容性。" + }, + "accounts/fireworks/models/llama-v3p1-405b-instruct": { + "description": "Llama 3.1 405B 指令模型,具备超大规模参数,适合复杂任务和高负载场景下的指令跟随。" + }, + "accounts/fireworks/models/llama-v3p1-70b-instruct": { + "description": "Llama 3.1 70B 指令模型,提供卓越的自然语言理解和生成能力,是对话及分析任务的理想选择。" + }, + "accounts/fireworks/models/llama-v3p1-8b-instruct": { + "description": "Llama 3.1 8B 指令模型,专为多语言对话优化,能够在常见行业基准上超越多数开源及闭源模型。" + }, + "accounts/fireworks/models/mixtral-8x22b-instruct": { + "description": "Mixtral MoE 8x22B 指令模型,大规模参数和多专家架构,全方位支持复杂任务的高效处理。" + }, + "accounts/fireworks/models/mixtral-8x7b-instruct": { + "description": "Mixtral MoE 8x7B 指令模型,多专家架构提供高效的指令跟随及执行。" + }, + "accounts/fireworks/models/mixtral-8x7b-instruct-hf": { + "description": "Mixtral MoE 8x7B 指令模型(HF 版本),性能与官方实现一致,适合多种高效任务场景。" + }, + "accounts/fireworks/models/mythomax-l2-13b": { + "description": "MythoMax L2 13B 模型,结合新颖的合并技术,擅长叙事和角色扮演。" + }, + "accounts/fireworks/models/phi-3-vision-128k-instruct": { + "description": "Phi 3 Vision 指令模型,轻量级多模态模型,能够处理复杂的视觉和文本信息,具备较强的推理能力。" + }, + "accounts/fireworks/models/starcoder-16b": { + "description": "StarCoder 15.5B 模型,支持高级编程任务,多语言能力增强,适合复杂代码生成和理解。" + }, + "accounts/fireworks/models/starcoder-7b": { + "description": "StarCoder 7B 模型,针对80多种编程语言训练,拥有出色的编程填充能力和语境理解。" + }, + "accounts/yi-01-ai/models/yi-large": { + "description": "Yi-Large 模型,具备卓越的多语言处理能力,可用于各类语言生成和理解任务。" + }, + "anthropic.claude-3-5-sonnet-20240620-v1:0": { + "description": "Claude 3.5 Sonnet 提升了行业标准,性能超过竞争对手模型和 Claude 3 Opus,在广泛的评估中表现出色,同时具有我们中等层级模型的速度和成本。" + }, + "anthropic.claude-3-haiku-20240307-v1:0": { + "description": "Claude 3 Haiku 是 Anthropic 最快、最紧凑的模型,提供近乎即时的响应速度。它可以快速回答简单的查询和请求。客户将能够构建模仿人类互动的无缝 AI 体验。Claude 3 Haiku 可以处理图像并返回文本输出,具有 200K 的上下文窗口。" + }, + "anthropic.claude-3-opus-20240229-v1:0": { + "description": "Claude 3 Opus 是 Anthropic 最强大的 AI 模型,具有在高度复杂任务上的最先进性能。它可以处理开放式提示和未见过的场景,具有出色的流畅性和类人的理解能力。Claude 3 Opus 展示了生成 AI 可能性的前沿。Claude 3 Opus 可以处理图像并返回文本输出,具有 200K 的上下文窗口。" + }, + "anthropic.claude-3-sonnet-20240229-v1:0": { + "description": "Anthropic 的 Claude 3 Sonnet 在智能和速度之间达到了理想的平衡——特别适合企业工作负载。它以低于竞争对手的价格提供最大的效用,并被设计成为可靠的、高耐用的主力机,适用于规模化的 AI 部署。Claude 3 Sonnet 可以处理图像并返回文本输出,具有 200K 的上下文窗口。" + }, + "anthropic.claude-instant-v1": { + "description": "一款快速、经济且仍然非常有能力的模型,可以处理包括日常对话、文本分析、总结和文档问答在内的一系列任务。" + }, + "anthropic.claude-v2": { + "description": "Anthropic 在从复杂对话和创意内容生成到详细指令跟随的广泛任务中都表现出高度能力的模型。" + }, + "anthropic.claude-v2:1": { + "description": "Claude 2 的更新版,具有双倍的上下文窗口,以及在长文档和 RAG 上下文中的可靠性、幻觉率和基于证据的准确性的改进。" + }, + "anthropic/claude-3-haiku": { + "description": "Claude 3 Haiku 是 Anthropic 的最快且最紧凑的模型,旨在实现近乎即时的响应。它具有快速且准确的定向性能。" + }, + "anthropic/claude-3-opus": { + "description": "Claude 3 Opus 是 Anthropic 用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。" + }, + "anthropic/claude-3.5-sonnet": { + "description": "Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同时保持与 Sonnet 相同的价格。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。" + }, + "aya": { + "description": "Aya 23 是 Cohere 推出的多语言模型,支持 23 种语言,为多元化语言应用提供便利。" + }, + "aya:35b": { + "description": "Aya 23 是 Cohere 推出的多语言模型,支持 23 种语言,为多元化语言应用提供便利。" + }, + "charglm-3": { + "description": "CharGLM-3 专为角色扮演与情感陪伴设计,支持超长多轮记忆与个性化对话,应用广泛。" + }, + "chatgpt-4o-latest": { + "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。" + }, + "claude-2.0": { + "description": "Claude 2 为企业提供了关键能力的进步,包括业界领先的 200K token 上下文、大幅降低模型幻觉的发生率、系统提示以及一个新的测试功能:工具调用。" + }, + "claude-2.1": { + "description": "Claude 2 为企业提供了关键能力的进步,包括业界领先的 200K token 上下文、大幅降低模型幻觉的发生率、系统提示以及一个新的测试功能:工具调用。" + }, + "claude-3-5-sonnet-20240620": { + "description": "Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同时保持与 Sonnet 相同的价格。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。" + }, + "claude-3-haiku-20240307": { + "description": "Claude 3 Haiku 是 Anthropic 的最快且最紧凑的模型,旨在实现近乎即时的响应。它具有快速且准确的定向性能。" + }, + "claude-3-opus-20240229": { + "description": "Claude 3 Opus 是 Anthropic 用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。" + }, + "claude-3-sonnet-20240229": { + "description": "Claude 3 Sonnet 在智能和速度方面为企业工作负载提供了理想的平衡。它以更低的价格提供最大效用,可靠且适合大规模部署。" + }, + "claude-instant-1.2": { + "description": "Anthropic 的模型用于低延迟、高吞吐量的文本生成,支持生成数百页的文本。" + }, + "codegeex-4": { + "description": "CodeGeeX-4 是强大的AI编程助手,支持多种编程语言的智能问答与代码补全,提升开发效率。" + }, + "codegemma": { + "description": "CodeGemma 专用于不同编程任务的轻量级语言模型,支持快速迭代和集成。" + }, + "codegemma:2b": { + "description": "CodeGemma 专用于不同编程任务的轻量级语言模型,支持快速迭代和集成。" + }, + "codellama": { + "description": "Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。" + }, + "codellama:13b": { + "description": "Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。" + }, + "codellama:34b": { + "description": "Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。" + }, + "codellama:70b": { + "description": "Code Llama 是一款专注于代码生成和讨论的 LLM,结合广泛的编程语言支持,适用于开发者环境。" + }, + "codeqwen": { + "description": "CodeQwen1.5 是基于大量代码数据训练的大型语言模型,专为解决复杂编程任务。" + }, + "codestral": { + "description": "Codestral 是 Mistral AI 的首款代码模型,为代码生成任务提供优异支持。" + }, + "codestral-latest": { + "description": "Codestral是专注于代码生成的尖端生成模型,优化了中间填充和代码补全任务。" + }, + "cognitivecomputations/dolphin-mixtral-8x22b": { + "description": "Dolphin Mixtral 8x22B 是一款为指令遵循、对话和编程设计的模型。" + }, + "command-r": { + "description": "Command R 是优化用于对话和长上下文任务的LLM,特别适合动态交互与知识管理。" + }, + "command-r-plus": { + "description": "Command R+ 是一款高性能的大型语言模型,专为真实企业场景和复杂应用而设计。" + }, + "databricks/dbrx-instruct": { + "description": "DBRX Instruct 提供高可靠性的指令处理能力,支持多行业应用。" + }, + "deepseek-ai/DeepSeek-Coder-V2-Instruct": { + "description": "DeepSeek Coder V2 为代码任务设计, 专注于高效的代码生成。" + }, + "deepseek-ai/DeepSeek-V2-Chat": { + "description": "DeepSeek V2 具备67亿参数,支持英中文本处理。" + }, + "deepseek-ai/DeepSeek-V2.5": { + "description": "DeepSeek V2.5 集合了先前版本的优秀特征,增强了通用和编码能力。" + }, + "deepseek-ai/deepseek-llm-67b-chat": { + "description": "DeepSeek 67B 是为高复杂性对话训练的先进模型。" + }, + "deepseek-chat": { + "description": "融合通用与代码能力的全新开源模型, 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。" + }, + "deepseek-coder-v2": { + "description": "DeepSeek Coder V2 是开源的混合专家代码模型,在代码任务方面表现优异,与 GPT4-Turbo 相媲美。" + }, + "deepseek-coder-v2:236b": { + "description": "DeepSeek Coder V2 是开源的混合专家代码模型,在代码任务方面表现优异,与 GPT4-Turbo 相媲美。" + }, + "deepseek-v2": { + "description": "DeepSeek V2 是高效的 Mixture-of-Experts 语言模型,适用于经济高效的处理需求。" + }, + "deepseek-v2:236b": { + "description": "DeepSeek V2 236B 是 DeepSeek 的设计代码模型,提供强大的代码生成能力。" + }, + "deepseek/deepseek-chat": { + "description": "融合通用与代码能力的全新开源模型, 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。" + }, + "emohaa": { + "description": "Emohaa 是心理模型,具备专业咨询能力,帮助用户理解情感问题。" + }, + "gemini-1.0-pro-001": { + "description": "Gemini 1.0 Pro 001 (Tuning) 提供稳定并可调优的性能,是复杂任务解决方案的理想选择。" + }, + "gemini-1.0-pro-002": { + "description": "Gemini 1.0 Pro 002 (Tuning) 提供出色的多模态支持,专注于复杂任务的有效解决。" + }, + "gemini-1.0-pro-latest": { + "description": "Gemini 1.0 Pro 是Google的高性能AI模型,专为广泛任务扩展而设计。" + }, + "gemini-1.5-flash-001": { + "description": "Gemini 1.5 Flash 001 是一款高效的多模态模型,支持广泛应用的扩展。" + }, + "gemini-1.5-flash-8b-exp-0827": { + "description": "Gemini 1.5 Flash 8B 0827 专为处理大规模任务场景设计,提供无与伦比的处理速度。" + }, + "gemini-1.5-flash-exp-0827": { + "description": "Gemini 1.5 Flash 0827 提供了优化后的多模态处理能力,适用多种复杂任务场景。" + }, + "gemini-1.5-flash-latest": { + "description": "Gemini 1.5 Flash 是Google最新的多模态AI模型,具备快速处理能力,支持文本、图像和视频输入,适用于多种任务的高效扩展。" + }, + "gemini-1.5-pro-001": { + "description": "Gemini 1.5 Pro 001 是可扩展的多模态AI解决方案,支持广泛的复杂任务。" + }, + "gemini-1.5-pro-exp-0801": { + "description": "Gemini 1.5 Pro 0801 提供出色的多模态处理能力,为应用开发带来更大灵活性。" + }, + "gemini-1.5-pro-exp-0827": { + "description": "Gemini 1.5 Pro 0827 结合最新优化技术,带来更高效的多模态数据处理能力。" + }, + "gemini-1.5-pro-latest": { + "description": "Gemini 1.5 Pro 支持高达200万个tokens,是中型多模态模型的理想选择,适用于复杂任务的多方面支持。" + }, + "gemma-7b-it": { + "description": "Gemma 7B 适合中小规模任务处理,兼具成本效益。" + }, + "gemma2": { + "description": "Gemma 2 是 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。" + }, + "gemma2-9b-it": { + "description": "Gemma 2 9B 是一款优化用于特定任务和工具整合的模型。" + }, + "gemma2:27b": { + "description": "Gemma 2 是 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。" + }, + "gemma2:2b": { + "description": "Gemma 2 是 Google 推出的高效模型,涵盖从小型应用到复杂数据处理的多种应用场景。" + }, + "general": { + "description": "Spark Lite 是一款轻量级大语言模型,具备极低的延迟与高效的处理能力,完全免费开放,支持实时在线搜索功能。其快速响应的特性使其在低算力设备上的推理应用和模型微调中表现出色,为用户带来出色的成本效益和智能体验,尤其在知识问答、内容生成及搜索场景下表现不俗。" + }, + "generalv3": { + "description": "Spark Pro 是一款为专业领域优化的高性能大语言模型,专注数学、编程、医疗、教育等多个领域,并支持联网搜索及内置天气、日期等插件。其优化后模型在复杂知识问答、语言理解及高层次文本创作中展现出色表现和高效性能,是适合专业应用场景的理想选择。" + }, + "generalv3.5": { + "description": "Spark3.5 Max 为功能最为全面的版本,支持联网搜索及众多内置插件。其全面优化的核心能力以及系统角色设定和函数调用功能,使其在各种复杂应用场景中的表现极为优异和出色。" + }, + "glm-4": { + "description": "GLM-4 是发布于2024年1月的旧旗舰版本,目前已被更强的 GLM-4-0520 取代。" + }, + "glm-4-0520": { + "description": "GLM-4-0520 是最新模型版本,专为高度复杂和多样化任务设计,表现卓越。" + }, + "glm-4-air": { + "description": "GLM-4-Air 是性价比高的版本,性能接近GLM-4,提供快速度和实惠的价格。" + }, + "glm-4-airx": { + "description": "GLM-4-AirX 提供 GLM-4-Air 的高效版本,推理速度可达其2.6倍。" + }, + "glm-4-alltools": { + "description": "GLM-4-AllTools 是一个多功能智能体模型,优化以支持复杂指令规划与工具调用,如网络浏览、代码解释和文本生成,适用于多任务执行。" + }, + "glm-4-flash": { + "description": "GLM-4-Flash 是处理简单任务的理想选择,速度最快且价格最优惠。" + }, + "glm-4-long": { + "description": "GLM-4-Long 支持超长文本输入,适合记忆型任务与大规模文档处理。" + }, + "glm-4-plus": { + "description": "GLM-4-Plus 作为高智能旗舰,具备强大的处理长文本和复杂任务的能力,性能全面提升。" + }, + "glm-4v": { + "description": "GLM-4V 提供强大的图像理解与推理能力,支持多种视觉任务。" + }, + "glm-4v-plus": { + "description": "GLM-4V-Plus 具备对视频内容及多图片的理解能力,适合多模态任务。" + }, + "google/gemini-flash-1.5-exp": { + "description": "Gemini 1.5 Flash 0827 提供了优化后的多模态处理能力,适用多种复杂任务场景。" + }, + "google/gemini-pro-1.5-exp": { + "description": "Gemini 1.5 Pro 0827 结合最新优化技术,带来更高效的多模态数据处理能力。" + }, + "google/gemma-2-27b-it": { + "description": "Gemma 2 延续了轻量化与高效的设计理念。" + }, + "google/gemma-2-9b-it": { + "description": "Gemma 2 是Google轻量化的开源文本模型系列。" + }, + "google/gemma-2-9b-it:free": { + "description": "Gemma 2 是Google轻量化的开源文本模型系列。" + }, + "google/gemma-2b-it": { + "description": "Gemma Instruct (2B) 提供基本的指令处理能力,适合轻量级应用。" + }, + "gpt-3.5-turbo": { + "description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125" + }, + "gpt-3.5-turbo-0125": { + "description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125" + }, + "gpt-3.5-turbo-1106": { + "description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125" + }, + "gpt-3.5-turbo-instruct": { + "description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125" + }, + "gpt-4": { + "description": "GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。" + }, + "gpt-4-0125-preview": { + "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。" + }, + "gpt-4-0613": { + "description": "GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。" + }, + "gpt-4-1106-preview": { + "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。" + }, + "gpt-4-1106-vision-preview": { + "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。" + }, + "gpt-4-32k": { + "description": "GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。" + }, + "gpt-4-32k-0613": { + "description": "GPT-4 提供了一个更大的上下文窗口,能够处理更长的文本输入,适用于需要广泛信息整合和数据分析的场景。" + }, + "gpt-4-turbo": { + "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。" + }, + "gpt-4-turbo-2024-04-09": { + "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。" + }, + "gpt-4-turbo-preview": { + "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。" + }, + "gpt-4-vision-preview": { + "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。" + }, + "gpt-4o": { + "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。" + }, + "gpt-4o-2024-05-13": { + "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。" + }, + "gpt-4o-2024-08-06": { + "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。" + }, + "gpt-4o-mini": { + "description": "GPT-4o mini是OpenAI在GPT-4 Omni之后推出的最新模型,支持图文输入并输出文本。作为他们最先进的小型模型,它比其他近期的前沿模型便宜很多,并且比GPT-3.5 Turbo便宜超过60%。它保持了最先进的智能,同时具有显著的性价比。GPT-4o mini在MMLU测试中获得了 82% 的得分,目前在聊天偏好上排名高于 GPT-4。" + }, + "gryphe/mythomax-l2-13b": { + "description": "MythoMax l2 13B 是一款合并了多个顶尖模型的创意与智能相结合的语言模型。" + }, + "internlm/internlm2_5-20b-chat": { + "description": "创新的开源模型InternLM2.5,通过大规模的参数提高了对话智能。" + }, + "internlm/internlm2_5-7b-chat": { + "description": "InternLM2.5 提供多场景下的智能对话解决方案。" + }, + "llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct 模型,具备70B参数,能在大型文本生成和指示任务中提供卓越性能。" + }, + "llama-3.1-70b-versatile": { + "description": "Llama 3.1 70B 提供更强大的AI推理能力,适合复杂应用,支持超多的计算处理并保证高效和准确率。" + }, + "llama-3.1-8b-instant": { + "description": "Llama 3.1 8B 是一款高效能模型,提供了快速的文本生成能力,非常适合需要大规模效率和成本效益的应用场景。" + }, + "llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct 模型,具备8B参数,支持画面指示任务的高效执行,提供优质的文本生成能力。" + }, + "llama-3.1-sonar-huge-128k-online": { + "description": "Llama 3.1 Sonar Huge Online 模型,具备405B参数,支持约127,000个标记的上下文长度,设计用于复杂的在线聊天应用。" + }, + "llama-3.1-sonar-large-128k-chat": { + "description": "Llama 3.1 Sonar Large Chat 模型,具备70B参数,支持约127,000个标记的上下文长度,适合于复杂的离线聊天任务。" + }, + "llama-3.1-sonar-large-128k-online": { + "description": "Llama 3.1 Sonar Large Online 模型,具备70B参数,支持约127,000个标记的上下文长度,适用于高容量和多样化聊天任务。" + }, + "llama-3.1-sonar-small-128k-chat": { + "description": "Llama 3.1 Sonar Small Chat 模型,具备8B参数,专为离线聊天设计,支持约127,000个标记的上下文长度。" + }, + "llama-3.1-sonar-small-128k-online": { + "description": "Llama 3.1 Sonar Small Online 模型,具备8B参数,支持约127,000个标记的上下文长度,专为在线聊天设计,能高效处理各种文本交互。" + }, + "llama3-70b-8192": { + "description": "Meta Llama 3 70B 提供无与伦比的复杂性处理能力,为高要求项目量身定制。" + }, + "llama3-8b-8192": { + "description": "Meta Llama 3 8B 带来优质的推理效能,适合多场景应用需求。" + }, + "llama3-groq-70b-8192-tool-use-preview": { + "description": "Llama 3 Groq 70B Tool Use 提供强大的工具调用能力,支持复杂任务的高效处理。" + }, + "llama3-groq-8b-8192-tool-use-preview": { + "description": "Llama 3 Groq 8B Tool Use 是针对高效工具使用优化的模型,支持快速并行计算。" + }, + "llama3.1": { + "description": "Llama 3.1 是 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。" + }, + "llama3.1:405b": { + "description": "Llama 3.1 是 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。" + }, + "llama3.1:70b": { + "description": "Llama 3.1 是 Meta 推出的领先模型,支持高达 405B 参数,可应用于复杂对话、多语言翻译和数据分析领域。" + }, + "llava": { + "description": "LLaVA 是结合视觉编码器和 Vicuna 的多模态模型,用于强大的视觉和语言理解。" + }, + "llava-v1.5-7b-4096-preview": { + "description": "LLaVA 1.5 7B 提供视觉处理能力融合,通过视觉信息输入生成复杂输出。" + }, + "llava:13b": { + "description": "LLaVA 是结合视觉编码器和 Vicuna 的多模态模型,用于强大的视觉和语言理解。" + }, + "llava:34b": { + "description": "LLaVA 是结合视觉编码器和 Vicuna 的多模态模型,用于强大的视觉和语言理解。" + }, + "mathstral": { + "description": "MathΣtral 专为科学研究和数学推理设计,提供有效的计算能力和结果解释。" + }, + "meta-llama/Llama-2-13b-chat-hf": { + "description": "LLaMA-2 Chat (13B) 提供优秀的语言处理能力和出色的交互体验。" + }, + "meta-llama/Llama-3-70b-chat-hf": { + "description": "LLaMA-3 Chat (70B) 是功能强大的聊天模型,支持复杂的对话需求。" + }, + "meta-llama/Llama-3-8b-chat-hf": { + "description": "LLaMA-3 Chat (8B) 提供多语言支持,涵盖丰富的领域知识。" + }, + "meta-llama/Meta-Llama-3-70B-Instruct": { + "description": "LLaMA 3 支持大容量文本生成和指令解析。" + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { + "description": "Llama 3 70B Instruct Lite 适合需要高效能和低延迟的环境。" + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": { + "description": "Llama 3 70B Instruct Turbo 提供卓越的语言理解和生成能力,适合最苛刻的计算任务。" + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Lite": { + "description": "Llama 3 8B Instruct Lite 适合资源受限的环境,提供出色的平衡性能。" + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": { + "description": "Llama 3 8B Instruct Turbo 是一款高效能的大语言模型,支持广泛的应用场景。" + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct": { + "description": "LLaMA 3.1 405B 指令微调模型针对多语言对话场景进行了优化。" + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": { + "description": "405B 的 Llama 3.1 Turbo 模型,为大数据处理提供超大容量的上下文支持,在超大规模的人工智能应用中表现突出。" + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct": { + "description": "LLaMA 3.1 70B 提供多语言的高效对话支持。" + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": { + "description": "Llama 3.1 70B 模型经过精细调整,适用于高负载应用,量化至FP8提供更高效的计算能力和准确性,确保在复杂场景中的卓越表现。" + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct": { + "description": "LLaMA 3.1 提供多语言支持,是业界领先的生成模型之一。" + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": { + "description": "Llama 3.1 8B 模型采用FP8量化,支持高达131,072个上下文标记,是开源模型中的佼佼者,适合复杂任务,表现优异于许多行业基准。" + }, + "meta-llama/llama-3-70b-instruct": { + "description": "Llama 3 70B Instruct 优化用于高质量对话场景,在各类人类评估中表现优异。" + }, + "meta-llama/llama-3-8b-instruct": { + "description": "Llama 3 8B Instruct 优化了高质量对话场景,性能优于许多闭源模型。" + }, + "meta-llama/llama-3.1-405b-instruct": { + "description": "Llama 3.1 405B Instruct 是 Meta最新推出的版本,优化用于生成高质量对话,超越了许多领导闭源模型。" + }, + "meta-llama/llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct 专为高质量对话而设计,在人类评估中表现突出,特别适合高交互场景。" + }, + "meta-llama/llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct 是 Meta 推出的最新版本,优化了高质量对话场景,表现优于许多领先的闭源模型。" + }, + "meta-llama/llama-3.1-8b-instruct:free": { + "description": "LLaMA 3.1 提供多语言支持,是业界领先的生成模型之一。" + }, + "meta.llama3-1-405b-instruct-v1:0": { + "description": "Meta Llama 3.1 405B Instruct 是 Llama 3.1 Instruct 模型中最大、最强大的模型,是一款高度先进的对话推理和合成数据生成模型,也可以用作在特定领域进行专业持续预训练或微调的基础。Llama 3.1 提供的多语言大型语言模型 (LLMs) 是一组预训练的、指令调整的生成模型,包括 8B、70B 和 405B 大小 (文本输入/输出)。Llama 3.1 指令调整的文本模型 (8B、70B、405B) 专为多语言对话用例进行了优化,并在常见的行业基准测试中超过了许多可用的开源聊天模型。Llama 3.1 旨在用于多种语言的商业和研究用途。指令调整的文本模型适用于类似助手的聊天,而预训练模型可以适应各种自然语言生成任务。Llama 3.1 模型还支持利用其模型的输出来改进其他模型,包括合成数据生成和精炼。Llama 3.1 是使用优化的变压器架构的自回归语言模型。调整版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF) 来符合人类对帮助性和安全性的偏好。" + }, + "meta.llama3-1-70b-instruct-v1:0": { + "description": "Meta Llama 3.1 70B Instruct 的更新版,包括扩展的 128K 上下文长度、多语言性和改进的推理能力。Llama 3.1 提供的多语言大型语言模型 (LLMs) 是一组预训练的、指令调整的生成模型,包括 8B、70B 和 405B 大小 (文本输入/输出)。Llama 3.1 指令调整的文本模型 (8B、70B、405B) 专为多语言对话用例进行了优化,并在常见的行业基准测试中超过了许多可用的开源聊天模型。Llama 3.1 旨在用于多种语言的商业和研究用途。指令调整的文本模型适用于类似助手的聊天,而预训练模型可以适应各种自然语言生成任务。Llama 3.1 模型还支持利用其模型的输出来改进其他模型,包括合成数据生成和精炼。Llama 3.1 是使用优化的变压器架构的自回归语言模型。调整版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF) 来符合人类对帮助性和安全性的偏好。" + }, + "meta.llama3-1-8b-instruct-v1:0": { + "description": "Meta Llama 3.1 8B Instruct 的更新版,包括扩展的 128K 上下文长度、多语言性和改进的推理能力。Llama 3.1 提供的多语言大型语言模型 (LLMs) 是一组预训练的、指令调整的生成模型,包括 8B、70B 和 405B 大小 (文本输入/输出)。Llama 3.1 指令调整的文本模型 (8B、70B、405B) 专为多语言对话用例进行了优化,并在常见的行业基准测试中超过了许多可用的开源聊天模型。Llama 3.1 旨在用于多种语言的商业和研究用途。指令调整的文本模型适用于类似助手的聊天,而预训练模型可以适应各种自然语言生成任务。Llama 3.1 模型还支持利用其模型的输出来改进其他模型,包括合成数据生成和精炼。Llama 3.1 是使用优化的变压器架构的自回归语言模型。调整版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF) 来符合人类对帮助性和安全性的偏好。" + }, + "meta.llama3-70b-instruct-v1:0": { + "description": "Meta Llama 3 是一款面向开发者、研究人员和企业的开放大型语言模型 (LLM),旨在帮助他们构建、实验并负责任地扩展他们的生成 AI 想法。作为全球社区创新的基础系统的一部分,它非常适合内容创建、对话 AI、语言理解、研发和企业应用。" + }, + "meta.llama3-8b-instruct-v1:0": { + "description": "Meta Llama 3 是一款面向开发者、研究人员和企业的开放大型语言模型 (LLM),旨在帮助他们构建、实验并负责任地扩展他们的生成 AI 想法。作为全球社区创新的基础系统的一部分,它非常适合计算能力和资源有限、边缘设备和更快的训练时间。" + }, + "microsoft/wizardlm 2-7b": { + "description": "WizardLM 2 7B 是微软AI最新的快速轻量化模型,性能接近于现有开源领导模型的10倍。" + }, + "microsoft/wizardlm-2-8x22b": { + "description": "WizardLM-2 8x22B 是微软AI最先进的Wizard模型,显示出极其竞争力的表现。" + }, + "minicpm-v": { + "description": "MiniCPM-V 是 OpenBMB 推出的新一代多模态大模型,具备卓越的 OCR 识别和多模态理解能力,支持广泛的应用场景。" + }, + "mistral": { + "description": "Mistral 是 Mistral AI 发布的 7B 模型,适合多变的语言处理需求。" + }, + "mistral-large": { + "description": "Mixtral Large 是 Mistral 的旗舰模型,结合代码生成、数学和推理的能力,支持 128k 上下文窗口。" + }, + "mistral-large-latest": { + "description": "Mistral Large是旗舰大模型,擅长多语言任务、复杂推理和代码生成,是高端应用的理想选择。" + }, + "mistral-nemo": { + "description": "Mistral Nemo 由 Mistral AI 和 NVIDIA 合作推出,是高效性能的 12B 模型。" + }, + "mistralai/Mistral-7B-Instruct-v0.1": { + "description": "Mistral (7B) Instruct 以高性能著称,适用于多种语言任务。" + }, + "mistralai/Mistral-7B-Instruct-v0.2": { + "description": "Mistral 7B 指令微调模型针对对话场景进行了优化,可用于文本生成和对话任务。" + }, + "mistralai/Mistral-7B-Instruct-v0.3": { + "description": "Mistral (7B) Instruct v0.3 提供高效的计算能力和自然语言理解,适合广泛的应用。" + }, + "mistralai/Mixtral-8x22B-Instruct-v0.1": { + "description": "Mixtral-8x22B Instruct (141B) 是一款超级大语言模型,支持极高的处理需求。" + }, + "mistralai/Mixtral-8x7B-Instruct-v0.1": { + "description": "Mixtral 8x7B 模型支持多语言输入和输出,可用于文本生成和对话任务。" + }, + "mistralai/mistral-7b-instruct": { + "description": "Mistral 7B Instruct 是一款兼有速度优化和长上下文支持的高性能行业标准模型。" + }, + "mistralai/mistral-nemo": { + "description": "Mistral Nemo 是多语言支持和高性能编程的7.3B参数模型。" + }, + "mixtral": { + "description": "Mixtral 是 Mistral AI 的专家模型,具有开源权重,并在代码生成和语言理解方面提供支持。" + }, + "mixtral-8x7b-32768": { + "description": "Mixtral 8x7B 提供高容错的并行计算能力,适合复杂任务。" + }, + "mixtral:8x22b": { + "description": "Mixtral 是 Mistral AI 的专家模型,具有开源权重,并在代码生成和语言理解方面提供支持。" + }, + "moonshot-v1-128k": { + "description": "Moonshot V1 128K 是一款拥有超长上下文处理能力的模型,适用于生成超长文本,满足复杂的生成任务需求,能够处理多达128,000个tokens的内容,非常适合科研、学术和大型文档生成等应用场景。" + }, + "moonshot-v1-32k": { + "description": "Moonshot V1 32K 提供中等长度的上下文处理能力,能够处理32,768个tokens,特别适合生成各种长文档和复杂对话,应用于内容创作、报告生成和对话系统等领域。" + }, + "moonshot-v1-8k": { + "description": "Moonshot V1 8K 专为生成短文本任务设计,具有高效的处理性能,能够处理8,192个tokens,非常适合简短对话、速记和快速内容生成。" + }, + "nousresearch/hermes-2-pro-llama-3-8b": { + "description": "Hermes 2 Pro Llama 3 8B 是 Nous Hermes 2的升级版本,包含最新的内部开发的数据集。" + }, + "o1-mini": { + "description": "o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。" + }, + "o1-preview": { + "description": "o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。" + }, + "open-codestral-mamba": { + "description": "Codestral Mamba是专注于代码生成的Mamba 2语言模型,为先进的代码和推理任务提供强力支持。" + }, + "open-mistral-7b": { + "description": "Mistral 7B是一款紧凑但高性能的模型,擅长批量处理和简单任务,如分类和文本生成,具有良好的推理能力。" + }, + "open-mistral-nemo": { + "description": "Mistral Nemo是一个与Nvidia合作开发的12B模型,提供出色的推理和编码性能,易于集成和替换。" + }, + "open-mixtral-8x22b": { + "description": "Mixtral 8x22B是一个更大的专家模型,专注于复杂任务,提供出色的推理能力和更高的吞吐量。" + }, + "open-mixtral-8x7b": { + "description": "Mixtral 8x7B是一个稀疏专家模型,利用多个参数提高推理速度,适合处理多语言和代码生成任务。" + }, + "openai/gpt-4o-2024-08-06": { + "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。" + }, + "openai/gpt-4o-mini": { + "description": "GPT-4o mini是OpenAI在GPT-4 Omni之后推出的最新模型,支持图文输入并输出文本。作为他们最先进的小型模型,它比其他近期的前沿模型便宜很多,并且比GPT-3.5 Turbo便宜超过60%。它保持了最先进的智能,同时具有显著的性价比。GPT-4o mini在MMLU测试中获得了 82% 的得分,目前在聊天偏好上排名高于 GPT-4。" + }, + "openai/o1-mini": { + "description": "o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。" + }, + "openai/o1-preview": { + "description": "o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。" + }, + "openchat/openchat-7b": { + "description": "OpenChat 7B 是经过“C-RLFT(条件强化学习微调)”策略精调的开源语言模型库。" + }, + "openrouter/auto": { + "description": "根据上下文长度、主题和复杂性,你的请求将发送到 Llama 3 70B Instruct、Claude 3.5 Sonnet(自我调节)或 GPT-4o。" + }, + "phi3": { + "description": "Phi-3 是微软推出的轻量级开放模型,适用于高效集成和大规模知识推理。" + }, + "phi3:14b": { + "description": "Phi-3 是微软推出的轻量级开放模型,适用于高效集成和大规模知识推理。" + }, + "qwen-long": { + "description": "通义千问超大规模语言模型,支持长文本上下文,以及基于长文档、多文档等多个场景的对话功能。" + }, + "qwen-max": { + "description": "通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入,当前通义千问2.5产品版本背后的API模型" + }, + "qwen-max-longcontext": { + "description": "通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入,扩展了上下文窗口" + }, + "qwen-plus": { + "description": "通义千问超大规模语言模型增强版,支持中文、英文等不同语言输入" + }, + "qwen-turbo": { + "description": "通义千问超大规模语言模型,支持中文、英文等不同语言输入" + }, + "qwen-vl-chat-v1": { + "description": "通义千问VL支持灵活的交互方式,包括多图、多轮问答、创作等能力的模型。" + }, + "qwen-vl-max": { + "description": "通义千问超大规模视觉语言模型。相比增强版,再次提升视觉推理能力和指令遵循能力,提供更高的视觉感知和认知水平。" + }, + "qwen-vl-plus": { + "description": "通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力,支持超百万像素分辨率和任意长宽比规格的图像。" + }, + "qwen-vl-v1": { + "description": "以 Qwen-7B 语言模型初始化,添加图像模型,图像输入分辨率为448的预训练模型。" + }, + "qwen/qwen-2-7b-instruct:free": { + "description": "Qwen2 是全新的大型语言模型系列,具有更强的理解和生成能力。" + }, + "qwen2": { + "description": "Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。" + }, + "qwen2-57b-a14b-instruct": { + "description": "通义千问2对外开源的57B规模14B激活参数的MOE模型" + }, + "qwen2-72b-instruct": { + "description": "通义千问2对外开源的72B规模的模型" + }, + "qwen2-7b-instruct": { + "description": "通义千问2对外开源的7B规模的模型" + }, + "qwen2-math-72b-instruct": { + "description": "Qwen2-Math 模型具有强大的数学解题能力" + }, + "qwen2:0.5b": { + "description": "Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。" + }, + "qwen2:1.5b": { + "description": "Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。" + }, + "qwen2:72b": { + "description": "Qwen2 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。" + }, + "solar-1-mini-chat": { + "description": "Solar Mini 是一种紧凑型 LLM,性能优于 GPT-3.5,具备强大的多语言能力,支持英语和韩语,提供高效小巧的解决方案。" + }, + "solar-1-mini-chat-ja": { + "description": "Solar Mini (Ja) 扩展了 Solar Mini 的能力,专注于日语,同时在英语和韩语的使用中保持高效和卓越性能。" + }, + "solar-pro": { + "description": "Solar Pro 是 Upstage 推出的一款高智能LLM,专注于单GPU的指令跟随能力,IFEval得分80以上。目前支持英语,正式版本计划于2024年11月推出,将扩展语言支持和上下文长度。" + }, + "step-1-128k": { + "description": "平衡性能与成本,适合一般场景。" + }, + "step-1-256k": { + "description": "具备超长上下文处理能力,尤其适合长文档分析。" + }, + "step-1-32k": { + "description": "支持中等长度的对话,适用于多种应用场景。" + }, + "step-1-8k": { + "description": "小型模型,适合轻量级任务。" + }, + "step-1-flash": { + "description": "高速模型,适合实时对话。" + }, + "step-1v-32k": { + "description": "支持视觉输入,增强多模态交互体验。" + }, + "step-1v-8k": { + "description": "小型视觉模型,适合基本的图文任务。" + }, + "step-2-16k": { + "description": "支持大规模上下文交互,适合复杂对话场景。" + }, + "taichu_llm": { + "description": "紫东太初语言大模型具备超强语言理解能力以及文本创作、知识问答、代码编程、数学计算、逻辑推理、情感分析、文本摘要等能力。创新性地将大数据预训练与多源丰富知识相结合,通过持续打磨算法技术,并不断吸收海量文本数据中词汇、结构、语法、语义等方面的新知识,实现模型效果不断进化。为用户提供更加便捷的信息和服务以及更为智能化的体验。" + }, + "togethercomputer/StripedHyena-Nous-7B": { + "description": "StripedHyena Nous (7B) 通过高效的策略和模型架构,提供增强的计算能力。" + }, + "upstage/SOLAR-10.7B-Instruct-v1.0": { + "description": "Upstage SOLAR Instruct v1 (11B) 适用于精细化指令任务,提供出色的语言处理能力。" + }, + "wizardlm2": { + "description": "WizardLM 2 是微软AI提供的语言模型,在复杂对话、多语言、推理和智能助手领域表现尤为出色。" + }, + "wizardlm2:8x22b": { + "description": "WizardLM 2 是微软AI提供的语言模型,在复杂对话、多语言、推理和智能助手领域表现尤为出色。" + }, + "yi-large": { + "description": "全新千亿参数模型,提供超强问答及文本生成能力。" + }, + "yi-large-fc": { + "description": "在 yi-large 模型的基础上支持并强化了工具调用的能力,适用于各种需要搭建 agent 或 workflow 的业务场景。" + }, + "yi-large-preview": { + "description": "初期版本,推荐使用 yi-large(新版本)" + }, + "yi-large-rag": { + "description": "基于 yi-large 超强模型的高阶服务,结合检索与生成技术提供精准答案,实时全网检索信息服务。" + }, + "yi-large-turbo": { + "description": "超高性价比、卓越性能。根据性能和推理速度、成本,进行平衡性高精度调优。" + }, + "yi-medium": { + "description": "中型尺寸模型升级微调,能力均衡,性价比高。深度优化指令遵循能力。" + }, + "yi-medium-200k": { + "description": "200K 超长上下文窗口,提供长文本深度理解和生成能力。" + }, + "yi-spark": { + "description": "小而精悍,轻量极速模型。提供强化数学运算和代码编写能力。" + }, + "yi-vision": { + "description": "复杂视觉任务模型,提供高性能图片理解、分析能力。" + } +} diff --git a/locales/zh-CN/providers.json b/locales/zh-CN/providers.json new file mode 100644 index 000000000000..70a8ee169fb8 --- /dev/null +++ b/locales/zh-CN/providers.json @@ -0,0 +1,80 @@ +{ + "ai360": { + "description": "360 AI 是 360 公司推出的 AI 模型和服务平台,提供多种先进的自然语言处理模型,包括 360GPT2 Pro、360GPT Pro、360GPT Turbo 和 360GPT Turbo Responsibility 8K。这些模型结合了大规模参数和多模态能力,广泛应用于文本生成、语义理解、对话系统与代码生成等领域。通过灵活的定价策略,360 AI 满足多样化用户需求,支持开发者集成,推动智能化应用的革新和发展。" + }, + "anthropic": { + "description": "Anthropic 是一家专注于人工智能研究和开发的公司,提供了一系列先进的语言模型,如 Claude 3.5 Sonnet、Claude 3 Sonnet、Claude 3 Opus 和 Claude 3 Haiku。这些模型在智能、速度和成本之间取得了理想的平衡,适用于从企业级工作负载到快速响应的各种应用场景。Claude 3.5 Sonnet 作为其最新模型,在多项评估中表现优异,同时保持了较高的性价比。" + }, + "azure": { + "description": "Azure 提供多种先进的AI模型,包括GPT-3.5和最新的GPT-4系列,支持多种数据类型和复杂任务,致力于安全、可靠和可持续的AI解决方案。" + }, + "baichuan": { + "description": "百川智能是一家专注于人工智能大模型研发的公司,其模型在国内知识百科、长文本处理和生成创作等中文任务上表现卓越,超越了国外主流模型。百川智能还具备行业领先的多模态能力,在多项权威评测中表现优异。其模型包括 Baichuan 4、Baichuan 3 Turbo 和 Baichuan 3 Turbo 128k 等,分别针对不同应用场景进行优化,提供高性价比的解决方案。" + }, + "bedrock": { + "description": "Bedrock 是亚马逊 AWS 提供的一项服务,专注于为企业提供先进的 AI 语言模型和视觉模型。其模型家族包括 Anthropic 的 Claude 系列、Meta 的 Llama 3.1 系列等,涵盖从轻量级到高性能的多种选择,支持文本生成、对话、图像处理等多种任务,适用于不同规模和需求的企业应用。" + }, + "deepseek": { + "description": "DeepSeek 是一家专注于人工智能技术研究和应用的公司,其最新模型 DeepSeek-V2.5 融合了通用对话和代码处理能力,并在人类偏好对齐、写作任务和指令跟随等方面实现了显著提升。" + }, + "fireworksai": { + "description": "Fireworks AI 是一家领先的高级语言模型服务商,专注于功能调用和多模态处理。其最新模型 Firefunction V2 基于 Llama-3,优化用于函数调用、对话及指令跟随。视觉语言模型 FireLLaVA-13B 支持图像和文本混合输入。其他 notable 模型包括 Llama 系列和 Mixtral 系列,提供高效的多语言指令跟随与生成支持。" + }, + "google": { + "description": "Google 的 Gemini 系列是其最先进、通用的 A I模型,由 Google DeepMind 打造,专为多模态设计,支持文本、代码、图像、音频和视频的无缝理解与处理。适用于从数据中心到移动设备的多种环境,极大提升了AI模型的效率与应用广泛性。" + }, + "groq": { + "description": "Groq 的 LPU 推理引擎在最新的独立大语言模型(LLM)基准测试中表现卓越,以其惊人的速度和效率重新定义了 AI 解决方案的标准。Groq 是一种即时推理速度的代表,在基于云的部署中展现了良好的性能。" + }, + "minimax": { + "description": "MiniMax 是 2021 年成立的通用人工智能科技公司,致力于与用户共创智能。MiniMax 自主研发了不同模态的通用大模型,其中包括万亿参数的 MoE 文本大模型、语音大模型以及图像大模型。并推出了海螺 AI 等应用。" + }, + "mistral": { + "description": "Mistral 提供先进的通用、专业和研究型模型,广泛应用于复杂推理、多语言任务、代码生成等领域,通过功能调用接口,用户可以集成自定义功能,实现特定应用。" + }, + "moonshot": { + "description": "Moonshot 是由北京月之暗面科技有限公司推出的开源平台,提供多种自然语言处理模型,应用领域广泛,包括但不限于内容创作、学术研究、智能推荐、医疗诊断等,支持长文本处理和复杂生成任务。" + }, + "novita": { + "description": "Novita AI 是一个提供多种大语言模型与 AI 图像生成的 API 服务的平台,灵活、可靠且具有成本效益。它支持 Llama3、Mistral 等最新的开源模型,并为生成式 AI 应用开发提供了全面、用户友好且自动扩展的 API 解决方案,适合 AI 初创公司的快速发展。" + }, + "ollama": { + "description": "Ollama 提供的模型广泛涵盖代码生成、数学运算、多语种处理和对话互动等领域,支持企业级和本地化部署的多样化需求。" + }, + "openai": { + "description": "OpenAI 是全球领先的人工智能研究机构,其开发的模型如GPT系列推动了自然语言处理的前沿。OpenAI 致力于通过创新和高效的AI解决方案改变多个行业。他们的产品具有显著的性能和经济性,广泛用于研究、商业和创新应用。" + }, + "openrouter": { + "description": "OpenRouter 是一个提供多种前沿大模型接口的服务平台,支持 OpenAI、Anthropic、LLaMA 及更多,适合多样化的开发和应用需求。用户可根据自身需求灵活选择最优的模型和价格,助力AI体验的提升。" + }, + "perplexity": { + "description": "Perplexity 是一家领先的对话生成模型提供商,提供多种先进的Llama 3.1模型,支持在线和离线应用,特别适用于复杂的自然语言处理任务。" + }, + "qwen": { + "description": "通义千问是阿里云自主研发的超大规模语言模型,具有强大的自然语言理解和生成能力。它可以回答各种问题、创作文字内容、表达观点看法、撰写代码等,在多个领域发挥作用。" + }, + "siliconcloud": { + "description": "SiliconCloud,基于优秀开源基础模型的高性价比 GenAI 云服务" + }, + "spark": { + "description": "科大讯飞星火大模型提供多领域、多语言的强大 AI 能力,利用先进的自然语言处理技术,构建适用于智能硬件、智慧医疗、智慧金融等多种垂直场景的创新应用。" + }, + "stepfun": { + "description": "阶级星辰大模型具备行业领先的多模态及复杂推理能力,支持超长文本理解和强大的自主调度搜索引擎功能。" + }, + "taichu": { + "description": "中科院自动化研究所和武汉人工智能研究院推出新一代多模态大模型,支持多轮问答、文本创作、图像生成、3D理解、信号分析等全面问答任务,拥有更强的认知、理解、创作能力,带来全新互动体验。" + }, + "togetherai": { + "description": "Together AI 致力于通过创新的 AI 模型实现领先的性能,提供广泛的自定义能力,包括快速扩展支持和直观的部署流程,满足企业的各种需求。" + }, + "upstage": { + "description": "Upstage 专注于为各种商业需求开发AI模型,包括 Solar LLM 和文档 AI,旨在实现工作的人造通用智能(AGI)。通过 Chat API 创建简单的对话代理,并支持功能调用、翻译、嵌入以及特定领域应用。" + }, + "zeroone": { + "description": "01.AI 专注于AI 2.0时代的人工智能技术,大力推动“人+人工智能”的创新和应用,采用超强大模型和先进AI技术以提升人类生产力,实现技术赋能。" + }, + "zhipu": { + "description": "智谱 AI 提供多模态与语言模型的开放平台,支持广泛的AI应用场景,包括文本处理、图像理解与编程辅助等。" + } +} diff --git a/locales/zh-CN/welcome.json b/locales/zh-CN/welcome.json index f14ead4f0718..993551e02163 100644 --- a/locales/zh-CN/welcome.json +++ b/locales/zh-CN/welcome.json @@ -7,7 +7,7 @@ "guide": { "agents": { "replaceBtn": "换一批", - "title": "新增助理推荐:" + "title": "新增助手推荐:" }, "defaultMessage": "我是您的私人智能助理 {{appName}} ,请问现在能帮您做什么?\n如果需要获得更加专业或定制的助手,可以点击 `+` 创建自定义助手", "defaultMessageWithoutCreate": "我是您的私人智能助理 {{appName}} ,请问现在能帮您做什么?", diff --git a/locales/zh-TW/common.json b/locales/zh-TW/common.json index 2368eb018234..889d0695c857 100644 --- a/locales/zh-TW/common.json +++ b/locales/zh-TW/common.json @@ -195,8 +195,8 @@ }, "tab": { "chat": "對話", + "discover": "發現", "files": "檔案", - "market": "發現", "me": "我", "setting": "設定" }, diff --git a/locales/zh-TW/discover.json b/locales/zh-TW/discover.json new file mode 100644 index 000000000000..130f8b9c7a22 --- /dev/null +++ b/locales/zh-TW/discover.json @@ -0,0 +1,204 @@ +{ + "assistants": { + "addAgent": "添加助手", + "addAgentAndConverse": "添加助手並會話", + "addAgentSuccess": "添加成功", + "conversation": { + "l1": "你好,我是 **{{name}}**,你可以問我任何問題,我會盡力回答你 ~", + "l2": "以下是我的能力介紹: ", + "l3": "讓我們開始對話吧!" + }, + "description": "助手介紹", + "detail": "詳情", + "list": "助手列表", + "more": "更多", + "plugins": "集成插件", + "recentSubmits": "最近更新", + "suggestions": "相關推薦", + "systemRole": "助手設定", + "try": "試一下" + }, + "back": "返回發現", + "category": { + "assistant": { + "academic": "學術", + "all": "全部", + "career": "職業", + "copywriting": "文案", + "design": "設計", + "education": "教育", + "emotions": "情感", + "entertainment": "娛樂", + "games": "遊戲", + "general": "通用", + "life": "生活", + "marketing": "商業", + "office": "辦公", + "programming": "編程", + "translation": "翻譯" + }, + "plugin": { + "all": "全部", + "gaming-entertainment": "遊戲娛樂", + "life-style": "生活方式", + "media-generate": "媒體生成", + "science-education": "科學教育", + "social": "社交媒體", + "stocks-finance": "股票金融", + "tools": "實用工具", + "web-search": "網路搜尋" + } + }, + "cleanFilter": "清除篩選", + "create": "創作", + "createGuide": { + "func1": { + "desc1": "在會話窗口中通過右上角設置進入你想提交助手的設置頁面;", + "desc2": "點擊右上角提交到助手市場按鈕。", + "tag": "方法一", + "title": "通過 LobeChat 提交" + }, + "func2": { + "button": "前往 Github 助手倉庫", + "desc": "如果您想將助手添加到索引中,請使用 agent-template.json 或 agent-template-full.json 在 plugins 目錄中創建一個條目,編寫簡短的描述並適當標記,然後創建一個拉取請求。", + "tag": "方法二", + "title": "通過 Github 提交" + } + }, + "dislike": "不喜歡", + "filter": "篩選", + "filterBy": { + "authorRange": { + "everyone": "所有作者", + "followed": "關注的作者", + "title": "作者範圍" + }, + "contentLength": "最小上下文長度", + "maxToken": { + "title": "設定最大長度 (Token)", + "unlimited": "無限制" + }, + "other": { + "functionCall": "支持函數調用", + "title": "其他", + "vision": "支持視覺識別", + "withKnowledge": "附帶知識庫", + "withTool": "附帶插件" + }, + "pricing": "模型價格", + "timePeriod": { + "all": "全部時間", + "day": "近 24 小時", + "month": "近 30 天", + "title": "時間範圍", + "week": "近 7 天", + "year": "近一年" + } + }, + "home": { + "featuredAssistants": "推薦助手", + "featuredModels": "推薦模型", + "featuredProviders": "推薦模型服務商", + "featuredTools": "推薦插件", + "more": "發現更多" + }, + "like": "喜歡", + "models": { + "chat": "開始會話", + "contentLength": "最大上下文長度", + "free": "免費", + "guide": "配置指南", + "list": "模型列表", + "more": "更多", + "parameterList": { + "defaultValue": "默認值", + "docs": "查看文檔", + "frequency_penalty": { + "desc": "此設置調整模型重複使用輸入中已經出現的特定詞彙的頻率。較高的值使得這種重複出現的可能性降低,而負值則產生相反的效果。詞彙懲罰不隨出現次數增加而增加。負值將鼓勵詞彙的重複使用。", + "title": "頻率懲罰度" + }, + "max_tokens": { + "desc": "此設定定義了模型在單次回覆中可以生成的最大長度。設定較高的值允許模型生成更長的回應,而較低的值則限制回應的長度,使其更簡潔。根據不同的應用場景,合理調整此值可以幫助達到預期的回應長度和詳細程度。", + "title": "單次回覆限制" + }, + "presence_penalty": { + "desc": "此設置旨在根據詞彙在輸入中出現的頻率來控制詞彙的重複使用。它嘗試較少使用那些在輸入中出現較多的詞彙,其使用頻率與出現頻率成比例。詞彙懲罰隨出現次數而增加。負值將鼓勵重複使用詞彙。", + "title": "話題新鮮度" + }, + "range": "範圍", + "temperature": { + "desc": "此設置影響模型回應的多樣性。較低的值會導致更可預測和典型的回應,而較高的值則鼓勵更多樣化和不常見的回應。當值設為0時,模型對於給定的輸入總是給出相同的回應。", + "title": "隨機性" + }, + "title": "模型參數", + "top_p": { + "desc": "此設置將模型的選擇限制為可能性最高的一定比例的詞彙:只選擇那些累計概率達到P的頂尖詞彙。較低的值使得模型的回應更加可預測,而默認設置則允許模型從全部範圍的詞彙中進行選擇。", + "title": "核採樣" + }, + "type": "類型" + }, + "providerInfo": { + "apiTooltip": "LobeChat 支持為此提供商使用自定義 API 密鑰。", + "input": "輸入價格", + "inputTooltip": "每百萬個 Token 的成本", + "latency": "延遲", + "latencyTooltip": "服務商發送第一個 Token 的平均響應時間", + "maxOutput": "最大輸出長度", + "maxOutputTooltip": "此端點可以生成的最大 Token 數", + "officialTooltip": "LobeHub 官方服務", + "output": "輸出價格", + "outputTooltip": "每百萬個 Token 的成本", + "streamCancellationTooltip": "此服務商支持流取消功能。", + "throughput": "吞吐量", + "throughputTooltip": "流請求每秒傳輸的平均 Token 數" + }, + "suggestions": "相關模型", + "supportedProviders": "支持該模型的服務商" + }, + "plugins": { + "community": "社區插件", + "install": "安裝插件", + "installed": "已安裝", + "list": "插件列表", + "meta": { + "description": "描述", + "parameter": "參數", + "title": "工具參數", + "type": "類型" + }, + "more": "更多", + "official": "官方插件", + "recentSubmits": "最近更新", + "suggestions": "相關推薦" + }, + "providers": { + "config": "配置服務商", + "list": "模型服務商列表", + "modelCount": "{{count}} 個模型", + "modelSite": "模型文件", + "more": "更多", + "officialSite": "官方網站", + "showAllModels": "顯示所有模型", + "suggestions": "相關服務商", + "supportedModels": "支持模型" + }, + "search": { + "placeholder": "搜索名稱介紹或關鍵詞...", + "result": "{{count}} 個關於 {{keyword}} 的搜索結果", + "searching": "搜索中..." + }, + "sort": { + "mostLiked": "最多喜愛", + "mostUsed": "最多使用", + "newest": "從新到舊", + "oldest": "從舊到新", + "recommended": "推薦" + }, + "tab": { + "assistants": "助手", + "home": "首頁", + "models": "模型", + "plugins": "插件", + "providers": "模型服務商" + } +} diff --git a/locales/zh-TW/metadata.json b/locales/zh-TW/metadata.json index e4036c0fb261..c59b51e853c6 100644 --- a/locales/zh-TW/metadata.json +++ b/locales/zh-TW/metadata.json @@ -3,9 +3,26 @@ "description": "{{appName}} 帶給你最好的 ChatGPT, Claude, Gemini, OLLaMA WebUI 使用體驗", "title": "{{appName}}:個人 AI 效能工具,給自己一個更聰明的大腦" }, - "market": { - "description": "內容創作、文案、問答、圖像生成、視頻生成、語音生成、智能 Agent、自動化工作流,定制你專屬的 AI 智能助手", - "title": "助手市場" + "discover": { + "assistants": { + "description": "內容創作、文案、問答、圖像生成、視頻生成、語音生成、智能代理、自動化工作流程,定制你專屬的 AI / GPTs / OLLaMA 智能助手", + "title": "AI助手" + }, + "description": "內容創作、文案、問答、圖像生成、視頻生成、語音生成、智能代理、自定義 AI 應用,定制你專屬的 AI 應用工作台", + "models": { + "description": "探索主流 AI 模型 OpenAI / GPT / Claude 3 / Gemini / Ollama / Azure / DeepSeek", + "title": "AI模型" + }, + "plugins": { + "description": "搜尋圖表生成、學術、圖像生成、視頻生成、語音生成、自動化工作流程,為你的助手整合豐富的插件能力", + "title": "AI外掛" + }, + "providers": { + "description": "探索主流模型供應商 OpenAI / Qwen / Ollama / Anthropic / DeepSeek / Google Gemini / OpenRouter", + "title": "AI模型服務商" + }, + "search": "搜尋", + "title": "發現" }, "plugins": { "description": "搜尋、圖表生成、學術、圖像生成、視頻生成、語音生成、自動化工作流,定制 ChatGPT / Claude 專屬的 ToolCall 插件能力", diff --git a/locales/zh-TW/models.json b/locales/zh-TW/models.json new file mode 100644 index 000000000000..58ffeb586ec2 --- /dev/null +++ b/locales/zh-TW/models.json @@ -0,0 +1,845 @@ +{ + "01-ai/Yi-1.5-34B-Chat-16K": { + "description": "Yi-1.5 34B,以豐富的訓練樣本在行業應用中提供優越表現。" + }, + "01-ai/Yi-1.5-6B-Chat": { + "description": "Yi-1.5 是Yi系列的進化版本,擁有高品質的預訓練和豐富的微調數據。" + }, + "01-ai/Yi-1.5-9B-Chat-16K": { + "description": "Yi-1.5 9B 支持16K Tokens,提供高效、流暢的語言生成能力。" + }, + "360gpt-pro": { + "description": "360GPT Pro 作為 360 AI 模型系列的重要成員,以高效的文本處理能力滿足多樣化的自然語言應用場景,支持長文本理解和多輪對話等功能。" + }, + "360gpt-turbo": { + "description": "360GPT Turbo 提供強大的計算和對話能力,具備出色的語義理解和生成效率,是企業和開發者理想的智能助理解決方案。" + }, + "360gpt-turbo-responsibility-8k": { + "description": "360GPT Turbo Responsibility 8K 強調語義安全和責任導向,專為對內容安全有高度要求的應用場景設計,確保用戶體驗的準確性與穩健性。" + }, + "360gpt2-pro": { + "description": "360GPT2 Pro 是 360 公司推出的高級自然語言處理模型,具備卓越的文本生成和理解能力,尤其在生成與創作領域表現出色,能夠處理複雜的語言轉換和角色演繹任務。" + }, + "4.0Ultra": { + "description": "Spark4.0 Ultra 是星火大模型系列中最為強大的版本,在升級聯網搜索鏈路同時,提升對文本內容的理解和總結能力。它是用於提升辦公生產力和準確響應需求的全方位解決方案,是引領行業的智能產品。" + }, + "Baichuan2-Turbo": { + "description": "採用搜索增強技術實現大模型與領域知識、全網知識的全面連結。支持PDF、Word等多種文檔上傳及網址輸入,信息獲取及時、全面,輸出結果準確、專業。" + }, + "Baichuan3-Turbo": { + "description": "針對企業高頻場景優化,效果大幅提升,高性價比。相對於Baichuan2模型,內容創作提升20%,知識問答提升17%,角色扮演能力提升40%。整體效果比GPT3.5更優。" + }, + "Baichuan3-Turbo-128k": { + "description": "具備 128K 超長上下文窗口,針對企業高頻場景優化,效果大幅提升,高性價比。相對於Baichuan2模型,內容創作提升20%,知識問答提升17%,角色扮演能力提升40%。整體效果比GPT3.5更優。" + }, + "Baichuan4": { + "description": "模型能力國內第一,在知識百科、長文本、生成創作等中文任務上超越國外主流模型。還具備行業領先的多模態能力,多項權威評測基準表現優異。" + }, + "Gryphe/MythoMax-L2-13b": { + "description": "MythoMax-L2 (13B) 是一種創新模型,適合多領域應用和複雜任務。" + }, + "Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Hermes 2 Mixtral 8x7B DPO 是一款高度靈活的多模型合併,旨在提供卓越的創造性體驗。" + }, + "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": { + "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) 是高精度的指令模型,適用於複雜計算。" + }, + "NousResearch/Nous-Hermes-2-Yi-34B": { + "description": "Nous Hermes-2 Yi (34B) 提供優化的語言輸出和多樣化的應用可能。" + }, + "Pro-128k": { + "description": "Spark Pro-128K 配置了特大上下文處理能力,能夠處理多達128K的上下文信息,特別適合需通篇分析和長期邏輯關聯處理的長文內容,可在複雜文本溝通中提供流暢一致的邏輯與多樣的引用支持。" + }, + "Qwen/Qwen1.5-110B-Chat": { + "description": "作為 Qwen2 的測試版,Qwen1.5 使用大規模數據實現了更精確的對話功能。" + }, + "Qwen/Qwen1.5-14B-Chat": { + "description": "Qwen1.5 通過大規模數據集訓練,擅長複雜的語言任務。" + }, + "Qwen/Qwen1.5-32B-Chat": { + "description": "Qwen1.5 具備多領域問答和文本生成的能力。" + }, + "Qwen/Qwen1.5-72B-Chat": { + "description": "Qwen 1.5 Chat (72B) 提供快速響應和自然對話能力,適合多語言環境。" + }, + "Qwen/Qwen1.5-7B-Chat": { + "description": "Qwen1.5 通過結合高級預訓練和微調提升對話表達能力。" + }, + "Qwen/Qwen2-1.5B-Instruct": { + "description": "Qwen2 是全新的大型語言模型系列,旨在優化指令式任務的處理。" + }, + "Qwen/Qwen2-57B-A14B-Instruct": { + "description": "Qwen2 是全新的系列,57B A14B 型號在指令任務中表現卓越。" + }, + "Qwen/Qwen2-72B-Instruct": { + "description": "Qwen2 是先進的通用語言模型,支持多種指令類型。" + }, + "Qwen/Qwen2-7B-Instruct": { + "description": "Qwen2 是全新的大型語言模型系列,具有更強的理解和生成能力。" + }, + "Qwen/Qwen2-Math-72B-Instruct": { + "description": "Qwen2-Math 專注於數學領域的問題求解,為高難度題提供專業解答。" + }, + "THUDM/chatglm3-6b": { + "description": "作為雙語會話語言模型,ChatGLM3能處理中英文轉換任務。" + }, + "THUDM/glm-4-9b-chat": { + "description": "GLM-4 9B 開放源碼版本,為會話應用提供優化後的對話體驗。" + }, + "abab5.5-chat": { + "description": "面向生產力場景,支持複雜任務處理和高效文本生成,適用於專業領域應用。" + }, + "abab5.5s-chat": { + "description": "專為中文人設對話場景設計,提供高質量的中文對話生成能力,適用於多種應用場景。" + }, + "abab6.5g-chat": { + "description": "專為多語種人設對話設計,支持英文及其他多種語言的高質量對話生成。" + }, + "abab6.5s-chat": { + "description": "適用於廣泛的自然語言處理任務,包括文本生成、對話系統等。" + }, + "abab6.5t-chat": { + "description": "針對中文人設對話場景優化,提供流暢且符合中文表達習慣的對話生成能力。" + }, + "accounts/fireworks/models/firefunction-v1": { + "description": "Fireworks 開源函數調用模型,提供卓越的指令執行能力和開放可定制的特性。" + }, + "accounts/fireworks/models/firefunction-v2": { + "description": "Fireworks 公司最新推出的 Firefunction-v2 是一款性能卓越的函數調用模型,基於 Llama-3 開發,並通過大量優化,特別適用於函數調用、對話及指令跟隨等場景。" + }, + "accounts/fireworks/models/firellava-13b": { + "description": "fireworks-ai/FireLLaVA-13b 是一款視覺語言模型,可以同時接收圖像和文本輸入,經過高質量數據訓練,適合多模態任務。" + }, + "accounts/fireworks/models/gemma2-9b-it": { + "description": "Gemma 2 9B 指令模型,基於之前的 Google 技術,適合回答問題、總結和推理等多種文本生成任務。" + }, + "accounts/fireworks/models/llama-v3-70b-instruct": { + "description": "Llama 3 70B 指令模型,專為多語言對話和自然語言理解優化,性能優於多數競爭模型。" + }, + "accounts/fireworks/models/llama-v3-70b-instruct-hf": { + "description": "Llama 3 70B 指令模型(HF 版本),與官方實現結果保持一致,適合高質量的指令跟隨任務。" + }, + "accounts/fireworks/models/llama-v3-8b-instruct": { + "description": "Llama 3 8B 指令模型,優化用於對話及多語言任務,表現卓越且高效。" + }, + "accounts/fireworks/models/llama-v3-8b-instruct-hf": { + "description": "Llama 3 8B 指令模型(HF 版本),與官方實現結果一致,具備高度一致性和跨平台兼容性。" + }, + "accounts/fireworks/models/llama-v3p1-405b-instruct": { + "description": "Llama 3.1 405B 指令模型,具備超大規模參數,適合複雜任務和高負載場景下的指令跟隨。" + }, + "accounts/fireworks/models/llama-v3p1-70b-instruct": { + "description": "Llama 3.1 70B 指令模型,提供卓越的自然語言理解和生成能力,是對話及分析任務的理想選擇。" + }, + "accounts/fireworks/models/llama-v3p1-8b-instruct": { + "description": "Llama 3.1 8B 指令模型,專為多語言對話優化,能夠在常見行業基準上超越多數開源及閉源模型。" + }, + "accounts/fireworks/models/mixtral-8x22b-instruct": { + "description": "Mixtral MoE 8x22B 指令模型,大規模參數和多專家架構,全方位支持複雜任務的高效處理。" + }, + "accounts/fireworks/models/mixtral-8x7b-instruct": { + "description": "Mixtral MoE 8x7B 指令模型,多專家架構提供高效的指令跟隨及執行。" + }, + "accounts/fireworks/models/mixtral-8x7b-instruct-hf": { + "description": "Mixtral MoE 8x7B 指令模型(HF 版本),性能與官方實現一致,適合多種高效任務場景。" + }, + "accounts/fireworks/models/mythomax-l2-13b": { + "description": "MythoMax L2 13B 模型,結合新穎的合併技術,擅長敘事和角色扮演。" + }, + "accounts/fireworks/models/phi-3-vision-128k-instruct": { + "description": "Phi 3 Vision 指令模型,輕量級多模態模型,能夠處理複雜的視覺和文本信息,具備較強的推理能力。" + }, + "accounts/fireworks/models/starcoder-16b": { + "description": "StarCoder 15.5B 模型,支持高級編程任務,多語言能力增強,適合複雜代碼生成和理解。" + }, + "accounts/fireworks/models/starcoder-7b": { + "description": "StarCoder 7B 模型,針對 80 多種編程語言訓練,擁有出色的編程填充能力和語境理解。" + }, + "accounts/yi-01-ai/models/yi-large": { + "description": "Yi-Large 模型,具備卓越的多語言處理能力,可用於各類語言生成和理解任務。" + }, + "anthropic.claude-3-5-sonnet-20240620-v1:0": { + "description": "Claude 3.5 Sonnet提升了行業標準,性能超過競爭對手模型和Claude 3 Opus,在廣泛的評估中表現出色,同時具有我們中等層級模型的速度和成本。" + }, + "anthropic.claude-3-haiku-20240307-v1:0": { + "description": "Claude 3 Haiku是Anthropic最快、最緊湊的模型,提供近乎即時的響應速度。它可以快速回答簡單的查詢和請求。客戶將能夠構建模仿人類互動的無縫AI體驗。Claude 3 Haiku可以處理圖像並返回文本輸出,具有200K的上下文窗口。" + }, + "anthropic.claude-3-opus-20240229-v1:0": { + "description": "Claude 3 Opus是Anthropic最強大的AI模型,具有在高度複雜任務上的最先進性能。它可以處理開放式提示和未見過的場景,具有出色的流暢性和類人的理解能力。Claude 3 Opus展示了生成AI可能性的前沿。Claude 3 Opus可以處理圖像並返回文本輸出,具有200K的上下文窗口。" + }, + "anthropic.claude-3-sonnet-20240229-v1:0": { + "description": "Anthropic的Claude 3 Sonnet在智能和速度之間達到了理想的平衡——特別適合企業工作負載。它以低於競爭對手的價格提供最大的效用,並被設計成為可靠的、高耐用的主力機,適用於規模化的AI部署。Claude 3 Sonnet可以處理圖像並返回文本輸出,具有200K的上下文窗口。" + }, + "anthropic.claude-instant-v1": { + "description": "一款快速、經濟且仍然非常有能力的模型,可以處理包括日常對話、文本分析、總結和文檔問答在內的一系列任務。" + }, + "anthropic.claude-v2": { + "description": "Anthropic在從複雜對話和創意內容生成到詳細指令跟隨的廣泛任務中都表現出高度能力的模型。" + }, + "anthropic.claude-v2:1": { + "description": "Claude 2的更新版,具有雙倍的上下文窗口,以及在長文檔和RAG上下文中的可靠性、幻覺率和基於證據的準確性的改進。" + }, + "anthropic/claude-3-haiku": { + "description": "Claude 3 Haiku 是 Anthropic 的最快且最緊湊的模型,旨在實現近乎即時的響應。它具有快速且準確的定向性能。" + }, + "anthropic/claude-3-opus": { + "description": "Claude 3 Opus 是 Anthropic 用於處理高度複雜任務的最強大模型。它在性能、智能、流暢性和理解力方面表現卓越。" + }, + "anthropic/claude-3.5-sonnet": { + "description": "Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同時保持與 Sonnet 相同的價格。Sonnet 特別擅長程式設計、數據科學、視覺處理、代理任務。" + }, + "aya": { + "description": "Aya 23 是 Cohere 推出的多語言模型,支持 23 種語言,為多元化語言應用提供便利。" + }, + "aya:35b": { + "description": "Aya 23 是 Cohere 推出的多語言模型,支持 23 種語言,為多元化語言應用提供便利。" + }, + "charglm-3": { + "description": "CharGLM-3專為角色扮演與情感陪伴設計,支持超長多輪記憶與個性化對話,應用廣泛。" + }, + "chatgpt-4o-latest": { + "description": "ChatGPT-4o是一款動態模型,實時更新以保持當前最新版本。它結合了強大的語言理解與生成能力,適合於大規模應用場景,包括客戶服務、教育和技術支持。" + }, + "claude-2.0": { + "description": "Claude 2 為企業提供了關鍵能力的進步,包括業界領先的 200K token 上下文、大幅降低模型幻覺的發生率、系統提示以及一個新的測試功能:工具調用。" + }, + "claude-2.1": { + "description": "Claude 2 為企業提供了關鍵能力的進步,包括業界領先的 200K token 上下文、大幅降低模型幻覺的發生率、系統提示以及一個新的測試功能:工具調用。" + }, + "claude-3-5-sonnet-20240620": { + "description": "Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同時保持與 Sonnet 相同的價格。Sonnet 特別擅長編程、數據科學、視覺處理、代理任務。" + }, + "claude-3-haiku-20240307": { + "description": "Claude 3 Haiku 是 Anthropic 的最快且最緊湊的模型,旨在實現近乎即時的響應。它具有快速且準確的定向性能。" + }, + "claude-3-opus-20240229": { + "description": "Claude 3 Opus 是 Anthropic 用於處理高度複雜任務的最強大模型。它在性能、智能、流暢性和理解力方面表現卓越。" + }, + "claude-3-sonnet-20240229": { + "description": "Claude 3 Sonnet 在智能和速度方面為企業工作負載提供了理想的平衡。它以更低的價格提供最大效用,可靠且適合大規模部署。" + }, + "claude-instant-1.2": { + "description": "Anthropic 的模型用於低延遲、高吞吐量的文本生成,支持生成數百頁的文本。" + }, + "codegeex-4": { + "description": "CodeGeeX-4是一個強大的AI編程助手,支持多種編程語言的智能問答與代碼補全,提升開發效率。" + }, + "codegemma": { + "description": "CodeGemma 專用于不同編程任務的輕量級語言模型,支持快速迭代和集成。" + }, + "codegemma:2b": { + "description": "CodeGemma 專用于不同編程任務的輕量級語言模型,支持快速迭代和集成。" + }, + "codellama": { + "description": "Code Llama 是一款專注於代碼生成和討論的 LLM,結合廣泛的編程語言支持,適用於開發者環境。" + }, + "codellama:13b": { + "description": "Code Llama 是一款專注於代碼生成和討論的 LLM,結合廣泛的編程語言支持,適用於開發者環境。" + }, + "codellama:34b": { + "description": "Code Llama 是一款專注於代碼生成和討論的 LLM,結合廣泛的編程語言支持,適用於開發者環境。" + }, + "codellama:70b": { + "description": "Code Llama 是一款專注於代碼生成和討論的 LLM,結合廣泛的編程語言支持,適用於開發者環境。" + }, + "codeqwen": { + "description": "CodeQwen1.5 是基於大量代碼數據訓練的大型語言模型,專為解決複雜編程任務。" + }, + "codestral": { + "description": "Codestral 是 Mistral AI 的首款代碼模型,為代碼生成任務提供優異支持。" + }, + "codestral-latest": { + "description": "Codestral 是專注於代碼生成的尖端生成模型,優化了中間填充和代碼補全任務。" + }, + "cognitivecomputations/dolphin-mixtral-8x22b": { + "description": "Dolphin Mixtral 8x22B 是一款為指令遵循、對話和編程設計的模型。" + }, + "command-r": { + "description": "Command R 是優化用於對話和長上下文任務的 LLM,特別適合動態交互與知識管理。" + }, + "command-r-plus": { + "description": "Command R+ 是一款高性能的大型語言模型,專為真實企業場景和複雜應用而設計。" + }, + "databricks/dbrx-instruct": { + "description": "DBRX Instruct 提供高可靠性的指令處理能力,支持多行業應用。" + }, + "deepseek-ai/DeepSeek-Coder-V2-Instruct": { + "description": "DeepSeek Coder V2 為代碼任務設計,專注於高效的代碼生成。" + }, + "deepseek-ai/DeepSeek-V2-Chat": { + "description": "DeepSeek V2 具備67億參數,支持英中文本處理。" + }, + "deepseek-ai/DeepSeek-V2.5": { + "description": "DeepSeek V2.5 集合了先前版本的優秀特徵,增強了通用和編碼能力。" + }, + "deepseek-ai/deepseek-llm-67b-chat": { + "description": "DeepSeek 67B 是為高複雜性對話訓練的先進模型。" + }, + "deepseek-chat": { + "description": "融合通用與代碼能力的全新開源模型,不僅保留了原有 Chat 模型的通用對話能力和 Coder 模型的強大代碼處理能力,還更好地對齊了人類偏好。此外,DeepSeek-V2.5 在寫作任務、指令跟隨等多個方面也實現了大幅提升。" + }, + "deepseek-coder-v2": { + "description": "DeepSeek Coder V2 是開源的混合專家代碼模型,在代碼任務方面表現優異,與 GPT4-Turbo 相媲美。" + }, + "deepseek-coder-v2:236b": { + "description": "DeepSeek Coder V2 是開源的混合專家代碼模型,在代碼任務方面表現優異,與 GPT4-Turbo 相媲美。" + }, + "deepseek-v2": { + "description": "DeepSeek V2 是高效的 Mixture-of-Experts 語言模型,適用於經濟高效的處理需求。" + }, + "deepseek-v2:236b": { + "description": "DeepSeek V2 236B 是 DeepSeek 的設計代碼模型,提供強大的代碼生成能力。" + }, + "deepseek/deepseek-chat": { + "description": "融合通用與代碼能力的全新開源模型,不僅保留了原有 Chat 模型的通用對話能力和 Coder 模型的強大代碼處理能力,還更好地對齊了人類偏好。此外,DeepSeek-V2.5 在寫作任務、指令跟隨等多個方面也實現了大幅提升。" + }, + "emohaa": { + "description": "Emohaa是一個心理模型,具備專業諮詢能力,幫助用戶理解情感問題。" + }, + "gemini-1.0-pro-001": { + "description": "Gemini 1.0 Pro 001 (Tuning) 提供穩定並可調優的性能,是複雜任務解決方案的理想選擇。" + }, + "gemini-1.0-pro-002": { + "description": "Gemini 1.0 Pro 002 (Tuning) 提供出色的多模態支持,專注於複雜任務的有效解決。" + }, + "gemini-1.0-pro-latest": { + "description": "Gemini 1.0 Pro 是 Google 的高性能 AI 模型,專為廣泛任務擴展而設計。" + }, + "gemini-1.5-flash-001": { + "description": "Gemini 1.5 Flash 001 是一款高效的多模態模型,支持廣泛應用的擴展。" + }, + "gemini-1.5-flash-8b-exp-0827": { + "description": "Gemini 1.5 Flash 8B 0827 專為處理大規模任務場景設計,提供無與倫比的處理速度。" + }, + "gemini-1.5-flash-exp-0827": { + "description": "Gemini 1.5 Flash 0827 提供了優化後的多模態處理能力,適用多種複雜任務場景。" + }, + "gemini-1.5-flash-latest": { + "description": "Gemini 1.5 Flash 是 Google 最新的多模態 AI 模型,具備快速處理能力,支持文本、圖像和視頻輸入,適用於多種任務的高效擴展。" + }, + "gemini-1.5-pro-001": { + "description": "Gemini 1.5 Pro 001 是可擴展的多模態 AI 解決方案,支持廣泛的複雜任務。" + }, + "gemini-1.5-pro-exp-0801": { + "description": "Gemini 1.5 Pro 0801 提供出色的多模態處理能力,為應用開發帶來更大靈活性。" + }, + "gemini-1.5-pro-exp-0827": { + "description": "Gemini 1.5 Pro 0827 結合最新優化技術,帶來更高效的多模態數據處理能力。" + }, + "gemini-1.5-pro-latest": { + "description": "Gemini 1.5 Pro 支持高達 200 萬個 tokens,是中型多模態模型的理想選擇,適用於複雜任務的多方面支持。" + }, + "gemma-7b-it": { + "description": "Gemma 7B 適合中小規模任務處理,兼具成本效益。" + }, + "gemma2": { + "description": "Gemma 2 是 Google 推出的高效模型,涵蓋從小型應用到複雜數據處理的多種應用場景。" + }, + "gemma2-9b-it": { + "description": "Gemma 2 9B 是一款優化用於特定任務和工具整合的模型。" + }, + "gemma2:27b": { + "description": "Gemma 2 是 Google 推出的高效模型,涵蓋從小型應用到複雜數據處理的多種應用場景。" + }, + "gemma2:2b": { + "description": "Gemma 2 是 Google 推出的高效模型,涵蓋從小型應用到複雜數據處理的多種應用場景。" + }, + "general": { + "description": "Spark Lite 是一款輕量級大語言模型,具備極低的延遲與高效的處理能力,完全免費開放,支持即時在線搜索功能。其快速響應的特性使其在低算力設備上的推理應用和模型微調中表現出色,為用戶帶來出色的成本效益和智能體驗,尤其在知識問答、內容生成及搜索場景下表現不俗。" + }, + "generalv3": { + "description": "Spark Pro 是一款為專業領域優化的高性能大語言模型,專注數學、編程、醫療、教育等多個領域,並支持聯網搜索及內置天氣、日期等插件。其優化後模型在複雜知識問答、語言理解及高層次文本創作中展現出色表現和高效性能,是適合專業應用場景的理想選擇。" + }, + "generalv3.5": { + "description": "Spark3.5 Max 為功能最為全面的版本,支持聯網搜索及眾多內置插件。其全面優化的核心能力以及系統角色設定和函數調用功能,使其在各種複雜應用場景中的表現極為優異和出色。" + }, + "glm-4": { + "description": "GLM-4是發布於2024年1月的舊旗艦版本,目前已被更強的GLM-4-0520取代。" + }, + "glm-4-0520": { + "description": "GLM-4-0520是最新模型版本,專為高度複雜和多樣化任務設計,表現卓越。" + }, + "glm-4-air": { + "description": "GLM-4-Air是性價比高的版本,性能接近GLM-4,提供快速度和實惠的價格。" + }, + "glm-4-airx": { + "description": "GLM-4-AirX提供GLM-4-Air的高效版本,推理速度可達其2.6倍。" + }, + "glm-4-alltools": { + "description": "GLM-4-AllTools是一個多功能智能體模型,優化以支持複雜指令規劃與工具調用,如網絡瀏覽、代碼解釋和文本生成,適用於多任務執行。" + }, + "glm-4-flash": { + "description": "GLM-4-Flash是處理簡單任務的理想選擇,速度最快且價格最優惠。" + }, + "glm-4-long": { + "description": "GLM-4-Long支持超長文本輸入,適合記憶型任務與大規模文檔處理。" + }, + "glm-4-plus": { + "description": "GLM-4-Plus作為高智能旗艦,具備強大的處理長文本和複雜任務的能力,性能全面提升。" + }, + "glm-4v": { + "description": "GLM-4V提供強大的圖像理解與推理能力,支持多種視覺任務。" + }, + "glm-4v-plus": { + "description": "GLM-4V-Plus具備對視頻內容及多圖片的理解能力,適合多模態任務。" + }, + "google/gemini-flash-1.5-exp": { + "description": "Gemini 1.5 Flash 0827 提供了優化後的多模態處理能力,適用多種複雜任務場景。" + }, + "google/gemini-pro-1.5-exp": { + "description": "Gemini 1.5 Pro 0827 結合最新優化技術,帶來更高效的多模態數據處理能力。" + }, + "google/gemma-2-27b-it": { + "description": "Gemma 2 延續了輕量化與高效的設計理念。" + }, + "google/gemma-2-9b-it": { + "description": "Gemma 2 是 Google 輕量化的開源文本模型系列。" + }, + "google/gemma-2-9b-it:free": { + "description": "Gemma 2 是Google輕量化的開源文本模型系列。" + }, + "google/gemma-2b-it": { + "description": "Gemma Instruct (2B) 提供基本的指令處理能力,適合輕量級應用。" + }, + "gpt-3.5-turbo": { + "description": "GPT 3.5 Turbo,適用於各種文本生成和理解任務,Currently points to gpt-3.5-turbo-0125" + }, + "gpt-3.5-turbo-0125": { + "description": "GPT 3.5 Turbo,適用於各種文本生成和理解任務,Currently points to gpt-3.5-turbo-0125" + }, + "gpt-3.5-turbo-1106": { + "description": "GPT 3.5 Turbo,適用於各種文本生成和理解任務,Currently points to gpt-3.5-turbo-0125" + }, + "gpt-3.5-turbo-instruct": { + "description": "GPT 3.5 Turbo,適用於各種文本生成和理解任務,Currently points to gpt-3.5-turbo-0125" + }, + "gpt-4": { + "description": "GPT-4提供了一個更大的上下文窗口,能夠處理更長的文本輸入,適用於需要廣泛信息整合和數據分析的場景。" + }, + "gpt-4-0125-preview": { + "description": "最新的GPT-4 Turbo模型具備視覺功能。現在,視覺請求可以使用JSON模式和函數調用。GPT-4 Turbo是一個增強版本,為多模態任務提供成本效益高的支持。它在準確性和效率之間找到平衡,適合需要進行實時交互的應用程序場景。" + }, + "gpt-4-0613": { + "description": "GPT-4提供了一個更大的上下文窗口,能夠處理更長的文本輸入,適用於需要廣泛信息整合和數據分析的場景。" + }, + "gpt-4-1106-preview": { + "description": "最新的GPT-4 Turbo模型具備視覺功能。現在,視覺請求可以使用JSON模式和函數調用。GPT-4 Turbo是一個增強版本,為多模態任務提供成本效益高的支持。它在準確性和效率之間找到平衡,適合需要進行實時交互的應用程序場景。" + }, + "gpt-4-1106-vision-preview": { + "description": "最新的GPT-4 Turbo模型具備視覺功能。現在,視覺請求可以使用JSON模式和函數調用。GPT-4 Turbo是一個增強版本,為多模態任務提供成本效益高的支持。它在準確性和效率之間找到平衡,適合需要進行實時交互的應用程序場景。" + }, + "gpt-4-32k": { + "description": "GPT-4提供了一個更大的上下文窗口,能夠處理更長的文本輸入,適用於需要廣泛信息整合和數據分析的場景。" + }, + "gpt-4-32k-0613": { + "description": "GPT-4提供了一個更大的上下文窗口,能夠處理更長的文本輸入,適用於需要廣泛信息整合和數據分析的場景。" + }, + "gpt-4-turbo": { + "description": "最新的GPT-4 Turbo模型具備視覺功能。現在,視覺請求可以使用JSON模式和函數調用。GPT-4 Turbo是一個增強版本,為多模態任務提供成本效益高的支持。它在準確性和效率之間找到平衡,適合需要進行實時交互的應用程序場景。" + }, + "gpt-4-turbo-2024-04-09": { + "description": "最新的GPT-4 Turbo模型具備視覺功能。現在,視覺請求可以使用JSON模式和函數調用。GPT-4 Turbo是一個增強版本,為多模態任務提供成本效益高的支持。它在準確性和效率之間找到平衡,適合需要進行實時交互的應用程序場景。" + }, + "gpt-4-turbo-preview": { + "description": "最新的GPT-4 Turbo模型具備視覺功能。現在,視覺請求可以使用JSON模式和函數調用。GPT-4 Turbo是一個增強版本,為多模態任務提供成本效益高的支持。它在準確性和效率之間找到平衡,適合需要進行實時交互的應用程序場景。" + }, + "gpt-4-vision-preview": { + "description": "最新的GPT-4 Turbo模型具備視覺功能。現在,視覺請求可以使用JSON模式和函數調用。GPT-4 Turbo是一個增強版本,為多模態任務提供成本效益高的支持。它在準確性和效率之間找到平衡,適合需要進行實時交互的應用程序場景。" + }, + "gpt-4o": { + "description": "ChatGPT-4o是一款動態模型,實時更新以保持當前最新版本。它結合了強大的語言理解與生成能力,適合於大規模應用場景,包括客戶服務、教育和技術支持。" + }, + "gpt-4o-2024-05-13": { + "description": "ChatGPT-4o是一款動態模型,實時更新以保持當前最新版本。它結合了強大的語言理解與生成能力,適合於大規模應用場景,包括客戶服務、教育和技術支持。" + }, + "gpt-4o-2024-08-06": { + "description": "ChatGPT-4o是一款動態模型,實時更新以保持當前最新版本。它結合了強大的語言理解與生成能力,適合於大規模應用場景,包括客戶服務、教育和技術支持。" + }, + "gpt-4o-mini": { + "description": "GPT-4o mini是OpenAI在GPT-4 Omni之後推出的最新模型,支持圖文輸入並輸出文本。作為他們最先進的小型模型,它比其他近期的前沿模型便宜很多,並且比GPT-3.5 Turbo便宜超過60%。它保持了最先進的智能,同時具有顯著的性價比。GPT-4o mini在MMLU測試中獲得了82%的得分,目前在聊天偏好上排名高於GPT-4。" + }, + "gryphe/mythomax-l2-13b": { + "description": "MythoMax l2 13B 是一款合併了多個頂尖模型的創意與智能相結合的語言模型。" + }, + "internlm/internlm2_5-20b-chat": { + "description": "創新的開源模型InternLM2.5,通過大規模的參數提高了對話智能。" + }, + "internlm/internlm2_5-7b-chat": { + "description": "InternLM2.5 提供多場景下的智能對話解決方案。" + }, + "llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct 模型,具備 70B 參數,能在大型文本生成和指示任務中提供卓越性能。" + }, + "llama-3.1-70b-versatile": { + "description": "Llama 3.1 70B 提供更強大的 AI 推理能力,適合複雜應用,支持超多的計算處理並保證高效和準確率。" + }, + "llama-3.1-8b-instant": { + "description": "Llama 3.1 8B 是一款高效能模型,提供了快速的文本生成能力,非常適合需要大規模效率和成本效益的應用場景。" + }, + "llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct 模型,具備 8B 參數,支持畫面指示任務的高效執行,提供優質的文本生成能力。" + }, + "llama-3.1-sonar-huge-128k-online": { + "description": "Llama 3.1 Sonar Huge Online 模型,具備 405B 參數,支持約 127,000 個標記的上下文長度,設計用於複雜的在線聊天應用。" + }, + "llama-3.1-sonar-large-128k-chat": { + "description": "Llama 3.1 Sonar Large Chat 模型,具備 70B 參數,支持約 127,000 個標記的上下文長度,適合於複雜的離線聊天任務。" + }, + "llama-3.1-sonar-large-128k-online": { + "description": "Llama 3.1 Sonar Large Online 模型,具備 70B 參數,支持約 127,000 個標記的上下文長度,適用於高容量和多樣化聊天任務。" + }, + "llama-3.1-sonar-small-128k-chat": { + "description": "Llama 3.1 Sonar Small Chat 模型,具備 8B 參數,專為離線聊天設計,支持約 127,000 個標記的上下文長度。" + }, + "llama-3.1-sonar-small-128k-online": { + "description": "Llama 3.1 Sonar Small Online 模型,具備 8B 參數,支持約 127,000 個標記的上下文長度,專為在線聊天設計,能高效處理各種文本交互。" + }, + "llama3-70b-8192": { + "description": "Meta Llama 3 70B 提供無與倫比的複雜性處理能力,為高要求項目量身定制。" + }, + "llama3-8b-8192": { + "description": "Meta Llama 3 8B 帶來優質的推理效能,適合多場景應用需求。" + }, + "llama3-groq-70b-8192-tool-use-preview": { + "description": "Llama 3 Groq 70B Tool Use 提供強大的工具調用能力,支持複雜任務的高效處理。" + }, + "llama3-groq-8b-8192-tool-use-preview": { + "description": "Llama 3 Groq 8B Tool Use 是針對高效工具使用優化的模型,支持快速並行計算。" + }, + "llama3.1": { + "description": "Llama 3.1 是 Meta 推出的領先模型,支持高達 405B 參數,可應用於複雜對話、多語言翻譯和數據分析領域。" + }, + "llama3.1:405b": { + "description": "Llama 3.1 是 Meta 推出的領先模型,支持高達 405B 參數,可應用於複雜對話、多語言翻譯和數據分析領域。" + }, + "llama3.1:70b": { + "description": "Llama 3.1 是 Meta 推出的領先模型,支持高達 405B 參數,可應用於複雜對話、多語言翻譯和數據分析領域。" + }, + "llava": { + "description": "LLaVA 是結合視覺編碼器和 Vicuna 的多模態模型,用於強大的視覺和語言理解。" + }, + "llava-v1.5-7b-4096-preview": { + "description": "LLaVA 1.5 7B 提供視覺處理能力融合,通過視覺信息輸入生成複雜輸出。" + }, + "llava:13b": { + "description": "LLaVA 是結合視覺編碼器和 Vicuna 的多模態模型,用於強大的視覺和語言理解。" + }, + "llava:34b": { + "description": "LLaVA 是結合視覺編碼器和 Vicuna 的多模態模型,用於強大的視覺和語言理解。" + }, + "mathstral": { + "description": "MathΣtral 專為科學研究和數學推理設計,提供有效的計算能力和結果解釋。" + }, + "meta-llama/Llama-2-13b-chat-hf": { + "description": "LLaMA-2 Chat (13B) 提供優秀的語言處理能力和出色的互動體驗。" + }, + "meta-llama/Llama-3-70b-chat-hf": { + "description": "LLaMA-3 Chat (70B) 是功能強大的聊天模型,支持複雜的對話需求。" + }, + "meta-llama/Llama-3-8b-chat-hf": { + "description": "LLaMA-3 Chat (8B) 提供多語言支持,涵蓋豐富的領域知識。" + }, + "meta-llama/Meta-Llama-3-70B-Instruct": { + "description": "LLaMA 3 支持大容量文本生成和指令解析。" + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Lite": { + "description": "Llama 3 70B Instruct Lite 適合需要高效能和低延遲的環境。" + }, + "meta-llama/Meta-Llama-3-70B-Instruct-Turbo": { + "description": "Llama 3 70B Instruct Turbo 提供卓越的語言理解和生成能力,適合最苛刻的計算任務。" + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Lite": { + "description": "Llama 3 8B Instruct Lite 適合資源受限的環境,提供出色的平衡性能。" + }, + "meta-llama/Meta-Llama-3-8B-Instruct-Turbo": { + "description": "Llama 3 8B Instruct Turbo 是一款高效能的大語言模型,支持廣泛的應用場景。" + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct": { + "description": "LLaMA 3.1 405B 是預訓練和指令調整的強大機型。" + }, + "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": { + "description": "405B 的 Llama 3.1 Turbo 模型,為大數據處理提供超大容量的上下文支持,在超大規模的人工智慧應用中表現突出。" + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct": { + "description": "LLaMA 3.1 70B 提供多語言的高效對話支持。" + }, + "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo": { + "description": "Llama 3.1 70B 模型經過精細調整,適用於高負載應用,量化至 FP8 提供更高效的計算能力和準確性,確保在複雜場景中的卓越表現。" + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct": { + "description": "LLaMA 3.1 提供多語言支持,是業界領先的生成模型之一。" + }, + "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo": { + "description": "Llama 3.1 8B 模型採用 FP8 量化,支持高達 131,072 個上下文標記,是開源模型中的佼佼者,適合複雜任務,表現優異於許多行業基準。" + }, + "meta-llama/llama-3-70b-instruct": { + "description": "Llama 3 70B Instruct 優化用於高品質對話場景,在各類人類評估中表現優異。" + }, + "meta-llama/llama-3-8b-instruct": { + "description": "Llama 3 8B Instruct 優化了高品質對話場景,性能優於許多閉源模型。" + }, + "meta-llama/llama-3.1-405b-instruct": { + "description": "Llama 3.1 405B Instruct 是 Meta 最新推出的版本,優化用於生成高品質對話,超越了許多領先的閉源模型。" + }, + "meta-llama/llama-3.1-70b-instruct": { + "description": "Llama 3.1 70B Instruct 專為高品質對話而設計,在人類評估中表現突出,特別適合高互動場景。" + }, + "meta-llama/llama-3.1-8b-instruct": { + "description": "Llama 3.1 8B Instruct 是 Meta 推出的最新版本,優化了高品質對話場景,表現優於許多領先的閉源模型。" + }, + "meta-llama/llama-3.1-8b-instruct:free": { + "description": "LLaMA 3.1 提供多語言支持,是業界領先的生成模型之一。" + }, + "meta.llama3-1-405b-instruct-v1:0": { + "description": "Meta Llama 3.1 405B Instruct 是 Llama 3.1 Instruct 模型中最大、最強大的模型,是一款高度先進的對話推理和合成數據生成模型,也可以用作在特定領域進行專業持續預訓練或微調的基礎。Llama 3.1 提供的多語言大型語言模型 (LLMs) 是一組預訓練的、指令調整的生成模型,包括 8B、70B 和 405B 大小 (文本輸入/輸出)。Llama 3.1 指令調整的文本模型 (8B、70B、405B) 專為多語言對話用例進行了優化,並在常見的行業基準測試中超過了許多可用的開源聊天模型。Llama 3.1 旨在用於多種語言的商業和研究用途。指令調整的文本模型適用於類似助手的聊天,而預訓練模型可以適應各種自然語言生成任務。Llama 3.1 模型還支持利用其模型的輸出來改進其他模型,包括合成數據生成和精煉。Llama 3.1 是使用優化的變壓器架構的自回歸語言模型。調整版本使用監督微調 (SFT) 和帶有人類反饋的強化學習 (RLHF) 來符合人類對幫助性和安全性的偏好。" + }, + "meta.llama3-1-70b-instruct-v1:0": { + "description": "Meta Llama 3.1 70B Instruct的更新版,包括擴展的128K上下文長度、多語言性和改進的推理能力。Llama 3.1提供的多語言大型語言模型(LLMs)是一組預訓練的、指令調整的生成模型,包括8B、70B和405B大小(文本輸入/輸出)。Llama 3.1指令調整的文本模型(8B、70B、405B)專為多語言對話用例進行了優化,並在常見的行業基準測試中超過了許多可用的開源聊天模型。Llama 3.1旨在用於多種語言的商業和研究用途。指令調整的文本模型適用於類似助手的聊天,而預訓練模型可以適應各種自然語言生成任務。Llama 3.1模型還支持利用其模型的輸出來改進其他模型,包括合成數據生成和精煉。Llama 3.1是使用優化的變壓器架構的自回歸語言模型。調整版本使用監督微調(SFT)和帶有人類反饋的強化學習(RLHF)來符合人類對幫助性和安全性的偏好。" + }, + "meta.llama3-1-8b-instruct-v1:0": { + "description": "Meta Llama 3.1 8B Instruct的更新版,包括擴展的128K上下文長度、多語言性和改進的推理能力。Llama 3.1提供的多語言大型語言模型(LLMs)是一組預訓練的、指令調整的生成模型,包括8B、70B和405B大小(文本輸入/輸出)。Llama 3.1指令調整的文本模型(8B、70B、405B)專為多語言對話用例進行了優化,並在常見的行業基準測試中超過了許多可用的開源聊天模型。Llama 3.1旨在用於多種語言的商業和研究用途。指令調整的文本模型適用於類似助手的聊天,而預訓練模型可以適應各種自然語言生成任務。Llama 3.1模型還支持利用其模型的輸出來改進其他模型,包括合成數據生成和精煉。Llama 3.1是使用優化的變壓器架構的自回歸語言模型。調整版本使用監督微調(SFT)和帶有人類反饋的強化學習(RLHF)來符合人類對幫助性和安全性的偏好。" + }, + "meta.llama3-70b-instruct-v1:0": { + "description": "Meta Llama 3 是一款面向開發者、研究人員和企業的開放大型語言模型 (LLM),旨在幫助他們構建、實驗並負責任地擴展他們的生成 AI 想法。作為全球社區創新的基礎系統的一部分,它非常適合內容創建、對話 AI、語言理解、研發和企業應用。" + }, + "meta.llama3-8b-instruct-v1:0": { + "description": "Meta Llama 3 是一款面向開發者、研究人員和企業的開放大型語言模型 (LLM),旨在幫助他們構建、實驗並負責任地擴展他們的生成 AI 想法。作為全球社區創新的基礎系統的一部分,它非常適合計算能力和資源有限、邊緣設備和更快的訓練時間。" + }, + "microsoft/wizardlm 2-7b": { + "description": "WizardLM 2 7B 是微軟AI最新的快速輕量化模型,性能接近於現有開源領導模型的10倍。" + }, + "microsoft/wizardlm-2-8x22b": { + "description": "WizardLM-2 8x22B 是微軟 AI 最先進的 Wizard 模型,顯示出極其競爭力的表現。" + }, + "minicpm-v": { + "description": "MiniCPM-V 是 OpenBMB 推出的新一代多模態大模型,具備卓越的 OCR 識別和多模態理解能力,支持廣泛的應用場景。" + }, + "mistral": { + "description": "Mistral 是 Mistral AI 發布的 7B 模型,適合多變的語言處理需求。" + }, + "mistral-large": { + "description": "Mixtral Large 是 Mistral 的旗艦模型,結合代碼生成、數學和推理的能力,支持 128k 上下文窗口。" + }, + "mistral-large-latest": { + "description": "Mistral Large 是旗艦大模型,擅長多語言任務、複雜推理和代碼生成,是高端應用的理想選擇。" + }, + "mistral-nemo": { + "description": "Mistral Nemo 由 Mistral AI 和 NVIDIA 合作推出,是高效性能的 12B 模型。" + }, + "mistralai/Mistral-7B-Instruct-v0.1": { + "description": "Mistral (7B) Instruct 以高性能著稱,適用於多種語言任務。" + }, + "mistralai/Mistral-7B-Instruct-v0.2": { + "description": "Mistral 7B 是按需 fine-tuning 的模型,為任務提供優化解答。" + }, + "mistralai/Mistral-7B-Instruct-v0.3": { + "description": "Mistral (7B) Instruct v0.3 提供高效的計算能力和自然語言理解,適合廣泛的應用。" + }, + "mistralai/Mixtral-8x22B-Instruct-v0.1": { + "description": "Mixtral-8x22B Instruct (141B) 是一款超級大語言模型,支持極高的處理需求。" + }, + "mistralai/Mixtral-8x7B-Instruct-v0.1": { + "description": "Mixtral 8x7B 是預訓練的稀疏混合專家模型,用於通用性文本任務。" + }, + "mistralai/mistral-7b-instruct": { + "description": "Mistral 7B Instruct 是一款兼具速度優化和長上下文支持的高性能行業標準模型。" + }, + "mistralai/mistral-nemo": { + "description": "Mistral Nemo 是多語言支持和高性能編程的7.3B參數模型。" + }, + "mixtral": { + "description": "Mixtral 是 Mistral AI 的專家模型,具有開源權重,並在代碼生成和語言理解方面提供支持。" + }, + "mixtral-8x7b-32768": { + "description": "Mixtral 8x7B 提供高容錯的並行計算能力,適合複雜任務。" + }, + "mixtral:8x22b": { + "description": "Mixtral 是 Mistral AI 的專家模型,具有開源權重,並在代碼生成和語言理解方面提供支持。" + }, + "moonshot-v1-128k": { + "description": "Moonshot V1 128K 是一款擁有超長上下文處理能力的模型,適用於生成超長文本,滿足複雜的生成任務需求,能夠處理多達 128,000 個 tokens 的內容,非常適合科研、學術和大型文檔生成等應用場景。" + }, + "moonshot-v1-32k": { + "description": "Moonshot V1 32K 提供中等長度的上下文處理能力,能夠處理 32,768 個 tokens,特別適合生成各種長文檔和複雜對話,應用於內容創作、報告生成和對話系統等領域。" + }, + "moonshot-v1-8k": { + "description": "Moonshot V1 8K 專為生成短文本任務設計,具有高效的處理性能,能夠處理 8,192 個 tokens,非常適合簡短對話、速記和快速內容生成。" + }, + "nousresearch/hermes-2-pro-llama-3-8b": { + "description": "Hermes 2 Pro Llama 3 8B 是 Nous Hermes 2 的升級版本,包含最新的內部開發的數據集。" + }, + "o1-mini": { + "description": "o1-mini是一款針對程式設計、數學和科學應用場景而設計的快速、經濟高效的推理模型。該模型具有128K上下文和2023年10月的知識截止日期。" + }, + "o1-preview": { + "description": "o1是OpenAI新的推理模型,適用於需要廣泛通用知識的複雜任務。該模型具有128K上下文和2023年10月的知識截止日期。" + }, + "open-codestral-mamba": { + "description": "Codestral Mamba 是專注於代碼生成的 Mamba 2 語言模型,為先進的代碼和推理任務提供強力支持。" + }, + "open-mistral-7b": { + "description": "Mistral 7B 是一款緊湊但高性能的模型,擅長批量處理和簡單任務,如分類和文本生成,具有良好的推理能力。" + }, + "open-mistral-nemo": { + "description": "Mistral Nemo 是一個與 Nvidia 合作開發的 12B 模型,提供出色的推理和編碼性能,易於集成和替換。" + }, + "open-mixtral-8x22b": { + "description": "Mixtral 8x22B 是一個更大的專家模型,專注於複雜任務,提供出色的推理能力和更高的吞吐量。" + }, + "open-mixtral-8x7b": { + "description": "Mixtral 8x7B 是一個稀疏專家模型,利用多個參數提高推理速度,適合處理多語言和代碼生成任務。" + }, + "openai/gpt-4o-2024-08-06": { + "description": "ChatGPT-4o 是一款動態模型,實時更新以保持當前最新版本。它結合了強大的語言理解與生成能力,適合於大規模應用場景,包括客戶服務、教育和技術支持。" + }, + "openai/gpt-4o-mini": { + "description": "GPT-4o mini是OpenAI在GPT-4 Omni之後推出的最新模型,支持圖文輸入並輸出文本。作為他們最先進的小型模型,它比其他近期的前沿模型便宜很多,並且比GPT-3.5 Turbo便宜超過60%。它保持了最先進的智能,同時具有顯著的性價比。GPT-4o mini在MMLU測試中獲得了82%的得分,目前在聊天偏好上排名高於GPT-4。" + }, + "openai/o1-mini": { + "description": "o1-mini是一款針對程式設計、數學和科學應用場景而設計的快速、經濟高效的推理模型。該模型具有128K上下文和2023年10月的知識截止日期。" + }, + "openai/o1-preview": { + "description": "o1是OpenAI新的推理模型,適用於需要廣泛通用知識的複雜任務。該模型具有128K上下文和2023年10月的知識截止日期。" + }, + "openchat/openchat-7b": { + "description": "OpenChat 7B 是經過“C-RLFT(條件強化學習微調)”策略精調的開源語言模型庫。" + }, + "openrouter/auto": { + "description": "根據上下文長度、主題和複雜性,你的請求將發送到 Llama 3 70B Instruct、Claude 3.5 Sonnet(自我調節)或 GPT-4o。" + }, + "phi3": { + "description": "Phi-3 是微軟推出的輕量級開放模型,適用於高效集成和大規模知識推理。" + }, + "phi3:14b": { + "description": "Phi-3 是微軟推出的輕量級開放模型,適用於高效集成和大規模知識推理。" + }, + "qwen-long": { + "description": "通義千問超大規模語言模型,支持長文本上下文,以及基於長文檔、多文檔等多個場景的對話功能。" + }, + "qwen-max": { + "description": "通義千問千億級別超大規模語言模型,支持中文、英文等不同語言輸入,當前通義千問2.5產品版本背後的API模型" + }, + "qwen-max-longcontext": { + "description": "通義千問千億級別超大規模語言模型,支持中文、英文等不同語言輸入,擴展了上下文窗口" + }, + "qwen-plus": { + "description": "通義千問超大規模語言模型增強版,支持中文、英文等不同語言輸入" + }, + "qwen-turbo": { + "description": "通義千問超大規模語言模型,支持中文、英文等不同語言輸入" + }, + "qwen-vl-chat-v1": { + "description": "通義千問VL支持靈活的交互方式,包括多圖、多輪問答、創作等能力的模型。" + }, + "qwen-vl-max": { + "description": "通義千問超大規模視覺語言模型。相比增強版,再次提升視覺推理能力和指令遵循能力,提供更高的視覺感知和認知水平。" + }, + "qwen-vl-plus": { + "description": "通義千問大規模視覺語言模型增強版。大幅提升細節識別能力和文字識別能力,支持超百萬像素分辨率和任意長寬比規格的圖像。" + }, + "qwen-vl-v1": { + "description": "以Qwen-7B語言模型初始化,添加圖像模型,圖像輸入分辨率為448的預訓練模型。" + }, + "qwen/qwen-2-7b-instruct:free": { + "description": "Qwen2 是全新的大型語言模型系列,具有更強的理解和生成能力。" + }, + "qwen2": { + "description": "Qwen2 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。" + }, + "qwen2-57b-a14b-instruct": { + "description": "通義千問2對外開源的57B規模14B激活參數的MOE模型" + }, + "qwen2-72b-instruct": { + "description": "通義千問2對外開源的72B規模的模型" + }, + "qwen2-7b-instruct": { + "description": "通義千問2對外開源的7B規模的模型" + }, + "qwen2-math-72b-instruct": { + "description": "Qwen2-Math模型具有強大的數學解題能力" + }, + "qwen2:0.5b": { + "description": "Qwen2 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。" + }, + "qwen2:1.5b": { + "description": "Qwen2 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。" + }, + "qwen2:72b": { + "description": "Qwen2 是阿里巴巴的新一代大規模語言模型,以優異的性能支持多元化的應用需求。" + }, + "solar-1-mini-chat": { + "description": "Solar Mini 是一種緊湊型 LLM,性能優於 GPT-3.5,具備強大的多語言能力,支持英語和韓語,提供高效小巧的解決方案。" + }, + "solar-1-mini-chat-ja": { + "description": "Solar Mini (Ja) 擴展了 Solar Mini 的能力,專注於日語,同時在英語和韓語的使用中保持高效和卓越性能。" + }, + "solar-pro": { + "description": "Solar Pro 是 Upstage 推出的一款高智能LLM,專注於單GPU的指令跟隨能力,IFEval得分80以上。目前支持英語,正式版本計劃於2024年11月推出,將擴展語言支持和上下文長度。" + }, + "step-1-128k": { + "description": "平衡性能與成本,適合一般場景。" + }, + "step-1-256k": { + "description": "具備超長上下文處理能力,尤其適合長文檔分析。" + }, + "step-1-32k": { + "description": "支持中等長度的對話,適用於多種應用場景。" + }, + "step-1-8k": { + "description": "小型模型,適合輕量級任務。" + }, + "step-1-flash": { + "description": "高速模型,適合實時對話。" + }, + "step-1v-32k": { + "description": "支持視覺輸入,增強多模態交互體驗。" + }, + "step-1v-8k": { + "description": "小型視覺模型,適合基本的圖文任務。" + }, + "step-2-16k": { + "description": "支持大規模上下文交互,適合複雜對話場景。" + }, + "taichu_llm": { + "description": "紫東太初語言大模型具備超強語言理解能力以及文本創作、知識問答、代碼編程、數學計算、邏輯推理、情感分析、文本摘要等能力。創新性地將大數據預訓練與多源豐富知識相結合,通過持續打磨算法技術,並不斷吸收海量文本數據中詞彙、結構、語法、語義等方面的新知識,實現模型效果不斷進化。為用戶提供更加便捷的信息和服務以及更為智能化的體驗。" + }, + "togethercomputer/StripedHyena-Nous-7B": { + "description": "StripedHyena Nous (7B) 通過高效的策略和模型架構,提供增強的計算能力。" + }, + "upstage/SOLAR-10.7B-Instruct-v1.0": { + "description": "Upstage SOLAR Instruct v1 (11B) 適用於精細化指令任務,提供出色的語言處理能力。" + }, + "wizardlm2": { + "description": "WizardLM 2 是微軟 AI 提供的語言模型,在複雜對話、多語言、推理和智能助手領域表現尤為出色。" + }, + "wizardlm2:8x22b": { + "description": "WizardLM 2 是微軟 AI 提供的語言模型,在複雜對話、多語言、推理和智能助手領域表現尤為出色。" + }, + "yi-large": { + "description": "全新千億參數模型,提供超強問答及文本生成能力。" + }, + "yi-large-fc": { + "description": "在 yi-large 模型的基礎上支持並強化了工具調用的能力,適用於各種需要搭建 agent 或 workflow 的業務場景。" + }, + "yi-large-preview": { + "description": "初期版本,推薦使用 yi-large(新版本)" + }, + "yi-large-rag": { + "description": "基於 yi-large 超強模型的高階服務,結合檢索與生成技術提供精準答案,實時全網檢索信息服務。" + }, + "yi-large-turbo": { + "description": "超高性價比、卓越性能。根據性能和推理速度、成本,進行平衡性高精度調優。" + }, + "yi-medium": { + "description": "中型尺寸模型升級微調,能力均衡,性價比高。深度優化指令遵循能力。" + }, + "yi-medium-200k": { + "description": "200K 超長上下文窗口,提供長文本深度理解和生成能力。" + }, + "yi-spark": { + "description": "小而精悍,輕量极速模型。提供強化數學運算和代碼編寫能力。" + }, + "yi-vision": { + "description": "複雜視覺任務模型,提供高性能圖片理解、分析能力。" + } +} diff --git a/locales/zh-TW/providers.json b/locales/zh-TW/providers.json new file mode 100644 index 000000000000..e272c73029c7 --- /dev/null +++ b/locales/zh-TW/providers.json @@ -0,0 +1,80 @@ +{ + "ai360": { + "description": "360 AI 是 360 公司推出的 AI 模型和服務平台,提供多種先進的自然語言處理模型,包括 360GPT2 Pro、360GPT Pro、360GPT Turbo 和 360GPT Turbo Responsibility 8K。這些模型結合了大規模參數和多模態能力,廣泛應用於文本生成、語義理解、對話系統與代碼生成等領域。通過靈活的定價策略,360 AI 滿足多樣化用戶需求,支持開發者集成,推動智能化應用的革新和發展。" + }, + "anthropic": { + "description": "Anthropic 是一家專注於人工智慧研究和開發的公司,提供了一系列先進的語言模型,如 Claude 3.5 Sonnet、Claude 3 Sonnet、Claude 3 Opus 和 Claude 3 Haiku。這些模型在智能、速度和成本之間取得了理想的平衡,適用於從企業級工作負載到快速響應的各種應用場景。Claude 3.5 Sonnet 作為其最新模型,在多項評估中表現優異,同時保持了較高的性價比。" + }, + "azure": { + "description": "Azure 提供多種先進的 AI 模型,包括 GPT-3.5 和最新的 GPT-4 系列,支持多種數據類型和複雜任務,致力於安全、可靠和可持續的 AI 解決方案。" + }, + "baichuan": { + "description": "百川智能是一家專注於人工智慧大模型研發的公司,其模型在國內知識百科、長文本處理和生成創作等中文任務上表現卓越,超越了國外主流模型。百川智能還具備行業領先的多模態能力,在多項權威評測中表現優異。其模型包括 Baichuan 4、Baichuan 3 Turbo 和 Baichuan 3 Turbo 128k 等,分別針對不同應用場景進行優化,提供高性價比的解決方案。" + }, + "bedrock": { + "description": "Bedrock 是亞馬遜 AWS 提供的一項服務,專注於為企業提供先進的 AI 語言模型和視覺模型。其模型家族包括 Anthropic 的 Claude 系列、Meta 的 Llama 3.1 系列等,涵蓋從輕量級到高性能的多種選擇,支持文本生成、對話、圖像處理等多種任務,適用於不同規模和需求的企業應用。" + }, + "deepseek": { + "description": "DeepSeek 是一家專注於人工智慧技術研究和應用的公司,其最新模型 DeepSeek-V2.5 融合了通用對話和代碼處理能力,並在人類偏好對齊、寫作任務和指令跟隨等方面實現了顯著提升。" + }, + "fireworksai": { + "description": "Fireworks AI 是一家領先的高級語言模型服務商,專注於功能調用和多模態處理。其最新模型 Firefunction V2 基於 Llama-3,優化用於函數調用、對話及指令跟隨。視覺語言模型 FireLLaVA-13B 支持圖像和文本混合輸入。其他 notable 模型包括 Llama 系列和 Mixtral 系列,提供高效的多語言指令跟隨與生成支持。" + }, + "google": { + "description": "Google 的 Gemini 系列是其最先進、通用的 AI 模型,由 Google DeepMind 打造,專為多模態設計,支持文本、代碼、圖像、音頻和視頻的無縫理解與處理。適用於從數據中心到移動設備的多種環境,極大提升了 AI 模型的效率與應用廣泛性。" + }, + "groq": { + "description": "Groq 的 LPU 推理引擎在最新的獨立大語言模型(LLM)基準測試中表現卓越,以其驚人的速度和效率重新定義了 AI 解決方案的標準。Groq 是一種即時推理速度的代表,在基於雲的部署中展現了良好的性能。" + }, + "minimax": { + "description": "MiniMax 是 2021 年成立的通用人工智慧科技公司,致力於與用戶共創智能。MiniMax 自主研發了不同模態的通用大模型,其中包括萬億參數的 MoE 文本大模型、語音大模型以及圖像大模型。並推出了海螺 AI 等應用。" + }, + "mistral": { + "description": "Mistral 提供先進的通用、專業和研究型模型,廣泛應用於複雜推理、多語言任務、代碼生成等領域,通過功能調用接口,用戶可以集成自定義功能,實現特定應用。" + }, + "moonshot": { + "description": "Moonshot 是由北京月之暗面科技有限公司推出的開源平台,提供多種自然語言處理模型,應用領域廣泛,包括但不限於內容創作、學術研究、智能推薦、醫療診斷等,支持長文本處理和複雜生成任務。" + }, + "novita": { + "description": "Novita AI 是一個提供多種大語言模型與 AI 圖像生成的 API 服務的平台,靈活、可靠且具有成本效益。它支持 Llama3、Mistral 等最新的開源模型,並為生成式 AI 應用開發提供了全面、用戶友好且自動擴展的 API 解決方案,適合 AI 初創公司的快速發展。" + }, + "ollama": { + "description": "Ollama 提供的模型廣泛涵蓋代碼生成、數學運算、多語種處理和對話互動等領域,支持企業級和本地化部署的多樣化需求。" + }, + "openai": { + "description": "OpenAI 是全球領先的人工智慧研究機構,其開發的模型如 GPT 系列推動了自然語言處理的前沿。OpenAI 致力於透過創新和高效的 AI 解決方案改變多個行業。他們的產品具有顯著的性能和經濟性,廣泛用於研究、商業和創新應用。" + }, + "openrouter": { + "description": "OpenRouter 是一個提供多種前沿大模型接口的服務平台,支持 OpenAI、Anthropic、LLaMA 及更多,適合多樣化的開發和應用需求。用戶可根據自身需求靈活選擇最優的模型和價格,助力 AI 體驗的提升。" + }, + "perplexity": { + "description": "Perplexity 是一家領先的對話生成模型提供商,提供多種先進的 Llama 3.1 模型,支持在線和離線應用,特別適用於複雜的自然語言處理任務。" + }, + "qwen": { + "description": "通義千問是阿里雲自主研發的超大規模語言模型,具有強大的自然語言理解和生成能力。它可以回答各種問題、創作文字內容、表達觀點看法、撰寫代碼等,在多個領域發揮作用。" + }, + "siliconcloud": { + "description": "SiliconFlow 致力於加速 AGI,以惠及人類,通過易用與成本低的 GenAI 堆疊提升大規模 AI 效率。" + }, + "spark": { + "description": "科大訊飛星火大模型提供多領域、多語言的強大 AI 能力,利用先進的自然語言處理技術,構建適用於智能硬體、智慧醫療、智慧金融等多種垂直場景的創新應用。" + }, + "stepfun": { + "description": "階級星辰大模型具備行業領先的多模態及複雜推理能力,支持超長文本理解和強大的自主調度搜索引擎功能。" + }, + "taichu": { + "description": "中科院自動化研究所和武漢人工智慧研究院推出新一代多模態大模型,支持多輪問答、文本創作、圖像生成、3D理解、信號分析等全面問答任務,擁有更強的認知、理解、創作能力,帶來全新互動體驗。" + }, + "togetherai": { + "description": "Together AI 致力於透過創新的 AI 模型實現領先的性能,提供廣泛的自定義能力,包括快速擴展支持和直觀的部署流程,滿足企業的各種需求。" + }, + "upstage": { + "description": "Upstage 專注於為各種商業需求開發 AI 模型,包括 Solar LLM 和文檔 AI,旨在實現工作的人工通用智能(AGI)。通過 Chat API 創建簡單的對話代理,並支持功能調用、翻譯、嵌入以及特定領域應用。" + }, + "zeroone": { + "description": "01.AI 專注於 AI 2.0 時代的人工智慧技術,大力推動「人+人工智慧」的創新和應用,採用超強大模型和先進 AI 技術以提升人類生產力,實現技術賦能。" + }, + "zhipu": { + "description": "智譜 AI 提供多模態與語言模型的開放平台,支持廣泛的 AI 應用場景,包括文本處理、圖像理解與編程輔助等。" + } +} diff --git a/package.json b/package.json index 83347d688123..cd7c1b5b2aab 100644 --- a/package.json +++ b/package.json @@ -170,6 +170,7 @@ "nanoid": "^5.0.7", "next": "14.2.8", "next-auth": "beta", + "next-mdx-remote": "^4.4.1", "next-sitemap": "^4.2.3", "numeral": "^2.0.6", "nuqs": "^1.17.8", diff --git a/src/app/(main)/@nav/_layout/Desktop/TopActions.test.tsx b/src/app/(main)/@nav/_layout/Desktop/TopActions.test.tsx index 29d96af4e624..62dc0c6b377c 100644 --- a/src/app/(main)/@nav/_layout/Desktop/TopActions.test.tsx +++ b/src/app/(main)/@nav/_layout/Desktop/TopActions.test.tsx @@ -57,7 +57,7 @@ describe('TopActions', () => { renderTopActions(); expect(screen.getByText('tab.chat')).toBeInTheDocument(); - expect(screen.getByText('tab.market')).toBeInTheDocument(); + expect(screen.getByText('tab.discover')).toBeInTheDocument(); }); it('should render only Chat icon when `-market` is set', () => { @@ -68,7 +68,7 @@ describe('TopActions', () => { renderTopActions(); expect(screen.getByText('tab.chat')).toBeInTheDocument(); - expect(screen.queryByText('tab.market')).not.toBeInTheDocument(); + expect(screen.queryByText('tab.discover')).not.toBeInTheDocument(); }); it('should render File icon when `-knowledge_base` is set', () => { @@ -90,7 +90,7 @@ describe('TopActions', () => { const { result: store } = renderHook(() => useGlobalStore((s) => s)); const switchBackToChat = vi.spyOn(store.current, 'switchBackToChat'); - renderTopActions({ tab: SidebarTabKey.Market }); + renderTopActions({ tab: SidebarTabKey.Discover }); fireEvent.click(screen.getByText('Mocked Link /chat')); expect(switchBackToChat).toBeCalledWith('1'); diff --git a/src/app/(main)/@nav/_layout/Desktop/TopActions.tsx b/src/app/(main)/@nav/_layout/Desktop/TopActions.tsx index 02f61b423f2c..3e3f0050816d 100644 --- a/src/app/(main)/@nav/_layout/Desktop/TopActions.tsx +++ b/src/app/(main)/@nav/_layout/Desktop/TopActions.tsx @@ -48,13 +48,13 @@ const TopActions = memo(({ tab }) => { )} {showMarket && ( - + )} diff --git a/src/app/(main)/@nav/_layout/Mobile.tsx b/src/app/(main)/@nav/_layout/Mobile.tsx index 954583880df6..fab82d8ccfad 100644 --- a/src/app/(main)/@nav/_layout/Mobile.tsx +++ b/src/app/(main)/@nav/_layout/Mobile.tsx @@ -51,11 +51,11 @@ const Nav = memo(() => { icon: (active: boolean) => ( ), - key: SidebarTabKey.Market, + key: SidebarTabKey.Discover, onClick: () => { - router.push('/market'); + router.push('/discover'); }, - title: t('tab.market'), + title: t('tab.discover'), }, { icon: (active: boolean) => ( diff --git a/src/app/(main)/_layout/Mobile.tsx b/src/app/(main)/_layout/Mobile.tsx index db2f1e0e87ea..68da70e3a69d 100644 --- a/src/app/(main)/_layout/Mobile.tsx +++ b/src/app/(main)/_layout/Mobile.tsx @@ -10,7 +10,15 @@ import { featureFlagsSelectors, useServerConfigStore } from '@/store/serverConfi import { LayoutProps } from './type'; -const MOBILE_NAV_ROUTES = new Set(['/chat', '/market', '/me']); +const MOBILE_NAV_ROUTES = new Set([ + '/chat', + '/discover', + '/discover/assistants', + '/discover/plugins', + '/discover/models', + '/discover/providers', + '/me', +]); const Layout = memo(({ children, nav }: LayoutProps) => { const { showMobileWorkspace } = useQuery(); diff --git a/src/app/(main)/discover/(detail)/_layout/Desktop.tsx b/src/app/(main)/discover/(detail)/_layout/Desktop.tsx new file mode 100644 index 000000000000..66405a5cdacc --- /dev/null +++ b/src/app/(main)/discover/(detail)/_layout/Desktop.tsx @@ -0,0 +1,24 @@ +import { PropsWithChildren } from 'react'; +import { Flexbox } from 'react-layout-kit'; + +const MAX_WIDTH = 1440; + +const Layout = ({ children }: PropsWithChildren) => { + return ( + + + {children} + + + ); +}; + +Layout.displayName = 'DesktopDiscoverDetailLayout'; + +export default Layout; diff --git a/src/app/(main)/discover/(detail)/_layout/Mobile/Header.tsx b/src/app/(main)/discover/(detail)/_layout/Mobile/Header.tsx new file mode 100644 index 000000000000..8a5c3eac08d2 --- /dev/null +++ b/src/app/(main)/discover/(detail)/_layout/Mobile/Header.tsx @@ -0,0 +1,25 @@ +'use client'; + +import { MobileNavBar } from '@lobehub/ui'; +import { usePathname, useRouter } from 'next/navigation'; +import { memo } from 'react'; +import urlJoin from 'url-join'; + +import { mobileHeaderSticky } from '@/styles/mobileHeader'; + +const Header = memo(() => { + const pathname = usePathname(); + const router = useRouter(); + + const path = pathname.split('/').filter(Boolean)[1]; + + return ( + router.push(urlJoin('/discover', `${path}s`))} + showBackButton + style={mobileHeaderSticky} + /> + ); +}); + +export default Header; diff --git a/src/app/(main)/discover/(detail)/_layout/Mobile/index.tsx b/src/app/(main)/discover/(detail)/_layout/Mobile/index.tsx new file mode 100644 index 000000000000..92b5177bb08c --- /dev/null +++ b/src/app/(main)/discover/(detail)/_layout/Mobile/index.tsx @@ -0,0 +1,17 @@ +import { PropsWithChildren } from 'react'; + +import MobileContentLayout from '@/components/server/MobileNavLayout'; + +import Header from './Header'; + +const Layout = ({ children }: PropsWithChildren) => { + return ( + } padding={16}> + {children} + + ); +}; + +Layout.displayName = 'MobileDiscoverDetailLayout'; + +export default Layout; diff --git a/src/app/(main)/discover/(detail)/assistant/[slug]/features/Actions.tsx b/src/app/(main)/discover/(detail)/assistant/[slug]/features/Actions.tsx new file mode 100644 index 000000000000..1ecf9239061b --- /dev/null +++ b/src/app/(main)/discover/(detail)/assistant/[slug]/features/Actions.tsx @@ -0,0 +1,35 @@ +'use client'; + +import { memo } from 'react'; +import { Flexbox, FlexboxProps } from 'react-layout-kit'; +import urlJoin from 'url-join'; + +import { OFFICIAL_URL } from '@/const/url'; +import { DiscoverAssistantItem } from '@/types/discover'; + +import ShareButton from '../../../features/ShareButton'; +import AddAgent from './AddAgent'; + +interface AssistantActionProps extends FlexboxProps { + data: DiscoverAssistantItem; + identifier: string; +} + +const AssistantAction = memo(({ identifier, data }) => { + return ( + + + + + ); +}); + +export default AssistantAction; diff --git a/src/app/(main)/discover/(detail)/assistant/[slug]/features/AddAgent.tsx b/src/app/(main)/discover/(detail)/assistant/[slug]/features/AddAgent.tsx new file mode 100644 index 000000000000..bfd80007a057 --- /dev/null +++ b/src/app/(main)/discover/(detail)/assistant/[slug]/features/AddAgent.tsx @@ -0,0 +1,86 @@ +'use client'; + +import { ActionIcon, Icon } from '@lobehub/ui'; +import { App, Dropdown } from 'antd'; +import { createStyles } from 'antd-style'; +import { ChevronDownIcon, PlusIcon } from 'lucide-react'; +import { useRouter } from 'next/navigation'; +import { memo, useState } from 'react'; +import { useTranslation } from 'react-i18next'; + +import { MOBILE_HEADER_ICON_SIZE } from '@/const/layoutTokens'; +import { SESSION_CHAT_URL } from '@/const/url'; +import { useSessionStore } from '@/store/session'; +import { DiscoverAssistantItem } from '@/types/discover'; + +const useStyles = createStyles(({ css }) => ({ + button: css` + button { + width: 100%; + } + `, +})); + +const AddAgent = memo<{ data: DiscoverAssistantItem; mobile?: boolean }>(({ data, mobile }) => { + const { styles } = useStyles(); + const [isLoading, setIsLoading] = useState(false); + const createSession = useSessionStore((s) => s.createSession); + const { message } = App.useApp(); + const router = useRouter(); + const { t } = useTranslation('discover'); + + const handleAddAgentAndConverse = async () => { + if (!data) return; + + setIsLoading(true); + const session = await createSession({ config: data.config, meta: data.meta }); + setIsLoading(false); + message.success(t('assistants.addAgentSuccess')); + router.push(SESSION_CHAT_URL(session, mobile)); + }; + + const handleAddAgent = async () => { + if (!data) return; + setIsLoading(true); + createSession({ config: data.config, meta: data.meta }, false); + message.success(t('assistants.addAgentSuccess')); + setIsLoading(false); + }; + + if (mobile) + return ( + + ); + + return ( + } + loading={isLoading} + menu={{ + items: [ + { + key: 'addAgent', + label: t('assistants.addAgent'), + onClick: handleAddAgent, + }, + ], + }} + onClick={handleAddAgentAndConverse} + overlayStyle={{ minWidth: 267 }} + size={'large'} + style={{ flex: 1, width: 'unset' }} + type={'primary'} + > + {t('assistants.addAgentAndConverse')} + + ); +}); + +export default AddAgent; diff --git a/src/app/(main)/discover/(detail)/assistant/[slug]/features/ConversationExample/TopicList.tsx b/src/app/(main)/discover/(detail)/assistant/[slug]/features/ConversationExample/TopicList.tsx new file mode 100644 index 000000000000..8541dab54bf3 --- /dev/null +++ b/src/app/(main)/discover/(detail)/assistant/[slug]/features/ConversationExample/TopicList.tsx @@ -0,0 +1,74 @@ +import { createStyles } from 'antd-style'; +import { memo, useState } from 'react'; +import { Flexbox } from 'react-layout-kit'; + +import { ExampleTopic } from '@/types/discover'; + +const useStyles = createStyles(({ css, token }) => ({ + active: css` + background: ${token.colorBgElevated}; + border-inline-start: 4px solid ${token.colorFill}; + box-shadow: 0 0 0 1px ${token.colorFillSecondary} inset; + `, + container: css` + overflow: auto hidden; + `, + desc: css` + line-height: 1.2; + color: ${token.colorTextDescription}; + `, + item: css` + cursor: pointer; + + background: ${token.colorFillTertiary}; + border-inline-start: 4px solid transparent; + border-radius: ${token.borderRadiusLG}px; + + transition: all 0.2s ${token.motionEaseInOut}; + + &:hover { + background: ${token.colorBgElevated}; + border-inline-start: 4px solid ${token.colorFill}; + box-shadow: 0 0 0 1px ${token.colorFillSecondary} inset; + } + `, + title: css` + font-weight: 500; + line-height: 1.2; + `, +})); + +interface TopicListProps { + data: ExampleTopic[]; + onChoose?: (id: string) => void; +} + +const TopicList = memo(({ data, onChoose }) => { + const { cx, styles } = useStyles(); + const [active, setActive] = useState(data[0].id); + + return ( + + {data.map((topic) => { + const isActive = active === topic.id; + return ( + { + setActive(topic.id); + onChoose?.(topic.id); + }} + padding={12} + > +
{topic.title}
+
{topic.description}
+
+ ); + })} +
+ ); +}); + +export default TopicList; diff --git a/src/app/(main)/discover/(detail)/assistant/[slug]/features/ConversationExample/index.tsx b/src/app/(main)/discover/(detail)/assistant/[slug]/features/ConversationExample/index.tsx new file mode 100644 index 000000000000..9b20fa85ceef --- /dev/null +++ b/src/app/(main)/discover/(detail)/assistant/[slug]/features/ConversationExample/index.tsx @@ -0,0 +1,100 @@ +'use client'; + +import { ChatList, Icon, MobileChatInputArea, MobileChatSendButton } from '@lobehub/ui'; +import { useTheme } from 'antd-style'; +import { BotMessageSquare, LoaderCircle } from 'lucide-react'; +import { memo } from 'react'; +import { useTranslation } from 'react-i18next'; +import { Center, Flexbox, FlexboxProps } from 'react-layout-kit'; + +import { DiscoverAssistantItem } from '@/types/discover'; + +import HighlightBlock from '../../../../features/HighlightBlock'; +import TopicList from './TopicList'; + +interface ConversationExampleProps extends FlexboxProps { + data?: DiscoverAssistantItem; + identifier: string; + mobile?: boolean; +} + +const ConversationExample = memo(({ data }) => { + const { t } = useTranslation('discover'); + const theme = useTheme(); + + return ( + + {!data ? ( +
+ +
+ ) : ( + +
{editableContent}
, + }} + /> +
+ )} + + {data?.examples && data.examples?.length > 0 && } + } + /> + +
+ ); +}); + +export default ConversationExample; diff --git a/src/app/(main)/discover/(detail)/assistant/[slug]/features/Header.tsx b/src/app/(main)/discover/(detail)/assistant/[slug]/features/Header.tsx new file mode 100644 index 000000000000..e26b2ece5599 --- /dev/null +++ b/src/app/(main)/discover/(detail)/assistant/[slug]/features/Header.tsx @@ -0,0 +1,118 @@ +'use client'; + +import { Avatar, Icon, Tag } from '@lobehub/ui'; +import { Button } from 'antd'; +import { createStyles } from 'antd-style'; +import { startCase } from 'lodash-es'; +import { ChevronRight } from 'lucide-react'; +import Link from 'next/link'; +import qs from 'query-string'; +import { memo } from 'react'; +import { useTranslation } from 'react-i18next'; +import { Flexbox } from 'react-layout-kit'; +import urlJoin from 'url-join'; + +import { DiscoverAssistantItem } from '@/types/discover'; + +import GitHubAvatar from '../../../../components/GitHubAvatar'; +import Back from '../../../features/Back'; + +export const useStyles = createStyles(({ css, token }) => ({ + tag: css` + color: ${token.colorTextSecondary}; + background: ${token.colorFillSecondary}; + border: none; + `, + time: css` + font-size: 12px; + color: ${token.colorTextDescription}; + `, + title: css` + margin-block: 0; + font-size: 18px; + font-weight: bold; + line-height: 1.2; + `, +})); + +interface HeaderProps { + data: DiscoverAssistantItem; + identifier: string; + mobile?: boolean; +} + +const Header = memo(({ identifier, data, mobile }) => { + const { styles, theme } = useStyles(); + const { t } = useTranslation('discover'); + + return ( + + {!mobile && } + + + + +

{data.meta.title}

+ + + + + {data.author} + + + + +
+
+ {!mobile && ( + + + + + {data.meta?.category && ( + <> + + + + + + )} + + )} +
+
{data.meta.description}
+ {data.meta.tags && ( + + {data.meta.tags.map((tag) => ( + + + {startCase(tag).trim()} + + + ))} + + )} +
+ ); +}); + +export default Header; diff --git a/src/app/(main)/discover/(detail)/assistant/[slug]/features/InfoSidebar/SuggestionItem.tsx b/src/app/(main)/discover/(detail)/assistant/[slug]/features/InfoSidebar/SuggestionItem.tsx new file mode 100644 index 000000000000..61f2db839e99 --- /dev/null +++ b/src/app/(main)/discover/(detail)/assistant/[slug]/features/InfoSidebar/SuggestionItem.tsx @@ -0,0 +1,62 @@ +import { Avatar } from '@lobehub/ui'; +import { Typography } from 'antd'; +import { createStyles } from 'antd-style'; +import { memo } from 'react'; +import { Flexbox, FlexboxProps } from 'react-layout-kit'; + +import { DiscoverAssistantItem } from '@/types/discover'; + +const { Paragraph, Title } = Typography; + +const useStyles = createStyles(({ css, token, isDarkMode }) => ({ + banner: css` + opacity: ${isDarkMode ? 0.9 : 0.4}; + `, + container: css` + cursor: pointer; + position: relative; + overflow: hidden; + height: 100%; + `, + desc: css` + margin-block-end: 0 !important; + color: ${token.colorTextDescription}; + `, + title: css` + margin-block-end: 0 !important; + font-size: 16px !important; + font-weight: 500 !important; + `, +})); + +export interface SuggestionItemProps + extends Omit, + FlexboxProps {} + +const SuggestionItem = memo(({ className, meta, identifier, ...rest }) => { + const { avatar, title, description, backgroundColor } = meta; + + const { cx, styles, theme } = useStyles(); + + return ( + + + + + {title} + + + + {description} + + + ); +}); + +export default SuggestionItem; diff --git a/src/app/(main)/discover/(detail)/assistant/[slug]/features/InfoSidebar/ToolItem.tsx b/src/app/(main)/discover/(detail)/assistant/[slug]/features/InfoSidebar/ToolItem.tsx new file mode 100644 index 000000000000..1935334410e8 --- /dev/null +++ b/src/app/(main)/discover/(detail)/assistant/[slug]/features/InfoSidebar/ToolItem.tsx @@ -0,0 +1,19 @@ +import { Avatar } from '@lobehub/ui'; +import { useTheme } from 'antd-style'; +import { memo } from 'react'; +import { Flexbox } from 'react-layout-kit'; + +import { DiscoverPlugintem } from '@/types/discover'; + +const ToolItem = memo(({ meta }) => { + const theme = useTheme(); + + return ( + + + {meta?.title} + + ); +}); + +export default ToolItem; diff --git a/src/app/(main)/discover/(detail)/assistant/[slug]/features/InfoSidebar/index.tsx b/src/app/(main)/discover/(detail)/assistant/[slug]/features/InfoSidebar/index.tsx new file mode 100644 index 000000000000..8829ae676d9a --- /dev/null +++ b/src/app/(main)/discover/(detail)/assistant/[slug]/features/InfoSidebar/index.tsx @@ -0,0 +1,64 @@ +'use client'; + +import { Skeleton } from 'antd'; +import { memo } from 'react'; +import { useTranslation } from 'react-i18next'; +import { Flexbox, FlexboxProps } from 'react-layout-kit'; +import urlJoin from 'url-join'; + +import InterceptingLink from '@/components/InterceptingLink'; +import { DiscoverAssistantItem, DiscoverPlugintem } from '@/types/discover'; + +import Block from '../../../../features/Block'; +import SuggestionItem from './SuggestionItem'; +import ToolItem from './ToolItem'; + +interface InfoSidebarProps extends FlexboxProps { + data: DiscoverAssistantItem; + identifier: string; + mobile?: boolean; + pluginData?: DiscoverPlugintem[]; +} + +const InfoSidebar = memo(({ pluginData, data, ...rest }) => { + const { t } = useTranslation('discover'); + + return ( + + {pluginData && pluginData?.length > 0 && ( + + {pluginData.map((item) => ( + + + + ))} + + )} + + {data?.suggestions?.length > 0 ? ( + data?.suggestions.map((item) => ( + + + + )) + ) : ( + + )} + + + ); +}); + +export default InfoSidebar; diff --git a/src/app/(main)/discover/(detail)/assistant/[slug]/features/SystemRole.tsx b/src/app/(main)/discover/(detail)/assistant/[slug]/features/SystemRole.tsx new file mode 100644 index 000000000000..3fde9810c69e --- /dev/null +++ b/src/app/(main)/discover/(detail)/assistant/[slug]/features/SystemRole.tsx @@ -0,0 +1,35 @@ +'use client'; + +import { Markdown } from '@lobehub/ui'; +import { Skeleton } from 'antd'; +import { useTheme } from 'antd-style'; +import { memo } from 'react'; +import { useTranslation } from 'react-i18next'; + +import Block from '../../../features/Block'; + +const SystemRole = memo<{ children?: string }>(({ children }) => { + const { t } = useTranslation('discover'); + const theme = useTheme(); + + return ( + + {children ? ( + + {children} + + ) : ( + + )} + + ); +}); + +export default SystemRole; diff --git a/src/app/(main)/discover/(detail)/assistant/[slug]/features/Temp.tsx b/src/app/(main)/discover/(detail)/assistant/[slug]/features/Temp.tsx new file mode 100644 index 000000000000..81f9adad0d1f --- /dev/null +++ b/src/app/(main)/discover/(detail)/assistant/[slug]/features/Temp.tsx @@ -0,0 +1,44 @@ +'use client'; + +import { Markdown } from '@lobehub/ui'; +import { Skeleton } from 'antd'; +import { useTheme } from 'antd-style'; +import { BotMessageSquare } from 'lucide-react'; +import { memo } from 'react'; +import { useTranslation } from 'react-i18next'; +import { Flexbox, FlexboxProps } from 'react-layout-kit'; + +import { DiscoverAssistantItem } from '@/types/discover'; + +import HighlightBlock from '../../../features/HighlightBlock'; + +interface ConversationExampleProps extends FlexboxProps { + data: DiscoverAssistantItem; + identifier: string; + mobile?: boolean; +} + +const ConversationExample = memo(({ data }) => { + const { t } = useTranslation('discover'); + const theme = useTheme(); + + return ( + + + {data.config.systemRole ? ( + {data.config.systemRole} + ) : ( + + )} + + + ); +}); + +export default ConversationExample; diff --git a/src/app/(main)/discover/(detail)/assistant/[slug]/page.tsx b/src/app/(main)/discover/(detail)/assistant/[slug]/page.tsx new file mode 100644 index 000000000000..2ff4082ee725 --- /dev/null +++ b/src/app/(main)/discover/(detail)/assistant/[slug]/page.tsx @@ -0,0 +1,121 @@ +import { notFound } from 'next/navigation'; +import urlJoin from 'url-join'; + +import StructuredData from '@/components/StructuredData'; +import { Locales } from '@/locales/resources'; +import { ldModule } from '@/server/ld'; +import { metadataModule } from '@/server/metadata'; +import { DiscoverService } from '@/server/services/discover'; +import { translation } from '@/server/translation'; +import { DiscoverPlugintem } from '@/types/discover'; +import { isMobileDevice } from '@/utils/responsive'; + +import DetailLayout from '../../features/DetailLayout'; +import Actions from './features/Actions'; +import Header from './features/Header'; +import InfoSidebar from './features/InfoSidebar'; +import Temp from './features/Temp'; + +// import ConversationExample from './features/ConversationExample'; +// import SystemRole from './features/SystemRole'; + +type Props = { params: { slug: string }; searchParams: { hl?: Locales } }; + +export const generateMetadata = async ({ params, searchParams }: Props) => { + const { slug: identifier } = params; + const { t, locale } = await translation('metadata', searchParams?.hl); + + const discoverService = new DiscoverService(); + const data = await discoverService.getAssistantById(locale, identifier); + if (!data) return notFound(); + + const { meta, createdAt, homepage, author } = data; + + return { + authors: [ + { name: author, url: homepage }, + { name: 'LobeHub', url: 'https://github.com/lobehub' }, + { name: 'LobeChat', url: 'https://github.com/lobehub/lobe-chat' }, + ], + keywords: meta.tags, + ...metadataModule.generate({ + alternate: true, + description: meta.description, + locale, + tags: meta.tags, + title: [meta.title, t('discover.assistants.title')].join(' · '), + url: urlJoin('/discover/assistant', identifier), + }), + other: { + 'article:author': author, + 'article:published_time': createdAt + ? new Date(createdAt).toISOString() + : new Date().toISOString(), + 'robots': 'index,follow,max-image-preview:large', + }, + }; +}; + +const Page = async ({ params, searchParams }: Props) => { + const { slug: identifier } = params; + const { t, locale } = await translation('metadata', searchParams?.hl); + const mobile = isMobileDevice(); + + const discoverService = new DiscoverService(); + const data = await discoverService.getAssistantById(locale, identifier); + if (!data) return notFound(); + + const { meta, createdAt, author, config } = data; + + let pluginData: DiscoverPlugintem[] = []; + if (config?.plugins && config.plugins?.length > 0) { + pluginData = await discoverService.getPluginByIds(locale, config.plugins); + } + + const ld = ldModule.generate({ + article: { + author: [author], + enable: true, + identifier, + tags: meta.tags, + }, + date: createdAt ? new Date(createdAt).toISOString() : new Date().toISOString(), + description: meta.description || t('discover.assistants.description'), + title: [meta.title, t('discover.assistants.title')].join(' · '), + url: urlJoin('/discover/assistant', identifier), + webpage: { + enable: true, + search: '/discover/search', + }, + }); + + return ( + <> + + } + header={
} + mobile={mobile} + sidebar={ + + } + /* ↓ cloud slot ↓ */ + /* ↑ cloud slot ↑ */ + > + + {/* TODO: Chat Preview */} + {/**/} + {/*{data?.config?.systemRole}*/} + + + ); +}; + +Page.DisplayName = 'DiscoverAssistantsDetail'; + +export default Page; diff --git a/src/app/(main)/discover/(detail)/error.tsx b/src/app/(main)/discover/(detail)/error.tsx new file mode 100644 index 000000000000..071491038c70 --- /dev/null +++ b/src/app/(main)/discover/(detail)/error.tsx @@ -0,0 +1,5 @@ +'use client'; + +import dynamic from 'next/dynamic'; + +export default dynamic(() => import('@/components/Error')); diff --git a/src/app/(main)/discover/(detail)/features/Back.tsx b/src/app/(main)/discover/(detail)/features/Back.tsx new file mode 100644 index 000000000000..3dec3c7b89c2 --- /dev/null +++ b/src/app/(main)/discover/(detail)/features/Back.tsx @@ -0,0 +1,42 @@ +'use client'; + +import { Icon } from '@lobehub/ui'; +import { createStyles } from 'antd-style'; +import { ArrowLeft } from 'lucide-react'; +import Link from 'next/link'; +import { CSSProperties, memo } from 'react'; +import { useTranslation } from 'react-i18next'; +import { Flexbox } from 'react-layout-kit'; + +import { useInterceptingRoutes } from '@/hooks/useInterceptingRoutes'; + +const useStyles = createStyles(({ css, token }) => { + return { + back: css` + color: ${token.colorTextDescription}; + + &:hover { + color: ${token.colorText}; + } + `, + }; +}); + +const Back = memo<{ href: string; style?: CSSProperties }>(({ href, style }) => { + const { isIntercepted } = useInterceptingRoutes(); + const { t } = useTranslation('discover'); + const { styles } = useStyles(); + + if (isIntercepted) return null; + + return ( + + + + {t(`back`)} + + + ); +}); + +export default Back; diff --git a/src/app/(main)/discover/(detail)/features/Block.tsx b/src/app/(main)/discover/(detail)/features/Block.tsx new file mode 100644 index 000000000000..64812e2f5ad1 --- /dev/null +++ b/src/app/(main)/discover/(detail)/features/Block.tsx @@ -0,0 +1,50 @@ +import { Icon } from '@lobehub/ui'; +import { Button } from 'antd'; +import { createStyles } from 'antd-style'; +import { ChevronRight } from 'lucide-react'; +import Link from 'next/link'; +import { memo } from 'react'; +import { Flexbox, FlexboxProps } from 'react-layout-kit'; + +const useStyles = createStyles(({ css, token }) => ({ + more: css` + display: flex; + align-items: center; + color: ${token.colorTextSecondary}; + `, + title: css` + margin-block: 0; + font-size: 16px; + font-weight: bold; + line-height: 1.2; + `, +})); + +interface BlockProps extends FlexboxProps { + more?: string; + moreLink?: string; + title: string; +} + +const Block = memo(({ title, more, moreLink, children, ...rest }) => { + const { styles } = useStyles(); + + return ( + + +

{title}

+ {moreLink && ( + + + + )} +
+ {children} +
+ ); +}); + +export default Block; diff --git a/src/app/(main)/discover/(detail)/features/DetailLayout.tsx b/src/app/(main)/discover/(detail)/features/DetailLayout.tsx new file mode 100644 index 000000000000..6276bf15733f --- /dev/null +++ b/src/app/(main)/discover/(detail)/features/DetailLayout.tsx @@ -0,0 +1,91 @@ +'use client'; + +import { useResponsive } from 'antd-style'; +import { ReactNode, memo } from 'react'; +import { Flexbox } from 'react-layout-kit'; + +import Footer from '@/features/Setting/Footer'; +import { useInterceptingRoutes } from '@/hooks/useInterceptingRoutes'; + +import SidebarContainer from './SidebarContainer'; + +interface DetailLayoutProps { + actions?: ReactNode; + children?: ReactNode; + header: ReactNode; + mobile?: boolean; + sidebar?: ReactNode; + statistics?: ReactNode; +} + +const DetailLayout = memo( + ({ statistics, mobile, header, sidebar, children, actions }) => { + const { md = true, xl = true } = useResponsive(); + const { isIntercepted } = useInterceptingRoutes(); + + if (mobile || !md || (isIntercepted && !xl)) + return ( + <> + {header} + + {actions} + {statistics} + + {children} + {sidebar} +