@lobehub/chat 1.50.2 → 1.50.3
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/docs/self-hosting/server-database/docker-compose.mdx +31 -31
- package/docs/self-hosting/server-database/docker-compose.zh-CN.mdx +32 -32
- package/locales/ar/models.json +22 -34
- package/locales/bg-BG/models.json +22 -34
- package/locales/de-DE/models.json +22 -34
- package/locales/en-US/models.json +22 -34
- package/locales/es-ES/models.json +22 -34
- package/locales/fa-IR/models.json +22 -34
- package/locales/fr-FR/models.json +22 -34
- package/locales/it-IT/models.json +22 -34
- package/locales/ja-JP/models.json +22 -34
- package/locales/ko-KR/models.json +25 -38
- package/locales/nl-NL/models.json +22 -34
- package/locales/pl-PL/models.json +22 -34
- package/locales/pt-BR/models.json +22 -34
- package/locales/ru-RU/models.json +22 -34
- package/locales/tr-TR/models.json +22 -34
- package/locales/vi-VN/models.json +22 -34
- package/locales/zh-CN/models.json +39 -51
- package/locales/zh-TW/models.json +22 -34
- package/package.json +1 -1
@@ -323,21 +323,15 @@
|
|
323
323
|
"abab7-chat-preview": {
|
324
324
|
"description": "نسبت به مدلهای سری abab6.5، در تواناییهای مربوط به متنهای طولانی، ریاضیات و نوشتن به طور قابل توجهی بهبود یافته است."
|
325
325
|
},
|
326
|
-
"accounts/fireworks/models/
|
327
|
-
"description": "مدل
|
326
|
+
"accounts/fireworks/models/deepseek-r1": {
|
327
|
+
"description": "DeepSeek-R1 یک مدل زبان بزرگ پیشرفته است که با یادگیری تقویتی و بهینهسازی دادههای راهاندازی سرد، عملکرد استدلال، ریاضیات و برنامهنویسی فوقالعادهای دارد."
|
328
328
|
},
|
329
|
-
"accounts/fireworks/models/
|
330
|
-
"description": "مدل
|
331
|
-
},
|
332
|
-
"accounts/fireworks/models/firellava-13b": {
|
333
|
-
"description": "fireworks-ai/FireLLaVA-13b یک مدل زبان بصری است که میتواند بهطور همزمان ورودیهای تصویر و متن را دریافت کند. این مدل با دادههای باکیفیت آموزش دیده و برای وظایف چندوجهی مناسب است."
|
329
|
+
"accounts/fireworks/models/deepseek-v3": {
|
330
|
+
"description": "مدل زبان قدرتمند Mixture-of-Experts (MoE) ارائه شده توسط Deepseek، با مجموع پارامترها به میزان 671B و فعالسازی 37B پارامتر برای هر نشانه."
|
334
331
|
},
|
335
332
|
"accounts/fireworks/models/llama-v3-70b-instruct": {
|
336
333
|
"description": "مدل Llama 3 70B دستورالعمل، بهطور ویژه برای مکالمات چندزبانه و درک زبان طبیعی بهینهسازی شده است و عملکردی بهتر از اکثر مدلهای رقیب دارد."
|
337
334
|
},
|
338
|
-
"accounts/fireworks/models/llama-v3-70b-instruct-hf": {
|
339
|
-
"description": "مدل Llama 3 70B دستورالعمل (نسخه HF)، با نتایج پیادهسازی رسمی سازگار است و برای وظایف پیروی از دستورالعمل با کیفیت بالا مناسب است."
|
340
|
-
},
|
341
335
|
"accounts/fireworks/models/llama-v3-8b-instruct": {
|
342
336
|
"description": "مدل Llama 3 8B دستورالعمل، بهینهسازی شده برای مکالمه و وظایف چندزبانه، با عملکرد برجسته و کارآمد."
|
343
337
|
},
|
@@ -356,24 +350,24 @@
|
|
356
350
|
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
|
357
351
|
"description": "مدل استنتاج تصویر با ۱۱ میلیارد پارامتر از Meta که برای دستورالعملها تنظیم شده است. این مدل برای تشخیص بصری، استنتاج تصویر، توصیف تصویر و پاسخ به سوالات عمومی درباره تصاویر بهینهسازی شده است. این مدل قادر به درک دادههای بصری مانند نمودارها و گرافها است و با تولید توضیحات متنی از جزئیات تصاویر، فاصله بین دیداری و زبانی را پر میکند."
|
358
352
|
},
|
359
|
-
"accounts/fireworks/models/llama-v3p2-1b-instruct": {
|
360
|
-
"description": "مدل Llama 3.2 1B دستورالعمل یک مدل چندزبانه سبک است که توسط Meta ارائه شده است. این مدل با هدف بهبود کارایی طراحی شده و در مقایسه با مدلهای بزرگتر، بهبودهای قابل توجهی در تأخیر و هزینه ارائه میدهد. موارد استفاده نمونه از این مدل شامل بازیابی و خلاصهسازی است."
|
361
|
-
},
|
362
353
|
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
|
363
354
|
"description": "مدل Llama 3.2 3B دستورالعمل یک مدل چندزبانه سبک است که توسط Meta ارائه شده است. این مدل با هدف بهبود کارایی طراحی شده و در مقایسه با مدلهای بزرگتر، بهبودهای قابل توجهی در تأخیر و هزینه ارائه میدهد. نمونههای کاربردی این مدل شامل بازنویسی پرسشها و دستورات و همچنین کمک به نوشتن است."
|
364
355
|
},
|
365
356
|
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
|
366
357
|
"description": "مدل استنتاج تصویر با 90 میلیارد پارامتر از Meta که برای دستورالعملها تنظیم شده است. این مدل برای تشخیص بصری، استنتاج تصویر، توصیف تصویر و پاسخ به سوالات عمومی در مورد تصاویر بهینهسازی شده است. این مدل قادر است دادههای بصری مانند نمودارها و گرافها را درک کند و با تولید توضیحات متنی از جزئیات تصویر، فاصله بین دیداری و زبانی را پر کند."
|
367
358
|
},
|
359
|
+
"accounts/fireworks/models/llama-v3p3-70b-instruct": {
|
360
|
+
"description": "مدل Llama 3.3 70B Instruct نسخه بهروزرسانی شده Llama 3.1 70B در دسامبر است. این مدل بر اساس Llama 3.1 70B (منتشر شده در ژوئیه 2024) بهبود یافته و قابلیتهای فراخوانی ابزار، پشتیبانی از متن چند زبانه، ریاضیات و برنامهنویسی را تقویت کرده است. این مدل در استدلال، ریاضیات و پیروی از دستورات به سطح پیشرفتهای در صنعت رسیده و میتواند عملکردی مشابه با 3.1 405B ارائه دهد، در حالی که از نظر سرعت و هزینه مزایای قابل توجهی دارد."
|
361
|
+
},
|
362
|
+
"accounts/fireworks/models/mistral-small-24b-instruct-2501": {
|
363
|
+
"description": "مدل 24B با پارامترهایی که قابلیتهای پیشرفتهای مشابه مدلهای بزرگتر را داراست."
|
364
|
+
},
|
368
365
|
"accounts/fireworks/models/mixtral-8x22b-instruct": {
|
369
366
|
"description": "مدل Mixtral MoE 8x22B دستوری، با پارامترهای بزرگ و معماری چندین متخصص، پشتیبانی کامل از پردازش کارآمد وظایف پیچیده."
|
370
367
|
},
|
371
368
|
"accounts/fireworks/models/mixtral-8x7b-instruct": {
|
372
369
|
"description": "مدل Mixtral MoE 8x7B، معماری چندین متخصص برای پیروی و اجرای دستورات بهصورت کارآمد ارائه میدهد."
|
373
370
|
},
|
374
|
-
"accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
|
375
|
-
"description": "مدل Mixtral MoE 8x7B دستورالعمل (نسخه HF)، با عملکردی مشابه با پیادهسازی رسمی، مناسب برای انواع سناریوهای وظایف کارآمد."
|
376
|
-
},
|
377
371
|
"accounts/fireworks/models/mythomax-l2-13b": {
|
378
372
|
"description": "مدل MythoMax L2 13B، با استفاده از تکنیکهای ترکیبی نوآورانه، در روایت داستان و نقشآفرینی مهارت دارد."
|
379
373
|
},
|
@@ -383,18 +377,15 @@
|
|
383
377
|
"accounts/fireworks/models/qwen-qwq-32b-preview": {
|
384
378
|
"description": "مدل QwQ یک مدل تحقیقاتی تجربی است که توسط تیم Qwen توسعه یافته و بر تقویت توانایی استدلال AI تمرکز دارد."
|
385
379
|
},
|
380
|
+
"accounts/fireworks/models/qwen2-vl-72b-instruct": {
|
381
|
+
"description": "نسخه 72B مدل Qwen-VL نتیجه جدیدترین بهروزرسانیهای علیبابا است که نمایانگر نوآوریهای نزدیک به یک سال اخیر است."
|
382
|
+
},
|
386
383
|
"accounts/fireworks/models/qwen2p5-72b-instruct": {
|
387
384
|
"description": "Qwen2.5 مجموعهای از مدلهای زبانی است که تنها شامل رمزگشاها میباشد و توسط تیم Qwen علیبابا کلود توسعه یافته است. این مدلها در اندازههای مختلف از جمله 0.5B، 1.5B، 3B، 7B، 14B، 32B و 72B ارائه میشوند و دارای دو نوع پایه (base) و دستوری (instruct) هستند."
|
388
385
|
},
|
389
386
|
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
|
390
387
|
"description": "Qwen2.5 Coder 32B Instruct جدیدترین نسخه از سری مدلهای زبانی بزرگ خاص کد است که توسط Alibaba Cloud منتشر شده است. این مدل بر اساس Qwen2.5 و با آموزش 5.5 تریلیون توکن، توانایی تولید کد، استدلال و اصلاح را به طور قابل توجهی افزایش داده است. این مدل نه تنها توانایی کدنویسی را تقویت کرده بلکه مزایای ریاضی و عمومی را نیز حفظ کرده است. این مدل پایهای جامعتر برای کاربردهای عملی مانند عاملهای کد فراهم میکند."
|
391
388
|
},
|
392
|
-
"accounts/fireworks/models/starcoder-16b": {
|
393
|
-
"description": "مدل StarCoder 15.5B، پشتیبانی از وظایف پیشرفته برنامهنویسی، با قابلیتهای چندزبانه تقویت شده، مناسب برای تولید و درک کدهای پیچیده."
|
394
|
-
},
|
395
|
-
"accounts/fireworks/models/starcoder-7b": {
|
396
|
-
"description": "مدل StarCoder 7B، آموزشدیده بر روی بیش از ۸۰ زبان برنامهنویسی مختلف، با توانایی برجسته در تکمیل کد و درک زمینه."
|
397
|
-
},
|
398
389
|
"accounts/yi-01-ai/models/yi-large": {
|
399
390
|
"description": "مدل Yi-Large، با توانایی برجسته در پردازش چندزبانه، مناسب برای انواع وظایف تولید و درک زبان."
|
400
391
|
},
|
@@ -887,30 +878,18 @@
|
|
887
878
|
"lite": {
|
888
879
|
"description": "Spark Lite یک مدل زبان بزرگ سبک است که دارای تأخیر بسیار کم و توانایی پردازش کارآمد میباشد. بهطور کامل رایگان و باز است و از قابلیت جستجوی آنلاین در زمان واقعی پشتیبانی میکند. ویژگی پاسخدهی سریع آن باعث میشود که در کاربردهای استنتاجی و تنظیم مدل در دستگاههای با توان محاسباتی پایین عملکرد برجستهای داشته باشد و تجربهای هوشمند و مقرونبهصرفه برای کاربران فراهم کند. بهویژه در زمینههای پرسش و پاسخ دانش، تولید محتوا و جستجو عملکرد خوبی دارد."
|
889
880
|
},
|
890
|
-
"llama-3.1-70b-instruct": {
|
891
|
-
"description": "مدل Llama 3.1 70B Instruct با 70 میلیارد پارامتر، قادر به ارائه عملکرد برجسته در تولید متنهای بزرگ و انجام وظایف دستوری است."
|
892
|
-
},
|
893
881
|
"llama-3.1-70b-versatile": {
|
894
882
|
"description": "لاما 3.1 70B توانایی استدلال هوش مصنوعی قویتری را ارائه میدهد، مناسب برای برنامههای پیچیده، پشتیبانی از پردازشهای محاسباتی فراوان و تضمین کارایی و دقت بالا."
|
895
883
|
},
|
896
884
|
"llama-3.1-8b-instant": {
|
897
885
|
"description": "Llama 3.1 8B یک مدل با کارایی بالا است که توانایی تولید سریع متن را فراهم میکند و برای کاربردهایی که به بهرهوری و صرفهجویی در هزینه در مقیاس بزرگ نیاز دارند، بسیار مناسب است."
|
898
886
|
},
|
899
|
-
"llama-3.1-8b-instruct": {
|
900
|
-
"description": "مدل Llama 3.1 8B Instruct با 8 میلیارد پارامتر، قابلیت اجرای کارهای مبتنی بر دستورات تصویری را بهطور مؤثر دارد و توانایی تولید متن با کیفیت بالا را ارائه میدهد."
|
901
|
-
},
|
902
887
|
"llama-3.1-sonar-huge-128k-online": {
|
903
888
|
"description": "مدل Llama 3.1 Sonar Huge Online با 405 میلیارد پارامتر، پشتیبانی از طول زمینه حدود 127,000 نشانه، طراحی شده برای برنامههای چت آنلاین پیچیده."
|
904
889
|
},
|
905
|
-
"llama-3.1-sonar-large-128k-chat": {
|
906
|
-
"description": "مدل Llama 3.1 Sonar Large Chat با 70 میلیارد پارامتر، پشتیبانی از طول زمینه حدود 127,000 نشانه، مناسب برای وظایف پیچیده چت آفلاین."
|
907
|
-
},
|
908
890
|
"llama-3.1-sonar-large-128k-online": {
|
909
891
|
"description": "مدل Llama 3.1 Sonar Large Online با 70 میلیارد پارامتر، پشتیبانی از طول زمینه حدود 127,000 نشانه، مناسب برای وظایف چت با حجم بالا و متنوع."
|
910
892
|
},
|
911
|
-
"llama-3.1-sonar-small-128k-chat": {
|
912
|
-
"description": "مدل Llama 3.1 Sonar Small Chat با 8 میلیارد پارامتر، بهطور خاص برای چت آفلاین طراحی شده و از طول زمینهای حدود 127,000 نشانه پشتیبانی میکند."
|
913
|
-
},
|
914
893
|
"llama-3.1-sonar-small-128k-online": {
|
915
894
|
"description": "مدل Llama 3.1 Sonar Small Online با 8 میلیارد پارامتر، پشتیبانی از طول زمینهای حدود 127,000 نشانه، بهطور ویژه برای چت آنلاین طراحی شده و میتواند بهطور کارآمد انواع تعاملات متنی را پردازش کند."
|
916
895
|
},
|
@@ -1355,6 +1334,15 @@
|
|
1355
1334
|
"solar-pro": {
|
1356
1335
|
"description": "Solar Pro یک مدل هوش مصنوعی پیشرفته از Upstage است که بر توانایی پیروی از دستورات با استفاده از یک GPU تمرکز دارد و امتیاز IFEval بالای 80 را کسب کرده است. در حال حاضر از زبان انگلیسی پشتیبانی میکند و نسخه رسمی آن برای نوامبر 2024 برنامهریزی شده است که پشتیبانی از زبانهای بیشتر و طول زمینه را گسترش خواهد داد."
|
1357
1336
|
},
|
1337
|
+
"sonar": {
|
1338
|
+
"description": "محصول جستجوی سبک بر اساس زمینه جستجو که سریعتر و ارزانتر از Sonar Pro است."
|
1339
|
+
},
|
1340
|
+
"sonar-pro": {
|
1341
|
+
"description": "محصول جستجوی پیشرفته که از جستجوی زمینه پشتیبانی میکند و قابلیتهای پیشرفتهای برای پرسش و پیگیری دارد."
|
1342
|
+
},
|
1343
|
+
"sonar-reasoning": {
|
1344
|
+
"description": "محصول جدید API که توسط مدل استدلال DeepSeek پشتیبانی میشود."
|
1345
|
+
},
|
1358
1346
|
"step-1-128k": {
|
1359
1347
|
"description": "تعادل بین عملکرد و هزینه، مناسب برای سناریوهای عمومی."
|
1360
1348
|
},
|
@@ -323,21 +323,15 @@
|
|
323
323
|
"abab7-chat-preview": {
|
324
324
|
"description": "Par rapport à la série de modèles abab6.5, il y a eu une amélioration significative des capacités en matière de textes longs, de mathématiques et d'écriture."
|
325
325
|
},
|
326
|
-
"accounts/fireworks/models/
|
327
|
-
"description": "
|
326
|
+
"accounts/fireworks/models/deepseek-r1": {
|
327
|
+
"description": "DeepSeek-R1 est un modèle de langage de grande taille à la pointe de la technologie, optimisé par apprentissage renforcé et données de démarrage à froid, offrant d'excellentes performances en raisonnement, mathématiques et programmation."
|
328
328
|
},
|
329
|
-
"accounts/fireworks/models/
|
330
|
-
"description": "
|
331
|
-
},
|
332
|
-
"accounts/fireworks/models/firellava-13b": {
|
333
|
-
"description": "fireworks-ai/FireLLaVA-13b est un modèle de langage visuel capable de recevoir simultanément des entrées d'images et de texte, entraîné sur des données de haute qualité, adapté aux tâches multimodales."
|
329
|
+
"accounts/fireworks/models/deepseek-v3": {
|
330
|
+
"description": "Modèle de langage puissant de Deepseek basé sur un mélange d'experts (MoE), avec un total de 671B de paramètres, activant 37B de paramètres par jeton."
|
334
331
|
},
|
335
332
|
"accounts/fireworks/models/llama-v3-70b-instruct": {
|
336
333
|
"description": "Le modèle d'instructions Llama 3 70B est optimisé pour les dialogues multilingues et la compréhension du langage naturel, surpassant la plupart des modèles concurrents."
|
337
334
|
},
|
338
|
-
"accounts/fireworks/models/llama-v3-70b-instruct-hf": {
|
339
|
-
"description": "Le modèle d'instructions Llama 3 70B (version HF) est conforme aux résultats de l'implémentation officielle, adapté aux tâches de suivi d'instructions de haute qualité."
|
340
|
-
},
|
341
335
|
"accounts/fireworks/models/llama-v3-8b-instruct": {
|
342
336
|
"description": "Le modèle d'instructions Llama 3 8B est optimisé pour les dialogues et les tâches multilingues, offrant des performances exceptionnelles et efficaces."
|
343
337
|
},
|
@@ -356,24 +350,24 @@
|
|
356
350
|
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
|
357
351
|
"description": "Modèle d'inférence d'image ajusté par instructions de Meta avec 11B paramètres. Ce modèle est optimisé pour la reconnaissance visuelle, l'inférence d'image, la description d'image et pour répondre à des questions générales sur l'image. Il est capable de comprendre des données visuelles, comme des graphiques et des diagrammes, et de combler le fossé entre la vision et le langage en générant des descriptions textuelles des détails de l'image."
|
358
352
|
},
|
359
|
-
"accounts/fireworks/models/llama-v3p2-1b-instruct": {
|
360
|
-
"description": "Le modèle d'instructions Llama 3.2 1B est un modèle multilingue léger lancé par Meta. Ce modèle vise à améliorer l'efficacité, offrant des améliorations significatives en matière de latence et de coût par rapport aux modèles plus grands. Les cas d'utilisation incluent la recherche et le résumé."
|
361
|
-
},
|
362
353
|
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
|
363
354
|
"description": "Le modèle d'instructions Llama 3.2 3B est un modèle multilingue léger lancé par Meta. Ce modèle vise à améliorer l'efficacité, offrant des améliorations significatives en matière de latence et de coût par rapport aux modèles plus grands. Les cas d'utilisation incluent les requêtes, la réécriture de prompts et l'assistance à l'écriture."
|
364
355
|
},
|
365
356
|
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
|
366
357
|
"description": "Modèle d'inférence d'image ajusté par instructions de Meta avec 90B paramètres. Ce modèle est optimisé pour la reconnaissance visuelle, l'inférence d'image, la description d'image et pour répondre à des questions générales sur l'image. Il est capable de comprendre des données visuelles, comme des graphiques et des diagrammes, et de combler le fossé entre la vision et le langage en générant des descriptions textuelles des détails de l'image."
|
367
358
|
},
|
359
|
+
"accounts/fireworks/models/llama-v3p3-70b-instruct": {
|
360
|
+
"description": "Llama 3.3 70B Instruct est la version mise à jour de Llama 3.1 70B de décembre. Ce modèle a été amélioré par rapport à Llama 3.1 70B (publié en juillet 2024), renforçant les appels d'outils, le support multilingue, ainsi que les capacités en mathématiques et en programmation. Ce modèle atteint des niveaux de performance de pointe dans le raisonnement, les mathématiques et le respect des instructions, tout en offrant des performances similaires à celles du 3.1 405B, avec des avantages significatifs en termes de vitesse et de coût."
|
361
|
+
},
|
362
|
+
"accounts/fireworks/models/mistral-small-24b-instruct-2501": {
|
363
|
+
"description": "Modèle de 24B paramètres, doté de capacités de pointe comparables à celles de modèles plus grands."
|
364
|
+
},
|
368
365
|
"accounts/fireworks/models/mixtral-8x22b-instruct": {
|
369
366
|
"description": "Le modèle d'instructions Mixtral MoE 8x22B, avec des paramètres à grande échelle et une architecture multi-experts, prend en charge efficacement le traitement de tâches complexes."
|
370
367
|
},
|
371
368
|
"accounts/fireworks/models/mixtral-8x7b-instruct": {
|
372
369
|
"description": "Le modèle d'instructions Mixtral MoE 8x7B, avec une architecture multi-experts, offre un suivi et une exécution d'instructions efficaces."
|
373
370
|
},
|
374
|
-
"accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
|
375
|
-
"description": "Le modèle d'instructions Mixtral MoE 8x7B (version HF) offre des performances conformes à l'implémentation officielle, adapté à divers scénarios de tâches efficaces."
|
376
|
-
},
|
377
371
|
"accounts/fireworks/models/mythomax-l2-13b": {
|
378
372
|
"description": "Le modèle MythoMax L2 13B, combinant des techniques de fusion novatrices, excelle dans la narration et le jeu de rôle."
|
379
373
|
},
|
@@ -383,18 +377,15 @@
|
|
383
377
|
"accounts/fireworks/models/qwen-qwq-32b-preview": {
|
384
378
|
"description": "Le modèle QwQ est un modèle de recherche expérimental développé par l'équipe Qwen, axé sur l'amélioration des capacités de raisonnement de l'IA."
|
385
379
|
},
|
380
|
+
"accounts/fireworks/models/qwen2-vl-72b-instruct": {
|
381
|
+
"description": "La version 72B du modèle Qwen-VL est le fruit de la dernière itération d'Alibaba, représentant près d'un an d'innovation."
|
382
|
+
},
|
386
383
|
"accounts/fireworks/models/qwen2p5-72b-instruct": {
|
387
384
|
"description": "Qwen2.5 est une série de modèles de langage à décodage uniquement développée par l'équipe Qwen d'Alibaba Cloud. Ces modèles sont offerts en différentes tailles, y compris 0.5B, 1.5B, 3B, 7B, 14B, 32B et 72B, avec des variantes de base (base) et d'instruction (instruct)."
|
388
385
|
},
|
389
386
|
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
|
390
387
|
"description": "Qwen2.5 Coder 32B Instruct est la dernière version de la série de modèles de langage à grande échelle spécifique au code publiée par Alibaba Cloud. Ce modèle, basé sur Qwen2.5, a été formé avec 55 trillions de tokens, améliorant considérablement les capacités de génération, de raisonnement et de correction de code. Il renforce non seulement les capacités de codage, mais maintient également des avantages en mathématiques et en compétences générales. Le modèle fournit une base plus complète pour des applications pratiques telles que les agents de code."
|
391
388
|
},
|
392
|
-
"accounts/fireworks/models/starcoder-16b": {
|
393
|
-
"description": "Le modèle StarCoder 15.5B prend en charge des tâches de programmation avancées, avec des capacités multilingues améliorées, adapté à la génération et à la compréhension de code complexes."
|
394
|
-
},
|
395
|
-
"accounts/fireworks/models/starcoder-7b": {
|
396
|
-
"description": "Le modèle StarCoder 7B est entraîné sur plus de 80 langages de programmation, offrant d'excellentes capacités de complétion de code et de compréhension contextuelle."
|
397
|
-
},
|
398
389
|
"accounts/yi-01-ai/models/yi-large": {
|
399
390
|
"description": "Le modèle Yi-Large offre d'excellentes capacités de traitement multilingue, adapté à diverses tâches de génération et de compréhension de langage."
|
400
391
|
},
|
@@ -887,30 +878,18 @@
|
|
887
878
|
"lite": {
|
888
879
|
"description": "Spark Lite est un modèle de langage léger, offrant une latence extrêmement faible et une capacité de traitement efficace, entièrement gratuit et ouvert, prenant en charge la recherche en temps réel. Sa capacité de réponse rapide le rend exceptionnel pour les applications d'inférence sur des appareils à faible puissance de calcul et pour le réglage des modèles, offrant aux utilisateurs un excellent rapport coût-efficacité et une expérience intelligente, en particulier dans les scénarios de questions-réponses, de génération de contenu et de recherche."
|
889
880
|
},
|
890
|
-
"llama-3.1-70b-instruct": {
|
891
|
-
"description": "Le modèle Llama 3.1 70B Instruct, avec 70B de paramètres, offre des performances exceptionnelles dans la génération de texte et les tâches d'instructions."
|
892
|
-
},
|
893
881
|
"llama-3.1-70b-versatile": {
|
894
882
|
"description": "Llama 3.1 70B offre une capacité de raisonnement AI plus puissante, adaptée aux applications complexes, prenant en charge un traitement de calcul intensif tout en garantissant efficacité et précision."
|
895
883
|
},
|
896
884
|
"llama-3.1-8b-instant": {
|
897
885
|
"description": "Llama 3.1 8B est un modèle à haute performance, offrant une capacité de génération de texte rapide, particulièrement adapté aux scénarios d'application nécessitant une efficacité à grande échelle et un rapport coût-efficacité."
|
898
886
|
},
|
899
|
-
"llama-3.1-8b-instruct": {
|
900
|
-
"description": "Le modèle Llama 3.1 8B Instruct, avec 8B de paramètres, prend en charge l'exécution efficace des tâches d'instructions visuelles, offrant d'excellentes capacités de génération de texte."
|
901
|
-
},
|
902
887
|
"llama-3.1-sonar-huge-128k-online": {
|
903
888
|
"description": "Le modèle Llama 3.1 Sonar Huge Online, avec 405B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, conçu pour des applications de chat en ligne complexes."
|
904
889
|
},
|
905
|
-
"llama-3.1-sonar-large-128k-chat": {
|
906
|
-
"description": "Le modèle Llama 3.1 Sonar Large Chat, avec 70B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, adapté aux tâches de chat hors ligne complexes."
|
907
|
-
},
|
908
890
|
"llama-3.1-sonar-large-128k-online": {
|
909
891
|
"description": "Le modèle Llama 3.1 Sonar Large Online, avec 70B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, adapté aux tâches de chat à haute capacité et diversifiées."
|
910
892
|
},
|
911
|
-
"llama-3.1-sonar-small-128k-chat": {
|
912
|
-
"description": "Le modèle Llama 3.1 Sonar Small Chat, avec 8B de paramètres, est conçu pour le chat hors ligne, prenant en charge une longueur de contexte d'environ 127 000 jetons."
|
913
|
-
},
|
914
893
|
"llama-3.1-sonar-small-128k-online": {
|
915
894
|
"description": "Le modèle Llama 3.1 Sonar Small Online, avec 8B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, conçu pour le chat en ligne, capable de traiter efficacement diverses interactions textuelles."
|
916
895
|
},
|
@@ -1355,6 +1334,15 @@
|
|
1355
1334
|
"solar-pro": {
|
1356
1335
|
"description": "Solar Pro est un LLM hautement intelligent lancé par Upstage, axé sur la capacité de suivi des instructions sur un seul GPU, avec un score IFEval supérieur à 80. Actuellement, il supporte l'anglais, et la version officielle est prévue pour novembre 2024, avec une extension du support linguistique et de la longueur du contexte."
|
1357
1336
|
},
|
1337
|
+
"sonar": {
|
1338
|
+
"description": "Produit de recherche léger basé sur le contexte de recherche, plus rapide et moins cher que Sonar Pro."
|
1339
|
+
},
|
1340
|
+
"sonar-pro": {
|
1341
|
+
"description": "Produit de recherche avancé prenant en charge le contexte de recherche, avec des requêtes avancées et un suivi."
|
1342
|
+
},
|
1343
|
+
"sonar-reasoning": {
|
1344
|
+
"description": "Nouveau produit API soutenu par le modèle de raisonnement DeepSeek."
|
1345
|
+
},
|
1358
1346
|
"step-1-128k": {
|
1359
1347
|
"description": "Équilibre entre performance et coût, adapté à des scénarios généraux."
|
1360
1348
|
},
|
@@ -323,21 +323,15 @@
|
|
323
323
|
"abab7-chat-preview": {
|
324
324
|
"description": "Rispetto alla serie di modelli abab6.5, ci sono stati notevoli miglioramenti nelle capacità di elaborazione di testi lunghi, matematica e scrittura."
|
325
325
|
},
|
326
|
-
"accounts/fireworks/models/
|
327
|
-
"description": "
|
326
|
+
"accounts/fireworks/models/deepseek-r1": {
|
327
|
+
"description": "DeepSeek-R1 è un modello linguistico di grandi dimensioni all'avanguardia, ottimizzato tramite apprendimento rinforzato e dati di cold start, con prestazioni eccezionali nel ragionamento, nella matematica e nella programmazione."
|
328
328
|
},
|
329
|
-
"accounts/fireworks/models/
|
330
|
-
"description": "
|
331
|
-
},
|
332
|
-
"accounts/fireworks/models/firellava-13b": {
|
333
|
-
"description": "fireworks-ai/FireLLaVA-13b è un modello di linguaggio visivo in grado di ricevere input sia visivi che testuali, addestrato su dati di alta qualità, adatto per compiti multimodali."
|
329
|
+
"accounts/fireworks/models/deepseek-v3": {
|
330
|
+
"description": "Un potente modello linguistico Mixture-of-Experts (MoE) fornito da Deepseek, con un totale di 671B di parametri, attivando 37B di parametri per ogni token."
|
334
331
|
},
|
335
332
|
"accounts/fireworks/models/llama-v3-70b-instruct": {
|
336
333
|
"description": "Il modello di istruzioni Llama 3 70B è ottimizzato per dialoghi multilingue e comprensione del linguaggio naturale, superando le prestazioni della maggior parte dei modelli concorrenti."
|
337
334
|
},
|
338
|
-
"accounts/fireworks/models/llama-v3-70b-instruct-hf": {
|
339
|
-
"description": "Il modello di istruzioni Llama 3 70B (versione HF) è allineato con i risultati dell'implementazione ufficiale, adatto per compiti di seguimento di istruzioni di alta qualità."
|
340
|
-
},
|
341
335
|
"accounts/fireworks/models/llama-v3-8b-instruct": {
|
342
336
|
"description": "Il modello di istruzioni Llama 3 8B è ottimizzato per dialoghi e compiti multilingue, offrendo prestazioni eccellenti e alta efficienza."
|
343
337
|
},
|
@@ -356,24 +350,24 @@
|
|
356
350
|
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
|
357
351
|
"description": "Modello di ragionamento visivo di Meta con 11 miliardi di parametri. Questo modello è ottimizzato per il riconoscimento visivo, il ragionamento visivo, la descrizione delle immagini e la risposta a domande generali riguardanti le immagini. Questo modello è in grado di comprendere dati visivi, come grafici e tabelle, e colmare il divario tra visione e linguaggio generando descrizioni testuali dei dettagli delle immagini."
|
358
352
|
},
|
359
|
-
"accounts/fireworks/models/llama-v3p2-1b-instruct": {
|
360
|
-
"description": "Il modello di istruzioni Llama 3.2 1B è un modello multilingue leggero lanciato da Meta. Questo modello è progettato per migliorare l'efficienza, offrendo miglioramenti significativi in termini di latenza e costi rispetto a modelli più grandi. I casi d'uso esemplari di questo modello includono recupero e sintesi."
|
361
|
-
},
|
362
353
|
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
|
363
354
|
"description": "Il modello di istruzioni Llama 3.2 3B è un modello multilingue leggero lanciato da Meta. Questo modello è progettato per migliorare l'efficienza, offrendo miglioramenti significativi in termini di latenza e costi rispetto a modelli più grandi. I casi d'uso esemplari di questo modello includono query e riscrittura di suggerimenti, nonché supporto alla scrittura."
|
364
355
|
},
|
365
356
|
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
|
366
357
|
"description": "Modello di ragionamento visivo di Meta con 90 miliardi di parametri. Questo modello è ottimizzato per il riconoscimento visivo, il ragionamento visivo, la descrizione delle immagini e la risposta a domande generali riguardanti le immagini. Questo modello è in grado di comprendere dati visivi, come grafici e tabelle, e colmare il divario tra visione e linguaggio generando descrizioni testuali dei dettagli delle immagini."
|
367
358
|
},
|
359
|
+
"accounts/fireworks/models/llama-v3p3-70b-instruct": {
|
360
|
+
"description": "Llama 3.3 70B Instruct è la versione aggiornata di dicembre di Llama 3.1 70B. Questo modello è stato migliorato rispetto a Llama 3.1 70B (rilasciato a luglio 2024), potenziando le capacità di chiamata degli strumenti, il supporto per testi multilingue, le abilità matematiche e di programmazione. Il modello raggiunge livelli di eccellenza nel ragionamento, nella matematica e nel rispetto delle istruzioni, offrendo prestazioni simili a quelle di 3.1 405B, con vantaggi significativi in termini di velocità e costi."
|
361
|
+
},
|
362
|
+
"accounts/fireworks/models/mistral-small-24b-instruct-2501": {
|
363
|
+
"description": "Modello con 24B di parametri, dotato di capacità all'avanguardia comparabili a modelli di dimensioni maggiori."
|
364
|
+
},
|
368
365
|
"accounts/fireworks/models/mixtral-8x22b-instruct": {
|
369
366
|
"description": "Il modello di istruzioni Mixtral MoE 8x22B, con parametri su larga scala e architettura multi-esperto, supporta in modo completo l'elaborazione efficiente di compiti complessi."
|
370
367
|
},
|
371
368
|
"accounts/fireworks/models/mixtral-8x7b-instruct": {
|
372
369
|
"description": "Il modello di istruzioni Mixtral MoE 8x7B, con architettura multi-esperto, offre un'elevata efficienza nel seguire e eseguire istruzioni."
|
373
370
|
},
|
374
|
-
"accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
|
375
|
-
"description": "Il modello di istruzioni Mixtral MoE 8x7B (versione HF) ha prestazioni coerenti con l'implementazione ufficiale, adatto per vari scenari di compiti efficienti."
|
376
|
-
},
|
377
371
|
"accounts/fireworks/models/mythomax-l2-13b": {
|
378
372
|
"description": "Il modello MythoMax L2 13B combina tecnologie di fusione innovative, specializzandosi in narrazione e interpretazione di ruoli."
|
379
373
|
},
|
@@ -383,18 +377,15 @@
|
|
383
377
|
"accounts/fireworks/models/qwen-qwq-32b-preview": {
|
384
378
|
"description": "Il modello QwQ è un modello di ricerca sperimentale sviluppato dal team Qwen, focalizzato sul potenziamento delle capacità di ragionamento dell'IA."
|
385
379
|
},
|
380
|
+
"accounts/fireworks/models/qwen2-vl-72b-instruct": {
|
381
|
+
"description": "La versione 72B del modello Qwen-VL è il risultato dell'ultima iterazione di Alibaba, rappresentando quasi un anno di innovazione."
|
382
|
+
},
|
386
383
|
"accounts/fireworks/models/qwen2p5-72b-instruct": {
|
387
384
|
"description": "Qwen2.5 è una serie di modelli linguistici solo decoder sviluppata dal team Qwen di Alibaba Cloud. Questi modelli offrono dimensioni diverse, tra cui 0.5B, 1.5B, 3B, 7B, 14B, 32B e 72B, e ci sono varianti base e di istruzione."
|
388
385
|
},
|
389
386
|
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
|
390
387
|
"description": "Qwen2.5 Coder 32B Instruct è l'ultima versione della serie di modelli linguistici di grandi dimensioni specifici per il codice rilasciata da Alibaba Cloud. Questo modello, basato su Qwen2.5, ha migliorato significativamente le capacità di generazione, ragionamento e riparazione del codice grazie all'addestramento su 55 trilioni di token. Ha potenziato non solo le capacità di codifica, ma ha anche mantenuto i vantaggi nelle abilità matematiche e generali. Il modello fornisce una base più completa per applicazioni pratiche come agenti di codice."
|
391
388
|
},
|
392
|
-
"accounts/fireworks/models/starcoder-16b": {
|
393
|
-
"description": "Il modello StarCoder 15.5B supporta compiti di programmazione avanzati, con capacità multilingue potenziate, adatto per la generazione e comprensione di codice complesso."
|
394
|
-
},
|
395
|
-
"accounts/fireworks/models/starcoder-7b": {
|
396
|
-
"description": "Il modello StarCoder 7B è addestrato su oltre 80 linguaggi di programmazione, con eccellenti capacità di completamento del codice e comprensione del contesto."
|
397
|
-
},
|
398
389
|
"accounts/yi-01-ai/models/yi-large": {
|
399
390
|
"description": "Il modello Yi-Large offre capacità eccezionali di elaborazione multilingue, utilizzabile per vari compiti di generazione e comprensione del linguaggio."
|
400
391
|
},
|
@@ -887,30 +878,18 @@
|
|
887
878
|
"lite": {
|
888
879
|
"description": "Spark Lite è un modello di linguaggio di grandi dimensioni leggero, con latenza estremamente bassa e capacità di elaborazione efficiente, completamente gratuito e aperto, supporta funzionalità di ricerca online in tempo reale. La sua caratteristica di risposta rapida lo rende eccellente per applicazioni di inferenza su dispositivi a bassa potenza e per il fine-tuning dei modelli, offrendo agli utenti un'ottima efficienza dei costi e un'esperienza intelligente, soprattutto nei contesti di domande e risposte, generazione di contenuti e ricerca."
|
889
880
|
},
|
890
|
-
"llama-3.1-70b-instruct": {
|
891
|
-
"description": "Il modello Llama 3.1 70B Instruct, con 70B parametri, offre prestazioni eccezionali in generazione di testi di grandi dimensioni e compiti di istruzione."
|
892
|
-
},
|
893
881
|
"llama-3.1-70b-versatile": {
|
894
882
|
"description": "Llama 3.1 70B offre capacità di ragionamento AI più potenti, adatto per applicazioni complesse, supporta un'elaborazione computazionale elevata garantendo efficienza e precisione."
|
895
883
|
},
|
896
884
|
"llama-3.1-8b-instant": {
|
897
885
|
"description": "Llama 3.1 8B è un modello ad alte prestazioni, offre capacità di generazione di testo rapida, particolarmente adatto per scenari applicativi che richiedono efficienza su larga scala e costi contenuti."
|
898
886
|
},
|
899
|
-
"llama-3.1-8b-instruct": {
|
900
|
-
"description": "Il modello Llama 3.1 8B Instruct, con 8B parametri, supporta l'esecuzione efficiente di compiti di istruzione, offrendo capacità di generazione testuale di alta qualità."
|
901
|
-
},
|
902
887
|
"llama-3.1-sonar-huge-128k-online": {
|
903
888
|
"description": "Il modello Llama 3.1 Sonar Huge Online, con 405B parametri, supporta una lunghezza di contesto di circa 127.000 token, progettato per applicazioni di chat online complesse."
|
904
889
|
},
|
905
|
-
"llama-3.1-sonar-large-128k-chat": {
|
906
|
-
"description": "Il modello Llama 3.1 Sonar Large Chat, con 70B parametri, supporta una lunghezza di contesto di circa 127.000 token, adatto per compiti di chat offline complessi."
|
907
|
-
},
|
908
890
|
"llama-3.1-sonar-large-128k-online": {
|
909
891
|
"description": "Il modello Llama 3.1 Sonar Large Online, con 70B parametri, supporta una lunghezza di contesto di circa 127.000 token, adatto per compiti di chat ad alta capacità e diversificati."
|
910
892
|
},
|
911
|
-
"llama-3.1-sonar-small-128k-chat": {
|
912
|
-
"description": "Il modello Llama 3.1 Sonar Small Chat, con 8B parametri, è progettato per chat offline, supportando una lunghezza di contesto di circa 127.000 token."
|
913
|
-
},
|
914
893
|
"llama-3.1-sonar-small-128k-online": {
|
915
894
|
"description": "Il modello Llama 3.1 Sonar Small Online, con 8B parametri, supporta una lunghezza di contesto di circa 127.000 token, progettato per chat online, in grado di gestire interazioni testuali in modo efficiente."
|
916
895
|
},
|
@@ -1355,6 +1334,15 @@
|
|
1355
1334
|
"solar-pro": {
|
1356
1335
|
"description": "Solar Pro è un LLM altamente intelligente lanciato da Upstage, focalizzato sulla capacità di seguire istruzioni su singolo GPU, con un punteggio IFEval superiore a 80. Attualmente supporta l'inglese, con una versione ufficiale prevista per novembre 2024, che espanderà il supporto linguistico e la lunghezza del contesto."
|
1357
1336
|
},
|
1337
|
+
"sonar": {
|
1338
|
+
"description": "Prodotto di ricerca leggero basato sul contesto di ricerca, più veloce e più economico rispetto a Sonar Pro."
|
1339
|
+
},
|
1340
|
+
"sonar-pro": {
|
1341
|
+
"description": "Prodotto di ricerca avanzata che supporta il contesto di ricerca, query avanzate e follow-up."
|
1342
|
+
},
|
1343
|
+
"sonar-reasoning": {
|
1344
|
+
"description": "Nuovo prodotto API supportato dal modello di ragionamento DeepSeek."
|
1345
|
+
},
|
1358
1346
|
"step-1-128k": {
|
1359
1347
|
"description": "Equilibrio tra prestazioni e costi, adatto per scenari generali."
|
1360
1348
|
},
|
@@ -323,21 +323,15 @@
|
|
323
323
|
"abab7-chat-preview": {
|
324
324
|
"description": "abab6.5シリーズモデルに比べて、長文、数学、執筆などの能力が大幅に向上しています。"
|
325
325
|
},
|
326
|
-
"accounts/fireworks/models/
|
327
|
-
"description": "
|
326
|
+
"accounts/fireworks/models/deepseek-r1": {
|
327
|
+
"description": "DeepSeek-R1は、強化学習とコールドスタートデータの最適化を経た最先端の大規模言語モデルで、優れた推論、数学、プログラミング性能を持っています。"
|
328
328
|
},
|
329
|
-
"accounts/fireworks/models/
|
330
|
-
"description": "
|
331
|
-
},
|
332
|
-
"accounts/fireworks/models/firellava-13b": {
|
333
|
-
"description": "fireworks-ai/FireLLaVA-13bは、画像とテキストの入力を同時に受け取ることができる視覚言語モデルであり、高品質なデータで訓練されており、多モーダルタスクに適しています。"
|
329
|
+
"accounts/fireworks/models/deepseek-v3": {
|
330
|
+
"description": "Deepseekが提供する強力なMixture-of-Experts (MoE)言語モデルで、総パラメータ数は671Bであり、各トークンは37Bのパラメータを活性化します。"
|
334
331
|
},
|
335
332
|
"accounts/fireworks/models/llama-v3-70b-instruct": {
|
336
333
|
"description": "Llama 3 70B指示モデルは、多言語対話と自然言語理解に最適化されており、ほとんどの競合モデルを上回る性能を持っています。"
|
337
334
|
},
|
338
|
-
"accounts/fireworks/models/llama-v3-70b-instruct-hf": {
|
339
|
-
"description": "Llama 3 70B指示モデル(HFバージョン)は、公式実装結果と一致し、高品質な指示フォロータスクに適しています。"
|
340
|
-
},
|
341
335
|
"accounts/fireworks/models/llama-v3-8b-instruct": {
|
342
336
|
"description": "Llama 3 8B指示モデルは、対話や多言語タスクに最適化されており、卓越した効率を発揮します。"
|
343
337
|
},
|
@@ -356,24 +350,24 @@
|
|
356
350
|
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
|
357
351
|
"description": "Metaの11Bパラメータ指示調整画像推論モデルです。このモデルは視覚認識、画像推論、画像説明、および画像に関する一般的な質問への回答に最適化されています。このモデルは、グラフや図表などの視覚データを理解し、画像の詳細をテキストで記述することで、視覚と言語の間のギャップを埋めることができます。"
|
358
352
|
},
|
359
|
-
"accounts/fireworks/models/llama-v3p2-1b-instruct": {
|
360
|
-
"description": "Llama 3.2 1B指示モデルはMetaが発表した軽量な多言語モデルです。このモデルは効率を向上させることを目的としており、より大規模なモデルと比較して遅延とコストの面で大きな改善を提供します。このモデルの使用例には、情報検索や要約が含まれます。"
|
361
|
-
},
|
362
353
|
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
|
363
354
|
"description": "Llama 3.2 3B指示モデルはMetaが発表した軽量な多言語モデルです。このモデルは効率を向上させることを目的としており、より大規模なモデルと比較して遅延とコストの面で大きな改善を提供します。このモデルの使用例には、問い合わせやプロンプトのリライト、執筆支援が含まれます。"
|
364
355
|
},
|
365
356
|
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
|
366
357
|
"description": "Metaの90Bパラメータ指示調整画像推論モデルです。このモデルは視覚認識、画像推論、画像説明、および画像に関する一般的な質問への回答に最適化されています。このモデルは、グラフや図表などの視覚データを理解し、画像の詳細をテキストで記述することで、視覚と言語の間のギャップを埋めることができます。"
|
367
358
|
},
|
359
|
+
"accounts/fireworks/models/llama-v3p3-70b-instruct": {
|
360
|
+
"description": "Llama 3.3 70B Instructは、Llama 3.1 70Bの12月の更新版です。このモデルは、2024年7月にリリースされたLlama 3.1 70Bを基に改良され、ツール呼び出し、多言語テキストサポート、数学およびプログラミング能力が強化されています。このモデルは、推論、数学、指示遵守の面で業界の最前線に達しており、3.1 405Bと同等の性能を提供しつつ、速度とコストにおいて顕著な利点を持っています。"
|
361
|
+
},
|
362
|
+
"accounts/fireworks/models/mistral-small-24b-instruct-2501": {
|
363
|
+
"description": "24Bパラメータモデルで、より大規模なモデルと同等の最先端の能力を備えています。"
|
364
|
+
},
|
368
365
|
"accounts/fireworks/models/mixtral-8x22b-instruct": {
|
369
366
|
"description": "Mixtral MoE 8x22B指示モデルは、大規模なパラメータと多専門家アーキテクチャを持ち、複雑なタスクの高効率処理を全方位でサポートします。"
|
370
367
|
},
|
371
368
|
"accounts/fireworks/models/mixtral-8x7b-instruct": {
|
372
369
|
"description": "Mixtral MoE 8x7B指示モデルは、多専門家アーキテクチャを提供し、高効率の指示フォローと実行をサポートします。"
|
373
370
|
},
|
374
|
-
"accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
|
375
|
-
"description": "Mixtral MoE 8x7B指示モデル(HFバージョン)は、公式実装と一致し、さまざまな高効率タスクシナリオに適しています。"
|
376
|
-
},
|
377
371
|
"accounts/fireworks/models/mythomax-l2-13b": {
|
378
372
|
"description": "MythoMax L2 13Bモデルは、新しい統合技術を組み合わせており、物語やキャラクターの役割に優れています。"
|
379
373
|
},
|
@@ -383,18 +377,15 @@
|
|
383
377
|
"accounts/fireworks/models/qwen-qwq-32b-preview": {
|
384
378
|
"description": "QwQモデルはQwenチームによって開発された実験的な研究モデルで、AIの推論能力を強化することに焦点を当てています。"
|
385
379
|
},
|
380
|
+
"accounts/fireworks/models/qwen2-vl-72b-instruct": {
|
381
|
+
"description": "Qwen-VLモデルの72Bバージョンは、アリババの最新のイテレーションの成果であり、近年の革新を代表しています。"
|
382
|
+
},
|
386
383
|
"accounts/fireworks/models/qwen2p5-72b-instruct": {
|
387
384
|
"description": "Qwen2.5はAlibaba Cloud Qwenチームによって開発された一連のデコーダーのみを含む言語モデルです。これらのモデルは、0.5B、1.5B、3B、7B、14B、32B、72Bなど、さまざまなサイズを提供し、ベース版と指示版の2種類のバリエーションがあります。"
|
388
385
|
},
|
389
386
|
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
|
390
387
|
"description": "Qwen2.5 Coder 32B InstructはAlibaba Cloudが発表したコード特化型大規模言語モデルシリーズの最新バージョンです。このモデルはQwen2.5を基に、55兆トークンの訓練を通じて、コード生成、推論、修正能力を大幅に向上させました。コーディング能力を強化するだけでなく、数学および一般的な能力の利点も維持しています。このモデルはコードエージェントなどの実際のアプリケーションに対して、より包括的な基盤を提供します。"
|
391
388
|
},
|
392
|
-
"accounts/fireworks/models/starcoder-16b": {
|
393
|
-
"description": "StarCoder 15.5Bモデルは、高度なプログラミングタスクをサポートし、多言語能力を強化し、複雑なコード生成と理解に適しています。"
|
394
|
-
},
|
395
|
-
"accounts/fireworks/models/starcoder-7b": {
|
396
|
-
"description": "StarCoder 7Bモデルは、80以上のプログラミング言語に特化して訓練されており、優れたプログラミング補完能力と文脈理解を持っています。"
|
397
|
-
},
|
398
389
|
"accounts/yi-01-ai/models/yi-large": {
|
399
390
|
"description": "Yi-Largeモデルは、卓越した多言語処理能力を持ち、さまざまな言語生成と理解タスクに使用できます。"
|
400
391
|
},
|
@@ -887,30 +878,18 @@
|
|
887
878
|
"lite": {
|
888
879
|
"description": "Spark Liteは軽量な大規模言語モデルで、非常に低い遅延と高い処理能力を備えています。完全に無料でオープンであり、リアルタイムのオンライン検索機能をサポートしています。その迅速な応答特性により、低算力デバイスでの推論アプリケーションやモデルの微調整において優れたパフォーマンスを発揮し、特に知識問答、コンテンツ生成、検索シーンにおいて優れたコストパフォーマンスとインテリジェントな体験を提供します。"
|
889
880
|
},
|
890
|
-
"llama-3.1-70b-instruct": {
|
891
|
-
"description": "Llama 3.1 70B Instructモデルは、70Bパラメータを持ち、大規模なテキスト生成と指示タスクで卓越した性能を提供します。"
|
892
|
-
},
|
893
881
|
"llama-3.1-70b-versatile": {
|
894
882
|
"description": "Llama 3.1 70Bは、より強力なAI推論能力を提供し、複雑なアプリケーションに適しており、非常に多くの計算処理をサポートし、高効率と精度を保証します。"
|
895
883
|
},
|
896
884
|
"llama-3.1-8b-instant": {
|
897
885
|
"description": "Llama 3.1 8Bは、高効率モデルであり、迅速なテキスト生成能力を提供し、大規模な効率とコスト効果が求められるアプリケーションシナリオに非常に適しています。"
|
898
886
|
},
|
899
|
-
"llama-3.1-8b-instruct": {
|
900
|
-
"description": "Llama 3.1 8B Instructモデルは、8Bパラメータを持ち、画面指示タスクの高効率な実行をサポートし、優れたテキスト生成能力を提供します。"
|
901
|
-
},
|
902
887
|
"llama-3.1-sonar-huge-128k-online": {
|
903
888
|
"description": "Llama 3.1 Sonar Huge Onlineモデルは、405Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、複雑なオンラインチャットアプリケーション用に設計されています。"
|
904
889
|
},
|
905
|
-
"llama-3.1-sonar-large-128k-chat": {
|
906
|
-
"description": "Llama 3.1 Sonar Large Chatモデルは、70Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、複雑なオフラインチャットタスクに適しています。"
|
907
|
-
},
|
908
890
|
"llama-3.1-sonar-large-128k-online": {
|
909
891
|
"description": "Llama 3.1 Sonar Large Onlineモデルは、70Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、高容量で多様なチャットタスクに適しています。"
|
910
892
|
},
|
911
|
-
"llama-3.1-sonar-small-128k-chat": {
|
912
|
-
"description": "Llama 3.1 Sonar Small Chatモデルは、8Bパラメータを持ち、オフラインチャット用に設計されており、約127,000トークンのコンテキスト長をサポートします。"
|
913
|
-
},
|
914
893
|
"llama-3.1-sonar-small-128k-online": {
|
915
894
|
"description": "Llama 3.1 Sonar Small Onlineモデルは、8Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、オンラインチャット用に設計されており、さまざまなテキストインタラクションを効率的に処理できます。"
|
916
895
|
},
|
@@ -1355,6 +1334,15 @@
|
|
1355
1334
|
"solar-pro": {
|
1356
1335
|
"description": "Solar ProはUpstageが発表した高インテリジェンスLLMで、単一GPUの指示追従能力に特化しており、IFEvalスコアは80以上です。現在は英語をサポートしており、正式版は2024年11月にリリース予定で、言語サポートとコンテキスト長を拡張します。"
|
1357
1336
|
},
|
1337
|
+
"sonar": {
|
1338
|
+
"description": "検索コンテキストに基づく軽量検索製品で、Sonar Proよりも速く、安価です。"
|
1339
|
+
},
|
1340
|
+
"sonar-pro": {
|
1341
|
+
"description": "検索コンテキストをサポートする高度な検索製品で、高度なクエリとフォローアップをサポートします。"
|
1342
|
+
},
|
1343
|
+
"sonar-reasoning": {
|
1344
|
+
"description": "DeepSeek推論モデルによってサポートされる新しいAPI製品です。"
|
1345
|
+
},
|
1358
1346
|
"step-1-128k": {
|
1359
1347
|
"description": "性能とコストのバランスを取り、一般的なシナリオに適しています。"
|
1360
1348
|
},
|