@lobehub/chat 1.50.2 → 1.50.3

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
@@ -323,21 +323,15 @@
323
323
  "abab7-chat-preview": {
324
324
  "description": "نسبت به مدل‌های سری abab6.5، در توانایی‌های مربوط به متن‌های طولانی، ریاضیات و نوشتن به طور قابل توجهی بهبود یافته است."
325
325
  },
326
- "accounts/fireworks/models/firefunction-v1": {
327
- "description": "مدل فراخوانی تابع Fireworks منبع‌باز، ارائه‌دهنده قابلیت اجرای دستورالعمل‌های برجسته و ویژگی‌های باز و قابل سفارشی‌سازی."
326
+ "accounts/fireworks/models/deepseek-r1": {
327
+ "description": "DeepSeek-R1 یک مدل زبان بزرگ پیشرفته است که با یادگیری تقویتی و بهینه‌سازی داده‌های راه‌اندازی سرد، عملکرد استدلال، ریاضیات و برنامه‌نویسی فوق‌العاده‌ای دارد."
328
328
  },
329
- "accounts/fireworks/models/firefunction-v2": {
330
- "description": "مدل Firefunction-v2 که به تازگی توسط شرکت Fireworks معرفی شده است، یک مدل فراخوانی تابع با عملکرد عالی است که بر اساس Llama-3 توسعه یافته و با بهینه‌سازی‌های گسترده، به‌ویژه برای فراخوانی توابع، مکالمات و پیروی از دستورات مناسب است."
331
- },
332
- "accounts/fireworks/models/firellava-13b": {
333
- "description": "fireworks-ai/FireLLaVA-13b یک مدل زبان بصری است که می‌تواند به‌طور همزمان ورودی‌های تصویر و متن را دریافت کند. این مدل با داده‌های باکیفیت آموزش دیده و برای وظایف چندوجهی مناسب است."
329
+ "accounts/fireworks/models/deepseek-v3": {
330
+ "description": "مدل زبان قدرتمند Mixture-of-Experts (MoE) ارائه شده توسط Deepseek، با مجموع پارامترها به میزان 671B و فعال‌سازی 37B پارامتر برای هر نشانه."
334
331
  },
335
332
  "accounts/fireworks/models/llama-v3-70b-instruct": {
336
333
  "description": "مدل Llama 3 70B دستورالعمل، به‌طور ویژه برای مکالمات چندزبانه و درک زبان طبیعی بهینه‌سازی شده است و عملکردی بهتر از اکثر مدل‌های رقیب دارد."
337
334
  },
338
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
339
- "description": "مدل Llama 3 70B دستورالعمل (نسخه HF)، با نتایج پیاده‌سازی رسمی سازگار است و برای وظایف پیروی از دستورالعمل با کیفیت بالا مناسب است."
340
- },
341
335
  "accounts/fireworks/models/llama-v3-8b-instruct": {
342
336
  "description": "مدل Llama 3 8B دستورالعمل، بهینه‌سازی شده برای مکالمه و وظایف چندزبانه، با عملکرد برجسته و کارآمد."
343
337
  },
@@ -356,24 +350,24 @@
356
350
  "accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
357
351
  "description": "مدل استنتاج تصویر با ۱۱ میلیارد پارامتر از Meta که برای دستورالعمل‌ها تنظیم شده است. این مدل برای تشخیص بصری، استنتاج تصویر، توصیف تصویر و پاسخ به سوالات عمومی درباره تصاویر بهینه‌سازی شده است. این مدل قادر به درک داده‌های بصری مانند نمودارها و گراف‌ها است و با تولید توضیحات متنی از جزئیات تصاویر، فاصله بین دیداری و زبانی را پر می‌کند."
358
352
  },
359
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
360
- "description": "مدل Llama 3.2 1B دستورالعمل یک مدل چندزبانه سبک است که توسط Meta ارائه شده است. این مدل با هدف بهبود کارایی طراحی شده و در مقایسه با مدل‌های بزرگتر، بهبودهای قابل توجهی در تأخیر و هزینه ارائه می‌دهد. موارد استفاده نمونه از این مدل شامل بازیابی و خلاصه‌سازی است."
361
- },
362
353
  "accounts/fireworks/models/llama-v3p2-3b-instruct": {
363
354
  "description": "مدل Llama 3.2 3B دستورالعمل یک مدل چندزبانه سبک است که توسط Meta ارائه شده است. این مدل با هدف بهبود کارایی طراحی شده و در مقایسه با مدل‌های بزرگ‌تر، بهبودهای قابل توجهی در تأخیر و هزینه ارائه می‌دهد. نمونه‌های کاربردی این مدل شامل بازنویسی پرسش‌ها و دستورات و همچنین کمک به نوشتن است."
364
355
  },
365
356
  "accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
366
357
  "description": "مدل استنتاج تصویر با 90 میلیارد پارامتر از Meta که برای دستورالعمل‌ها تنظیم شده است. این مدل برای تشخیص بصری، استنتاج تصویر، توصیف تصویر و پاسخ به سوالات عمومی در مورد تصاویر بهینه‌سازی شده است. این مدل قادر است داده‌های بصری مانند نمودارها و گراف‌ها را درک کند و با تولید توضیحات متنی از جزئیات تصویر، فاصله بین دیداری و زبانی را پر کند."
367
358
  },
359
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
360
+ "description": "مدل Llama 3.3 70B Instruct نسخه به‌روزرسانی شده Llama 3.1 70B در دسامبر است. این مدل بر اساس Llama 3.1 70B (منتشر شده در ژوئیه 2024) بهبود یافته و قابلیت‌های فراخوانی ابزار، پشتیبانی از متن چند زبانه، ریاضیات و برنامه‌نویسی را تقویت کرده است. این مدل در استدلال، ریاضیات و پیروی از دستورات به سطح پیشرفته‌ای در صنعت رسیده و می‌تواند عملکردی مشابه با 3.1 405B ارائه دهد، در حالی که از نظر سرعت و هزینه مزایای قابل توجهی دارد."
361
+ },
362
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
363
+ "description": "مدل 24B با پارامترهایی که قابلیت‌های پیشرفته‌ای مشابه مدل‌های بزرگتر را داراست."
364
+ },
368
365
  "accounts/fireworks/models/mixtral-8x22b-instruct": {
369
366
  "description": "مدل Mixtral MoE 8x22B دستوری، با پارامترهای بزرگ و معماری چندین متخصص، پشتیبانی کامل از پردازش کارآمد وظایف پیچیده."
370
367
  },
371
368
  "accounts/fireworks/models/mixtral-8x7b-instruct": {
372
369
  "description": "مدل Mixtral MoE 8x7B، معماری چندین متخصص برای پیروی و اجرای دستورات به‌صورت کارآمد ارائه می‌دهد."
373
370
  },
374
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
375
- "description": "مدل Mixtral MoE 8x7B دستورالعمل (نسخه HF)، با عملکردی مشابه با پیاده‌سازی رسمی، مناسب برای انواع سناریوهای وظایف کارآمد."
376
- },
377
371
  "accounts/fireworks/models/mythomax-l2-13b": {
378
372
  "description": "مدل MythoMax L2 13B، با استفاده از تکنیک‌های ترکیبی نوآورانه، در روایت داستان و نقش‌آفرینی مهارت دارد."
379
373
  },
@@ -383,18 +377,15 @@
383
377
  "accounts/fireworks/models/qwen-qwq-32b-preview": {
384
378
  "description": "مدل QwQ یک مدل تحقیقاتی تجربی است که توسط تیم Qwen توسعه یافته و بر تقویت توانایی استدلال AI تمرکز دارد."
385
379
  },
380
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
381
+ "description": "نسخه 72B مدل Qwen-VL نتیجه جدیدترین به‌روزرسانی‌های علی‌بابا است که نمایانگر نوآوری‌های نزدیک به یک سال اخیر است."
382
+ },
386
383
  "accounts/fireworks/models/qwen2p5-72b-instruct": {
387
384
  "description": "Qwen2.5 مجموعه‌ای از مدل‌های زبانی است که تنها شامل رمزگشاها می‌باشد و توسط تیم Qwen علی‌بابا کلود توسعه یافته است. این مدل‌ها در اندازه‌های مختلف از جمله 0.5B، 1.5B، 3B، 7B، 14B، 32B و 72B ارائه می‌شوند و دارای دو نوع پایه (base) و دستوری (instruct) هستند."
388
385
  },
389
386
  "accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
390
387
  "description": "Qwen2.5 Coder 32B Instruct جدیدترین نسخه از سری مدل‌های زبانی بزرگ خاص کد است که توسط Alibaba Cloud منتشر شده است. این مدل بر اساس Qwen2.5 و با آموزش 5.5 تریلیون توکن، توانایی تولید کد، استدلال و اصلاح را به طور قابل توجهی افزایش داده است. این مدل نه تنها توانایی کدنویسی را تقویت کرده بلکه مزایای ریاضی و عمومی را نیز حفظ کرده است. این مدل پایه‌ای جامع‌تر برای کاربردهای عملی مانند عامل‌های کد فراهم می‌کند."
391
388
  },
392
- "accounts/fireworks/models/starcoder-16b": {
393
- "description": "مدل StarCoder 15.5B، پشتیبانی از وظایف پیشرفته برنامه‌نویسی، با قابلیت‌های چندزبانه تقویت شده، مناسب برای تولید و درک کدهای پیچیده."
394
- },
395
- "accounts/fireworks/models/starcoder-7b": {
396
- "description": "مدل StarCoder 7B، آموزش‌دیده بر روی بیش از ۸۰ زبان برنامه‌نویسی مختلف، با توانایی برجسته در تکمیل کد و درک زمینه."
397
- },
398
389
  "accounts/yi-01-ai/models/yi-large": {
399
390
  "description": "مدل Yi-Large، با توانایی برجسته در پردازش چندزبانه، مناسب برای انواع وظایف تولید و درک زبان."
400
391
  },
@@ -887,30 +878,18 @@
887
878
  "lite": {
888
879
  "description": "Spark Lite یک مدل زبان بزرگ سبک است که دارای تأخیر بسیار کم و توانایی پردازش کارآمد می‌باشد. به‌طور کامل رایگان و باز است و از قابلیت جستجوی آنلاین در زمان واقعی پشتیبانی می‌کند. ویژگی پاسخ‌دهی سریع آن باعث می‌شود که در کاربردهای استنتاجی و تنظیم مدل در دستگاه‌های با توان محاسباتی پایین عملکرد برجسته‌ای داشته باشد و تجربه‌ای هوشمند و مقرون‌به‌صرفه برای کاربران فراهم کند. به‌ویژه در زمینه‌های پرسش و پاسخ دانش، تولید محتوا و جستجو عملکرد خوبی دارد."
889
880
  },
890
- "llama-3.1-70b-instruct": {
891
- "description": "مدل Llama 3.1 70B Instruct با 70 میلیارد پارامتر، قادر به ارائه عملکرد برجسته در تولید متن‌های بزرگ و انجام وظایف دستوری است."
892
- },
893
881
  "llama-3.1-70b-versatile": {
894
882
  "description": "لاما 3.1 70B توانایی استدلال هوش مصنوعی قوی‌تری را ارائه می‌دهد، مناسب برای برنامه‌های پیچیده، پشتیبانی از پردازش‌های محاسباتی فراوان و تضمین کارایی و دقت بالا."
895
883
  },
896
884
  "llama-3.1-8b-instant": {
897
885
  "description": "Llama 3.1 8B یک مدل با کارایی بالا است که توانایی تولید سریع متن را فراهم می‌کند و برای کاربردهایی که به بهره‌وری و صرفه‌جویی در هزینه در مقیاس بزرگ نیاز دارند، بسیار مناسب است."
898
886
  },
899
- "llama-3.1-8b-instruct": {
900
- "description": "مدل Llama 3.1 8B Instruct با 8 میلیارد پارامتر، قابلیت اجرای کارهای مبتنی بر دستورات تصویری را به‌طور مؤثر دارد و توانایی تولید متن با کیفیت بالا را ارائه می‌دهد."
901
- },
902
887
  "llama-3.1-sonar-huge-128k-online": {
903
888
  "description": "مدل Llama 3.1 Sonar Huge Online با 405 میلیارد پارامتر، پشتیبانی از طول زمینه حدود 127,000 نشانه، طراحی شده برای برنامه‌های چت آنلاین پیچیده."
904
889
  },
905
- "llama-3.1-sonar-large-128k-chat": {
906
- "description": "مدل Llama 3.1 Sonar Large Chat با 70 میلیارد پارامتر، پشتیبانی از طول زمینه حدود 127,000 نشانه، مناسب برای وظایف پیچیده چت آفلاین."
907
- },
908
890
  "llama-3.1-sonar-large-128k-online": {
909
891
  "description": "مدل Llama 3.1 Sonar Large Online با 70 میلیارد پارامتر، پشتیبانی از طول زمینه حدود 127,000 نشانه، مناسب برای وظایف چت با حجم بالا و متنوع."
910
892
  },
911
- "llama-3.1-sonar-small-128k-chat": {
912
- "description": "مدل Llama 3.1 Sonar Small Chat با 8 میلیارد پارامتر، به‌طور خاص برای چت آفلاین طراحی شده و از طول زمینه‌ای حدود 127,000 نشانه پشتیبانی می‌کند."
913
- },
914
893
  "llama-3.1-sonar-small-128k-online": {
915
894
  "description": "مدل Llama 3.1 Sonar Small Online با 8 میلیارد پارامتر، پشتیبانی از طول زمینه‌ای حدود 127,000 نشانه، به‌طور ویژه برای چت آنلاین طراحی شده و می‌تواند به‌طور کارآمد انواع تعاملات متنی را پردازش کند."
916
895
  },
@@ -1355,6 +1334,15 @@
1355
1334
  "solar-pro": {
1356
1335
  "description": "Solar Pro یک مدل هوش مصنوعی پیشرفته از Upstage است که بر توانایی پیروی از دستورات با استفاده از یک GPU تمرکز دارد و امتیاز IFEval بالای 80 را کسب کرده است. در حال حاضر از زبان انگلیسی پشتیبانی می‌کند و نسخه رسمی آن برای نوامبر 2024 برنامه‌ریزی شده است که پشتیبانی از زبان‌های بیشتر و طول زمینه را گسترش خواهد داد."
1357
1336
  },
1337
+ "sonar": {
1338
+ "description": "محصول جستجوی سبک بر اساس زمینه جستجو که سریع‌تر و ارزان‌تر از Sonar Pro است."
1339
+ },
1340
+ "sonar-pro": {
1341
+ "description": "محصول جستجوی پیشرفته که از جستجوی زمینه پشتیبانی می‌کند و قابلیت‌های پیشرفته‌ای برای پرسش و پیگیری دارد."
1342
+ },
1343
+ "sonar-reasoning": {
1344
+ "description": "محصول جدید API که توسط مدل استدلال DeepSeek پشتیبانی می‌شود."
1345
+ },
1358
1346
  "step-1-128k": {
1359
1347
  "description": "تعادل بین عملکرد و هزینه، مناسب برای سناریوهای عمومی."
1360
1348
  },
@@ -323,21 +323,15 @@
323
323
  "abab7-chat-preview": {
324
324
  "description": "Par rapport à la série de modèles abab6.5, il y a eu une amélioration significative des capacités en matière de textes longs, de mathématiques et d'écriture."
325
325
  },
326
- "accounts/fireworks/models/firefunction-v1": {
327
- "description": "Le modèle d'appel de fonction open source de Fireworks offre d'excellentes capacités d'exécution d'instructions et des caractéristiques personnalisables."
326
+ "accounts/fireworks/models/deepseek-r1": {
327
+ "description": "DeepSeek-R1 est un modèle de langage de grande taille à la pointe de la technologie, optimisé par apprentissage renforcé et données de démarrage à froid, offrant d'excellentes performances en raisonnement, mathématiques et programmation."
328
328
  },
329
- "accounts/fireworks/models/firefunction-v2": {
330
- "description": "Firefunction-v2, récemment lancé par Fireworks, est un modèle d'appel de fonction performant, développé sur la base de Llama-3 et optimisé pour des scénarios tels que les appels de fonction, les dialogues et le suivi d'instructions."
331
- },
332
- "accounts/fireworks/models/firellava-13b": {
333
- "description": "fireworks-ai/FireLLaVA-13b est un modèle de langage visuel capable de recevoir simultanément des entrées d'images et de texte, entraîné sur des données de haute qualité, adapté aux tâches multimodales."
329
+ "accounts/fireworks/models/deepseek-v3": {
330
+ "description": "Modèle de langage puissant de Deepseek basé sur un mélange d'experts (MoE), avec un total de 671B de paramètres, activant 37B de paramètres par jeton."
334
331
  },
335
332
  "accounts/fireworks/models/llama-v3-70b-instruct": {
336
333
  "description": "Le modèle d'instructions Llama 3 70B est optimisé pour les dialogues multilingues et la compréhension du langage naturel, surpassant la plupart des modèles concurrents."
337
334
  },
338
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
339
- "description": "Le modèle d'instructions Llama 3 70B (version HF) est conforme aux résultats de l'implémentation officielle, adapté aux tâches de suivi d'instructions de haute qualité."
340
- },
341
335
  "accounts/fireworks/models/llama-v3-8b-instruct": {
342
336
  "description": "Le modèle d'instructions Llama 3 8B est optimisé pour les dialogues et les tâches multilingues, offrant des performances exceptionnelles et efficaces."
343
337
  },
@@ -356,24 +350,24 @@
356
350
  "accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
357
351
  "description": "Modèle d'inférence d'image ajusté par instructions de Meta avec 11B paramètres. Ce modèle est optimisé pour la reconnaissance visuelle, l'inférence d'image, la description d'image et pour répondre à des questions générales sur l'image. Il est capable de comprendre des données visuelles, comme des graphiques et des diagrammes, et de combler le fossé entre la vision et le langage en générant des descriptions textuelles des détails de l'image."
358
352
  },
359
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
360
- "description": "Le modèle d'instructions Llama 3.2 1B est un modèle multilingue léger lancé par Meta. Ce modèle vise à améliorer l'efficacité, offrant des améliorations significatives en matière de latence et de coût par rapport aux modèles plus grands. Les cas d'utilisation incluent la recherche et le résumé."
361
- },
362
353
  "accounts/fireworks/models/llama-v3p2-3b-instruct": {
363
354
  "description": "Le modèle d'instructions Llama 3.2 3B est un modèle multilingue léger lancé par Meta. Ce modèle vise à améliorer l'efficacité, offrant des améliorations significatives en matière de latence et de coût par rapport aux modèles plus grands. Les cas d'utilisation incluent les requêtes, la réécriture de prompts et l'assistance à l'écriture."
364
355
  },
365
356
  "accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
366
357
  "description": "Modèle d'inférence d'image ajusté par instructions de Meta avec 90B paramètres. Ce modèle est optimisé pour la reconnaissance visuelle, l'inférence d'image, la description d'image et pour répondre à des questions générales sur l'image. Il est capable de comprendre des données visuelles, comme des graphiques et des diagrammes, et de combler le fossé entre la vision et le langage en générant des descriptions textuelles des détails de l'image."
367
358
  },
359
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
360
+ "description": "Llama 3.3 70B Instruct est la version mise à jour de Llama 3.1 70B de décembre. Ce modèle a été amélioré par rapport à Llama 3.1 70B (publié en juillet 2024), renforçant les appels d'outils, le support multilingue, ainsi que les capacités en mathématiques et en programmation. Ce modèle atteint des niveaux de performance de pointe dans le raisonnement, les mathématiques et le respect des instructions, tout en offrant des performances similaires à celles du 3.1 405B, avec des avantages significatifs en termes de vitesse et de coût."
361
+ },
362
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
363
+ "description": "Modèle de 24B paramètres, doté de capacités de pointe comparables à celles de modèles plus grands."
364
+ },
368
365
  "accounts/fireworks/models/mixtral-8x22b-instruct": {
369
366
  "description": "Le modèle d'instructions Mixtral MoE 8x22B, avec des paramètres à grande échelle et une architecture multi-experts, prend en charge efficacement le traitement de tâches complexes."
370
367
  },
371
368
  "accounts/fireworks/models/mixtral-8x7b-instruct": {
372
369
  "description": "Le modèle d'instructions Mixtral MoE 8x7B, avec une architecture multi-experts, offre un suivi et une exécution d'instructions efficaces."
373
370
  },
374
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
375
- "description": "Le modèle d'instructions Mixtral MoE 8x7B (version HF) offre des performances conformes à l'implémentation officielle, adapté à divers scénarios de tâches efficaces."
376
- },
377
371
  "accounts/fireworks/models/mythomax-l2-13b": {
378
372
  "description": "Le modèle MythoMax L2 13B, combinant des techniques de fusion novatrices, excelle dans la narration et le jeu de rôle."
379
373
  },
@@ -383,18 +377,15 @@
383
377
  "accounts/fireworks/models/qwen-qwq-32b-preview": {
384
378
  "description": "Le modèle QwQ est un modèle de recherche expérimental développé par l'équipe Qwen, axé sur l'amélioration des capacités de raisonnement de l'IA."
385
379
  },
380
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
381
+ "description": "La version 72B du modèle Qwen-VL est le fruit de la dernière itération d'Alibaba, représentant près d'un an d'innovation."
382
+ },
386
383
  "accounts/fireworks/models/qwen2p5-72b-instruct": {
387
384
  "description": "Qwen2.5 est une série de modèles de langage à décodage uniquement développée par l'équipe Qwen d'Alibaba Cloud. Ces modèles sont offerts en différentes tailles, y compris 0.5B, 1.5B, 3B, 7B, 14B, 32B et 72B, avec des variantes de base (base) et d'instruction (instruct)."
388
385
  },
389
386
  "accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
390
387
  "description": "Qwen2.5 Coder 32B Instruct est la dernière version de la série de modèles de langage à grande échelle spécifique au code publiée par Alibaba Cloud. Ce modèle, basé sur Qwen2.5, a été formé avec 55 trillions de tokens, améliorant considérablement les capacités de génération, de raisonnement et de correction de code. Il renforce non seulement les capacités de codage, mais maintient également des avantages en mathématiques et en compétences générales. Le modèle fournit une base plus complète pour des applications pratiques telles que les agents de code."
391
388
  },
392
- "accounts/fireworks/models/starcoder-16b": {
393
- "description": "Le modèle StarCoder 15.5B prend en charge des tâches de programmation avancées, avec des capacités multilingues améliorées, adapté à la génération et à la compréhension de code complexes."
394
- },
395
- "accounts/fireworks/models/starcoder-7b": {
396
- "description": "Le modèle StarCoder 7B est entraîné sur plus de 80 langages de programmation, offrant d'excellentes capacités de complétion de code et de compréhension contextuelle."
397
- },
398
389
  "accounts/yi-01-ai/models/yi-large": {
399
390
  "description": "Le modèle Yi-Large offre d'excellentes capacités de traitement multilingue, adapté à diverses tâches de génération et de compréhension de langage."
400
391
  },
@@ -887,30 +878,18 @@
887
878
  "lite": {
888
879
  "description": "Spark Lite est un modèle de langage léger, offrant une latence extrêmement faible et une capacité de traitement efficace, entièrement gratuit et ouvert, prenant en charge la recherche en temps réel. Sa capacité de réponse rapide le rend exceptionnel pour les applications d'inférence sur des appareils à faible puissance de calcul et pour le réglage des modèles, offrant aux utilisateurs un excellent rapport coût-efficacité et une expérience intelligente, en particulier dans les scénarios de questions-réponses, de génération de contenu et de recherche."
889
880
  },
890
- "llama-3.1-70b-instruct": {
891
- "description": "Le modèle Llama 3.1 70B Instruct, avec 70B de paramètres, offre des performances exceptionnelles dans la génération de texte et les tâches d'instructions."
892
- },
893
881
  "llama-3.1-70b-versatile": {
894
882
  "description": "Llama 3.1 70B offre une capacité de raisonnement AI plus puissante, adaptée aux applications complexes, prenant en charge un traitement de calcul intensif tout en garantissant efficacité et précision."
895
883
  },
896
884
  "llama-3.1-8b-instant": {
897
885
  "description": "Llama 3.1 8B est un modèle à haute performance, offrant une capacité de génération de texte rapide, particulièrement adapté aux scénarios d'application nécessitant une efficacité à grande échelle et un rapport coût-efficacité."
898
886
  },
899
- "llama-3.1-8b-instruct": {
900
- "description": "Le modèle Llama 3.1 8B Instruct, avec 8B de paramètres, prend en charge l'exécution efficace des tâches d'instructions visuelles, offrant d'excellentes capacités de génération de texte."
901
- },
902
887
  "llama-3.1-sonar-huge-128k-online": {
903
888
  "description": "Le modèle Llama 3.1 Sonar Huge Online, avec 405B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, conçu pour des applications de chat en ligne complexes."
904
889
  },
905
- "llama-3.1-sonar-large-128k-chat": {
906
- "description": "Le modèle Llama 3.1 Sonar Large Chat, avec 70B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, adapté aux tâches de chat hors ligne complexes."
907
- },
908
890
  "llama-3.1-sonar-large-128k-online": {
909
891
  "description": "Le modèle Llama 3.1 Sonar Large Online, avec 70B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, adapté aux tâches de chat à haute capacité et diversifiées."
910
892
  },
911
- "llama-3.1-sonar-small-128k-chat": {
912
- "description": "Le modèle Llama 3.1 Sonar Small Chat, avec 8B de paramètres, est conçu pour le chat hors ligne, prenant en charge une longueur de contexte d'environ 127 000 jetons."
913
- },
914
893
  "llama-3.1-sonar-small-128k-online": {
915
894
  "description": "Le modèle Llama 3.1 Sonar Small Online, avec 8B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, conçu pour le chat en ligne, capable de traiter efficacement diverses interactions textuelles."
916
895
  },
@@ -1355,6 +1334,15 @@
1355
1334
  "solar-pro": {
1356
1335
  "description": "Solar Pro est un LLM hautement intelligent lancé par Upstage, axé sur la capacité de suivi des instructions sur un seul GPU, avec un score IFEval supérieur à 80. Actuellement, il supporte l'anglais, et la version officielle est prévue pour novembre 2024, avec une extension du support linguistique et de la longueur du contexte."
1357
1336
  },
1337
+ "sonar": {
1338
+ "description": "Produit de recherche léger basé sur le contexte de recherche, plus rapide et moins cher que Sonar Pro."
1339
+ },
1340
+ "sonar-pro": {
1341
+ "description": "Produit de recherche avancé prenant en charge le contexte de recherche, avec des requêtes avancées et un suivi."
1342
+ },
1343
+ "sonar-reasoning": {
1344
+ "description": "Nouveau produit API soutenu par le modèle de raisonnement DeepSeek."
1345
+ },
1358
1346
  "step-1-128k": {
1359
1347
  "description": "Équilibre entre performance et coût, adapté à des scénarios généraux."
1360
1348
  },
@@ -323,21 +323,15 @@
323
323
  "abab7-chat-preview": {
324
324
  "description": "Rispetto alla serie di modelli abab6.5, ci sono stati notevoli miglioramenti nelle capacità di elaborazione di testi lunghi, matematica e scrittura."
325
325
  },
326
- "accounts/fireworks/models/firefunction-v1": {
327
- "description": "Il modello open source di chiamata di funzione di Fireworks offre capacità di esecuzione di istruzioni eccezionali e caratteristiche personalizzabili."
326
+ "accounts/fireworks/models/deepseek-r1": {
327
+ "description": "DeepSeek-R1 è un modello linguistico di grandi dimensioni all'avanguardia, ottimizzato tramite apprendimento rinforzato e dati di cold start, con prestazioni eccezionali nel ragionamento, nella matematica e nella programmazione."
328
328
  },
329
- "accounts/fireworks/models/firefunction-v2": {
330
- "description": "Firefunction-v2, l'ultima offerta di Fireworks, è un modello di chiamata di funzione ad alte prestazioni, sviluppato su Llama-3 e ottimizzato per scenari come chiamate di funzione, dialogo e seguimento di istruzioni."
331
- },
332
- "accounts/fireworks/models/firellava-13b": {
333
- "description": "fireworks-ai/FireLLaVA-13b è un modello di linguaggio visivo in grado di ricevere input sia visivi che testuali, addestrato su dati di alta qualità, adatto per compiti multimodali."
329
+ "accounts/fireworks/models/deepseek-v3": {
330
+ "description": "Un potente modello linguistico Mixture-of-Experts (MoE) fornito da Deepseek, con un totale di 671B di parametri, attivando 37B di parametri per ogni token."
334
331
  },
335
332
  "accounts/fireworks/models/llama-v3-70b-instruct": {
336
333
  "description": "Il modello di istruzioni Llama 3 70B è ottimizzato per dialoghi multilingue e comprensione del linguaggio naturale, superando le prestazioni della maggior parte dei modelli concorrenti."
337
334
  },
338
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
339
- "description": "Il modello di istruzioni Llama 3 70B (versione HF) è allineato con i risultati dell'implementazione ufficiale, adatto per compiti di seguimento di istruzioni di alta qualità."
340
- },
341
335
  "accounts/fireworks/models/llama-v3-8b-instruct": {
342
336
  "description": "Il modello di istruzioni Llama 3 8B è ottimizzato per dialoghi e compiti multilingue, offrendo prestazioni eccellenti e alta efficienza."
343
337
  },
@@ -356,24 +350,24 @@
356
350
  "accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
357
351
  "description": "Modello di ragionamento visivo di Meta con 11 miliardi di parametri. Questo modello è ottimizzato per il riconoscimento visivo, il ragionamento visivo, la descrizione delle immagini e la risposta a domande generali riguardanti le immagini. Questo modello è in grado di comprendere dati visivi, come grafici e tabelle, e colmare il divario tra visione e linguaggio generando descrizioni testuali dei dettagli delle immagini."
358
352
  },
359
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
360
- "description": "Il modello di istruzioni Llama 3.2 1B è un modello multilingue leggero lanciato da Meta. Questo modello è progettato per migliorare l'efficienza, offrendo miglioramenti significativi in termini di latenza e costi rispetto a modelli più grandi. I casi d'uso esemplari di questo modello includono recupero e sintesi."
361
- },
362
353
  "accounts/fireworks/models/llama-v3p2-3b-instruct": {
363
354
  "description": "Il modello di istruzioni Llama 3.2 3B è un modello multilingue leggero lanciato da Meta. Questo modello è progettato per migliorare l'efficienza, offrendo miglioramenti significativi in termini di latenza e costi rispetto a modelli più grandi. I casi d'uso esemplari di questo modello includono query e riscrittura di suggerimenti, nonché supporto alla scrittura."
364
355
  },
365
356
  "accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
366
357
  "description": "Modello di ragionamento visivo di Meta con 90 miliardi di parametri. Questo modello è ottimizzato per il riconoscimento visivo, il ragionamento visivo, la descrizione delle immagini e la risposta a domande generali riguardanti le immagini. Questo modello è in grado di comprendere dati visivi, come grafici e tabelle, e colmare il divario tra visione e linguaggio generando descrizioni testuali dei dettagli delle immagini."
367
358
  },
359
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
360
+ "description": "Llama 3.3 70B Instruct è la versione aggiornata di dicembre di Llama 3.1 70B. Questo modello è stato migliorato rispetto a Llama 3.1 70B (rilasciato a luglio 2024), potenziando le capacità di chiamata degli strumenti, il supporto per testi multilingue, le abilità matematiche e di programmazione. Il modello raggiunge livelli di eccellenza nel ragionamento, nella matematica e nel rispetto delle istruzioni, offrendo prestazioni simili a quelle di 3.1 405B, con vantaggi significativi in termini di velocità e costi."
361
+ },
362
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
363
+ "description": "Modello con 24B di parametri, dotato di capacità all'avanguardia comparabili a modelli di dimensioni maggiori."
364
+ },
368
365
  "accounts/fireworks/models/mixtral-8x22b-instruct": {
369
366
  "description": "Il modello di istruzioni Mixtral MoE 8x22B, con parametri su larga scala e architettura multi-esperto, supporta in modo completo l'elaborazione efficiente di compiti complessi."
370
367
  },
371
368
  "accounts/fireworks/models/mixtral-8x7b-instruct": {
372
369
  "description": "Il modello di istruzioni Mixtral MoE 8x7B, con architettura multi-esperto, offre un'elevata efficienza nel seguire e eseguire istruzioni."
373
370
  },
374
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
375
- "description": "Il modello di istruzioni Mixtral MoE 8x7B (versione HF) ha prestazioni coerenti con l'implementazione ufficiale, adatto per vari scenari di compiti efficienti."
376
- },
377
371
  "accounts/fireworks/models/mythomax-l2-13b": {
378
372
  "description": "Il modello MythoMax L2 13B combina tecnologie di fusione innovative, specializzandosi in narrazione e interpretazione di ruoli."
379
373
  },
@@ -383,18 +377,15 @@
383
377
  "accounts/fireworks/models/qwen-qwq-32b-preview": {
384
378
  "description": "Il modello QwQ è un modello di ricerca sperimentale sviluppato dal team Qwen, focalizzato sul potenziamento delle capacità di ragionamento dell'IA."
385
379
  },
380
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
381
+ "description": "La versione 72B del modello Qwen-VL è il risultato dell'ultima iterazione di Alibaba, rappresentando quasi un anno di innovazione."
382
+ },
386
383
  "accounts/fireworks/models/qwen2p5-72b-instruct": {
387
384
  "description": "Qwen2.5 è una serie di modelli linguistici solo decoder sviluppata dal team Qwen di Alibaba Cloud. Questi modelli offrono dimensioni diverse, tra cui 0.5B, 1.5B, 3B, 7B, 14B, 32B e 72B, e ci sono varianti base e di istruzione."
388
385
  },
389
386
  "accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
390
387
  "description": "Qwen2.5 Coder 32B Instruct è l'ultima versione della serie di modelli linguistici di grandi dimensioni specifici per il codice rilasciata da Alibaba Cloud. Questo modello, basato su Qwen2.5, ha migliorato significativamente le capacità di generazione, ragionamento e riparazione del codice grazie all'addestramento su 55 trilioni di token. Ha potenziato non solo le capacità di codifica, ma ha anche mantenuto i vantaggi nelle abilità matematiche e generali. Il modello fornisce una base più completa per applicazioni pratiche come agenti di codice."
391
388
  },
392
- "accounts/fireworks/models/starcoder-16b": {
393
- "description": "Il modello StarCoder 15.5B supporta compiti di programmazione avanzati, con capacità multilingue potenziate, adatto per la generazione e comprensione di codice complesso."
394
- },
395
- "accounts/fireworks/models/starcoder-7b": {
396
- "description": "Il modello StarCoder 7B è addestrato su oltre 80 linguaggi di programmazione, con eccellenti capacità di completamento del codice e comprensione del contesto."
397
- },
398
389
  "accounts/yi-01-ai/models/yi-large": {
399
390
  "description": "Il modello Yi-Large offre capacità eccezionali di elaborazione multilingue, utilizzabile per vari compiti di generazione e comprensione del linguaggio."
400
391
  },
@@ -887,30 +878,18 @@
887
878
  "lite": {
888
879
  "description": "Spark Lite è un modello di linguaggio di grandi dimensioni leggero, con latenza estremamente bassa e capacità di elaborazione efficiente, completamente gratuito e aperto, supporta funzionalità di ricerca online in tempo reale. La sua caratteristica di risposta rapida lo rende eccellente per applicazioni di inferenza su dispositivi a bassa potenza e per il fine-tuning dei modelli, offrendo agli utenti un'ottima efficienza dei costi e un'esperienza intelligente, soprattutto nei contesti di domande e risposte, generazione di contenuti e ricerca."
889
880
  },
890
- "llama-3.1-70b-instruct": {
891
- "description": "Il modello Llama 3.1 70B Instruct, con 70B parametri, offre prestazioni eccezionali in generazione di testi di grandi dimensioni e compiti di istruzione."
892
- },
893
881
  "llama-3.1-70b-versatile": {
894
882
  "description": "Llama 3.1 70B offre capacità di ragionamento AI più potenti, adatto per applicazioni complesse, supporta un'elaborazione computazionale elevata garantendo efficienza e precisione."
895
883
  },
896
884
  "llama-3.1-8b-instant": {
897
885
  "description": "Llama 3.1 8B è un modello ad alte prestazioni, offre capacità di generazione di testo rapida, particolarmente adatto per scenari applicativi che richiedono efficienza su larga scala e costi contenuti."
898
886
  },
899
- "llama-3.1-8b-instruct": {
900
- "description": "Il modello Llama 3.1 8B Instruct, con 8B parametri, supporta l'esecuzione efficiente di compiti di istruzione, offrendo capacità di generazione testuale di alta qualità."
901
- },
902
887
  "llama-3.1-sonar-huge-128k-online": {
903
888
  "description": "Il modello Llama 3.1 Sonar Huge Online, con 405B parametri, supporta una lunghezza di contesto di circa 127.000 token, progettato per applicazioni di chat online complesse."
904
889
  },
905
- "llama-3.1-sonar-large-128k-chat": {
906
- "description": "Il modello Llama 3.1 Sonar Large Chat, con 70B parametri, supporta una lunghezza di contesto di circa 127.000 token, adatto per compiti di chat offline complessi."
907
- },
908
890
  "llama-3.1-sonar-large-128k-online": {
909
891
  "description": "Il modello Llama 3.1 Sonar Large Online, con 70B parametri, supporta una lunghezza di contesto di circa 127.000 token, adatto per compiti di chat ad alta capacità e diversificati."
910
892
  },
911
- "llama-3.1-sonar-small-128k-chat": {
912
- "description": "Il modello Llama 3.1 Sonar Small Chat, con 8B parametri, è progettato per chat offline, supportando una lunghezza di contesto di circa 127.000 token."
913
- },
914
893
  "llama-3.1-sonar-small-128k-online": {
915
894
  "description": "Il modello Llama 3.1 Sonar Small Online, con 8B parametri, supporta una lunghezza di contesto di circa 127.000 token, progettato per chat online, in grado di gestire interazioni testuali in modo efficiente."
916
895
  },
@@ -1355,6 +1334,15 @@
1355
1334
  "solar-pro": {
1356
1335
  "description": "Solar Pro è un LLM altamente intelligente lanciato da Upstage, focalizzato sulla capacità di seguire istruzioni su singolo GPU, con un punteggio IFEval superiore a 80. Attualmente supporta l'inglese, con una versione ufficiale prevista per novembre 2024, che espanderà il supporto linguistico e la lunghezza del contesto."
1357
1336
  },
1337
+ "sonar": {
1338
+ "description": "Prodotto di ricerca leggero basato sul contesto di ricerca, più veloce e più economico rispetto a Sonar Pro."
1339
+ },
1340
+ "sonar-pro": {
1341
+ "description": "Prodotto di ricerca avanzata che supporta il contesto di ricerca, query avanzate e follow-up."
1342
+ },
1343
+ "sonar-reasoning": {
1344
+ "description": "Nuovo prodotto API supportato dal modello di ragionamento DeepSeek."
1345
+ },
1358
1346
  "step-1-128k": {
1359
1347
  "description": "Equilibrio tra prestazioni e costi, adatto per scenari generali."
1360
1348
  },
@@ -323,21 +323,15 @@
323
323
  "abab7-chat-preview": {
324
324
  "description": "abab6.5シリーズモデルに比べて、長文、数学、執筆などの能力が大幅に向上しています。"
325
325
  },
326
- "accounts/fireworks/models/firefunction-v1": {
327
- "description": "Fireworksのオープンソース関数呼び出しモデルは、卓越した指示実行能力とオープンでカスタマイズ可能な特性を提供します。"
326
+ "accounts/fireworks/models/deepseek-r1": {
327
+ "description": "DeepSeek-R1は、強化学習とコールドスタートデータの最適化を経た最先端の大規模言語モデルで、優れた推論、数学、プログラミング性能を持っています。"
328
328
  },
329
- "accounts/fireworks/models/firefunction-v2": {
330
- "description": "Fireworks社の最新のFirefunction-v2は、Llama-3を基に開発された高性能な関数呼び出しモデルであり、多くの最適化を経て、特に関数呼び出し、対話、指示のフォローなどのシナリオに適しています。"
331
- },
332
- "accounts/fireworks/models/firellava-13b": {
333
- "description": "fireworks-ai/FireLLaVA-13bは、画像とテキストの入力を同時に受け取ることができる視覚言語モデルであり、高品質なデータで訓練されており、多モーダルタスクに適しています。"
329
+ "accounts/fireworks/models/deepseek-v3": {
330
+ "description": "Deepseekが提供する強力なMixture-of-Experts (MoE)言語モデルで、総パラメータ数は671Bであり、各トークンは37Bのパラメータを活性化します。"
334
331
  },
335
332
  "accounts/fireworks/models/llama-v3-70b-instruct": {
336
333
  "description": "Llama 3 70B指示モデルは、多言語対話と自然言語理解に最適化されており、ほとんどの競合モデルを上回る性能を持っています。"
337
334
  },
338
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
339
- "description": "Llama 3 70B指示モデル(HFバージョン)は、公式実装結果と一致し、高品質な指示フォロータスクに適しています。"
340
- },
341
335
  "accounts/fireworks/models/llama-v3-8b-instruct": {
342
336
  "description": "Llama 3 8B指示モデルは、対話や多言語タスクに最適化されており、卓越した効率を発揮します。"
343
337
  },
@@ -356,24 +350,24 @@
356
350
  "accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
357
351
  "description": "Metaの11Bパラメータ指示調整画像推論モデルです。このモデルは視覚認識、画像推論、画像説明、および画像に関する一般的な質問への回答に最適化されています。このモデルは、グラフや図表などの視覚データを理解し、画像の詳細をテキストで記述することで、視覚と言語の間のギャップを埋めることができます。"
358
352
  },
359
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
360
- "description": "Llama 3.2 1B指示モデルはMetaが発表した軽量な多言語モデルです。このモデルは効率を向上させることを目的としており、より大規模なモデルと比較して遅延とコストの面で大きな改善を提供します。このモデルの使用例には、情報検索や要約が含まれます。"
361
- },
362
353
  "accounts/fireworks/models/llama-v3p2-3b-instruct": {
363
354
  "description": "Llama 3.2 3B指示モデルはMetaが発表した軽量な多言語モデルです。このモデルは効率を向上させることを目的としており、より大規模なモデルと比較して遅延とコストの面で大きな改善を提供します。このモデルの使用例には、問い合わせやプロンプトのリライト、執筆支援が含まれます。"
364
355
  },
365
356
  "accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
366
357
  "description": "Metaの90Bパラメータ指示調整画像推論モデルです。このモデルは視覚認識、画像推論、画像説明、および画像に関する一般的な質問への回答に最適化されています。このモデルは、グラフや図表などの視覚データを理解し、画像の詳細をテキストで記述することで、視覚と言語の間のギャップを埋めることができます。"
367
358
  },
359
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
360
+ "description": "Llama 3.3 70B Instructは、Llama 3.1 70Bの12月の更新版です。このモデルは、2024年7月にリリースされたLlama 3.1 70Bを基に改良され、ツール呼び出し、多言語テキストサポート、数学およびプログラミング能力が強化されています。このモデルは、推論、数学、指示遵守の面で業界の最前線に達しており、3.1 405Bと同等の性能を提供しつつ、速度とコストにおいて顕著な利点を持っています。"
361
+ },
362
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
363
+ "description": "24Bパラメータモデルで、より大規模なモデルと同等の最先端の能力を備えています。"
364
+ },
368
365
  "accounts/fireworks/models/mixtral-8x22b-instruct": {
369
366
  "description": "Mixtral MoE 8x22B指示モデルは、大規模なパラメータと多専門家アーキテクチャを持ち、複雑なタスクの高効率処理を全方位でサポートします。"
370
367
  },
371
368
  "accounts/fireworks/models/mixtral-8x7b-instruct": {
372
369
  "description": "Mixtral MoE 8x7B指示モデルは、多専門家アーキテクチャを提供し、高効率の指示フォローと実行をサポートします。"
373
370
  },
374
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
375
- "description": "Mixtral MoE 8x7B指示モデル(HFバージョン)は、公式実装と一致し、さまざまな高効率タスクシナリオに適しています。"
376
- },
377
371
  "accounts/fireworks/models/mythomax-l2-13b": {
378
372
  "description": "MythoMax L2 13Bモデルは、新しい統合技術を組み合わせており、物語やキャラクターの役割に優れています。"
379
373
  },
@@ -383,18 +377,15 @@
383
377
  "accounts/fireworks/models/qwen-qwq-32b-preview": {
384
378
  "description": "QwQモデルはQwenチームによって開発された実験的な研究モデルで、AIの推論能力を強化することに焦点を当てています。"
385
379
  },
380
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
381
+ "description": "Qwen-VLモデルの72Bバージョンは、アリババの最新のイテレーションの成果であり、近年の革新を代表しています。"
382
+ },
386
383
  "accounts/fireworks/models/qwen2p5-72b-instruct": {
387
384
  "description": "Qwen2.5はAlibaba Cloud Qwenチームによって開発された一連のデコーダーのみを含む言語モデルです。これらのモデルは、0.5B、1.5B、3B、7B、14B、32B、72Bなど、さまざまなサイズを提供し、ベース版と指示版の2種類のバリエーションがあります。"
388
385
  },
389
386
  "accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
390
387
  "description": "Qwen2.5 Coder 32B InstructはAlibaba Cloudが発表したコード特化型大規模言語モデルシリーズの最新バージョンです。このモデルはQwen2.5を基に、55兆トークンの訓練を通じて、コード生成、推論、修正能力を大幅に向上させました。コーディング能力を強化するだけでなく、数学および一般的な能力の利点も維持しています。このモデルはコードエージェントなどの実際のアプリケーションに対して、より包括的な基盤を提供します。"
391
388
  },
392
- "accounts/fireworks/models/starcoder-16b": {
393
- "description": "StarCoder 15.5Bモデルは、高度なプログラミングタスクをサポートし、多言語能力を強化し、複雑なコード生成と理解に適しています。"
394
- },
395
- "accounts/fireworks/models/starcoder-7b": {
396
- "description": "StarCoder 7Bモデルは、80以上のプログラミング言語に特化して訓練されており、優れたプログラミング補完能力と文脈理解を持っています。"
397
- },
398
389
  "accounts/yi-01-ai/models/yi-large": {
399
390
  "description": "Yi-Largeモデルは、卓越した多言語処理能力を持ち、さまざまな言語生成と理解タスクに使用できます。"
400
391
  },
@@ -887,30 +878,18 @@
887
878
  "lite": {
888
879
  "description": "Spark Liteは軽量な大規模言語モデルで、非常に低い遅延と高い処理能力を備えています。完全に無料でオープンであり、リアルタイムのオンライン検索機能をサポートしています。その迅速な応答特性により、低算力デバイスでの推論アプリケーションやモデルの微調整において優れたパフォーマンスを発揮し、特に知識問答、コンテンツ生成、検索シーンにおいて優れたコストパフォーマンスとインテリジェントな体験を提供します。"
889
880
  },
890
- "llama-3.1-70b-instruct": {
891
- "description": "Llama 3.1 70B Instructモデルは、70Bパラメータを持ち、大規模なテキスト生成と指示タスクで卓越した性能を提供します。"
892
- },
893
881
  "llama-3.1-70b-versatile": {
894
882
  "description": "Llama 3.1 70Bは、より強力なAI推論能力を提供し、複雑なアプリケーションに適しており、非常に多くの計算処理をサポートし、高効率と精度を保証します。"
895
883
  },
896
884
  "llama-3.1-8b-instant": {
897
885
  "description": "Llama 3.1 8Bは、高効率モデルであり、迅速なテキスト生成能力を提供し、大規模な効率とコスト効果が求められるアプリケーションシナリオに非常に適しています。"
898
886
  },
899
- "llama-3.1-8b-instruct": {
900
- "description": "Llama 3.1 8B Instructモデルは、8Bパラメータを持ち、画面指示タスクの高効率な実行をサポートし、優れたテキスト生成能力を提供します。"
901
- },
902
887
  "llama-3.1-sonar-huge-128k-online": {
903
888
  "description": "Llama 3.1 Sonar Huge Onlineモデルは、405Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、複雑なオンラインチャットアプリケーション用に設計されています。"
904
889
  },
905
- "llama-3.1-sonar-large-128k-chat": {
906
- "description": "Llama 3.1 Sonar Large Chatモデルは、70Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、複雑なオフラインチャットタスクに適しています。"
907
- },
908
890
  "llama-3.1-sonar-large-128k-online": {
909
891
  "description": "Llama 3.1 Sonar Large Onlineモデルは、70Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、高容量で多様なチャットタスクに適しています。"
910
892
  },
911
- "llama-3.1-sonar-small-128k-chat": {
912
- "description": "Llama 3.1 Sonar Small Chatモデルは、8Bパラメータを持ち、オフラインチャット用に設計されており、約127,000トークンのコンテキスト長をサポートします。"
913
- },
914
893
  "llama-3.1-sonar-small-128k-online": {
915
894
  "description": "Llama 3.1 Sonar Small Onlineモデルは、8Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、オンラインチャット用に設計されており、さまざまなテキストインタラクションを効率的に処理できます。"
916
895
  },
@@ -1355,6 +1334,15 @@
1355
1334
  "solar-pro": {
1356
1335
  "description": "Solar ProはUpstageが発表した高インテリジェンスLLMで、単一GPUの指示追従能力に特化しており、IFEvalスコアは80以上です。現在は英語をサポートしており、正式版は2024年11月にリリース予定で、言語サポートとコンテキスト長を拡張します。"
1357
1336
  },
1337
+ "sonar": {
1338
+ "description": "検索コンテキストに基づく軽量検索製品で、Sonar Proよりも速く、安価です。"
1339
+ },
1340
+ "sonar-pro": {
1341
+ "description": "検索コンテキストをサポートする高度な検索製品で、高度なクエリとフォローアップをサポートします。"
1342
+ },
1343
+ "sonar-reasoning": {
1344
+ "description": "DeepSeek推論モデルによってサポートされる新しいAPI製品です。"
1345
+ },
1358
1346
  "step-1-128k": {
1359
1347
  "description": "性能とコストのバランスを取り、一般的なシナリオに適しています。"
1360
1348
  },