@lobehub/chat 1.50.2 → 1.50.3
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/docs/self-hosting/server-database/docker-compose.mdx +31 -31
- package/docs/self-hosting/server-database/docker-compose.zh-CN.mdx +32 -32
- package/locales/ar/models.json +22 -34
- package/locales/bg-BG/models.json +22 -34
- package/locales/de-DE/models.json +22 -34
- package/locales/en-US/models.json +22 -34
- package/locales/es-ES/models.json +22 -34
- package/locales/fa-IR/models.json +22 -34
- package/locales/fr-FR/models.json +22 -34
- package/locales/it-IT/models.json +22 -34
- package/locales/ja-JP/models.json +22 -34
- package/locales/ko-KR/models.json +25 -38
- package/locales/nl-NL/models.json +22 -34
- package/locales/pl-PL/models.json +22 -34
- package/locales/pt-BR/models.json +22 -34
- package/locales/ru-RU/models.json +22 -34
- package/locales/tr-TR/models.json +22 -34
- package/locales/vi-VN/models.json +22 -34
- package/locales/zh-CN/models.json +39 -51
- package/locales/zh-TW/models.json +22 -34
- package/package.json +1 -1
@@ -323,21 +323,15 @@
|
|
323
323
|
"abab7-chat-preview": {
|
324
324
|
"description": "По сравнению с серией моделей abab6.5, значительно улучшены способности в области длинных текстов, математики и написания."
|
325
325
|
},
|
326
|
-
"accounts/fireworks/models/
|
327
|
-
"description": "
|
326
|
+
"accounts/fireworks/models/deepseek-r1": {
|
327
|
+
"description": "DeepSeek-R1 — это передовая большая языковая модель, оптимизированная с помощью обучения с подкреплением и холодных стартовых данных, обладающая выдающимися показателями вывода, математики и программирования."
|
328
328
|
},
|
329
|
-
"accounts/fireworks/models/
|
330
|
-
"description": "
|
331
|
-
},
|
332
|
-
"accounts/fireworks/models/firellava-13b": {
|
333
|
-
"description": "fireworks-ai/FireLLaVA-13b — это визуальная языковая модель, способная одновременно обрабатывать изображения и текстовые вводы, обученная на высококачественных данных, подходящая для мультимодальных задач."
|
329
|
+
"accounts/fireworks/models/deepseek-v3": {
|
330
|
+
"description": "Мощная языковая модель Mixture-of-Experts (MoE) от Deepseek с общим количеством параметров 671B, активирующая 37B параметров на каждый токен."
|
334
331
|
},
|
335
332
|
"accounts/fireworks/models/llama-v3-70b-instruct": {
|
336
333
|
"description": "Модель Llama 3 70B для команд, специально оптимизированная для многоязычных диалогов и понимания естественного языка, превосходит большинство конкурентных моделей."
|
337
334
|
},
|
338
|
-
"accounts/fireworks/models/llama-v3-70b-instruct-hf": {
|
339
|
-
"description": "Модель Llama 3 70B для команд (HF версия), результаты которой совпадают с официальной реализацией, подходит для высококачественных задач выполнения команд."
|
340
|
-
},
|
341
335
|
"accounts/fireworks/models/llama-v3-8b-instruct": {
|
342
336
|
"description": "Модель Llama 3 8B для команд, оптимизированная для диалогов и многоязычных задач, демонстрирует выдающиеся и эффективные результаты."
|
343
337
|
},
|
@@ -356,24 +350,24 @@
|
|
356
350
|
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
|
357
351
|
"description": "Модель Meta с 11B параметрами, оптимизированная для вывода изображений. Эта модель предназначена для визуального распознавания, вывода изображений, описания изображений и ответа на общие вопросы о изображениях. Эта модель способна понимать визуальные данные, такие как графики и диаграммы, и преодолевать разрыв между визуальным и языковым пониманием, генерируя текстовые описания деталей изображений."
|
358
352
|
},
|
359
|
-
"accounts/fireworks/models/llama-v3p2-1b-instruct": {
|
360
|
-
"description": "Модель Llama 3.2 1B для инструкций - это компактная многоязычная модель, запущенная Meta. Эта модель предназначена для повышения эффективности и обеспечивает значительное улучшение в задержке и стоимости по сравнению с более крупными моделями. Примеры использования модели включают извлечение информации и резюме."
|
361
|
-
},
|
362
353
|
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
|
363
354
|
"description": "Модель Llama 3.2 3B для инструкций - это компактная многоязычная модель, запущенная Meta. Эта модель предназначена для повышения эффективности и обеспечивает значительное улучшение в задержке и стоимости по сравнению с более крупными моделями. Примеры использования модели включают запросы, переоформление подсказок и помощь в написании."
|
364
355
|
},
|
365
356
|
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
|
366
357
|
"description": "Модель Meta с 90B параметрами, оптимизированная для вывода изображений. Эта модель предназначена для визуального распознавания, вывода изображений, описания изображений и ответа на общие вопросы о изображениях. Эта модель способна понимать визуальные данные, такие как графики и диаграммы, и преодолевать разрыв между визуальным и языковым пониманием, генерируя текстовые описания деталей изображений."
|
367
358
|
},
|
359
|
+
"accounts/fireworks/models/llama-v3p3-70b-instruct": {
|
360
|
+
"description": "Llama 3.3 70B Instruct — это обновленная версия Llama 3.1 70B от декабря. Эта модель улучшена на основе Llama 3.1 70B (выпущенной в июле 2024 года), с усиленной поддержкой вызовов инструментов, многоязычного текста, математических и программных возможностей. Модель достигла ведущих в отрасли показателей в области вывода, математики и соблюдения инструкций, обеспечивая производительность, сопоставимую с 3.1 405B, при этом обладая значительными преимуществами по скорости и стоимости."
|
361
|
+
},
|
362
|
+
"accounts/fireworks/models/mistral-small-24b-instruct-2501": {
|
363
|
+
"description": "Модель с 24B параметрами, обладающая передовыми возможностями, сопоставимыми с более крупными моделями."
|
364
|
+
},
|
368
365
|
"accounts/fireworks/models/mixtral-8x22b-instruct": {
|
369
366
|
"description": "Mixtral MoE 8x22B для команд, с большим количеством параметров и архитектурой с несколькими экспертами, всесторонне поддерживает эффективную обработку сложных задач."
|
370
367
|
},
|
371
368
|
"accounts/fireworks/models/mixtral-8x7b-instruct": {
|
372
369
|
"description": "Mixtral MoE 8x7B для команд, архитектура с несколькими экспертами обеспечивает эффективное выполнение и следование командам."
|
373
370
|
},
|
374
|
-
"accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
|
375
|
-
"description": "Mixtral MoE 8x7B для команд (HF версия), производительность которой совпадает с официальной реализацией, подходит для множества эффективных задач."
|
376
|
-
},
|
377
371
|
"accounts/fireworks/models/mythomax-l2-13b": {
|
378
372
|
"description": "Модель MythoMax L2 13B, использующая новые технологии объединения, хорошо подходит для повествования и ролевых игр."
|
379
373
|
},
|
@@ -383,18 +377,15 @@
|
|
383
377
|
"accounts/fireworks/models/qwen-qwq-32b-preview": {
|
384
378
|
"description": "Модель QwQ — это экспериментальная исследовательская модель, разработанная командой Qwen, сосредоточенная на улучшении возможностей вывода ИИ."
|
385
379
|
},
|
380
|
+
"accounts/fireworks/models/qwen2-vl-72b-instruct": {
|
381
|
+
"description": "72B версия модели Qwen-VL — это результат последней итерации Alibaba, представляющий собой инновации почти за год."
|
382
|
+
},
|
386
383
|
"accounts/fireworks/models/qwen2p5-72b-instruct": {
|
387
384
|
"description": "Qwen2.5 - это серия языковых моделей, содержащая только декодеры, разработанная командой Qwen от Alibaba Cloud. Эти модели предлагаются в различных размерах: 0.5B, 1.5B, 3B, 7B, 14B, 32B и 72B, с вариантами базовой и инструкционной версии."
|
388
385
|
},
|
389
386
|
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
|
390
387
|
"description": "Qwen2.5 Coder 32B Instruct — это последняя версия серии языковых моделей, специфичных для кода, выпущенная Alibaba Cloud. Эта модель значительно улучшила способности генерации кода, вывода и исправления на основе Qwen2.5, обучаясь на 5.5 триллионах токенов. Она не только усилила кодирование, но и сохранила преимущества в математике и общих способностях. Модель предоставляет более полную основу для практических приложений, таких как интеллектуальные агенты кода."
|
391
388
|
},
|
392
|
-
"accounts/fireworks/models/starcoder-16b": {
|
393
|
-
"description": "Модель StarCoder 15.5B, поддерживающая сложные задачи программирования, с улучшенными многоязычными возможностями, подходит для генерации и понимания сложного кода."
|
394
|
-
},
|
395
|
-
"accounts/fireworks/models/starcoder-7b": {
|
396
|
-
"description": "Модель StarCoder 7B, обученная на более чем 80 языках программирования, обладает выдающимися способностями к заполнению кода и пониманию контекста."
|
397
|
-
},
|
398
389
|
"accounts/yi-01-ai/models/yi-large": {
|
399
390
|
"description": "Модель Yi-Large, обладающая выдающимися возможностями обработки нескольких языков, подходит для различных задач генерации и понимания языка."
|
400
391
|
},
|
@@ -887,30 +878,18 @@
|
|
887
878
|
"lite": {
|
888
879
|
"description": "Spark Lite — это легковесная большая языковая модель с крайне низкой задержкой и высокой эффективностью обработки, полностью бесплатная и открытая, поддерживающая функции онлайн-поиска в реальном времени. Ее быстрая реакция делает ее отличным выбором для применения в устройствах с низкой вычислительной мощностью и для тонкой настройки моделей, обеспечивая пользователям отличное соотношение цены и качества, особенно в сценариях вопросов и ответов, генерации контента и поиска."
|
889
880
|
},
|
890
|
-
"llama-3.1-70b-instruct": {
|
891
|
-
"description": "Модель Llama 3.1 70B для команд, обладающая 70B параметрами, обеспечивает выдающуюся производительность в задачах генерации текста и выполнения команд."
|
892
|
-
},
|
893
881
|
"llama-3.1-70b-versatile": {
|
894
882
|
"description": "Llama 3.1 70B предлагает более мощные возможности ИИ вывода, подходит для сложных приложений, поддерживает огромное количество вычислительных процессов и гарантирует эффективность и точность."
|
895
883
|
},
|
896
884
|
"llama-3.1-8b-instant": {
|
897
885
|
"description": "Llama 3.1 8B — это высокоэффективная модель, обеспечивающая быструю генерацию текста, идеально подходящая для приложений, требующих масштабной эффективности и экономичности."
|
898
886
|
},
|
899
|
-
"llama-3.1-8b-instruct": {
|
900
|
-
"description": "Модель Llama 3.1 8B для команд, обладающая 8B параметрами, обеспечивает эффективное выполнение задач с указаниями и предлагает высококачественные возможности генерации текста."
|
901
|
-
},
|
902
887
|
"llama-3.1-sonar-huge-128k-online": {
|
903
888
|
"description": "Модель Llama 3.1 Sonar Huge Online, обладающая 405B параметрами, поддерживает контекст длиной около 127,000 токенов, предназначена для сложных онлайн-чат-приложений."
|
904
889
|
},
|
905
|
-
"llama-3.1-sonar-large-128k-chat": {
|
906
|
-
"description": "Модель Llama 3.1 Sonar Large Chat, обладающая 70B параметрами, поддерживает контекст длиной около 127,000 токенов, подходит для сложных оффлайн-чатов."
|
907
|
-
},
|
908
890
|
"llama-3.1-sonar-large-128k-online": {
|
909
891
|
"description": "Модель Llama 3.1 Sonar Large Online, обладающая 70B параметрами, поддерживает контекст длиной около 127,000 токенов, подходит для задач с высокой нагрузкой и разнообразными чатами."
|
910
892
|
},
|
911
|
-
"llama-3.1-sonar-small-128k-chat": {
|
912
|
-
"description": "Модель Llama 3.1 Sonar Small Chat, обладающая 8B параметрами, специально разработана для оффлайн-чатов и поддерживает контекст длиной около 127,000 токенов."
|
913
|
-
},
|
914
893
|
"llama-3.1-sonar-small-128k-online": {
|
915
894
|
"description": "Модель Llama 3.1 Sonar Small Online, обладающая 8B параметрами, поддерживает контекст длиной около 127,000 токенов, специально разработана для онлайн-чатов и эффективно обрабатывает различные текстовые взаимодействия."
|
916
895
|
},
|
@@ -1355,6 +1334,15 @@
|
|
1355
1334
|
"solar-pro": {
|
1356
1335
|
"description": "Solar Pro — это высокоинтеллектуальная LLM, выпущенная Upstage, сосредоточенная на способности следовать инструкциям на одном GPU, с оценкой IFEval выше 80. В настоящее время поддерживает английский язык, официальная версия запланирована на ноябрь 2024 года, с расширением языковой поддержки и длины контекста."
|
1357
1336
|
},
|
1337
|
+
"sonar": {
|
1338
|
+
"description": "Легковесный продукт поиска на основе контекста, быстрее и дешевле, чем Sonar Pro."
|
1339
|
+
},
|
1340
|
+
"sonar-pro": {
|
1341
|
+
"description": "Расширенный продукт поиска, поддерживающий контекст поиска, сложные запросы и последующие действия."
|
1342
|
+
},
|
1343
|
+
"sonar-reasoning": {
|
1344
|
+
"description": "Новый API продукт, поддерживаемый моделью вывода DeepSeek."
|
1345
|
+
},
|
1358
1346
|
"step-1-128k": {
|
1359
1347
|
"description": "Балансирует производительность и стоимость, подходит для общих сценариев."
|
1360
1348
|
},
|
@@ -323,21 +323,15 @@
|
|
323
323
|
"abab7-chat-preview": {
|
324
324
|
"description": "abab6.5 serisi modellere kıyasla uzun metin, matematik, yazım gibi yeteneklerde büyük bir gelişim göstermektedir."
|
325
325
|
},
|
326
|
-
"accounts/fireworks/models/
|
327
|
-
"description": "
|
326
|
+
"accounts/fireworks/models/deepseek-r1": {
|
327
|
+
"description": "DeepSeek-R1, güçlendirilmiş öğrenme ve soğuk başlangıç verileri ile optimize edilmiş, mükemmel akıl yürütme, matematik ve programlama performansına sahip en son teknoloji büyük bir dil modelidir."
|
328
328
|
},
|
329
|
-
"accounts/fireworks/models/
|
330
|
-
"description": "
|
331
|
-
},
|
332
|
-
"accounts/fireworks/models/firellava-13b": {
|
333
|
-
"description": "fireworks-ai/FireLLaVA-13b, hem görüntü hem de metin girdilerini alabilen, yüksek kaliteli verilerle eğitilmiş bir görsel dil modelidir ve çok modlu görevler için uygundur."
|
329
|
+
"accounts/fireworks/models/deepseek-v3": {
|
330
|
+
"description": "Deepseek tarafından sunulan güçlü Mixture-of-Experts (MoE) dil modeli, toplamda 671B parametreye sahiptir ve her bir etiket için 37B parametre etkinleştirilmektedir."
|
334
331
|
},
|
335
332
|
"accounts/fireworks/models/llama-v3-70b-instruct": {
|
336
333
|
"description": "Llama 3 70B talimat modeli, çok dilli diyalog ve doğal dil anlama için optimize edilmiştir, çoğu rakip modelden daha iyi performans gösterir."
|
337
334
|
},
|
338
|
-
"accounts/fireworks/models/llama-v3-70b-instruct-hf": {
|
339
|
-
"description": "Llama 3 70B talimat modeli (HF versiyonu), resmi uygulama sonuçlarıyla uyumlu olup yüksek kaliteli talimat takibi görevleri için uygundur."
|
340
|
-
},
|
341
335
|
"accounts/fireworks/models/llama-v3-8b-instruct": {
|
342
336
|
"description": "Llama 3 8B talimat modeli, diyalog ve çok dilli görevler için optimize edilmiştir, mükemmel ve etkili performans sunar."
|
343
337
|
},
|
@@ -356,24 +350,24 @@
|
|
356
350
|
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
|
357
351
|
"description": "Meta'nın 11B parametreli komut ayarlı görüntü akıl yürütme modelidir. Bu model, görsel tanıma, görüntü akıl yürütme, görüntü betimleme ve görüntü hakkında genel sorulara yanıt verme üzerine optimize edilmiştir. Bu model, grafikler ve resimler gibi görsel verileri anlayabilir ve görüntü detaylarını metin olarak betimleyerek görsel ile dil arasındaki boşluğu kapatır."
|
358
352
|
},
|
359
|
-
"accounts/fireworks/models/llama-v3p2-1b-instruct": {
|
360
|
-
"description": "Llama 3.2 1B komut modeli, Meta tarafından sunulan hafif çok dilli bir modeldir. Bu model, verimliliği artırmak amacıyla daha büyük modellere göre gecikme ve maliyet açısından önemli iyileştirmeler sunar. Bu modelin örnek kullanım alanları arasında bilgi alma ve özetleme bulunmaktadır."
|
361
|
-
},
|
362
353
|
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
|
363
354
|
"description": "Llama 3.2 3B komut modeli, Meta tarafından sunulan hafif çok dilli bir modeldir. Bu model, verimliliği artırmak amacıyla daha büyük modellere göre gecikme ve maliyet açısından önemli iyileştirmeler sunar. Bu modelin örnek kullanım alanları arasında sorgulama, öneri yeniden yazma ve yazma desteği bulunmaktadır."
|
364
355
|
},
|
365
356
|
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
|
366
357
|
"description": "Meta'nın 90B parametreli komut ayarlı görüntü akıl yürütme modelidir. Bu model, görsel tanıma, görüntü akıl yürütme, görüntü betimleme ve görüntü hakkında genel sorulara yanıt verme üzerine optimize edilmiştir. Bu model, grafikler ve resimler gibi görsel verileri anlayabilir ve görüntü detaylarını metin olarak betimleyerek görsel ile dil arasındaki boşluğu kapatır."
|
367
358
|
},
|
359
|
+
"accounts/fireworks/models/llama-v3p3-70b-instruct": {
|
360
|
+
"description": "Llama 3.3 70B Instruct, Llama 3.1 70B'nin Aralık güncellemesi olan bir modeldir. Bu model, Llama 3.1 70B (2024 Temmuz'da piyasaya sürüldü) temel alınarak geliştirilmiş olup, araç çağrıları, çok dilli metin desteği, matematik ve programlama yeteneklerini artırmıştır. Model, akıl yürütme, matematik ve talimat takibi alanlarında sektördeki en yüksek standartlara ulaşmış olup, 3.1 405B ile benzer performans sunarken hız ve maliyet açısından önemli avantajlar sağlamaktadır."
|
361
|
+
},
|
362
|
+
"accounts/fireworks/models/mistral-small-24b-instruct-2501": {
|
363
|
+
"description": "24B parametreli model, daha büyük modellerle karşılaştırılabilir en son teknoloji yeteneklerine sahiptir."
|
364
|
+
},
|
368
365
|
"accounts/fireworks/models/mixtral-8x22b-instruct": {
|
369
366
|
"description": "Mixtral MoE 8x22B talimat modeli, büyük ölçekli parametreler ve çok uzmanlı mimarisi ile karmaşık görevlerin etkili işlenmesini destekler."
|
370
367
|
},
|
371
368
|
"accounts/fireworks/models/mixtral-8x7b-instruct": {
|
372
369
|
"description": "Mixtral MoE 8x7B talimat modeli, çok uzmanlı mimarisi ile etkili talimat takibi ve yürütme sunar."
|
373
370
|
},
|
374
|
-
"accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
|
375
|
-
"description": "Mixtral MoE 8x7B talimat modeli (HF versiyonu), resmi uygulama ile uyumlu olup çeşitli yüksek verimli görev senaryoları için uygundur."
|
376
|
-
},
|
377
371
|
"accounts/fireworks/models/mythomax-l2-13b": {
|
378
372
|
"description": "MythoMax L2 13B modeli, yenilikçi birleşim teknolojileri ile hikaye anlatımı ve rol yapma konularında uzmandır."
|
379
373
|
},
|
@@ -383,18 +377,15 @@
|
|
383
377
|
"accounts/fireworks/models/qwen-qwq-32b-preview": {
|
384
378
|
"description": "QwQ modeli, Qwen ekibi tarafından geliştirilen deneysel bir araştırma modelidir ve AI akıl yürütme yeteneklerini artırmaya odaklanmaktadır."
|
385
379
|
},
|
380
|
+
"accounts/fireworks/models/qwen2-vl-72b-instruct": {
|
381
|
+
"description": "Qwen-VL modelinin 72B versiyonu, Alibaba'nın en son iterasyonunun bir ürünüdür ve son bir yılın yeniliklerini temsil etmektedir."
|
382
|
+
},
|
386
383
|
"accounts/fireworks/models/qwen2p5-72b-instruct": {
|
387
384
|
"description": "Qwen2.5, Alibaba Cloud Qwen ekibi tarafından geliştirilen yalnızca kodlayıcı içeren bir dizi dil modelidir. Bu modeller, 0.5B, 1.5B, 3B, 7B, 14B, 32B ve 72B gibi farklı boyutları sunar ve temel (base) ve komut (instruct) versiyonlarına sahiptir."
|
388
385
|
},
|
389
386
|
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
|
390
387
|
"description": "Qwen2.5 Coder 32B Instruct, Alibaba Cloud tarafından yayınlanan kod odaklı büyük dil modeli serisinin en son versiyonudur. Bu model, Qwen2.5 temelinde, 5.5 trilyon token ile eğitilerek kod üretimi, akıl yürütme ve düzeltme yeteneklerini önemli ölçüde artırmıştır. Hem kodlama yeteneklerini geliştirmiş hem de matematik ve genel yetenek avantajlarını korumuştur. Model, kod akıllı ajanları gibi pratik uygulamalar için daha kapsamlı bir temel sunmaktadır."
|
391
388
|
},
|
392
|
-
"accounts/fireworks/models/starcoder-16b": {
|
393
|
-
"description": "StarCoder 15.5B modeli, ileri düzey programlama görevlerini destekler, çok dilli yetenekleri artırır ve karmaşık kod üretimi ve anlama için uygundur."
|
394
|
-
},
|
395
|
-
"accounts/fireworks/models/starcoder-7b": {
|
396
|
-
"description": "StarCoder 7B modeli, 80'den fazla programlama dili için eğitilmiş olup, mükemmel programlama tamamlama yetenekleri ve bağlam anlama sunar."
|
397
|
-
},
|
398
389
|
"accounts/yi-01-ai/models/yi-large": {
|
399
390
|
"description": "Yi-Large modeli, mükemmel çok dilli işleme yetenekleri sunar ve her türlü dil üretimi ve anlama görevleri için uygundur."
|
400
391
|
},
|
@@ -887,30 +878,18 @@
|
|
887
878
|
"lite": {
|
888
879
|
"description": "Spark Lite, son derece düşük gecikme süresi ve yüksek verimlilikle çalışan hafif bir büyük dil modelidir. Tamamen ücretsiz ve açık olup, gerçek zamanlı çevrimiçi arama işlevini desteklemektedir. Hızlı yanıt verme özelliği, düşük hesaplama gücüne sahip cihazlarda çıkarım uygulamaları ve model ince ayarlarında mükemmel performans sergileyerek, kullanıcılara maliyet etkinliği ve akıllı deneyim sunmakta, özellikle bilgi sorgulama, içerik oluşturma ve arama senaryolarında başarılı olmaktadır."
|
889
880
|
},
|
890
|
-
"llama-3.1-70b-instruct": {
|
891
|
-
"description": "Llama 3.1 70B Instruct modeli, 70B parametreye sahiptir ve büyük metin üretimi ve talimat görevlerinde mükemmel performans sunar."
|
892
|
-
},
|
893
881
|
"llama-3.1-70b-versatile": {
|
894
882
|
"description": "Llama 3.1 70B, daha güçlü AI akıl yürütme yeteneği sunar, karmaşık uygulamalar için uygundur ve yüksek verimlilik ve doğruluk sağlamak için çok sayıda hesaplama işlemini destekler."
|
895
883
|
},
|
896
884
|
"llama-3.1-8b-instant": {
|
897
885
|
"description": "Llama 3.1 8B, hızlı metin üretim yeteneği sunan yüksek performanslı bir modeldir ve büyük ölçekli verimlilik ve maliyet etkinliği gerektiren uygulama senaryoları için son derece uygundur."
|
898
886
|
},
|
899
|
-
"llama-3.1-8b-instruct": {
|
900
|
-
"description": "Llama 3.1 8B Instruct modeli, 8B parametreye sahiptir ve görsel talimat görevlerinin etkili bir şekilde yürütülmesini sağlar, kaliteli metin üretim yetenekleri sunar."
|
901
|
-
},
|
902
887
|
"llama-3.1-sonar-huge-128k-online": {
|
903
888
|
"description": "Llama 3.1 Sonar Huge Online modeli, 405B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, karmaşık çevrimiçi sohbet uygulamaları için tasarlanmıştır."
|
904
889
|
},
|
905
|
-
"llama-3.1-sonar-large-128k-chat": {
|
906
|
-
"description": "Llama 3.1 Sonar Large Chat modeli, 70B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, karmaşık çevrimdışı sohbet görevleri için uygundur."
|
907
|
-
},
|
908
890
|
"llama-3.1-sonar-large-128k-online": {
|
909
891
|
"description": "Llama 3.1 Sonar Large Online modeli, 70B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, yüksek kapasiteli ve çeşitli sohbet görevleri için uygundur."
|
910
892
|
},
|
911
|
-
"llama-3.1-sonar-small-128k-chat": {
|
912
|
-
"description": "Llama 3.1 Sonar Small Chat modeli, 8B parametreye sahiptir ve çevrimdışı sohbet için tasarlanmıştır, yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler."
|
913
|
-
},
|
914
893
|
"llama-3.1-sonar-small-128k-online": {
|
915
894
|
"description": "Llama 3.1 Sonar Small Online modeli, 8B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, çevrimiçi sohbet için tasarlanmıştır ve çeşitli metin etkileşimlerini etkili bir şekilde işler."
|
916
895
|
},
|
@@ -1355,6 +1334,15 @@
|
|
1355
1334
|
"solar-pro": {
|
1356
1335
|
"description": "Solar Pro, Upstage tarafından sunulan yüksek akıllı LLM'dir, tek GPU talimat takibi yeteneğine odaklanır, IFEval puanı 80'in üzerindedir. Şu anda İngilizceyi desteklemekte olup, resmi versiyonu 2024 Kasım'da piyasaya sürülmesi planlanmaktadır ve dil desteği ile bağlam uzunluğunu genişletecektir."
|
1357
1336
|
},
|
1337
|
+
"sonar": {
|
1338
|
+
"description": "Arama bağlamına dayalı hafif bir arama ürünüdür, Sonar Pro'dan daha hızlı ve daha ucuzdur."
|
1339
|
+
},
|
1340
|
+
"sonar-pro": {
|
1341
|
+
"description": "Gelişmiş sorgular ve takip desteği sunan, arama bağlamını destekleyen bir üst düzey arama ürünüdür."
|
1342
|
+
},
|
1343
|
+
"sonar-reasoning": {
|
1344
|
+
"description": "DeepSeek akıl yürütme modeli tarafından desteklenen yeni API ürünü."
|
1345
|
+
},
|
1358
1346
|
"step-1-128k": {
|
1359
1347
|
"description": "Performans ve maliyet arasında denge sağlar, genel senaryolar için uygundur."
|
1360
1348
|
},
|
@@ -323,21 +323,15 @@
|
|
323
323
|
"abab7-chat-preview": {
|
324
324
|
"description": "So với các mô hình trong series abab6.5, khả năng xử lý văn bản dài, toán học, viết lách, v.v. đã được cải thiện đáng kể."
|
325
325
|
},
|
326
|
-
"accounts/fireworks/models/
|
327
|
-
"description": "
|
326
|
+
"accounts/fireworks/models/deepseek-r1": {
|
327
|
+
"description": "DeepSeek-R1 là một mô hình ngôn ngữ lớn tiên tiến, được tối ưu hóa thông qua học tăng cường và dữ liệu khởi động lạnh, có hiệu suất suy luận, toán học và lập trình xuất sắc."
|
328
328
|
},
|
329
|
-
"accounts/fireworks/models/
|
330
|
-
"description": "
|
331
|
-
},
|
332
|
-
"accounts/fireworks/models/firellava-13b": {
|
333
|
-
"description": "fireworks-ai/FireLLaVA-13b là một mô hình ngôn ngữ hình ảnh, có thể nhận cả hình ảnh và văn bản đầu vào, được huấn luyện bằng dữ liệu chất lượng cao, phù hợp cho các nhiệm vụ đa mô hình."
|
329
|
+
"accounts/fireworks/models/deepseek-v3": {
|
330
|
+
"description": "Mô hình ngôn ngữ Mixture-of-Experts (MoE) mạnh mẽ do Deepseek cung cấp, với tổng số tham số là 671B, mỗi ký hiệu kích hoạt 37B tham số."
|
334
331
|
},
|
335
332
|
"accounts/fireworks/models/llama-v3-70b-instruct": {
|
336
333
|
"description": "Mô hình chỉ dẫn Llama 3 70B, được tối ưu hóa cho đối thoại đa ngôn ngữ và hiểu ngôn ngữ tự nhiên, hiệu suất vượt trội hơn nhiều mô hình cạnh tranh."
|
337
334
|
},
|
338
|
-
"accounts/fireworks/models/llama-v3-70b-instruct-hf": {
|
339
|
-
"description": "Mô hình chỉ dẫn Llama 3 70B (phiên bản HF), giữ nguyên kết quả với thực hiện chính thức, phù hợp cho các nhiệm vụ theo dõi chỉ dẫn chất lượng cao."
|
340
|
-
},
|
341
335
|
"accounts/fireworks/models/llama-v3-8b-instruct": {
|
342
336
|
"description": "Mô hình chỉ dẫn Llama 3 8B, được tối ưu hóa cho đối thoại và các nhiệm vụ đa ngôn ngữ, thể hiện hiệu suất xuất sắc và hiệu quả."
|
343
337
|
},
|
@@ -356,24 +350,24 @@
|
|
356
350
|
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
|
357
351
|
"description": "Mô hình suy luận hình ảnh chỉ dẫn với 11B tham số của Meta. Mô hình này được tối ưu hóa cho nhận diện hình ảnh, suy luận hình ảnh, mô tả hình ảnh và trả lời các câu hỏi chung liên quan đến hình ảnh. Mô hình có khả năng hiểu dữ liệu hình ảnh như biểu đồ và đồ thị, và thu hẹp khoảng cách giữa hình ảnh và ngôn ngữ thông qua việc tạo mô tả văn bản về chi tiết hình ảnh."
|
358
352
|
},
|
359
|
-
"accounts/fireworks/models/llama-v3p2-1b-instruct": {
|
360
|
-
"description": "Mô hình chỉ dẫn Llama 3.2 1B là một mô hình đa ngôn ngữ nhẹ mà Meta phát hành. Mô hình này được thiết kế để tăng cường hiệu quả, mang lại cải tiến đáng kể về độ trễ và chi phí so với các mô hình lớn hơn. Các trường hợp sử dụng ví dụ của mô hình này bao gồm truy xuất và tóm tắt."
|
361
|
-
},
|
362
353
|
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
|
363
354
|
"description": "Mô hình chỉ dẫn Llama 3.2 3B là một mô hình đa ngôn ngữ nhẹ mà Meta phát hành. Mô hình này được thiết kế để tăng cường hiệu quả, mang lại cải tiến đáng kể về độ trễ và chi phí so với các mô hình lớn hơn. Các trường hợp sử dụng ví dụ của mô hình này bao gồm truy vấn, viết lại thông báo và hỗ trợ viết."
|
364
355
|
},
|
365
356
|
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
|
366
357
|
"description": "Mô hình suy luận hình ảnh chỉ dẫn với 90B tham số của Meta. Mô hình này được tối ưu hóa cho nhận diện hình ảnh, suy luận hình ảnh, mô tả hình ảnh và trả lời các câu hỏi chung liên quan đến hình ảnh. Mô hình có khả năng hiểu dữ liệu hình ảnh như biểu đồ và đồ thị, và thu hẹp khoảng cách giữa hình ảnh và ngôn ngữ thông qua việc tạo mô tả văn bản về chi tiết hình ảnh."
|
367
358
|
},
|
359
|
+
"accounts/fireworks/models/llama-v3p3-70b-instruct": {
|
360
|
+
"description": "Llama 3.3 70B Instruct là phiên bản cập nhật tháng 12 của Llama 3.1 70B. Mô hình này được cải tiến dựa trên Llama 3.1 70B (ra mắt vào tháng 7 năm 2024), nâng cao khả năng gọi công cụ, hỗ trợ văn bản đa ngôn ngữ, toán học và lập trình. Mô hình này đạt được trình độ hàng đầu trong ngành về suy luận, toán học và tuân thủ hướng dẫn, đồng thời có thể cung cấp hiệu suất tương tự như 3.1 405B, với lợi thế đáng kể về tốc độ và chi phí."
|
361
|
+
},
|
362
|
+
"accounts/fireworks/models/mistral-small-24b-instruct-2501": {
|
363
|
+
"description": "Mô hình 24B tham số, có khả năng tiên tiến tương đương với các mô hình lớn hơn."
|
364
|
+
},
|
368
365
|
"accounts/fireworks/models/mixtral-8x22b-instruct": {
|
369
366
|
"description": "Mô hình chỉ dẫn Mixtral MoE 8x22B, với số lượng tham số lớn và kiến trúc nhiều chuyên gia, hỗ trợ toàn diện cho việc xử lý hiệu quả các nhiệm vụ phức tạp."
|
370
367
|
},
|
371
368
|
"accounts/fireworks/models/mixtral-8x7b-instruct": {
|
372
369
|
"description": "Mô hình chỉ dẫn Mixtral MoE 8x7B, kiến trúc nhiều chuyên gia cung cấp khả năng theo dõi và thực hiện chỉ dẫn hiệu quả."
|
373
370
|
},
|
374
|
-
"accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
|
375
|
-
"description": "Mô hình chỉ dẫn Mixtral MoE 8x7B (phiên bản HF), hiệu suất nhất quán với thực hiện chính thức, phù hợp cho nhiều tình huống nhiệm vụ hiệu quả."
|
376
|
-
},
|
377
371
|
"accounts/fireworks/models/mythomax-l2-13b": {
|
378
372
|
"description": "Mô hình MythoMax L2 13B, kết hợp công nghệ hợp nhất mới, xuất sắc trong việc kể chuyện và đóng vai."
|
379
373
|
},
|
@@ -383,18 +377,15 @@
|
|
383
377
|
"accounts/fireworks/models/qwen-qwq-32b-preview": {
|
384
378
|
"description": "Mô hình QwQ là một mô hình nghiên cứu thử nghiệm được phát triển bởi đội ngũ Qwen, tập trung vào việc nâng cao khả năng suy luận của AI."
|
385
379
|
},
|
380
|
+
"accounts/fireworks/models/qwen2-vl-72b-instruct": {
|
381
|
+
"description": "Phiên bản 72B của mô hình Qwen-VL là thành quả mới nhất của Alibaba, đại diện cho gần một năm đổi mới."
|
382
|
+
},
|
386
383
|
"accounts/fireworks/models/qwen2p5-72b-instruct": {
|
387
384
|
"description": "Qwen2.5 là một loạt mô hình ngôn ngữ chỉ chứa bộ giải mã do đội ngũ Qwen của Alibaba Cloud phát triển. Những mô hình này cung cấp các kích thước khác nhau, bao gồm 0.5B, 1.5B, 3B, 7B, 14B, 32B và 72B, và có hai biến thể: phiên bản cơ sở (base) và phiên bản chỉ dẫn (instruct)."
|
388
385
|
},
|
389
386
|
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
|
390
387
|
"description": "Qwen2.5 Coder 32B Instruct là phiên bản mới nhất trong loạt mô hình ngôn ngữ lớn chuyên biệt cho mã do Alibaba Cloud phát hành. Mô hình này được cải thiện đáng kể khả năng tạo mã, suy luận và sửa chữa thông qua việc đào tạo trên 5.5 triệu tỷ tokens, không chỉ nâng cao khả năng lập trình mà còn duy trì lợi thế về khả năng toán học và tổng quát. Mô hình cung cấp nền tảng toàn diện hơn cho các ứng dụng thực tế như tác nhân mã."
|
391
388
|
},
|
392
|
-
"accounts/fireworks/models/starcoder-16b": {
|
393
|
-
"description": "Mô hình StarCoder 15.5B, hỗ trợ các nhiệm vụ lập trình nâng cao, khả năng đa ngôn ngữ được cải thiện, phù hợp cho việc tạo và hiểu mã phức tạp."
|
394
|
-
},
|
395
|
-
"accounts/fireworks/models/starcoder-7b": {
|
396
|
-
"description": "Mô hình StarCoder 7B, được huấn luyện cho hơn 80 ngôn ngữ lập trình, có khả năng điền mã và hiểu ngữ cảnh xuất sắc."
|
397
|
-
},
|
398
389
|
"accounts/yi-01-ai/models/yi-large": {
|
399
390
|
"description": "Mô hình Yi-Large, có khả năng xử lý đa ngôn ngữ xuất sắc, có thể được sử dụng cho nhiều nhiệm vụ sinh và hiểu ngôn ngữ."
|
400
391
|
},
|
@@ -887,30 +878,18 @@
|
|
887
878
|
"lite": {
|
888
879
|
"description": "Spark Lite là một mô hình ngôn ngữ lớn nhẹ, có độ trễ cực thấp và khả năng xử lý hiệu quả, hoàn toàn miễn phí và mở, hỗ trợ chức năng tìm kiếm trực tuyến theo thời gian thực. Đặc điểm phản hồi nhanh của nó giúp nó nổi bật trong các ứng dụng suy diễn trên thiết bị có công suất thấp và tinh chỉnh mô hình, mang lại hiệu quả chi phí và trải nghiệm thông minh xuất sắc cho người dùng, đặc biệt trong các tình huống hỏi đáp kiến thức, tạo nội dung và tìm kiếm."
|
889
880
|
},
|
890
|
-
"llama-3.1-70b-instruct": {
|
891
|
-
"description": "Mô hình Llama 3.1 70B Instruct, có 70B tham số, có thể cung cấp hiệu suất xuất sắc trong các nhiệm vụ sinh văn bản và chỉ dẫn lớn."
|
892
|
-
},
|
893
881
|
"llama-3.1-70b-versatile": {
|
894
882
|
"description": "Llama 3.1 70B cung cấp khả năng suy luận AI mạnh mẽ hơn, phù hợp cho các ứng dụng phức tạp, hỗ trợ xử lý tính toán cực lớn và đảm bảo hiệu quả và độ chính xác cao."
|
895
883
|
},
|
896
884
|
"llama-3.1-8b-instant": {
|
897
885
|
"description": "Llama 3.1 8B là một mô hình hiệu suất cao, cung cấp khả năng sinh văn bản nhanh chóng, rất phù hợp cho các tình huống ứng dụng cần hiệu quả quy mô lớn và tiết kiệm chi phí."
|
898
886
|
},
|
899
|
-
"llama-3.1-8b-instruct": {
|
900
|
-
"description": "Mô hình Llama 3.1 8B Instruct, có 8B tham số, hỗ trợ thực hiện nhiệm vụ chỉ dẫn hình ảnh hiệu quả, cung cấp khả năng sinh văn bản chất lượng."
|
901
|
-
},
|
902
887
|
"llama-3.1-sonar-huge-128k-online": {
|
903
888
|
"description": "Mô hình Llama 3.1 Sonar Huge Online, có 405B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, được thiết kế cho các ứng dụng trò chuyện trực tuyến phức tạp."
|
904
889
|
},
|
905
|
-
"llama-3.1-sonar-large-128k-chat": {
|
906
|
-
"description": "Mô hình Llama 3.1 Sonar Large Chat, có 70B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, phù hợp cho các nhiệm vụ trò chuyện ngoại tuyến phức tạp."
|
907
|
-
},
|
908
890
|
"llama-3.1-sonar-large-128k-online": {
|
909
891
|
"description": "Mô hình Llama 3.1 Sonar Large Online, có 70B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, phù hợp cho các nhiệm vụ trò chuyện có dung lượng lớn và đa dạng."
|
910
892
|
},
|
911
|
-
"llama-3.1-sonar-small-128k-chat": {
|
912
|
-
"description": "Mô hình Llama 3.1 Sonar Small Chat, có 8B tham số, được thiết kế cho trò chuyện ngoại tuyến, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã."
|
913
|
-
},
|
914
893
|
"llama-3.1-sonar-small-128k-online": {
|
915
894
|
"description": "Mô hình Llama 3.1 Sonar Small Online, có 8B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, được thiết kế cho trò chuyện trực tuyến, có khả năng xử lý hiệu quả các tương tác văn bản khác nhau."
|
916
895
|
},
|
@@ -1355,6 +1334,15 @@
|
|
1355
1334
|
"solar-pro": {
|
1356
1335
|
"description": "Solar Pro là một LLM thông minh cao do Upstage phát hành, tập trung vào khả năng tuân theo hướng dẫn trên một GPU, đạt điểm IFEval trên 80. Hiện tại hỗ trợ tiếng Anh, phiên bản chính thức dự kiến ra mắt vào tháng 11 năm 2024, sẽ mở rộng hỗ trợ ngôn ngữ và độ dài ngữ cảnh."
|
1357
1336
|
},
|
1337
|
+
"sonar": {
|
1338
|
+
"description": "Sản phẩm tìm kiếm nhẹ dựa trên ngữ cảnh tìm kiếm, nhanh hơn và rẻ hơn so với Sonar Pro."
|
1339
|
+
},
|
1340
|
+
"sonar-pro": {
|
1341
|
+
"description": "Sản phẩm tìm kiếm nâng cao hỗ trợ ngữ cảnh tìm kiếm, cho phép truy vấn và theo dõi nâng cao."
|
1342
|
+
},
|
1343
|
+
"sonar-reasoning": {
|
1344
|
+
"description": "Sản phẩm API mới được hỗ trợ bởi mô hình suy luận của DeepSeek."
|
1345
|
+
},
|
1358
1346
|
"step-1-128k": {
|
1359
1347
|
"description": "Cân bằng hiệu suất và chi phí, phù hợp cho các tình huống chung."
|
1360
1348
|
},
|
@@ -323,80 +323,71 @@
|
|
323
323
|
"abab7-chat-preview": {
|
324
324
|
"description": "相对于abab6.5系列模型在长文、数学、写作等能力有大幅度提升。"
|
325
325
|
},
|
326
|
-
"accounts/fireworks/models/
|
327
|
-
"description": "
|
326
|
+
"accounts/fireworks/models/deepseek-r1": {
|
327
|
+
"description": "DeepSeek-R1 是一款最先进的大型语言模型,经过强化学习和冷启动数据的优化,具有出色的推理、数学和编程性能。"
|
328
328
|
},
|
329
|
-
"accounts/fireworks/models/
|
330
|
-
"description": "
|
331
|
-
},
|
332
|
-
"accounts/fireworks/models/firellava-13b": {
|
333
|
-
"description": "fireworks-ai/FireLLaVA-13b 是一款视觉语言模型,可以同时接收图像和文本输入,经过高质量数据训练,适合多模态任务。"
|
329
|
+
"accounts/fireworks/models/deepseek-v3": {
|
330
|
+
"description": "Deepseek 提供的强大 Mixture-of-Experts (MoE) 语言模型,总参数量为 671B,每个标记激活 37B 参数。"
|
334
331
|
},
|
335
332
|
"accounts/fireworks/models/llama-v3-70b-instruct": {
|
336
|
-
"description": "Llama 3 70B
|
337
|
-
},
|
338
|
-
"accounts/fireworks/models/llama-v3-70b-instruct-hf": {
|
339
|
-
"description": "Llama 3 70B 指令模型(HF 版本),与官方实现结果保持一致,适合高质量的指令跟随任务。"
|
333
|
+
"description": "Meta 开发并发布了 Meta Llama 3 系列大语言模型(LLM),该系列包含 8B 和 70B 参数规模的预训练和指令微调生成文本模型。Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。"
|
340
334
|
},
|
341
335
|
"accounts/fireworks/models/llama-v3-8b-instruct": {
|
342
|
-
"description": "Llama 3 8B
|
336
|
+
"description": "Meta 开发并发布了 Meta Llama 3 系列大语言模型(LLM),这是一个包含 8B 和 70B 参数规模的预训练和指令微调生成文本模型的集合。Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。"
|
343
337
|
},
|
344
338
|
"accounts/fireworks/models/llama-v3-8b-instruct-hf": {
|
345
|
-
"description": "Llama 3 8B
|
339
|
+
"description": "Meta Llama 3 指令微调模型专为对话应用场景优化,并在常见的行业基准测试中优于许多现有的开源聊天模型。Llama 3 8B Instruct(HF 版本)是 Llama 3 8B Instruct 的原始 FP16 版本,其结果应与官方 Hugging Face 实现一致。"
|
346
340
|
},
|
347
341
|
"accounts/fireworks/models/llama-v3p1-405b-instruct": {
|
348
|
-
"description": "Llama 3.1 405B
|
342
|
+
"description": "Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话场景优化,在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。405B 是 Llama 3.1 家族中能力最强的模型。该模型采用 FP8 进行推理,与参考实现高度匹配。"
|
349
343
|
},
|
350
344
|
"accounts/fireworks/models/llama-v3p1-70b-instruct": {
|
351
|
-
"description": "Llama 3.1 70B
|
345
|
+
"description": "Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 三种参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话应用优化,并在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。"
|
352
346
|
},
|
353
347
|
"accounts/fireworks/models/llama-v3p1-8b-instruct": {
|
354
|
-
"description": "Llama 3.1 8B
|
348
|
+
"description": "Meta Llama 3.1 系列是多语言大语言模型(LLM)集合,包含 8B、70B 和 405B 三种参数规模的预训练和指令微调生成模型。Llama 3.1 指令微调文本模型(8B、70B、405B)专为多语言对话应用优化,并在常见的行业基准测试中优于许多现有的开源和闭源聊天模型。"
|
355
349
|
},
|
356
350
|
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
|
357
|
-
"description": "Meta
|
358
|
-
},
|
359
|
-
"accounts/fireworks/models/llama-v3p2-1b-instruct": {
|
360
|
-
"description": "Llama 3.2 1B 指令模型是Meta推出的一款轻量级多语言模型。该模型旨在提高效率,与更大型的模型相比,在延迟和成本方面提供了显著的改进。该模型的示例用例包括检索和摘要。"
|
351
|
+
"description": "Meta 推出的指令微调图像推理模型,拥有 110 亿参数。该模型针对视觉识别、图像推理、图片字幕生成以及图片相关的常规问答进行了优化。它能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节,弥合视觉与语言之间的鸿沟。"
|
361
352
|
},
|
362
353
|
"accounts/fireworks/models/llama-v3p2-3b-instruct": {
|
363
|
-
"description": "Llama 3.2 3B
|
354
|
+
"description": "Llama 3.2 3B Instruct 是 Meta 推出的轻量级多语言模型。该模型专为高效运行而设计,相较于更大型的模型,具有显著的延迟和成本优势。其典型应用场景包括查询和提示重写,以及写作辅助。"
|
364
355
|
},
|
365
356
|
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
|
366
|
-
"description": "Meta
|
357
|
+
"description": "Meta 推出的指令微调图像推理模型,拥有 900 亿参数。该模型针对视觉识别、图像推理、图片字幕生成以及图片相关的常规问答进行了优化。它能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节,弥合视觉与语言之间的鸿沟。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。"
|
358
|
+
},
|
359
|
+
"accounts/fireworks/models/llama-v3p3-70b-instruct": {
|
360
|
+
"description": "Llama 3.3 70B Instruct 是 Llama 3.1 70B 的 12 月更新版本。该模型在 Llama 3.1 70B(于 2024 年 7 月发布)的基础上进行了改进,增强了工具调用、多语言文本支持、数学和编程能力。该模型在推理、数学和指令遵循方面达到了行业领先水平,并且能够提供与 3.1 405B 相似的性能,同时在速度和成本上具有显著优势。"
|
361
|
+
},
|
362
|
+
"accounts/fireworks/models/mistral-small-24b-instruct-2501": {
|
363
|
+
"description": "24B 参数模型,具备与更大型模型相当的最先进能力。"
|
367
364
|
},
|
368
365
|
"accounts/fireworks/models/mixtral-8x22b-instruct": {
|
369
|
-
"description": "Mixtral MoE 8x22B
|
366
|
+
"description": "Mixtral MoE 8x22B Instruct v0.1 是 Mixtral MoE 8x22B v0.1 的指令微调版本,已启用聊天完成功能 API。"
|
370
367
|
},
|
371
368
|
"accounts/fireworks/models/mixtral-8x7b-instruct": {
|
372
|
-
"description": "Mixtral MoE 8x7B
|
373
|
-
},
|
374
|
-
"accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
|
375
|
-
"description": "Mixtral MoE 8x7B 指令模型(HF 版本),性能与官方实现一致,适合多种高效任务场景。"
|
369
|
+
"description": "Mixtral MoE 8x7B Instruct 是 Mixtral MoE 8x7B 的指令微调版本,已启用聊天完成功能 API。"
|
376
370
|
},
|
377
371
|
"accounts/fireworks/models/mythomax-l2-13b": {
|
378
|
-
"description": "
|
372
|
+
"description": "MythoMix 的改进版,可能是其更为完善的变体,是 MythoLogic-L2 和 Huginn 的合并,采用了高度实验性的张量类型合并技术。由于其独特的性质,该模型在讲故事和角色扮演方面表现出色。"
|
379
373
|
},
|
380
374
|
"accounts/fireworks/models/phi-3-vision-128k-instruct": {
|
381
|
-
"description": "Phi-3-Vision-128K-Instruct
|
375
|
+
"description": "Phi-3-Vision-128K-Instruct 是一个轻量级的、最先进的开放多模态模型,基于包括合成数据和筛选后的公开网站数据集构建,重点关注文本和视觉方面的高质量、推理密集型数据。该模型属于 Phi-3 模型家族,其多模态版本支持 128K 上下文长度(以标记为单位)。该模型经过严格的增强过程,包括监督微调和直接偏好优化,以确保精确的指令遵循和强大的安全措施。"
|
382
376
|
},
|
383
377
|
"accounts/fireworks/models/qwen-qwq-32b-preview": {
|
384
|
-
"description": "QwQ
|
378
|
+
"description": "Qwen QwQ 模型专注于推动 AI 推理,并展示了开放模型在推理能力上与闭源前沿模型匹敌的力量。QwQ-32B-Preview 是一个实验性发布版本,在 GPQA、AIME、MATH-500 和 LiveCodeBench 基准测试中,在分析和推理能力上可与 o1 相媲美,并超越 GPT-4o 和 Claude 3.5 Sonnet。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。"
|
379
|
+
},
|
380
|
+
"accounts/fireworks/models/qwen2-vl-72b-instruct": {
|
381
|
+
"description": "Qwen-VL 模型的 72B 版本是阿里巴巴最新迭代的成果,代表了近一年的创新。"
|
385
382
|
},
|
386
383
|
"accounts/fireworks/models/qwen2p5-72b-instruct": {
|
387
|
-
"description": "Qwen2.5
|
384
|
+
"description": "Qwen2.5 是由 Qwen 团队和阿里云开发的一系列仅解码语言模型,提供 0.5B、1.5B、3B、7B、14B、32B 和 72B 不同参数规模,并包含基础版和指令微调版。"
|
388
385
|
},
|
389
386
|
"accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
|
390
|
-
"description": "Qwen2.5
|
391
|
-
},
|
392
|
-
"accounts/fireworks/models/starcoder-16b": {
|
393
|
-
"description": "StarCoder 15.5B 模型,支持高级编程任务,多语言能力增强,适合复杂代码生成和理解。"
|
394
|
-
},
|
395
|
-
"accounts/fireworks/models/starcoder-7b": {
|
396
|
-
"description": "StarCoder 7B 模型,针对80多种编程语言训练,拥有出色的编程填充能力和语境理解。"
|
387
|
+
"description": "Qwen2.5-Coder 是最新一代专为代码设计的 Qwen 大型语言模型(前称为 CodeQwen)。注意:该模型目前作为无服务器模型进行实验性提供。如果用于生产环境,请注意 Fireworks 可能会在短时间内取消部署该模型。"
|
397
388
|
},
|
398
389
|
"accounts/yi-01-ai/models/yi-large": {
|
399
|
-
"description": "Yi-Large
|
390
|
+
"description": "Yi-Large 是顶尖的大型语言模型之一,在 LMSYS 基准测试排行榜上,其表现仅次于 GPT-4、Gemini 1.5 Pro 和 Claude 3 Opus。它在多语言能力方面表现卓越,特别是在西班牙语、中文、日语、德语和法语方面。Yi-Large 还具有用户友好性,采用与 OpenAI 相同的 API 定义,便于集成。"
|
400
391
|
},
|
401
392
|
"ai21-jamba-1.5-large": {
|
402
393
|
"description": "一个398B参数(94B活跃)的多语言模型,提供256K长上下文窗口、函数调用、结构化输出和基于事实的生成。"
|
@@ -887,30 +878,18 @@
|
|
887
878
|
"lite": {
|
888
879
|
"description": "Spark Lite 是一款轻量级大语言模型,具备极低的延迟与高效的处理能力,完全免费开放,支持实时在线搜索功能。其快速响应的特性使其在低算力设备上的推理应用和模型微调中表现出色,为用户带来出色的成本效益和智能体验,尤其在知识问答、内容生成及搜索场景下表现不俗。"
|
889
880
|
},
|
890
|
-
"llama-3.1-70b-instruct": {
|
891
|
-
"description": "Llama 3.1 70B Instruct 模型,具备70B参数,能在大型文本生成和指示任务中提供卓越性能。"
|
892
|
-
},
|
893
881
|
"llama-3.1-70b-versatile": {
|
894
882
|
"description": "Llama 3.1 70B 提供更强大的AI推理能力,适合复杂应用,支持超多的计算处理并保证高效和准确率。"
|
895
883
|
},
|
896
884
|
"llama-3.1-8b-instant": {
|
897
885
|
"description": "Llama 3.1 8B 是一款高效能模型,提供了快速的文本生成能力,非常适合需要大规模效率和成本效益的应用场景。"
|
898
886
|
},
|
899
|
-
"llama-3.1-8b-instruct": {
|
900
|
-
"description": "Llama 3.1 8B Instruct 模型,具备8B参数,支持画面指示任务的高效执行,提供优质的文本生成能力。"
|
901
|
-
},
|
902
887
|
"llama-3.1-sonar-huge-128k-online": {
|
903
888
|
"description": "Llama 3.1 Sonar Huge Online 模型,具备405B参数,支持约127,000个标记的上下文长度,设计用于复杂的在线聊天应用。"
|
904
889
|
},
|
905
|
-
"llama-3.1-sonar-large-128k-chat": {
|
906
|
-
"description": "Llama 3.1 Sonar Large Chat 模型,具备70B参数,支持约127,000个标记的上下文长度,适合于复杂的离线聊天任务。"
|
907
|
-
},
|
908
890
|
"llama-3.1-sonar-large-128k-online": {
|
909
891
|
"description": "Llama 3.1 Sonar Large Online 模型,具备70B参数,支持约127,000个标记的上下文长度,适用于高容量和多样化聊天任务。"
|
910
892
|
},
|
911
|
-
"llama-3.1-sonar-small-128k-chat": {
|
912
|
-
"description": "Llama 3.1 Sonar Small Chat 模型,具备8B参数,专为离线聊天设计,支持约127,000个标记的上下文长度。"
|
913
|
-
},
|
914
893
|
"llama-3.1-sonar-small-128k-online": {
|
915
894
|
"description": "Llama 3.1 Sonar Small Online 模型,具备8B参数,支持约127,000个标记的上下文长度,专为在线聊天设计,能高效处理各种文本交互。"
|
916
895
|
},
|
@@ -1355,6 +1334,15 @@
|
|
1355
1334
|
"solar-pro": {
|
1356
1335
|
"description": "Solar Pro 是 Upstage 推出的一款高智能LLM,专注于单GPU的指令跟随能力,IFEval得分80以上。目前支持英语,正式版本计划于2024年11月推出,将扩展语言支持和上下文长度。"
|
1357
1336
|
},
|
1337
|
+
"sonar": {
|
1338
|
+
"description": "基于搜索上下文的轻量级搜索产品,比 Sonar Pro 更快、更便宜。"
|
1339
|
+
},
|
1340
|
+
"sonar-pro": {
|
1341
|
+
"description": "支持搜索上下文的高级搜索产品,支持高级查询和跟进。"
|
1342
|
+
},
|
1343
|
+
"sonar-reasoning": {
|
1344
|
+
"description": "由 DeepSeek 推理模型提供支持的新 API 产品。"
|
1345
|
+
},
|
1358
1346
|
"step-1-128k": {
|
1359
1347
|
"description": "平衡性能与成本,适合一般场景。"
|
1360
1348
|
},
|