@lobehub/chat 1.50.1 → 1.50.3

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
@@ -323,21 +323,15 @@
323
323
  "abab7-chat-preview": {
324
324
  "description": "Em comparação com a série de modelos abab6.5, houve uma melhoria significativa nas habilidades em textos longos, matemática, escrita, entre outros."
325
325
  },
326
- "accounts/fireworks/models/firefunction-v1": {
327
- "description": "Modelo de chamada de função de código aberto da Fireworks, oferecendo excelente capacidade de execução de instruções e características personalizáveis."
326
+ "accounts/fireworks/models/deepseek-r1": {
327
+ "description": "DeepSeek-R1 é um modelo de linguagem grande de última geração, otimizado com aprendizado por reforço e dados de inicialização a frio, apresentando desempenho excepcional em raciocínio, matemática e programação."
328
328
  },
329
- "accounts/fireworks/models/firefunction-v2": {
330
- "description": "O Firefunction-v2 da Fireworks é um modelo de chamada de função de alto desempenho, desenvolvido com base no Llama-3 e otimizado para cenários como chamadas de função, diálogos e seguimento de instruções."
331
- },
332
- "accounts/fireworks/models/firellava-13b": {
333
- "description": "fireworks-ai/FireLLaVA-13b é um modelo de linguagem visual que pode receber entradas de imagem e texto simultaneamente, treinado com dados de alta qualidade, adequado para tarefas multimodais."
329
+ "accounts/fireworks/models/deepseek-v3": {
330
+ "description": "Modelo de linguagem poderoso da Deepseek, baseado em Mixture-of-Experts (MoE), com um total de 671B de parâmetros, ativando 37B de parâmetros por token."
334
331
  },
335
332
  "accounts/fireworks/models/llama-v3-70b-instruct": {
336
333
  "description": "O modelo Llama 3 70B Instruct é otimizado para diálogos multilíngues e compreensão de linguagem natural, superando a maioria dos modelos concorrentes."
337
334
  },
338
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
339
- "description": "O modelo Llama 3 70B Instruct (versão HF) mantém consistência com os resultados da implementação oficial, adequado para tarefas de seguimento de instruções de alta qualidade."
340
- },
341
335
  "accounts/fireworks/models/llama-v3-8b-instruct": {
342
336
  "description": "O modelo Llama 3 8B Instruct é otimizado para diálogos e tarefas multilíngues, apresentando desempenho excepcional e eficiência."
343
337
  },
@@ -356,24 +350,24 @@
356
350
  "accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
357
351
  "description": "Modelo de raciocínio visual de 11B parâmetros da Meta, otimizado para reconhecimento visual, raciocínio visual, descrição de imagens e resposta a perguntas gerais sobre imagens. Este modelo é capaz de entender dados visuais, como gráficos e diagramas, e preencher a lacuna entre visão e linguagem gerando descrições textuais dos detalhes das imagens."
358
352
  },
359
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
360
- "description": "O modelo de instrução Llama 3.2 1B é um modelo multilíngue leve lançado pela Meta. Este modelo visa aumentar a eficiência, oferecendo melhorias significativas em latência e custo em comparação com modelos maiores. Exemplos de uso incluem recuperação e resumo."
361
- },
362
353
  "accounts/fireworks/models/llama-v3p2-3b-instruct": {
363
354
  "description": "O modelo de instrução Llama 3.2 3B é um modelo multilíngue leve lançado pela Meta. Este modelo visa aumentar a eficiência, oferecendo melhorias significativas em latência e custo em comparação com modelos maiores. Exemplos de uso incluem consultas, reescrita de prompts e auxílio na redação."
364
355
  },
365
356
  "accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
366
357
  "description": "Modelo de raciocínio visual de 90B parâmetros da Meta, otimizado para reconhecimento visual, raciocínio visual, descrição de imagens e resposta a perguntas gerais sobre imagens. Este modelo é capaz de entender dados visuais, como gráficos e diagramas, e preencher a lacuna entre visão e linguagem gerando descrições textuais dos detalhes das imagens."
367
358
  },
359
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
360
+ "description": "Llama 3.3 70B Instruct é a versão atualizada de dezembro do Llama 3.1 70B. Este modelo foi aprimorado com base no Llama 3.1 70B (lançado em julho de 2024), melhorando a chamada de ferramentas, suporte a textos multilíngues, habilidades matemáticas e de programação. O modelo alcançou níveis de liderança da indústria em raciocínio, matemática e seguimento de instruções, e é capaz de oferecer desempenho semelhante ao 3.1 405B, ao mesmo tempo em que apresenta vantagens significativas em velocidade e custo."
361
+ },
362
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
363
+ "description": "Modelo com 24B de parâmetros, com capacidades de ponta comparáveis a modelos maiores."
364
+ },
368
365
  "accounts/fireworks/models/mixtral-8x22b-instruct": {
369
366
  "description": "O modelo Mixtral MoE 8x22B Instruct, com parâmetros em grande escala e arquitetura de múltiplos especialistas, suporta o processamento eficiente de tarefas complexas."
370
367
  },
371
368
  "accounts/fireworks/models/mixtral-8x7b-instruct": {
372
369
  "description": "O modelo Mixtral MoE 8x7B Instruct, com uma arquitetura de múltiplos especialistas, oferece seguimento e execução de instruções de forma eficiente."
373
370
  },
374
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
375
- "description": "O modelo Mixtral MoE 8x7B Instruct (versão HF) apresenta desempenho consistente com a implementação oficial, adequado para uma variedade de cenários de tarefas eficientes."
376
- },
377
371
  "accounts/fireworks/models/mythomax-l2-13b": {
378
372
  "description": "O modelo MythoMax L2 13B combina novas técnicas de fusão, sendo especializado em narrativas e interpretação de personagens."
379
373
  },
@@ -383,18 +377,15 @@
383
377
  "accounts/fireworks/models/qwen-qwq-32b-preview": {
384
378
  "description": "O modelo QwQ é um modelo de pesquisa experimental desenvolvido pela equipe Qwen, focado em aprimorar a capacidade de raciocínio da IA."
385
379
  },
380
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
381
+ "description": "A versão 72B do modelo Qwen-VL é o resultado da mais recente iteração da Alibaba, representando quase um ano de inovações."
382
+ },
386
383
  "accounts/fireworks/models/qwen2p5-72b-instruct": {
387
384
  "description": "Qwen2.5 é uma série de modelos de linguagem com apenas decodificadores, desenvolvida pela equipe Qwen da Alibaba Cloud. Estes modelos têm tamanhos variados, incluindo 0.5B, 1.5B, 3B, 7B, 14B, 32B e 72B, com variantes base (base) e de instrução (instruct)."
388
385
  },
389
386
  "accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
390
387
  "description": "Qwen2.5 Coder 32B Instruct é a versão mais recente da série de modelos de linguagem de grande escala específicos para código lançada pela Alibaba Cloud. Este modelo, baseado no Qwen2.5, foi treinado com 55 trilhões de tokens, melhorando significativamente a capacidade de geração, raciocínio e correção de código. Ele não apenas aprimora a capacidade de codificação, mas também mantém as vantagens em matemática e habilidades gerais. O modelo fornece uma base mais abrangente para aplicações práticas, como agentes de código."
391
388
  },
392
- "accounts/fireworks/models/starcoder-16b": {
393
- "description": "O modelo StarCoder 15.5B suporta tarefas de programação avançadas, com capacidade multilíngue aprimorada, adequado para geração e compreensão de código complexos."
394
- },
395
- "accounts/fireworks/models/starcoder-7b": {
396
- "description": "O modelo StarCoder 7B é treinado para mais de 80 linguagens de programação, apresentando excelente capacidade de preenchimento de código e compreensão de contexto."
397
- },
398
389
  "accounts/yi-01-ai/models/yi-large": {
399
390
  "description": "O modelo Yi-Large oferece excelente capacidade de processamento multilíngue, adequado para diversas tarefas de geração e compreensão de linguagem."
400
391
  },
@@ -887,30 +878,18 @@
887
878
  "lite": {
888
879
  "description": "Spark Lite é um modelo de linguagem grande leve, com latência extremamente baixa e alta eficiência de processamento, totalmente gratuito e aberto, suportando funcionalidades de busca online em tempo real. Sua característica de resposta rápida o torna excelente para aplicações de inferência em dispositivos de baixo poder computacional e ajuste fino de modelos, proporcionando aos usuários uma excelente relação custo-benefício e experiência inteligente, especialmente em cenários de perguntas e respostas, geração de conteúdo e busca."
889
880
  },
890
- "llama-3.1-70b-instruct": {
891
- "description": "O modelo Llama 3.1 70B Instruct possui 70B de parâmetros, capaz de oferecer desempenho excepcional em tarefas de geração de texto e instrução em larga escala."
892
- },
893
881
  "llama-3.1-70b-versatile": {
894
882
  "description": "Llama 3.1 70B oferece capacidade de raciocínio AI mais poderosa, adequada para aplicações complexas, suportando um processamento computacional extenso e garantindo eficiência e precisão."
895
883
  },
896
884
  "llama-3.1-8b-instant": {
897
885
  "description": "Llama 3.1 8B é um modelo de alto desempenho, oferecendo capacidade de geração de texto rápida, ideal para cenários de aplicação que exigem eficiência em larga escala e custo-benefício."
898
886
  },
899
- "llama-3.1-8b-instruct": {
900
- "description": "O modelo Llama 3.1 8B Instruct possui 8B de parâmetros, suportando a execução eficiente de tarefas de instrução, oferecendo excelente capacidade de geração de texto."
901
- },
902
887
  "llama-3.1-sonar-huge-128k-online": {
903
888
  "description": "O modelo Llama 3.1 Sonar Huge Online possui 405B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, projetado para aplicações de chat online complexas."
904
889
  },
905
- "llama-3.1-sonar-large-128k-chat": {
906
- "description": "O modelo Llama 3.1 Sonar Large Chat possui 70B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, adequado para tarefas de chat offline complexas."
907
- },
908
890
  "llama-3.1-sonar-large-128k-online": {
909
891
  "description": "O modelo Llama 3.1 Sonar Large Online possui 70B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, adequado para tarefas de chat de alta capacidade e diversidade."
910
892
  },
911
- "llama-3.1-sonar-small-128k-chat": {
912
- "description": "O modelo Llama 3.1 Sonar Small Chat possui 8B de parâmetros, projetado para chats offline, suportando um comprimento de contexto de aproximadamente 127.000 tokens."
913
- },
914
893
  "llama-3.1-sonar-small-128k-online": {
915
894
  "description": "O modelo Llama 3.1 Sonar Small Online possui 8B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, projetado para chats online, capaz de processar eficientemente diversas interações textuais."
916
895
  },
@@ -1355,6 +1334,15 @@
1355
1334
  "solar-pro": {
1356
1335
  "description": "Solar Pro é um LLM de alta inteligência lançado pela Upstage, focado na capacidade de seguir instruções em um único GPU, com pontuação IFEval acima de 80. Atualmente suporta inglês, com uma versão oficial planejada para lançamento em novembro de 2024, que expandirá o suporte a idiomas e comprimento de contexto."
1357
1336
  },
1337
+ "sonar": {
1338
+ "description": "Produto de busca leve baseado em contexto de busca, mais rápido e mais barato que o Sonar Pro."
1339
+ },
1340
+ "sonar-pro": {
1341
+ "description": "Produto de busca avançada que suporta contexto de busca, consultas avançadas e acompanhamento."
1342
+ },
1343
+ "sonar-reasoning": {
1344
+ "description": "Novo produto API suportado pelo modelo de raciocínio da DeepSeek."
1345
+ },
1358
1346
  "step-1-128k": {
1359
1347
  "description": "Equilibra desempenho e custo, adequado para cenários gerais."
1360
1348
  },
@@ -323,21 +323,15 @@
323
323
  "abab7-chat-preview": {
324
324
  "description": "По сравнению с серией моделей abab6.5, значительно улучшены способности в области длинных текстов, математики и написания."
325
325
  },
326
- "accounts/fireworks/models/firefunction-v1": {
327
- "description": "Открытая модель вызова функций от Fireworks, обеспечивающая выдающиеся возможности выполнения команд и открытые настраиваемые функции."
326
+ "accounts/fireworks/models/deepseek-r1": {
327
+ "description": "DeepSeek-R1 это передовая большая языковая модель, оптимизированная с помощью обучения с подкреплением и холодных стартовых данных, обладающая выдающимися показателями вывода, математики и программирования."
328
328
  },
329
- "accounts/fireworks/models/firefunction-v2": {
330
- "description": "Firefunction-v2 от компании Fireworks — это высокопроизводительная модель вызова функций, разработанная на основе Llama-3 и оптимизированная для вызова функций, диалогов и выполнения команд."
331
- },
332
- "accounts/fireworks/models/firellava-13b": {
333
- "description": "fireworks-ai/FireLLaVA-13b — это визуальная языковая модель, способная одновременно обрабатывать изображения и текстовые вводы, обученная на высококачественных данных, подходящая для мультимодальных задач."
329
+ "accounts/fireworks/models/deepseek-v3": {
330
+ "description": "Мощная языковая модель Mixture-of-Experts (MoE) от Deepseek с общим количеством параметров 671B, активирующая 37B параметров на каждый токен."
334
331
  },
335
332
  "accounts/fireworks/models/llama-v3-70b-instruct": {
336
333
  "description": "Модель Llama 3 70B для команд, специально оптимизированная для многоязычных диалогов и понимания естественного языка, превосходит большинство конкурентных моделей."
337
334
  },
338
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
339
- "description": "Модель Llama 3 70B для команд (HF версия), результаты которой совпадают с официальной реализацией, подходит для высококачественных задач выполнения команд."
340
- },
341
335
  "accounts/fireworks/models/llama-v3-8b-instruct": {
342
336
  "description": "Модель Llama 3 8B для команд, оптимизированная для диалогов и многоязычных задач, демонстрирует выдающиеся и эффективные результаты."
343
337
  },
@@ -356,24 +350,24 @@
356
350
  "accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
357
351
  "description": "Модель Meta с 11B параметрами, оптимизированная для вывода изображений. Эта модель предназначена для визуального распознавания, вывода изображений, описания изображений и ответа на общие вопросы о изображениях. Эта модель способна понимать визуальные данные, такие как графики и диаграммы, и преодолевать разрыв между визуальным и языковым пониманием, генерируя текстовые описания деталей изображений."
358
352
  },
359
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
360
- "description": "Модель Llama 3.2 1B для инструкций - это компактная многоязычная модель, запущенная Meta. Эта модель предназначена для повышения эффективности и обеспечивает значительное улучшение в задержке и стоимости по сравнению с более крупными моделями. Примеры использования модели включают извлечение информации и резюме."
361
- },
362
353
  "accounts/fireworks/models/llama-v3p2-3b-instruct": {
363
354
  "description": "Модель Llama 3.2 3B для инструкций - это компактная многоязычная модель, запущенная Meta. Эта модель предназначена для повышения эффективности и обеспечивает значительное улучшение в задержке и стоимости по сравнению с более крупными моделями. Примеры использования модели включают запросы, переоформление подсказок и помощь в написании."
364
355
  },
365
356
  "accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
366
357
  "description": "Модель Meta с 90B параметрами, оптимизированная для вывода изображений. Эта модель предназначена для визуального распознавания, вывода изображений, описания изображений и ответа на общие вопросы о изображениях. Эта модель способна понимать визуальные данные, такие как графики и диаграммы, и преодолевать разрыв между визуальным и языковым пониманием, генерируя текстовые описания деталей изображений."
367
358
  },
359
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
360
+ "description": "Llama 3.3 70B Instruct — это обновленная версия Llama 3.1 70B от декабря. Эта модель улучшена на основе Llama 3.1 70B (выпущенной в июле 2024 года), с усиленной поддержкой вызовов инструментов, многоязычного текста, математических и программных возможностей. Модель достигла ведущих в отрасли показателей в области вывода, математики и соблюдения инструкций, обеспечивая производительность, сопоставимую с 3.1 405B, при этом обладая значительными преимуществами по скорости и стоимости."
361
+ },
362
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
363
+ "description": "Модель с 24B параметрами, обладающая передовыми возможностями, сопоставимыми с более крупными моделями."
364
+ },
368
365
  "accounts/fireworks/models/mixtral-8x22b-instruct": {
369
366
  "description": "Mixtral MoE 8x22B для команд, с большим количеством параметров и архитектурой с несколькими экспертами, всесторонне поддерживает эффективную обработку сложных задач."
370
367
  },
371
368
  "accounts/fireworks/models/mixtral-8x7b-instruct": {
372
369
  "description": "Mixtral MoE 8x7B для команд, архитектура с несколькими экспертами обеспечивает эффективное выполнение и следование командам."
373
370
  },
374
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
375
- "description": "Mixtral MoE 8x7B для команд (HF версия), производительность которой совпадает с официальной реализацией, подходит для множества эффективных задач."
376
- },
377
371
  "accounts/fireworks/models/mythomax-l2-13b": {
378
372
  "description": "Модель MythoMax L2 13B, использующая новые технологии объединения, хорошо подходит для повествования и ролевых игр."
379
373
  },
@@ -383,18 +377,15 @@
383
377
  "accounts/fireworks/models/qwen-qwq-32b-preview": {
384
378
  "description": "Модель QwQ — это экспериментальная исследовательская модель, разработанная командой Qwen, сосредоточенная на улучшении возможностей вывода ИИ."
385
379
  },
380
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
381
+ "description": "72B версия модели Qwen-VL — это результат последней итерации Alibaba, представляющий собой инновации почти за год."
382
+ },
386
383
  "accounts/fireworks/models/qwen2p5-72b-instruct": {
387
384
  "description": "Qwen2.5 - это серия языковых моделей, содержащая только декодеры, разработанная командой Qwen от Alibaba Cloud. Эти модели предлагаются в различных размерах: 0.5B, 1.5B, 3B, 7B, 14B, 32B и 72B, с вариантами базовой и инструкционной версии."
388
385
  },
389
386
  "accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
390
387
  "description": "Qwen2.5 Coder 32B Instruct — это последняя версия серии языковых моделей, специфичных для кода, выпущенная Alibaba Cloud. Эта модель значительно улучшила способности генерации кода, вывода и исправления на основе Qwen2.5, обучаясь на 5.5 триллионах токенов. Она не только усилила кодирование, но и сохранила преимущества в математике и общих способностях. Модель предоставляет более полную основу для практических приложений, таких как интеллектуальные агенты кода."
391
388
  },
392
- "accounts/fireworks/models/starcoder-16b": {
393
- "description": "Модель StarCoder 15.5B, поддерживающая сложные задачи программирования, с улучшенными многоязычными возможностями, подходит для генерации и понимания сложного кода."
394
- },
395
- "accounts/fireworks/models/starcoder-7b": {
396
- "description": "Модель StarCoder 7B, обученная на более чем 80 языках программирования, обладает выдающимися способностями к заполнению кода и пониманию контекста."
397
- },
398
389
  "accounts/yi-01-ai/models/yi-large": {
399
390
  "description": "Модель Yi-Large, обладающая выдающимися возможностями обработки нескольких языков, подходит для различных задач генерации и понимания языка."
400
391
  },
@@ -887,30 +878,18 @@
887
878
  "lite": {
888
879
  "description": "Spark Lite — это легковесная большая языковая модель с крайне низкой задержкой и высокой эффективностью обработки, полностью бесплатная и открытая, поддерживающая функции онлайн-поиска в реальном времени. Ее быстрая реакция делает ее отличным выбором для применения в устройствах с низкой вычислительной мощностью и для тонкой настройки моделей, обеспечивая пользователям отличное соотношение цены и качества, особенно в сценариях вопросов и ответов, генерации контента и поиска."
889
880
  },
890
- "llama-3.1-70b-instruct": {
891
- "description": "Модель Llama 3.1 70B для команд, обладающая 70B параметрами, обеспечивает выдающуюся производительность в задачах генерации текста и выполнения команд."
892
- },
893
881
  "llama-3.1-70b-versatile": {
894
882
  "description": "Llama 3.1 70B предлагает более мощные возможности ИИ вывода, подходит для сложных приложений, поддерживает огромное количество вычислительных процессов и гарантирует эффективность и точность."
895
883
  },
896
884
  "llama-3.1-8b-instant": {
897
885
  "description": "Llama 3.1 8B — это высокоэффективная модель, обеспечивающая быструю генерацию текста, идеально подходящая для приложений, требующих масштабной эффективности и экономичности."
898
886
  },
899
- "llama-3.1-8b-instruct": {
900
- "description": "Модель Llama 3.1 8B для команд, обладающая 8B параметрами, обеспечивает эффективное выполнение задач с указаниями и предлагает высококачественные возможности генерации текста."
901
- },
902
887
  "llama-3.1-sonar-huge-128k-online": {
903
888
  "description": "Модель Llama 3.1 Sonar Huge Online, обладающая 405B параметрами, поддерживает контекст длиной около 127,000 токенов, предназначена для сложных онлайн-чат-приложений."
904
889
  },
905
- "llama-3.1-sonar-large-128k-chat": {
906
- "description": "Модель Llama 3.1 Sonar Large Chat, обладающая 70B параметрами, поддерживает контекст длиной около 127,000 токенов, подходит для сложных оффлайн-чатов."
907
- },
908
890
  "llama-3.1-sonar-large-128k-online": {
909
891
  "description": "Модель Llama 3.1 Sonar Large Online, обладающая 70B параметрами, поддерживает контекст длиной около 127,000 токенов, подходит для задач с высокой нагрузкой и разнообразными чатами."
910
892
  },
911
- "llama-3.1-sonar-small-128k-chat": {
912
- "description": "Модель Llama 3.1 Sonar Small Chat, обладающая 8B параметрами, специально разработана для оффлайн-чатов и поддерживает контекст длиной около 127,000 токенов."
913
- },
914
893
  "llama-3.1-sonar-small-128k-online": {
915
894
  "description": "Модель Llama 3.1 Sonar Small Online, обладающая 8B параметрами, поддерживает контекст длиной около 127,000 токенов, специально разработана для онлайн-чатов и эффективно обрабатывает различные текстовые взаимодействия."
916
895
  },
@@ -1355,6 +1334,15 @@
1355
1334
  "solar-pro": {
1356
1335
  "description": "Solar Pro — это высокоинтеллектуальная LLM, выпущенная Upstage, сосредоточенная на способности следовать инструкциям на одном GPU, с оценкой IFEval выше 80. В настоящее время поддерживает английский язык, официальная версия запланирована на ноябрь 2024 года, с расширением языковой поддержки и длины контекста."
1357
1336
  },
1337
+ "sonar": {
1338
+ "description": "Легковесный продукт поиска на основе контекста, быстрее и дешевле, чем Sonar Pro."
1339
+ },
1340
+ "sonar-pro": {
1341
+ "description": "Расширенный продукт поиска, поддерживающий контекст поиска, сложные запросы и последующие действия."
1342
+ },
1343
+ "sonar-reasoning": {
1344
+ "description": "Новый API продукт, поддерживаемый моделью вывода DeepSeek."
1345
+ },
1358
1346
  "step-1-128k": {
1359
1347
  "description": "Балансирует производительность и стоимость, подходит для общих сценариев."
1360
1348
  },
@@ -323,21 +323,15 @@
323
323
  "abab7-chat-preview": {
324
324
  "description": "abab6.5 serisi modellere kıyasla uzun metin, matematik, yazım gibi yeteneklerde büyük bir gelişim göstermektedir."
325
325
  },
326
- "accounts/fireworks/models/firefunction-v1": {
327
- "description": "Fireworks açık kaynak fonksiyon çağrı modeli, mükemmel talimat yürütme yetenekleri ve özelleştirilebilir özellikler sunar."
326
+ "accounts/fireworks/models/deepseek-r1": {
327
+ "description": "DeepSeek-R1, güçlendirilmiş öğrenme ve soğuk başlangıç verileri ile optimize edilmiş, mükemmel akıl yürütme, matematik ve programlama performansına sahip en son teknoloji büyük bir dil modelidir."
328
328
  },
329
- "accounts/fireworks/models/firefunction-v2": {
330
- "description": "Fireworks şirketinin en son ürünü Firefunction-v2, Llama-3 tabanlı, fonksiyon çağrıları, diyalog ve talimat takibi gibi senaryolar için özel olarak optimize edilmiş yüksek performanslı bir modeldir."
331
- },
332
- "accounts/fireworks/models/firellava-13b": {
333
- "description": "fireworks-ai/FireLLaVA-13b, hem görüntü hem de metin girdilerini alabilen, yüksek kaliteli verilerle eğitilmiş bir görsel dil modelidir ve çok modlu görevler için uygundur."
329
+ "accounts/fireworks/models/deepseek-v3": {
330
+ "description": "Deepseek tarafından sunulan güçlü Mixture-of-Experts (MoE) dil modeli, toplamda 671B parametreye sahiptir ve her bir etiket için 37B parametre etkinleştirilmektedir."
334
331
  },
335
332
  "accounts/fireworks/models/llama-v3-70b-instruct": {
336
333
  "description": "Llama 3 70B talimat modeli, çok dilli diyalog ve doğal dil anlama için optimize edilmiştir, çoğu rakip modelden daha iyi performans gösterir."
337
334
  },
338
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
339
- "description": "Llama 3 70B talimat modeli (HF versiyonu), resmi uygulama sonuçlarıyla uyumlu olup yüksek kaliteli talimat takibi görevleri için uygundur."
340
- },
341
335
  "accounts/fireworks/models/llama-v3-8b-instruct": {
342
336
  "description": "Llama 3 8B talimat modeli, diyalog ve çok dilli görevler için optimize edilmiştir, mükemmel ve etkili performans sunar."
343
337
  },
@@ -356,24 +350,24 @@
356
350
  "accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
357
351
  "description": "Meta'nın 11B parametreli komut ayarlı görüntü akıl yürütme modelidir. Bu model, görsel tanıma, görüntü akıl yürütme, görüntü betimleme ve görüntü hakkında genel sorulara yanıt verme üzerine optimize edilmiştir. Bu model, grafikler ve resimler gibi görsel verileri anlayabilir ve görüntü detaylarını metin olarak betimleyerek görsel ile dil arasındaki boşluğu kapatır."
358
352
  },
359
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
360
- "description": "Llama 3.2 1B komut modeli, Meta tarafından sunulan hafif çok dilli bir modeldir. Bu model, verimliliği artırmak amacıyla daha büyük modellere göre gecikme ve maliyet açısından önemli iyileştirmeler sunar. Bu modelin örnek kullanım alanları arasında bilgi alma ve özetleme bulunmaktadır."
361
- },
362
353
  "accounts/fireworks/models/llama-v3p2-3b-instruct": {
363
354
  "description": "Llama 3.2 3B komut modeli, Meta tarafından sunulan hafif çok dilli bir modeldir. Bu model, verimliliği artırmak amacıyla daha büyük modellere göre gecikme ve maliyet açısından önemli iyileştirmeler sunar. Bu modelin örnek kullanım alanları arasında sorgulama, öneri yeniden yazma ve yazma desteği bulunmaktadır."
364
355
  },
365
356
  "accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
366
357
  "description": "Meta'nın 90B parametreli komut ayarlı görüntü akıl yürütme modelidir. Bu model, görsel tanıma, görüntü akıl yürütme, görüntü betimleme ve görüntü hakkında genel sorulara yanıt verme üzerine optimize edilmiştir. Bu model, grafikler ve resimler gibi görsel verileri anlayabilir ve görüntü detaylarını metin olarak betimleyerek görsel ile dil arasındaki boşluğu kapatır."
367
358
  },
359
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
360
+ "description": "Llama 3.3 70B Instruct, Llama 3.1 70B'nin Aralık güncellemesi olan bir modeldir. Bu model, Llama 3.1 70B (2024 Temmuz'da piyasaya sürüldü) temel alınarak geliştirilmiş olup, araç çağrıları, çok dilli metin desteği, matematik ve programlama yeteneklerini artırmıştır. Model, akıl yürütme, matematik ve talimat takibi alanlarında sektördeki en yüksek standartlara ulaşmış olup, 3.1 405B ile benzer performans sunarken hız ve maliyet açısından önemli avantajlar sağlamaktadır."
361
+ },
362
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
363
+ "description": "24B parametreli model, daha büyük modellerle karşılaştırılabilir en son teknoloji yeteneklerine sahiptir."
364
+ },
368
365
  "accounts/fireworks/models/mixtral-8x22b-instruct": {
369
366
  "description": "Mixtral MoE 8x22B talimat modeli, büyük ölçekli parametreler ve çok uzmanlı mimarisi ile karmaşık görevlerin etkili işlenmesini destekler."
370
367
  },
371
368
  "accounts/fireworks/models/mixtral-8x7b-instruct": {
372
369
  "description": "Mixtral MoE 8x7B talimat modeli, çok uzmanlı mimarisi ile etkili talimat takibi ve yürütme sunar."
373
370
  },
374
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
375
- "description": "Mixtral MoE 8x7B talimat modeli (HF versiyonu), resmi uygulama ile uyumlu olup çeşitli yüksek verimli görev senaryoları için uygundur."
376
- },
377
371
  "accounts/fireworks/models/mythomax-l2-13b": {
378
372
  "description": "MythoMax L2 13B modeli, yenilikçi birleşim teknolojileri ile hikaye anlatımı ve rol yapma konularında uzmandır."
379
373
  },
@@ -383,18 +377,15 @@
383
377
  "accounts/fireworks/models/qwen-qwq-32b-preview": {
384
378
  "description": "QwQ modeli, Qwen ekibi tarafından geliştirilen deneysel bir araştırma modelidir ve AI akıl yürütme yeteneklerini artırmaya odaklanmaktadır."
385
379
  },
380
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
381
+ "description": "Qwen-VL modelinin 72B versiyonu, Alibaba'nın en son iterasyonunun bir ürünüdür ve son bir yılın yeniliklerini temsil etmektedir."
382
+ },
386
383
  "accounts/fireworks/models/qwen2p5-72b-instruct": {
387
384
  "description": "Qwen2.5, Alibaba Cloud Qwen ekibi tarafından geliştirilen yalnızca kodlayıcı içeren bir dizi dil modelidir. Bu modeller, 0.5B, 1.5B, 3B, 7B, 14B, 32B ve 72B gibi farklı boyutları sunar ve temel (base) ve komut (instruct) versiyonlarına sahiptir."
388
385
  },
389
386
  "accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
390
387
  "description": "Qwen2.5 Coder 32B Instruct, Alibaba Cloud tarafından yayınlanan kod odaklı büyük dil modeli serisinin en son versiyonudur. Bu model, Qwen2.5 temelinde, 5.5 trilyon token ile eğitilerek kod üretimi, akıl yürütme ve düzeltme yeteneklerini önemli ölçüde artırmıştır. Hem kodlama yeteneklerini geliştirmiş hem de matematik ve genel yetenek avantajlarını korumuştur. Model, kod akıllı ajanları gibi pratik uygulamalar için daha kapsamlı bir temel sunmaktadır."
391
388
  },
392
- "accounts/fireworks/models/starcoder-16b": {
393
- "description": "StarCoder 15.5B modeli, ileri düzey programlama görevlerini destekler, çok dilli yetenekleri artırır ve karmaşık kod üretimi ve anlama için uygundur."
394
- },
395
- "accounts/fireworks/models/starcoder-7b": {
396
- "description": "StarCoder 7B modeli, 80'den fazla programlama dili için eğitilmiş olup, mükemmel programlama tamamlama yetenekleri ve bağlam anlama sunar."
397
- },
398
389
  "accounts/yi-01-ai/models/yi-large": {
399
390
  "description": "Yi-Large modeli, mükemmel çok dilli işleme yetenekleri sunar ve her türlü dil üretimi ve anlama görevleri için uygundur."
400
391
  },
@@ -887,30 +878,18 @@
887
878
  "lite": {
888
879
  "description": "Spark Lite, son derece düşük gecikme süresi ve yüksek verimlilikle çalışan hafif bir büyük dil modelidir. Tamamen ücretsiz ve açık olup, gerçek zamanlı çevrimiçi arama işlevini desteklemektedir. Hızlı yanıt verme özelliği, düşük hesaplama gücüne sahip cihazlarda çıkarım uygulamaları ve model ince ayarlarında mükemmel performans sergileyerek, kullanıcılara maliyet etkinliği ve akıllı deneyim sunmakta, özellikle bilgi sorgulama, içerik oluşturma ve arama senaryolarında başarılı olmaktadır."
889
880
  },
890
- "llama-3.1-70b-instruct": {
891
- "description": "Llama 3.1 70B Instruct modeli, 70B parametreye sahiptir ve büyük metin üretimi ve talimat görevlerinde mükemmel performans sunar."
892
- },
893
881
  "llama-3.1-70b-versatile": {
894
882
  "description": "Llama 3.1 70B, daha güçlü AI akıl yürütme yeteneği sunar, karmaşık uygulamalar için uygundur ve yüksek verimlilik ve doğruluk sağlamak için çok sayıda hesaplama işlemini destekler."
895
883
  },
896
884
  "llama-3.1-8b-instant": {
897
885
  "description": "Llama 3.1 8B, hızlı metin üretim yeteneği sunan yüksek performanslı bir modeldir ve büyük ölçekli verimlilik ve maliyet etkinliği gerektiren uygulama senaryoları için son derece uygundur."
898
886
  },
899
- "llama-3.1-8b-instruct": {
900
- "description": "Llama 3.1 8B Instruct modeli, 8B parametreye sahiptir ve görsel talimat görevlerinin etkili bir şekilde yürütülmesini sağlar, kaliteli metin üretim yetenekleri sunar."
901
- },
902
887
  "llama-3.1-sonar-huge-128k-online": {
903
888
  "description": "Llama 3.1 Sonar Huge Online modeli, 405B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, karmaşık çevrimiçi sohbet uygulamaları için tasarlanmıştır."
904
889
  },
905
- "llama-3.1-sonar-large-128k-chat": {
906
- "description": "Llama 3.1 Sonar Large Chat modeli, 70B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, karmaşık çevrimdışı sohbet görevleri için uygundur."
907
- },
908
890
  "llama-3.1-sonar-large-128k-online": {
909
891
  "description": "Llama 3.1 Sonar Large Online modeli, 70B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, yüksek kapasiteli ve çeşitli sohbet görevleri için uygundur."
910
892
  },
911
- "llama-3.1-sonar-small-128k-chat": {
912
- "description": "Llama 3.1 Sonar Small Chat modeli, 8B parametreye sahiptir ve çevrimdışı sohbet için tasarlanmıştır, yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler."
913
- },
914
893
  "llama-3.1-sonar-small-128k-online": {
915
894
  "description": "Llama 3.1 Sonar Small Online modeli, 8B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, çevrimiçi sohbet için tasarlanmıştır ve çeşitli metin etkileşimlerini etkili bir şekilde işler."
916
895
  },
@@ -1355,6 +1334,15 @@
1355
1334
  "solar-pro": {
1356
1335
  "description": "Solar Pro, Upstage tarafından sunulan yüksek akıllı LLM'dir, tek GPU talimat takibi yeteneğine odaklanır, IFEval puanı 80'in üzerindedir. Şu anda İngilizceyi desteklemekte olup, resmi versiyonu 2024 Kasım'da piyasaya sürülmesi planlanmaktadır ve dil desteği ile bağlam uzunluğunu genişletecektir."
1357
1336
  },
1337
+ "sonar": {
1338
+ "description": "Arama bağlamına dayalı hafif bir arama ürünüdür, Sonar Pro'dan daha hızlı ve daha ucuzdur."
1339
+ },
1340
+ "sonar-pro": {
1341
+ "description": "Gelişmiş sorgular ve takip desteği sunan, arama bağlamını destekleyen bir üst düzey arama ürünüdür."
1342
+ },
1343
+ "sonar-reasoning": {
1344
+ "description": "DeepSeek akıl yürütme modeli tarafından desteklenen yeni API ürünü."
1345
+ },
1358
1346
  "step-1-128k": {
1359
1347
  "description": "Performans ve maliyet arasında denge sağlar, genel senaryolar için uygundur."
1360
1348
  },
@@ -323,21 +323,15 @@
323
323
  "abab7-chat-preview": {
324
324
  "description": "So với các mô hình trong series abab6.5, khả năng xử lý văn bản dài, toán học, viết lách, v.v. đã được cải thiện đáng kể."
325
325
  },
326
- "accounts/fireworks/models/firefunction-v1": {
327
- "description": " hình gọi hàm nguồn mở của Fireworks, cung cấp khả năng thực hiện chỉ dẫn xuất sắctính năng tùy chỉnh mở."
326
+ "accounts/fireworks/models/deepseek-r1": {
327
+ "description": "DeepSeek-R1 một hình ngôn ngữ lớn tiên tiến, được tối ưu hóa thông qua học tăng cường dữ liệu khởi động lạnh, có hiệu suất suy luận, toán học lập trình xuất sắc."
328
328
  },
329
- "accounts/fireworks/models/firefunction-v2": {
330
- "description": "Firefunction-v2 mới nhất của công ty Fireworks một hình gọi hàm hiệu suất cao, được phát triển dựa trên Llama-3 và được tối ưu hóa nhiều, đặc biệt phù hợp cho các tình huống gọi hàm, đối thoại và theo dõi chỉ dẫn."
331
- },
332
- "accounts/fireworks/models/firellava-13b": {
333
- "description": "fireworks-ai/FireLLaVA-13b là một mô hình ngôn ngữ hình ảnh, có thể nhận cả hình ảnh và văn bản đầu vào, được huấn luyện bằng dữ liệu chất lượng cao, phù hợp cho các nhiệm vụ đa mô hình."
329
+ "accounts/fireworks/models/deepseek-v3": {
330
+ "description": " hình ngôn ngữ Mixture-of-Experts (MoE) mạnh mẽ do Deepseek cung cấp, với tổng số tham số 671B, mỗi hiệu kích hoạt 37B tham số."
334
331
  },
335
332
  "accounts/fireworks/models/llama-v3-70b-instruct": {
336
333
  "description": "Mô hình chỉ dẫn Llama 3 70B, được tối ưu hóa cho đối thoại đa ngôn ngữ và hiểu ngôn ngữ tự nhiên, hiệu suất vượt trội hơn nhiều mô hình cạnh tranh."
337
334
  },
338
- "accounts/fireworks/models/llama-v3-70b-instruct-hf": {
339
- "description": "Mô hình chỉ dẫn Llama 3 70B (phiên bản HF), giữ nguyên kết quả với thực hiện chính thức, phù hợp cho các nhiệm vụ theo dõi chỉ dẫn chất lượng cao."
340
- },
341
335
  "accounts/fireworks/models/llama-v3-8b-instruct": {
342
336
  "description": "Mô hình chỉ dẫn Llama 3 8B, được tối ưu hóa cho đối thoại và các nhiệm vụ đa ngôn ngữ, thể hiện hiệu suất xuất sắc và hiệu quả."
343
337
  },
@@ -356,24 +350,24 @@
356
350
  "accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
357
351
  "description": "Mô hình suy luận hình ảnh chỉ dẫn với 11B tham số của Meta. Mô hình này được tối ưu hóa cho nhận diện hình ảnh, suy luận hình ảnh, mô tả hình ảnh và trả lời các câu hỏi chung liên quan đến hình ảnh. Mô hình có khả năng hiểu dữ liệu hình ảnh như biểu đồ và đồ thị, và thu hẹp khoảng cách giữa hình ảnh và ngôn ngữ thông qua việc tạo mô tả văn bản về chi tiết hình ảnh."
358
352
  },
359
- "accounts/fireworks/models/llama-v3p2-1b-instruct": {
360
- "description": "Mô hình chỉ dẫn Llama 3.2 1B là một mô hình đa ngôn ngữ nhẹ mà Meta phát hành. Mô hình này được thiết kế để tăng cường hiệu quả, mang lại cải tiến đáng kể về độ trễ và chi phí so với các mô hình lớn hơn. Các trường hợp sử dụng ví dụ của mô hình này bao gồm truy xuất và tóm tắt."
361
- },
362
353
  "accounts/fireworks/models/llama-v3p2-3b-instruct": {
363
354
  "description": "Mô hình chỉ dẫn Llama 3.2 3B là một mô hình đa ngôn ngữ nhẹ mà Meta phát hành. Mô hình này được thiết kế để tăng cường hiệu quả, mang lại cải tiến đáng kể về độ trễ và chi phí so với các mô hình lớn hơn. Các trường hợp sử dụng ví dụ của mô hình này bao gồm truy vấn, viết lại thông báo và hỗ trợ viết."
364
355
  },
365
356
  "accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
366
357
  "description": "Mô hình suy luận hình ảnh chỉ dẫn với 90B tham số của Meta. Mô hình này được tối ưu hóa cho nhận diện hình ảnh, suy luận hình ảnh, mô tả hình ảnh và trả lời các câu hỏi chung liên quan đến hình ảnh. Mô hình có khả năng hiểu dữ liệu hình ảnh như biểu đồ và đồ thị, và thu hẹp khoảng cách giữa hình ảnh và ngôn ngữ thông qua việc tạo mô tả văn bản về chi tiết hình ảnh."
367
358
  },
359
+ "accounts/fireworks/models/llama-v3p3-70b-instruct": {
360
+ "description": "Llama 3.3 70B Instruct là phiên bản cập nhật tháng 12 của Llama 3.1 70B. Mô hình này được cải tiến dựa trên Llama 3.1 70B (ra mắt vào tháng 7 năm 2024), nâng cao khả năng gọi công cụ, hỗ trợ văn bản đa ngôn ngữ, toán học và lập trình. Mô hình này đạt được trình độ hàng đầu trong ngành về suy luận, toán học và tuân thủ hướng dẫn, đồng thời có thể cung cấp hiệu suất tương tự như 3.1 405B, với lợi thế đáng kể về tốc độ và chi phí."
361
+ },
362
+ "accounts/fireworks/models/mistral-small-24b-instruct-2501": {
363
+ "description": "Mô hình 24B tham số, có khả năng tiên tiến tương đương với các mô hình lớn hơn."
364
+ },
368
365
  "accounts/fireworks/models/mixtral-8x22b-instruct": {
369
366
  "description": "Mô hình chỉ dẫn Mixtral MoE 8x22B, với số lượng tham số lớn và kiến trúc nhiều chuyên gia, hỗ trợ toàn diện cho việc xử lý hiệu quả các nhiệm vụ phức tạp."
370
367
  },
371
368
  "accounts/fireworks/models/mixtral-8x7b-instruct": {
372
369
  "description": "Mô hình chỉ dẫn Mixtral MoE 8x7B, kiến trúc nhiều chuyên gia cung cấp khả năng theo dõi và thực hiện chỉ dẫn hiệu quả."
373
370
  },
374
- "accounts/fireworks/models/mixtral-8x7b-instruct-hf": {
375
- "description": "Mô hình chỉ dẫn Mixtral MoE 8x7B (phiên bản HF), hiệu suất nhất quán với thực hiện chính thức, phù hợp cho nhiều tình huống nhiệm vụ hiệu quả."
376
- },
377
371
  "accounts/fireworks/models/mythomax-l2-13b": {
378
372
  "description": "Mô hình MythoMax L2 13B, kết hợp công nghệ hợp nhất mới, xuất sắc trong việc kể chuyện và đóng vai."
379
373
  },
@@ -383,18 +377,15 @@
383
377
  "accounts/fireworks/models/qwen-qwq-32b-preview": {
384
378
  "description": "Mô hình QwQ là một mô hình nghiên cứu thử nghiệm được phát triển bởi đội ngũ Qwen, tập trung vào việc nâng cao khả năng suy luận của AI."
385
379
  },
380
+ "accounts/fireworks/models/qwen2-vl-72b-instruct": {
381
+ "description": "Phiên bản 72B của mô hình Qwen-VL là thành quả mới nhất của Alibaba, đại diện cho gần một năm đổi mới."
382
+ },
386
383
  "accounts/fireworks/models/qwen2p5-72b-instruct": {
387
384
  "description": "Qwen2.5 là một loạt mô hình ngôn ngữ chỉ chứa bộ giải mã do đội ngũ Qwen của Alibaba Cloud phát triển. Những mô hình này cung cấp các kích thước khác nhau, bao gồm 0.5B, 1.5B, 3B, 7B, 14B, 32B và 72B, và có hai biến thể: phiên bản cơ sở (base) và phiên bản chỉ dẫn (instruct)."
388
385
  },
389
386
  "accounts/fireworks/models/qwen2p5-coder-32b-instruct": {
390
387
  "description": "Qwen2.5 Coder 32B Instruct là phiên bản mới nhất trong loạt mô hình ngôn ngữ lớn chuyên biệt cho mã do Alibaba Cloud phát hành. Mô hình này được cải thiện đáng kể khả năng tạo mã, suy luận và sửa chữa thông qua việc đào tạo trên 5.5 triệu tỷ tokens, không chỉ nâng cao khả năng lập trình mà còn duy trì lợi thế về khả năng toán học và tổng quát. Mô hình cung cấp nền tảng toàn diện hơn cho các ứng dụng thực tế như tác nhân mã."
391
388
  },
392
- "accounts/fireworks/models/starcoder-16b": {
393
- "description": "Mô hình StarCoder 15.5B, hỗ trợ các nhiệm vụ lập trình nâng cao, khả năng đa ngôn ngữ được cải thiện, phù hợp cho việc tạo và hiểu mã phức tạp."
394
- },
395
- "accounts/fireworks/models/starcoder-7b": {
396
- "description": "Mô hình StarCoder 7B, được huấn luyện cho hơn 80 ngôn ngữ lập trình, có khả năng điền mã và hiểu ngữ cảnh xuất sắc."
397
- },
398
389
  "accounts/yi-01-ai/models/yi-large": {
399
390
  "description": "Mô hình Yi-Large, có khả năng xử lý đa ngôn ngữ xuất sắc, có thể được sử dụng cho nhiều nhiệm vụ sinh và hiểu ngôn ngữ."
400
391
  },
@@ -887,30 +878,18 @@
887
878
  "lite": {
888
879
  "description": "Spark Lite là một mô hình ngôn ngữ lớn nhẹ, có độ trễ cực thấp và khả năng xử lý hiệu quả, hoàn toàn miễn phí và mở, hỗ trợ chức năng tìm kiếm trực tuyến theo thời gian thực. Đặc điểm phản hồi nhanh của nó giúp nó nổi bật trong các ứng dụng suy diễn trên thiết bị có công suất thấp và tinh chỉnh mô hình, mang lại hiệu quả chi phí và trải nghiệm thông minh xuất sắc cho người dùng, đặc biệt trong các tình huống hỏi đáp kiến thức, tạo nội dung và tìm kiếm."
889
880
  },
890
- "llama-3.1-70b-instruct": {
891
- "description": "Mô hình Llama 3.1 70B Instruct, có 70B tham số, có thể cung cấp hiệu suất xuất sắc trong các nhiệm vụ sinh văn bản và chỉ dẫn lớn."
892
- },
893
881
  "llama-3.1-70b-versatile": {
894
882
  "description": "Llama 3.1 70B cung cấp khả năng suy luận AI mạnh mẽ hơn, phù hợp cho các ứng dụng phức tạp, hỗ trợ xử lý tính toán cực lớn và đảm bảo hiệu quả và độ chính xác cao."
895
883
  },
896
884
  "llama-3.1-8b-instant": {
897
885
  "description": "Llama 3.1 8B là một mô hình hiệu suất cao, cung cấp khả năng sinh văn bản nhanh chóng, rất phù hợp cho các tình huống ứng dụng cần hiệu quả quy mô lớn và tiết kiệm chi phí."
898
886
  },
899
- "llama-3.1-8b-instruct": {
900
- "description": "Mô hình Llama 3.1 8B Instruct, có 8B tham số, hỗ trợ thực hiện nhiệm vụ chỉ dẫn hình ảnh hiệu quả, cung cấp khả năng sinh văn bản chất lượng."
901
- },
902
887
  "llama-3.1-sonar-huge-128k-online": {
903
888
  "description": "Mô hình Llama 3.1 Sonar Huge Online, có 405B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, được thiết kế cho các ứng dụng trò chuyện trực tuyến phức tạp."
904
889
  },
905
- "llama-3.1-sonar-large-128k-chat": {
906
- "description": "Mô hình Llama 3.1 Sonar Large Chat, có 70B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, phù hợp cho các nhiệm vụ trò chuyện ngoại tuyến phức tạp."
907
- },
908
890
  "llama-3.1-sonar-large-128k-online": {
909
891
  "description": "Mô hình Llama 3.1 Sonar Large Online, có 70B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, phù hợp cho các nhiệm vụ trò chuyện có dung lượng lớn và đa dạng."
910
892
  },
911
- "llama-3.1-sonar-small-128k-chat": {
912
- "description": "Mô hình Llama 3.1 Sonar Small Chat, có 8B tham số, được thiết kế cho trò chuyện ngoại tuyến, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã."
913
- },
914
893
  "llama-3.1-sonar-small-128k-online": {
915
894
  "description": "Mô hình Llama 3.1 Sonar Small Online, có 8B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, được thiết kế cho trò chuyện trực tuyến, có khả năng xử lý hiệu quả các tương tác văn bản khác nhau."
916
895
  },
@@ -1355,6 +1334,15 @@
1355
1334
  "solar-pro": {
1356
1335
  "description": "Solar Pro là một LLM thông minh cao do Upstage phát hành, tập trung vào khả năng tuân theo hướng dẫn trên một GPU, đạt điểm IFEval trên 80. Hiện tại hỗ trợ tiếng Anh, phiên bản chính thức dự kiến ra mắt vào tháng 11 năm 2024, sẽ mở rộng hỗ trợ ngôn ngữ và độ dài ngữ cảnh."
1357
1336
  },
1337
+ "sonar": {
1338
+ "description": "Sản phẩm tìm kiếm nhẹ dựa trên ngữ cảnh tìm kiếm, nhanh hơn và rẻ hơn so với Sonar Pro."
1339
+ },
1340
+ "sonar-pro": {
1341
+ "description": "Sản phẩm tìm kiếm nâng cao hỗ trợ ngữ cảnh tìm kiếm, cho phép truy vấn và theo dõi nâng cao."
1342
+ },
1343
+ "sonar-reasoning": {
1344
+ "description": "Sản phẩm API mới được hỗ trợ bởi mô hình suy luận của DeepSeek."
1345
+ },
1358
1346
  "step-1-128k": {
1359
1347
  "description": "Cân bằng hiệu suất và chi phí, phù hợp cho các tình huống chung."
1360
1348
  },