@lobehub/chat 1.68.9 → 1.68.11

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (68) hide show
  1. package/CHANGELOG.md +51 -0
  2. package/changelog/v1.json +18 -0
  3. package/docs/usage/providers/ppio.mdx +5 -5
  4. package/docs/usage/providers/ppio.zh-CN.mdx +7 -7
  5. package/locales/ar/chat.json +5 -1
  6. package/locales/ar/models.json +12 -9
  7. package/locales/bg-BG/chat.json +5 -1
  8. package/locales/bg-BG/models.json +12 -9
  9. package/locales/de-DE/chat.json +5 -1
  10. package/locales/de-DE/models.json +12 -9
  11. package/locales/en-US/chat.json +5 -1
  12. package/locales/en-US/models.json +12 -9
  13. package/locales/es-ES/chat.json +5 -1
  14. package/locales/es-ES/models.json +12 -9
  15. package/locales/fa-IR/chat.json +5 -1
  16. package/locales/fa-IR/models.json +12 -9
  17. package/locales/fr-FR/chat.json +5 -1
  18. package/locales/fr-FR/models.json +12 -9
  19. package/locales/it-IT/chat.json +5 -1
  20. package/locales/it-IT/models.json +12 -9
  21. package/locales/ja-JP/chat.json +5 -1
  22. package/locales/ja-JP/models.json +12 -9
  23. package/locales/ko-KR/chat.json +5 -1
  24. package/locales/ko-KR/models.json +12 -9
  25. package/locales/nl-NL/chat.json +5 -1
  26. package/locales/nl-NL/models.json +12 -9
  27. package/locales/pl-PL/chat.json +5 -1
  28. package/locales/pl-PL/models.json +12 -9
  29. package/locales/pt-BR/chat.json +5 -1
  30. package/locales/pt-BR/models.json +12 -9
  31. package/locales/ru-RU/chat.json +5 -1
  32. package/locales/ru-RU/models.json +12 -9
  33. package/locales/tr-TR/chat.json +5 -1
  34. package/locales/tr-TR/models.json +12 -9
  35. package/locales/vi-VN/chat.json +5 -1
  36. package/locales/vi-VN/models.json +12 -9
  37. package/locales/zh-CN/chat.json +5 -1
  38. package/locales/zh-CN/models.json +12 -9
  39. package/locales/zh-TW/chat.json +5 -1
  40. package/locales/zh-TW/models.json +12 -9
  41. package/package.json +1 -1
  42. package/src/config/aiModels/google.ts +37 -0
  43. package/src/config/aiModels/perplexity.ts +36 -20
  44. package/src/config/aiModels/qwen.ts +64 -25
  45. package/src/config/modelProviders/ppio.ts +1 -1
  46. package/src/features/Conversation/Extras/Usage/UsageDetail/ModelCard.tsx +27 -9
  47. package/src/features/Conversation/Extras/Usage/UsageDetail/index.tsx +77 -35
  48. package/src/features/Conversation/Extras/Usage/UsageDetail/tokens.test.ts +253 -0
  49. package/src/features/Conversation/Extras/Usage/UsageDetail/tokens.ts +65 -46
  50. package/src/libs/agent-runtime/baichuan/index.test.ts +58 -1
  51. package/src/libs/agent-runtime/groq/index.test.ts +36 -284
  52. package/src/libs/agent-runtime/mistral/index.test.ts +39 -300
  53. package/src/libs/agent-runtime/perplexity/index.test.ts +12 -10
  54. package/src/libs/agent-runtime/providerTestUtils.ts +58 -0
  55. package/src/libs/agent-runtime/togetherai/index.test.ts +7 -295
  56. package/src/libs/agent-runtime/utils/openaiCompatibleFactory/index.test.ts +3 -0
  57. package/src/libs/agent-runtime/utils/openaiCompatibleFactory/index.ts +5 -2
  58. package/src/libs/agent-runtime/utils/streams/anthropic.test.ts +89 -5
  59. package/src/libs/agent-runtime/utils/streams/anthropic.ts +25 -8
  60. package/src/libs/agent-runtime/utils/streams/openai.test.ts +188 -84
  61. package/src/libs/agent-runtime/utils/streams/openai.ts +8 -17
  62. package/src/libs/agent-runtime/utils/usageConverter.test.ts +249 -0
  63. package/src/libs/agent-runtime/utils/usageConverter.ts +50 -0
  64. package/src/libs/agent-runtime/zeroone/index.test.ts +7 -294
  65. package/src/locales/default/chat.ts +4 -0
  66. package/src/types/message/base.ts +14 -4
  67. package/src/utils/filter.test.ts +0 -122
  68. package/src/utils/filter.ts +0 -29
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M caractères",
90
90
  "inputMinutes": "${{amount}}/minute",
91
91
  "inputTokens": "Entrée {{amount}}/crédit · ${{amount}}/M",
92
- "outputTokens": "Sortie {{amount}}/crédit · ${{amount}}/M"
92
+ "outputTokens": "Sortie {{amount}}/crédit · ${{amount}}/M",
93
+ "writeCacheInputTokens": "Écriture de cache d'entrée {{amount}}/points · ${{amount}}/M"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "Prix moyen",
96
98
  "input": "Entrée",
97
99
  "inputAudio": "Entrée audio",
98
100
  "inputCached": "Entrée mise en cache",
101
+ "inputCitation": "Citation d'entrée",
99
102
  "inputText": "Entrée texte",
100
103
  "inputTitle": "Détails de l'entrée",
101
104
  "inputUncached": "Entrée non mise en cache",
105
+ "inputWriteCached": "Écriture de cache d'entrée",
102
106
  "output": "Sortie",
103
107
  "outputAudio": "Sortie audio",
104
108
  "outputText": "Sortie texte",
@@ -827,12 +827,18 @@
827
827
  "gemini-2.0-flash-001": {
828
828
  "description": "Gemini 2.0 Flash propose des fonctionnalités et des améliorations de nouvelle génération, y compris une vitesse exceptionnelle, l'utilisation d'outils natifs, la génération multimodale et une fenêtre de contexte de 1M tokens."
829
829
  },
830
+ "gemini-2.0-flash-lite": {
831
+ "description": "Une variante du modèle Gemini 2.0 Flash, optimisée pour des objectifs tels que le rapport coût-efficacité et la faible latence."
832
+ },
830
833
  "gemini-2.0-flash-lite-001": {
831
834
  "description": "Une variante du modèle Gemini 2.0 Flash, optimisée pour des objectifs tels que le rapport coût-efficacité et la faible latence."
832
835
  },
833
836
  "gemini-2.0-flash-lite-preview-02-05": {
834
837
  "description": "Un modèle Gemini 2.0 Flash optimisé pour des objectifs de rentabilité et de faible latence."
835
838
  },
839
+ "gemini-2.0-flash-thinking-exp": {
840
+ "description": "Gemini 2.0 Flash Exp est le dernier modèle d'IA multimodal expérimental de Google, doté de caractéristiques de nouvelle génération, d'une vitesse exceptionnelle, d'appels d'outils natifs et de génération multimodale."
841
+ },
836
842
  "gemini-2.0-flash-thinking-exp-01-21": {
837
843
  "description": "Gemini 2.0 Flash Exp est le dernier modèle d'IA multimodal expérimental de Google, doté de caractéristiques de nouvelle génération, d'une vitesse exceptionnelle, d'appels d'outils natifs et de génération multimodale."
838
844
  },
@@ -1121,15 +1127,6 @@
1121
1127
  "llama-3.1-8b-instant": {
1122
1128
  "description": "Llama 3.1 8B est un modèle à haute performance, offrant une capacité de génération de texte rapide, particulièrement adapté aux scénarios d'application nécessitant une efficacité à grande échelle et un rapport coût-efficacité."
1123
1129
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "Le modèle Llama 3.1 Sonar Huge Online, avec 405B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, conçu pour des applications de chat en ligne complexes."
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "Le modèle Llama 3.1 Sonar Large Online, avec 70B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, adapté aux tâches de chat à haute capacité et diversifiées."
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "Le modèle Llama 3.1 Sonar Small Online, avec 8B de paramètres, prend en charge une longueur de contexte d'environ 127 000 jetons, conçu pour le chat en ligne, capable de traiter efficacement diverses interactions textuelles."
1132
- },
1133
1130
  "llama-3.2-11b-vision-instruct": {
1134
1131
  "description": "Capacités d'inférence d'image exceptionnelles sur des images haute résolution, adaptées aux applications de compréhension visuelle."
1135
1132
  },
@@ -1643,6 +1640,9 @@
1643
1640
  "qwq-32b-preview": {
1644
1641
  "description": "Le modèle QwQ est un modèle de recherche expérimental développé par l'équipe Qwen, axé sur l'amélioration des capacités de raisonnement de l'IA."
1645
1642
  },
1643
+ "r1-1776": {
1644
+ "description": "R1-1776 est une version du modèle DeepSeek R1, après un entraînement supplémentaire, fournissant des informations factuelles non filtrées et impartiales."
1645
+ },
1646
1646
  "solar-mini": {
1647
1647
  "description": "Solar Mini est un LLM compact, offrant des performances supérieures à celles de GPT-3.5, avec de puissantes capacités multilingues, prenant en charge l'anglais et le coréen, et fournissant une solution efficace et compacte."
1648
1648
  },
@@ -1655,6 +1655,9 @@
1655
1655
  "sonar": {
1656
1656
  "description": "Produit de recherche léger basé sur le contexte de recherche, plus rapide et moins cher que Sonar Pro."
1657
1657
  },
1658
+ "sonar-deep-research": {
1659
+ "description": "Deep Research effectue des recherches approfondies de niveau expert et les synthétise en rapports accessibles et exploitables."
1660
+ },
1658
1661
  "sonar-pro": {
1659
1662
  "description": "Produit de recherche avancé prenant en charge le contexte de recherche, avec des requêtes avancées et un suivi."
1660
1663
  },
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M caratteri",
90
90
  "inputMinutes": "${{amount}}/minuto",
91
91
  "inputTokens": "Input {{amount}}/crediti · ${{amount}}/M",
92
- "outputTokens": "Output {{amount}}/crediti · ${{amount}}/M"
92
+ "outputTokens": "Output {{amount}}/crediti · ${{amount}}/M",
93
+ "writeCacheInputTokens": "Scrittura cache input {{amount}}/crediti · ${{amount}}/M"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "Prezzo medio",
96
98
  "input": "Input",
97
99
  "inputAudio": "Input audio",
98
100
  "inputCached": "Input memorizzato",
101
+ "inputCitation": "Citazione input",
99
102
  "inputText": "Input testo",
100
103
  "inputTitle": "Dettagli input",
101
104
  "inputUncached": "Input non memorizzato",
105
+ "inputWriteCached": "Scrittura cache input",
102
106
  "output": "Output",
103
107
  "outputAudio": "Output audio",
104
108
  "outputText": "Output testo",
@@ -827,12 +827,18 @@
827
827
  "gemini-2.0-flash-001": {
828
828
  "description": "Gemini 2.0 Flash offre funzionalità e miglioramenti di nuova generazione, tra cui velocità eccezionale, utilizzo di strumenti nativi, generazione multimodale e una finestra di contesto di 1M token."
829
829
  },
830
+ "gemini-2.0-flash-lite": {
831
+ "description": "Gemini 2.0 Flash è una variante del modello Flash, ottimizzata per obiettivi come il rapporto costo-efficacia e la bassa latenza."
832
+ },
830
833
  "gemini-2.0-flash-lite-001": {
831
834
  "description": "Gemini 2.0 Flash è una variante del modello Flash, ottimizzata per obiettivi come il rapporto costo-efficacia e la bassa latenza."
832
835
  },
833
836
  "gemini-2.0-flash-lite-preview-02-05": {
834
837
  "description": "Un modello Gemini 2.0 Flash ottimizzato per obiettivi di costo-efficacia e bassa latenza."
835
838
  },
839
+ "gemini-2.0-flash-thinking-exp": {
840
+ "description": "Gemini 2.0 Flash Exp è il più recente modello AI multimodale sperimentale di Google, dotato di caratteristiche di nuova generazione, velocità eccezionale, chiamate a strumenti nativi e generazione multimodale."
841
+ },
836
842
  "gemini-2.0-flash-thinking-exp-01-21": {
837
843
  "description": "Gemini 2.0 Flash Exp è il più recente modello AI multimodale sperimentale di Google, dotato di caratteristiche di nuova generazione, velocità eccezionale, chiamate a strumenti nativi e generazione multimodale."
838
844
  },
@@ -1121,15 +1127,6 @@
1121
1127
  "llama-3.1-8b-instant": {
1122
1128
  "description": "Llama 3.1 8B è un modello ad alte prestazioni, offre capacità di generazione di testo rapida, particolarmente adatto per scenari applicativi che richiedono efficienza su larga scala e costi contenuti."
1123
1129
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "Il modello Llama 3.1 Sonar Huge Online, con 405B parametri, supporta una lunghezza di contesto di circa 127.000 token, progettato per applicazioni di chat online complesse."
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "Il modello Llama 3.1 Sonar Large Online, con 70B parametri, supporta una lunghezza di contesto di circa 127.000 token, adatto per compiti di chat ad alta capacità e diversificati."
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "Il modello Llama 3.1 Sonar Small Online, con 8B parametri, supporta una lunghezza di contesto di circa 127.000 token, progettato per chat online, in grado di gestire interazioni testuali in modo efficiente."
1132
- },
1133
1130
  "llama-3.2-11b-vision-instruct": {
1134
1131
  "description": "Eccellenti capacità di ragionamento visivo su immagini ad alta risoluzione, adatte ad applicazioni di comprensione visiva."
1135
1132
  },
@@ -1643,6 +1640,9 @@
1643
1640
  "qwq-32b-preview": {
1644
1641
  "description": "Il modello QwQ è un modello di ricerca sperimentale sviluppato dal team Qwen, focalizzato sul potenziamento delle capacità di ragionamento dell'IA."
1645
1642
  },
1643
+ "r1-1776": {
1644
+ "description": "R1-1776 è una versione del modello DeepSeek R1, addestrata successivamente per fornire informazioni fattuali non verificate e prive di pregiudizi."
1645
+ },
1646
1646
  "solar-mini": {
1647
1647
  "description": "Solar Mini è un LLM compatto, con prestazioni superiori a GPT-3.5, dotato di potenti capacità multilingue, supporta inglese e coreano, offrendo soluzioni efficienti e compatte."
1648
1648
  },
@@ -1655,6 +1655,9 @@
1655
1655
  "sonar": {
1656
1656
  "description": "Prodotto di ricerca leggero basato sul contesto di ricerca, più veloce e più economico rispetto a Sonar Pro."
1657
1657
  },
1658
+ "sonar-deep-research": {
1659
+ "description": "Deep Research conduce ricerche complete a livello esperto e le sintetizza in rapporti accessibili e utilizzabili."
1660
+ },
1658
1661
  "sonar-pro": {
1659
1662
  "description": "Prodotto di ricerca avanzata che supporta il contesto di ricerca, query avanzate e follow-up."
1660
1663
  },
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M 文字",
90
90
  "inputMinutes": "${{amount}}/分",
91
91
  "inputTokens": "入力 {{amount}}/クレジット · ${{amount}}/M",
92
- "outputTokens": "出力 {{amount}}/クレジット · ${{amount}}/M"
92
+ "outputTokens": "出力 {{amount}}/クレジット · ${{amount}}/M",
93
+ "writeCacheInputTokens": "キャッシュ入力の書き込み {{amount}}/ポイント · ${{amount}}/M"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "平均単価",
96
98
  "input": "入力",
97
99
  "inputAudio": "音声入力",
98
100
  "inputCached": "キャッシュ入力",
101
+ "inputCitation": "引用入力",
99
102
  "inputText": "テキスト入力",
100
103
  "inputTitle": "入力の詳細",
101
104
  "inputUncached": "未キャッシュ入力",
105
+ "inputWriteCached": "入力キャッシュ書き込み",
102
106
  "output": "出力",
103
107
  "outputAudio": "音声出力",
104
108
  "outputText": "テキスト出力",
@@ -827,12 +827,18 @@
827
827
  "gemini-2.0-flash-001": {
828
828
  "description": "Gemini 2.0 Flashは、卓越した速度、ネイティブツールの使用、マルチモーダル生成、1Mトークンのコンテキストウィンドウを含む次世代の機能と改善を提供します。"
829
829
  },
830
+ "gemini-2.0-flash-lite": {
831
+ "description": "Gemini 2.0 Flashモデルのバリアントで、コスト効率と低遅延などの目標に最適化されています。"
832
+ },
830
833
  "gemini-2.0-flash-lite-001": {
831
834
  "description": "Gemini 2.0 Flashモデルのバリアントで、コスト効率と低遅延などの目標に最適化されています。"
832
835
  },
833
836
  "gemini-2.0-flash-lite-preview-02-05": {
834
837
  "description": "コスト効率と低遅延を目指して最適化されたGemini 2.0 Flashモデルです。"
835
838
  },
839
+ "gemini-2.0-flash-thinking-exp": {
840
+ "description": "Gemini 2.0 Flash Expは、Googleの最新の実験的なマルチモーダルAIモデルであり、次世代の機能、卓越した速度、ネイティブツールの呼び出し、マルチモーダル生成を備えています。"
841
+ },
836
842
  "gemini-2.0-flash-thinking-exp-01-21": {
837
843
  "description": "Gemini 2.0 Flash Expは、Googleの最新の実験的なマルチモーダルAIモデルであり、次世代の機能、卓越した速度、ネイティブツールの呼び出し、マルチモーダル生成を備えています。"
838
844
  },
@@ -1121,15 +1127,6 @@
1121
1127
  "llama-3.1-8b-instant": {
1122
1128
  "description": "Llama 3.1 8Bは、高効率モデルであり、迅速なテキスト生成能力を提供し、大規模な効率とコスト効果が求められるアプリケーションシナリオに非常に適しています。"
1123
1129
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "Llama 3.1 Sonar Huge Onlineモデルは、405Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、複雑なオンラインチャットアプリケーション用に設計されています。"
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "Llama 3.1 Sonar Large Onlineモデルは、70Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、高容量で多様なチャットタスクに適しています。"
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "Llama 3.1 Sonar Small Onlineモデルは、8Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、オンラインチャット用に設計されており、さまざまなテキストインタラクションを効率的に処理できます。"
1132
- },
1133
1130
  "llama-3.2-11b-vision-instruct": {
1134
1131
  "description": "高解像度画像で優れた画像推論能力を発揮し、視覚理解アプリケーションに適しています。"
1135
1132
  },
@@ -1643,6 +1640,9 @@
1643
1640
  "qwq-32b-preview": {
1644
1641
  "description": "QwQモデルはQwenチームによって開発された実験的な研究モデルで、AIの推論能力を強化することに焦点を当てています。"
1645
1642
  },
1643
+ "r1-1776": {
1644
+ "description": "R1-1776は、DeepSeek R1モデルの一つのバージョンで、後処理を経て、検閲されていない偏りのない事実情報を提供します。"
1645
+ },
1646
1646
  "solar-mini": {
1647
1647
  "description": "Solar MiniはコンパクトなLLMで、GPT-3.5を上回る性能を持ち、強力な多言語能力を備え、英語と韓国語をサポートし、高効率でコンパクトなソリューションを提供します。"
1648
1648
  },
@@ -1655,6 +1655,9 @@
1655
1655
  "sonar": {
1656
1656
  "description": "検索コンテキストに基づく軽量検索製品で、Sonar Proよりも速く、安価です。"
1657
1657
  },
1658
+ "sonar-deep-research": {
1659
+ "description": "Deep Researchは、専門家による包括的な研究を行い、それをアクセス可能で実行可能なレポートにまとめます。"
1660
+ },
1658
1661
  "sonar-pro": {
1659
1662
  "description": "検索コンテキストをサポートする高度な検索製品で、高度なクエリとフォローアップをサポートします。"
1660
1663
  },
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M 문자",
90
90
  "inputMinutes": "${{amount}}/분",
91
91
  "inputTokens": "입력 {{amount}}/포인트 · ${{amount}}/M",
92
- "outputTokens": "출력 {{amount}}/포인트 · ${{amount}}/M"
92
+ "outputTokens": "출력 {{amount}}/포인트 · ${{amount}}/M",
93
+ "writeCacheInputTokens": "캐시 입력 쓰기 {{amount}}/포인트 · ${{amount}}/M"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "평균 단가",
96
98
  "input": "입력",
97
99
  "inputAudio": "오디오 입력",
98
100
  "inputCached": "입력 캐시",
101
+ "inputCitation": "입력 인용",
99
102
  "inputText": "텍스트 입력",
100
103
  "inputTitle": "입력 세부사항",
101
104
  "inputUncached": "입력 비캐시",
105
+ "inputWriteCached": "입력 캐시 쓰기",
102
106
  "output": "출력",
103
107
  "outputAudio": "오디오 출력",
104
108
  "outputText": "텍스트 출력",
@@ -827,12 +827,18 @@
827
827
  "gemini-2.0-flash-001": {
828
828
  "description": "Gemini 2.0 Flash는 뛰어난 속도, 원주율 도구 사용, 다중 모달 생성 및 1M 토큰 문맥 창을 포함한 차세대 기능과 개선 사항을 제공합니다."
829
829
  },
830
+ "gemini-2.0-flash-lite": {
831
+ "description": "Gemini 2.0 플래시 모델 변형으로, 비용 효율성과 낮은 지연 시간 등의 목표를 위해 최적화되었습니다."
832
+ },
830
833
  "gemini-2.0-flash-lite-001": {
831
834
  "description": "Gemini 2.0 플래시 모델 변형으로, 비용 효율성과 낮은 지연 시간 등의 목표를 위해 최적화되었습니다."
832
835
  },
833
836
  "gemini-2.0-flash-lite-preview-02-05": {
834
837
  "description": "비용 효율성과 낮은 지연 시간 등을 목표로 최적화된 Gemini 2.0 Flash 모델입니다."
835
838
  },
839
+ "gemini-2.0-flash-thinking-exp": {
840
+ "description": "Gemini 2.0 Flash Exp는 Google의 최신 실험적 다중 모드 AI 모델로, 차세대 기능, 뛰어난 속도, 네이티브 도구 호출 및 다중 모드 생성을 제공합니다."
841
+ },
836
842
  "gemini-2.0-flash-thinking-exp-01-21": {
837
843
  "description": "Gemini 2.0 Flash Exp는 Google의 최신 실험적 다중 모드 AI 모델로, 차세대 기능, 뛰어난 속도, 네이티브 도구 호출 및 다중 모드 생성을 제공합니다."
838
844
  },
@@ -1121,15 +1127,6 @@
1121
1127
  "llama-3.1-8b-instant": {
1122
1128
  "description": "Llama 3.1 8B는 효율적인 모델로, 빠른 텍스트 생성 능력을 제공하며, 대규모 효율성과 비용 효과성이 필요한 응용 프로그램에 매우 적합합니다."
1123
1129
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "Llama 3.1 Sonar Huge Online 모델은 405B 매개변수를 갖추고 있으며, 약 127,000개의 토큰의 컨텍스트 길이를 지원하여 복잡한 온라인 채팅 애플리케이션을 위해 설계되었습니다."
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "Llama 3.1 Sonar Large Online 모델은 70B 매개변수를 갖추고 있으며, 약 127,000개의 토큰의 컨텍스트 길이를 지원하여 대용량 및 다양한 채팅 작업에 적합합니다."
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "Llama 3.1 Sonar Small Online 모델은 8B 매개변수를 갖추고 있으며, 약 127,000개의 토큰의 컨텍스트 길이를 지원하여 온라인 채팅을 위해 설계되었습니다."
1132
- },
1133
1130
  "llama-3.2-11b-vision-instruct": {
1134
1131
  "description": "고해상도 이미지에서 탁월한 이미지 추론 능력을 발휘하며, 시각 이해 응용 프로그램에 적합합니다."
1135
1132
  },
@@ -1643,6 +1640,9 @@
1643
1640
  "qwq-32b-preview": {
1644
1641
  "description": "QwQ 모델은 Qwen 팀이 개발한 실험적 연구 모델로, AI 추론 능력을 향상시키는 데 중점을 두고 있습니다."
1645
1642
  },
1643
+ "r1-1776": {
1644
+ "description": "R1-1776은 DeepSeek R1 모델의 한 버전으로, 후속 훈련을 거쳐 검토되지 않은 편향 없는 사실 정보를 제공합니다."
1645
+ },
1646
1646
  "solar-mini": {
1647
1647
  "description": "Solar Mini는 컴팩트한 LLM으로, GPT-3.5보다 성능이 우수하며, 강력한 다국어 능력을 갖추고 있어 영어와 한국어를 지원하며, 효율적이고 소형의 솔루션을 제공합니다."
1648
1648
  },
@@ -1655,6 +1655,9 @@
1655
1655
  "sonar": {
1656
1656
  "description": "검색 맥락 기반의 경량 검색 제품으로, Sonar Pro보다 더 빠르고 저렴합니다."
1657
1657
  },
1658
+ "sonar-deep-research": {
1659
+ "description": "Deep Research는 포괄적인 전문가 수준의 연구를 수행하고 이를 접근 가능하고 실행 가능한 보고서로 통합합니다."
1660
+ },
1658
1661
  "sonar-pro": {
1659
1662
  "description": "고급 쿼리 및 후속 작업을 지원하는 검색 맥락 기반의 고급 검색 제품입니다."
1660
1663
  },
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M tekens",
90
90
  "inputMinutes": "${{amount}}/minuut",
91
91
  "inputTokens": "Invoer {{amount}}/credits · ${{amount}}/M",
92
- "outputTokens": "Uitvoer {{amount}}/credits · ${{amount}}/M"
92
+ "outputTokens": "Uitvoer {{amount}}/credits · ${{amount}}/M",
93
+ "writeCacheInputTokens": "Cache-invoer schrijven {{amount}}/punten · ${{amount}}/M"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "Gemiddelde prijs",
96
98
  "input": "Invoer",
97
99
  "inputAudio": "Audio-invoer",
98
100
  "inputCached": "Gecacheerde invoer",
101
+ "inputCitation": "Invoer citeren",
99
102
  "inputText": "Tekstinvoer",
100
103
  "inputTitle": "Invoerdetails",
101
104
  "inputUncached": "Ongecacheerde invoer",
105
+ "inputWriteCached": "Invoer cache schrijven",
102
106
  "output": "Uitvoer",
103
107
  "outputAudio": "Audio-uitvoer",
104
108
  "outputText": "Tekstuitvoer",
@@ -827,12 +827,18 @@
827
827
  "gemini-2.0-flash-001": {
828
828
  "description": "Gemini 2.0 Flash biedt next-gen functies en verbeteringen, waaronder uitstekende snelheid, native toolgebruik, multimodale generatie en een contextvenster van 1M tokens."
829
829
  },
830
+ "gemini-2.0-flash-lite": {
831
+ "description": "Gemini 2.0 Flash is een modelvariant die is geoptimaliseerd voor kosteneffectiviteit en lage latentie."
832
+ },
830
833
  "gemini-2.0-flash-lite-001": {
831
834
  "description": "Gemini 2.0 Flash is een modelvariant die is geoptimaliseerd voor kosteneffectiviteit en lage latentie."
832
835
  },
833
836
  "gemini-2.0-flash-lite-preview-02-05": {
834
837
  "description": "Een Gemini 2.0 Flash-model dat is geoptimaliseerd voor kosteneffectiviteit en lage latentie."
835
838
  },
839
+ "gemini-2.0-flash-thinking-exp": {
840
+ "description": "Gemini 2.0 Flash Exp is Google's nieuwste experimentele multimodale AI-model, met next-gen functies, uitstekende snelheid, native tool-aanroepen en multimodale generatie."
841
+ },
836
842
  "gemini-2.0-flash-thinking-exp-01-21": {
837
843
  "description": "Gemini 2.0 Flash Exp is Google's nieuwste experimentele multimodale AI-model, met next-gen functies, uitstekende snelheid, native tool-aanroepen en multimodale generatie."
838
844
  },
@@ -1121,15 +1127,6 @@
1121
1127
  "llama-3.1-8b-instant": {
1122
1128
  "description": "Llama 3.1 8B is een hoogpresterend model dat snelle tekstgeneratiecapaciteiten biedt, zeer geschikt voor toepassingen die grootschalige efficiëntie en kosteneffectiviteit vereisen."
1123
1129
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "Llama 3.1 Sonar Huge Online model, met 405B parameters, ondersteunt een contextlengte van ongeveer 127.000 tokens, ontworpen voor complexe online chattoepassingen."
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "Llama 3.1 Sonar Large Online model, met 70B parameters, ondersteunt een contextlengte van ongeveer 127.000 tokens, geschikt voor hoge capaciteit en diverse chattaken."
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "Llama 3.1 Sonar Small Online model, met 8B parameters, ondersteunt een contextlengte van ongeveer 127.000 tokens, speciaal ontworpen voor online chat en kan efficiënt verschillende tekstinteracties verwerken."
1132
- },
1133
1130
  "llama-3.2-11b-vision-instruct": {
1134
1131
  "description": "Uitstekende beeldredeneringscapaciteiten op hoge resolutie-afbeeldingen, geschikt voor visuele begrijptoepassingen."
1135
1132
  },
@@ -1643,6 +1640,9 @@
1643
1640
  "qwq-32b-preview": {
1644
1641
  "description": "Het QwQ-model is een experimenteel onderzoeksmodel ontwikkeld door het Qwen-team, gericht op het verbeteren van de AI-redeneringscapaciteiten."
1645
1642
  },
1643
+ "r1-1776": {
1644
+ "description": "R1-1776 is een versie van het DeepSeek R1-model, dat is bijgetraind om ongecensureerde, onpartijdige feitelijke informatie te bieden."
1645
+ },
1646
1646
  "solar-mini": {
1647
1647
  "description": "Solar Mini is een compacte LLM die beter presteert dan GPT-3.5, met sterke meertalige capaciteiten, ondersteunt Engels en Koreaans, en biedt een efficiënte en compacte oplossing."
1648
1648
  },
@@ -1655,6 +1655,9 @@
1655
1655
  "sonar": {
1656
1656
  "description": "Een lichtgewicht zoekproduct op basis van contextuele zoekopdrachten, sneller en goedkoper dan Sonar Pro."
1657
1657
  },
1658
+ "sonar-deep-research": {
1659
+ "description": "Deep Research voert uitgebreide expertstudies uit en bundelt deze in toegankelijke, bruikbare rapporten."
1660
+ },
1658
1661
  "sonar-pro": {
1659
1662
  "description": "Een geavanceerd zoekproduct dat contextuele zoekopdrachten ondersteunt, met geavanceerde query's en vervolgacties."
1660
1663
  },
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M znaków",
90
90
  "inputMinutes": "${{amount}}/minutę",
91
91
  "inputTokens": "Wejście {{amount}}/punktów · ${{amount}}/M",
92
- "outputTokens": "Wyjście {{amount}}/punktów · ${{amount}}/M"
92
+ "outputTokens": "Wyjście {{amount}}/punktów · ${{amount}}/M",
93
+ "writeCacheInputTokens": "Zapisz wejście w pamięci podręcznej {{amount}}/punktów · ${{amount}}/M"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "Średnia cena",
96
98
  "input": "Wejście",
97
99
  "inputAudio": "Wejście audio",
98
100
  "inputCached": "Zbuforowane wejście",
101
+ "inputCitation": "Cytowanie wejścia",
99
102
  "inputText": "Wejście tekstowe",
100
103
  "inputTitle": "Szczegóły wejścia",
101
104
  "inputUncached": "Wejście niezbuforowane",
105
+ "inputWriteCached": "Zapisz wejście w pamięci podręcznej",
102
106
  "output": "Wyjście",
103
107
  "outputAudio": "Wyjście audio",
104
108
  "outputText": "Wyjście tekstowe",
@@ -827,12 +827,18 @@
827
827
  "gemini-2.0-flash-001": {
828
828
  "description": "Gemini 2.0 Flash oferuje funkcje i ulepszenia nowej generacji, w tym doskonałą prędkość, natywne korzystanie z narzędzi, generowanie multimodalne oraz okno kontekstowe o długości 1M tokenów."
829
829
  },
830
+ "gemini-2.0-flash-lite": {
831
+ "description": "Gemini 2.0 Flash to wariant modelu, zoptymalizowany pod kątem efektywności kosztowej i niskiego opóźnienia."
832
+ },
830
833
  "gemini-2.0-flash-lite-001": {
831
834
  "description": "Gemini 2.0 Flash to wariant modelu, zoptymalizowany pod kątem efektywności kosztowej i niskiego opóźnienia."
832
835
  },
833
836
  "gemini-2.0-flash-lite-preview-02-05": {
834
837
  "description": "Model Gemini 2.0 Flash, zoptymalizowany pod kątem efektywności kosztowej i niskiej latencji."
835
838
  },
839
+ "gemini-2.0-flash-thinking-exp": {
840
+ "description": "Gemini 2.0 Flash Exp to najnowszy eksperymentalny model AI multimodalnego Google, posiadający cechy nowej generacji, doskonałą prędkość, natywne wywołania narzędzi oraz generację multimodalną."
841
+ },
836
842
  "gemini-2.0-flash-thinking-exp-01-21": {
837
843
  "description": "Gemini 2.0 Flash Exp to najnowszy eksperymentalny model AI multimodalnego Google, posiadający cechy nowej generacji, doskonałą prędkość, natywne wywołania narzędzi oraz generację multimodalną."
838
844
  },
@@ -1121,15 +1127,6 @@
1121
1127
  "llama-3.1-8b-instant": {
1122
1128
  "description": "Llama 3.1 8B to model o wysokiej wydajności, oferujący szybkie możliwości generowania tekstu, idealny do zastosowań wymagających dużej efektywności i opłacalności."
1123
1129
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "Model Llama 3.1 Sonar Huge Online, z 405B parametrami, obsługujący kontekst o długości około 127,000 tokenów, zaprojektowany do złożonych aplikacji czatu online."
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "Model Llama 3.1 Sonar Large Online, z 70B parametrami, obsługujący kontekst o długości około 127,000 tokenów, idealny do zadań czatu o dużej pojemności i różnorodności."
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "Model Llama 3.1 Sonar Small Online, z 8B parametrami, obsługujący kontekst o długości około 127,000 tokenów, zaprojektowany do czatów online, efektywnie przetwarzający różne interakcje tekstowe."
1132
- },
1133
1130
  "llama-3.2-11b-vision-instruct": {
1134
1131
  "description": "Wyjątkowe zdolności wnioskowania wizualnego na obrazach o wysokiej rozdzielczości, idealne do zastosowań związanych ze zrozumieniem wizualnym."
1135
1132
  },
@@ -1643,6 +1640,9 @@
1643
1640
  "qwq-32b-preview": {
1644
1641
  "description": "Model QwQ to eksperymentalny model badawczy opracowany przez zespół Qwen, skoncentrowany na zwiększeniu zdolności wnioskowania AI."
1645
1642
  },
1643
+ "r1-1776": {
1644
+ "description": "R1-1776 to wersja modelu DeepSeek R1, która została poddana dalszemu treningowi, aby dostarczać nieocenzurowane, bezstronne informacje faktograficzne."
1645
+ },
1646
1646
  "solar-mini": {
1647
1647
  "description": "Solar Mini to kompaktowy LLM, który przewyższa GPT-3.5, posiadając potężne zdolności wielojęzyczne, wspierając angielski i koreański, oferując efektywne i zgrabne rozwiązania."
1648
1648
  },
@@ -1655,6 +1655,9 @@
1655
1655
  "sonar": {
1656
1656
  "description": "Lekki produkt wyszukiwania oparty na kontekście, szybszy i tańszy niż Sonar Pro."
1657
1657
  },
1658
+ "sonar-deep-research": {
1659
+ "description": "Deep Research przeprowadza kompleksowe badania na poziomie eksperckim i łączy je w dostępne, praktyczne raporty."
1660
+ },
1658
1661
  "sonar-pro": {
1659
1662
  "description": "Zaawansowany produkt wyszukiwania wspierający kontekst wyszukiwania, oferujący zaawansowane zapytania i śledzenie."
1660
1663
  },
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M caracteres",
90
90
  "inputMinutes": "${{amount}}/minuto",
91
91
  "inputTokens": "Entrada {{amount}}/créditos · ${{amount}}/M",
92
- "outputTokens": "Saída {{amount}}/créditos · ${{amount}}/M"
92
+ "outputTokens": "Saída {{amount}}/créditos · ${{amount}}/M",
93
+ "writeCacheInputTokens": "Cache de entrada de escrita {{amount}}/pontos · ${{amount}}/M"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "Preço médio",
96
98
  "input": "Entrada",
97
99
  "inputAudio": "Entrada de áudio",
98
100
  "inputCached": "Entrada em cache",
101
+ "inputCitation": "Citação de entrada",
99
102
  "inputText": "Entrada de texto",
100
103
  "inputTitle": "Detalhes da entrada",
101
104
  "inputUncached": "Entrada não cacheada",
105
+ "inputWriteCached": "Entrada de cache de escrita",
102
106
  "output": "Saída",
103
107
  "outputAudio": "Saída de áudio",
104
108
  "outputText": "Saída de texto",
@@ -827,12 +827,18 @@
827
827
  "gemini-2.0-flash-001": {
828
828
  "description": "Gemini 2.0 Flash oferece funcionalidades e melhorias de próxima geração, incluindo velocidade excepcional, uso nativo de ferramentas, geração multimodal e uma janela de contexto de 1M tokens."
829
829
  },
830
+ "gemini-2.0-flash-lite": {
831
+ "description": "Variante do modelo Gemini 2.0 Flash, otimizada para custo-benefício e baixa latência."
832
+ },
830
833
  "gemini-2.0-flash-lite-001": {
831
834
  "description": "Variante do modelo Gemini 2.0 Flash, otimizada para custo-benefício e baixa latência."
832
835
  },
833
836
  "gemini-2.0-flash-lite-preview-02-05": {
834
837
  "description": "Um modelo Gemini 2.0 Flash otimizado para custo-benefício e baixa latência."
835
838
  },
839
+ "gemini-2.0-flash-thinking-exp": {
840
+ "description": "O Gemini 2.0 Flash Exp é o mais recente modelo experimental de IA multimodal do Google, com características de próxima geração, velocidade excepcional, chamadas nativas de ferramentas e geração multimodal."
841
+ },
836
842
  "gemini-2.0-flash-thinking-exp-01-21": {
837
843
  "description": "O Gemini 2.0 Flash Exp é o mais recente modelo experimental de IA multimodal do Google, com características de próxima geração, velocidade excepcional, chamadas nativas de ferramentas e geração multimodal."
838
844
  },
@@ -1121,15 +1127,6 @@
1121
1127
  "llama-3.1-8b-instant": {
1122
1128
  "description": "Llama 3.1 8B é um modelo de alto desempenho, oferecendo capacidade de geração de texto rápida, ideal para cenários de aplicação que exigem eficiência em larga escala e custo-benefício."
1123
1129
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "O modelo Llama 3.1 Sonar Huge Online possui 405B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, projetado para aplicações de chat online complexas."
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "O modelo Llama 3.1 Sonar Large Online possui 70B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, adequado para tarefas de chat de alta capacidade e diversidade."
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "O modelo Llama 3.1 Sonar Small Online possui 8B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, projetado para chats online, capaz de processar eficientemente diversas interações textuais."
1132
- },
1133
1130
  "llama-3.2-11b-vision-instruct": {
1134
1131
  "description": "Capacidade excepcional de raciocínio visual em imagens de alta resolução, adequada para aplicações de compreensão visual."
1135
1132
  },
@@ -1643,6 +1640,9 @@
1643
1640
  "qwq-32b-preview": {
1644
1641
  "description": "O modelo QwQ é um modelo de pesquisa experimental desenvolvido pela equipe Qwen, focado em aprimorar a capacidade de raciocínio da IA."
1645
1642
  },
1643
+ "r1-1776": {
1644
+ "description": "R1-1776 é uma versão do modelo DeepSeek R1, treinada posteriormente para fornecer informações factuais não filtradas e imparciais."
1645
+ },
1646
1646
  "solar-mini": {
1647
1647
  "description": "Solar Mini é um LLM compacto, com desempenho superior ao GPT-3.5, possuindo forte capacidade multilíngue, suportando inglês e coreano, oferecendo uma solução eficiente e compacta."
1648
1648
  },
@@ -1655,6 +1655,9 @@
1655
1655
  "sonar": {
1656
1656
  "description": "Produto de busca leve baseado em contexto de busca, mais rápido e mais barato que o Sonar Pro."
1657
1657
  },
1658
+ "sonar-deep-research": {
1659
+ "description": "A Pesquisa Profunda realiza uma pesquisa abrangente de nível especialista e a sintetiza em relatórios acessíveis e acionáveis."
1660
+ },
1658
1661
  "sonar-pro": {
1659
1662
  "description": "Produto de busca avançada que suporta contexto de busca, consultas avançadas e acompanhamento."
1660
1663
  },
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M символов",
90
90
  "inputMinutes": "${{amount}}/минуту",
91
91
  "inputTokens": "Входные {{amount}}/кредиты · ${{amount}}/M",
92
- "outputTokens": "Выходные {{amount}}/кредиты · ${{amount}}/M"
92
+ "outputTokens": "Выходные {{amount}}/кредиты · ${{amount}}/M",
93
+ "writeCacheInputTokens": "Кэширование ввода записи {{amount}}/баллов · ${{amount}}/М"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "Средняя цена",
96
98
  "input": "Вход",
97
99
  "inputAudio": "Аудиовход",
98
100
  "inputCached": "Кэшированный вход",
101
+ "inputCitation": "Цитирование ввода",
99
102
  "inputText": "Текстовый вход",
100
103
  "inputTitle": "Детали входа",
101
104
  "inputUncached": "Некэшированный вход",
105
+ "inputWriteCached": "Запись кэшированного ввода",
102
106
  "output": "Выход",
103
107
  "outputAudio": "Аудиовыход",
104
108
  "outputText": "Текстовый выход",
@@ -827,12 +827,18 @@
827
827
  "gemini-2.0-flash-001": {
828
828
  "description": "Gemini 2.0 Flash предлагает функции следующего поколения и улучшения, включая выдающуюся скорость, использование встроенных инструментов, многомодальную генерацию и контекстное окно на 1M токенов."
829
829
  },
830
+ "gemini-2.0-flash-lite": {
831
+ "description": "Модельный вариант Gemini 2.0 Flash, оптимизированный для достижения таких целей, как экономическая эффективность и низкая задержка."
832
+ },
830
833
  "gemini-2.0-flash-lite-001": {
831
834
  "description": "Модельный вариант Gemini 2.0 Flash, оптимизированный для достижения таких целей, как экономическая эффективность и низкая задержка."
832
835
  },
833
836
  "gemini-2.0-flash-lite-preview-02-05": {
834
837
  "description": "Модель Gemini 2.0 Flash, оптимизированная для экономической эффективности и низкой задержки."
835
838
  },
839
+ "gemini-2.0-flash-thinking-exp": {
840
+ "description": "Gemini 2.0 Flash Exp — это последняя экспериментальная многомодальная AI модель от Google, обладающая следующими поколениями характеристик, выдающейся скоростью, нативным вызовом инструментов и многомодальной генерацией."
841
+ },
836
842
  "gemini-2.0-flash-thinking-exp-01-21": {
837
843
  "description": "Gemini 2.0 Flash Exp — это последняя экспериментальная многомодальная AI модель от Google, обладающая следующими поколениями характеристик, выдающейся скоростью, нативным вызовом инструментов и многомодальной генерацией."
838
844
  },
@@ -1121,15 +1127,6 @@
1121
1127
  "llama-3.1-8b-instant": {
1122
1128
  "description": "Llama 3.1 8B — это высокоэффективная модель, обеспечивающая быструю генерацию текста, идеально подходящая для приложений, требующих масштабной эффективности и экономичности."
1123
1129
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "Модель Llama 3.1 Sonar Huge Online, обладающая 405B параметрами, поддерживает контекст длиной около 127,000 токенов, предназначена для сложных онлайн-чат-приложений."
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "Модель Llama 3.1 Sonar Large Online, обладающая 70B параметрами, поддерживает контекст длиной около 127,000 токенов, подходит для задач с высокой нагрузкой и разнообразными чатами."
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "Модель Llama 3.1 Sonar Small Online, обладающая 8B параметрами, поддерживает контекст длиной около 127,000 токенов, специально разработана для онлайн-чатов и эффективно обрабатывает различные текстовые взаимодействия."
1132
- },
1133
1130
  "llama-3.2-11b-vision-instruct": {
1134
1131
  "description": "Отличные способности к визуальному пониманию изображений на высоком разрешении, предназначенные для приложений визуального понимания."
1135
1132
  },
@@ -1643,6 +1640,9 @@
1643
1640
  "qwq-32b-preview": {
1644
1641
  "description": "Модель QwQ — это экспериментальная исследовательская модель, разработанная командой Qwen, сосредоточенная на улучшении возможностей вывода ИИ."
1645
1642
  },
1643
+ "r1-1776": {
1644
+ "description": "R1-1776 — это версия модели DeepSeek R1, прошедшая дообучение, которая предоставляет непроверенную, беспристрастную фактическую информацию."
1645
+ },
1646
1646
  "solar-mini": {
1647
1647
  "description": "Solar Mini — это компактная LLM, которая превосходит GPT-3.5, обладает мощными многоязычными возможностями, поддерживает английский и корейский языки, предлагая эффективное и компактное решение."
1648
1648
  },
@@ -1655,6 +1655,9 @@
1655
1655
  "sonar": {
1656
1656
  "description": "Легковесный продукт поиска на основе контекста, быстрее и дешевле, чем Sonar Pro."
1657
1657
  },
1658
+ "sonar-deep-research": {
1659
+ "description": "Глубокое исследование проводит всесторонние экспертные исследования и сводит их в доступные и практичные отчеты."
1660
+ },
1658
1661
  "sonar-pro": {
1659
1662
  "description": "Расширенный продукт поиска, поддерживающий контекст поиска, сложные запросы и последующие действия."
1660
1663
  },