@lobehub/chat 1.68.8 → 1.68.10

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (74) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/docs/usage/providers/ppio.mdx +5 -5
  4. package/docs/usage/providers/ppio.zh-CN.mdx +7 -7
  5. package/locales/ar/chat.json +5 -1
  6. package/locales/ar/models.json +6 -9
  7. package/locales/bg-BG/chat.json +5 -1
  8. package/locales/bg-BG/models.json +6 -9
  9. package/locales/de-DE/chat.json +5 -1
  10. package/locales/de-DE/models.json +6 -9
  11. package/locales/en-US/chat.json +5 -1
  12. package/locales/en-US/models.json +6 -9
  13. package/locales/es-ES/chat.json +5 -1
  14. package/locales/es-ES/models.json +6 -9
  15. package/locales/fa-IR/chat.json +5 -1
  16. package/locales/fa-IR/models.json +6 -9
  17. package/locales/fr-FR/chat.json +5 -1
  18. package/locales/fr-FR/models.json +6 -9
  19. package/locales/it-IT/chat.json +5 -1
  20. package/locales/it-IT/models.json +6 -9
  21. package/locales/ja-JP/chat.json +5 -1
  22. package/locales/ja-JP/models.json +6 -9
  23. package/locales/ko-KR/chat.json +5 -1
  24. package/locales/ko-KR/models.json +6 -9
  25. package/locales/nl-NL/chat.json +5 -1
  26. package/locales/nl-NL/models.json +6 -9
  27. package/locales/pl-PL/chat.json +5 -1
  28. package/locales/pl-PL/models.json +6 -9
  29. package/locales/pt-BR/chat.json +5 -1
  30. package/locales/pt-BR/models.json +6 -9
  31. package/locales/ru-RU/chat.json +5 -1
  32. package/locales/ru-RU/models.json +6 -9
  33. package/locales/tr-TR/chat.json +5 -1
  34. package/locales/tr-TR/models.json +6 -9
  35. package/locales/vi-VN/chat.json +5 -1
  36. package/locales/vi-VN/models.json +6 -9
  37. package/locales/zh-CN/chat.json +5 -1
  38. package/locales/zh-CN/models.json +6 -9
  39. package/locales/zh-TW/chat.json +5 -1
  40. package/locales/zh-TW/models.json +6 -9
  41. package/package.json +3 -1
  42. package/src/config/aiModels/perplexity.ts +36 -20
  43. package/src/config/modelProviders/ppio.ts +1 -1
  44. package/src/database/client/migrations.json +8 -3
  45. package/src/features/Conversation/Extras/Usage/UsageDetail/ModelCard.tsx +27 -9
  46. package/src/features/Conversation/Extras/Usage/UsageDetail/index.tsx +77 -35
  47. package/src/features/Conversation/Extras/Usage/UsageDetail/tokens.test.ts +253 -0
  48. package/src/features/Conversation/Extras/Usage/UsageDetail/tokens.ts +65 -46
  49. package/src/libs/agent-runtime/baichuan/index.test.ts +58 -1
  50. package/src/libs/agent-runtime/groq/index.test.ts +36 -284
  51. package/src/libs/agent-runtime/mistral/index.test.ts +39 -300
  52. package/src/libs/agent-runtime/perplexity/index.test.ts +12 -10
  53. package/src/libs/agent-runtime/providerTestUtils.ts +58 -0
  54. package/src/libs/agent-runtime/togetherai/index.test.ts +7 -295
  55. package/src/libs/agent-runtime/utils/openaiCompatibleFactory/index.test.ts +3 -0
  56. package/src/libs/agent-runtime/utils/openaiCompatibleFactory/index.ts +5 -2
  57. package/src/libs/agent-runtime/utils/streams/anthropic.test.ts +89 -5
  58. package/src/libs/agent-runtime/utils/streams/anthropic.ts +25 -8
  59. package/src/libs/agent-runtime/utils/streams/openai.test.ts +188 -84
  60. package/src/libs/agent-runtime/utils/streams/openai.ts +8 -17
  61. package/src/libs/agent-runtime/utils/usageConverter.test.ts +249 -0
  62. package/src/libs/agent-runtime/utils/usageConverter.ts +50 -0
  63. package/src/libs/agent-runtime/zeroone/index.test.ts +7 -294
  64. package/src/libs/langchain/loaders/epub/__tests__/__snapshots__/index.test.ts.snap +238 -0
  65. package/src/libs/langchain/loaders/epub/__tests__/demo.epub +0 -0
  66. package/src/libs/langchain/loaders/epub/__tests__/index.test.ts +24 -0
  67. package/src/libs/langchain/loaders/epub/index.ts +21 -0
  68. package/src/libs/langchain/loaders/index.ts +9 -0
  69. package/src/libs/langchain/types.ts +2 -1
  70. package/src/locales/default/chat.ts +4 -0
  71. package/src/server/utils/tempFileManager.ts +70 -0
  72. package/src/types/message/base.ts +14 -4
  73. package/src/utils/filter.test.ts +0 -122
  74. package/src/utils/filter.ts +0 -29
@@ -1121,15 +1121,6 @@
1121
1121
  "llama-3.1-8b-instant": {
1122
1122
  "description": "Llama 3.1 8B è un modello ad alte prestazioni, offre capacità di generazione di testo rapida, particolarmente adatto per scenari applicativi che richiedono efficienza su larga scala e costi contenuti."
1123
1123
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "Il modello Llama 3.1 Sonar Huge Online, con 405B parametri, supporta una lunghezza di contesto di circa 127.000 token, progettato per applicazioni di chat online complesse."
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "Il modello Llama 3.1 Sonar Large Online, con 70B parametri, supporta una lunghezza di contesto di circa 127.000 token, adatto per compiti di chat ad alta capacità e diversificati."
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "Il modello Llama 3.1 Sonar Small Online, con 8B parametri, supporta una lunghezza di contesto di circa 127.000 token, progettato per chat online, in grado di gestire interazioni testuali in modo efficiente."
1132
- },
1133
1124
  "llama-3.2-11b-vision-instruct": {
1134
1125
  "description": "Eccellenti capacità di ragionamento visivo su immagini ad alta risoluzione, adatte ad applicazioni di comprensione visiva."
1135
1126
  },
@@ -1643,6 +1634,9 @@
1643
1634
  "qwq-32b-preview": {
1644
1635
  "description": "Il modello QwQ è un modello di ricerca sperimentale sviluppato dal team Qwen, focalizzato sul potenziamento delle capacità di ragionamento dell'IA."
1645
1636
  },
1637
+ "r1-1776": {
1638
+ "description": "R1-1776 è una versione del modello DeepSeek R1, addestrata successivamente per fornire informazioni fattuali non verificate e prive di pregiudizi."
1639
+ },
1646
1640
  "solar-mini": {
1647
1641
  "description": "Solar Mini è un LLM compatto, con prestazioni superiori a GPT-3.5, dotato di potenti capacità multilingue, supporta inglese e coreano, offrendo soluzioni efficienti e compatte."
1648
1642
  },
@@ -1655,6 +1649,9 @@
1655
1649
  "sonar": {
1656
1650
  "description": "Prodotto di ricerca leggero basato sul contesto di ricerca, più veloce e più economico rispetto a Sonar Pro."
1657
1651
  },
1652
+ "sonar-deep-research": {
1653
+ "description": "Deep Research conduce ricerche complete a livello esperto e le sintetizza in rapporti accessibili e utilizzabili."
1654
+ },
1658
1655
  "sonar-pro": {
1659
1656
  "description": "Prodotto di ricerca avanzata che supporta il contesto di ricerca, query avanzate e follow-up."
1660
1657
  },
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M 文字",
90
90
  "inputMinutes": "${{amount}}/分",
91
91
  "inputTokens": "入力 {{amount}}/クレジット · ${{amount}}/M",
92
- "outputTokens": "出力 {{amount}}/クレジット · ${{amount}}/M"
92
+ "outputTokens": "出力 {{amount}}/クレジット · ${{amount}}/M",
93
+ "writeCacheInputTokens": "キャッシュ入力の書き込み {{amount}}/ポイント · ${{amount}}/M"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "平均単価",
96
98
  "input": "入力",
97
99
  "inputAudio": "音声入力",
98
100
  "inputCached": "キャッシュ入力",
101
+ "inputCitation": "引用入力",
99
102
  "inputText": "テキスト入力",
100
103
  "inputTitle": "入力の詳細",
101
104
  "inputUncached": "未キャッシュ入力",
105
+ "inputWriteCached": "入力キャッシュ書き込み",
102
106
  "output": "出力",
103
107
  "outputAudio": "音声出力",
104
108
  "outputText": "テキスト出力",
@@ -1121,15 +1121,6 @@
1121
1121
  "llama-3.1-8b-instant": {
1122
1122
  "description": "Llama 3.1 8Bは、高効率モデルであり、迅速なテキスト生成能力を提供し、大規模な効率とコスト効果が求められるアプリケーションシナリオに非常に適しています。"
1123
1123
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "Llama 3.1 Sonar Huge Onlineモデルは、405Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、複雑なオンラインチャットアプリケーション用に設計されています。"
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "Llama 3.1 Sonar Large Onlineモデルは、70Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、高容量で多様なチャットタスクに適しています。"
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "Llama 3.1 Sonar Small Onlineモデルは、8Bパラメータを持ち、約127,000トークンのコンテキスト長をサポートし、オンラインチャット用に設計されており、さまざまなテキストインタラクションを効率的に処理できます。"
1132
- },
1133
1124
  "llama-3.2-11b-vision-instruct": {
1134
1125
  "description": "高解像度画像で優れた画像推論能力を発揮し、視覚理解アプリケーションに適しています。"
1135
1126
  },
@@ -1643,6 +1634,9 @@
1643
1634
  "qwq-32b-preview": {
1644
1635
  "description": "QwQモデルはQwenチームによって開発された実験的な研究モデルで、AIの推論能力を強化することに焦点を当てています。"
1645
1636
  },
1637
+ "r1-1776": {
1638
+ "description": "R1-1776は、DeepSeek R1モデルの一つのバージョンで、後処理を経て、検閲されていない偏りのない事実情報を提供します。"
1639
+ },
1646
1640
  "solar-mini": {
1647
1641
  "description": "Solar MiniはコンパクトなLLMで、GPT-3.5を上回る性能を持ち、強力な多言語能力を備え、英語と韓国語をサポートし、高効率でコンパクトなソリューションを提供します。"
1648
1642
  },
@@ -1655,6 +1649,9 @@
1655
1649
  "sonar": {
1656
1650
  "description": "検索コンテキストに基づく軽量検索製品で、Sonar Proよりも速く、安価です。"
1657
1651
  },
1652
+ "sonar-deep-research": {
1653
+ "description": "Deep Researchは、専門家による包括的な研究を行い、それをアクセス可能で実行可能なレポートにまとめます。"
1654
+ },
1658
1655
  "sonar-pro": {
1659
1656
  "description": "検索コンテキストをサポートする高度な検索製品で、高度なクエリとフォローアップをサポートします。"
1660
1657
  },
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M 문자",
90
90
  "inputMinutes": "${{amount}}/분",
91
91
  "inputTokens": "입력 {{amount}}/포인트 · ${{amount}}/M",
92
- "outputTokens": "출력 {{amount}}/포인트 · ${{amount}}/M"
92
+ "outputTokens": "출력 {{amount}}/포인트 · ${{amount}}/M",
93
+ "writeCacheInputTokens": "캐시 입력 쓰기 {{amount}}/포인트 · ${{amount}}/M"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "평균 단가",
96
98
  "input": "입력",
97
99
  "inputAudio": "오디오 입력",
98
100
  "inputCached": "입력 캐시",
101
+ "inputCitation": "입력 인용",
99
102
  "inputText": "텍스트 입력",
100
103
  "inputTitle": "입력 세부사항",
101
104
  "inputUncached": "입력 비캐시",
105
+ "inputWriteCached": "입력 캐시 쓰기",
102
106
  "output": "출력",
103
107
  "outputAudio": "오디오 출력",
104
108
  "outputText": "텍스트 출력",
@@ -1121,15 +1121,6 @@
1121
1121
  "llama-3.1-8b-instant": {
1122
1122
  "description": "Llama 3.1 8B는 효율적인 모델로, 빠른 텍스트 생성 능력을 제공하며, 대규모 효율성과 비용 효과성이 필요한 응용 프로그램에 매우 적합합니다."
1123
1123
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "Llama 3.1 Sonar Huge Online 모델은 405B 매개변수를 갖추고 있으며, 약 127,000개의 토큰의 컨텍스트 길이를 지원하여 복잡한 온라인 채팅 애플리케이션을 위해 설계되었습니다."
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "Llama 3.1 Sonar Large Online 모델은 70B 매개변수를 갖추고 있으며, 약 127,000개의 토큰의 컨텍스트 길이를 지원하여 대용량 및 다양한 채팅 작업에 적합합니다."
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "Llama 3.1 Sonar Small Online 모델은 8B 매개변수를 갖추고 있으며, 약 127,000개의 토큰의 컨텍스트 길이를 지원하여 온라인 채팅을 위해 설계되었습니다."
1132
- },
1133
1124
  "llama-3.2-11b-vision-instruct": {
1134
1125
  "description": "고해상도 이미지에서 탁월한 이미지 추론 능력을 발휘하며, 시각 이해 응용 프로그램에 적합합니다."
1135
1126
  },
@@ -1643,6 +1634,9 @@
1643
1634
  "qwq-32b-preview": {
1644
1635
  "description": "QwQ 모델은 Qwen 팀이 개발한 실험적 연구 모델로, AI 추론 능력을 향상시키는 데 중점을 두고 있습니다."
1645
1636
  },
1637
+ "r1-1776": {
1638
+ "description": "R1-1776은 DeepSeek R1 모델의 한 버전으로, 후속 훈련을 거쳐 검토되지 않은 편향 없는 사실 정보를 제공합니다."
1639
+ },
1646
1640
  "solar-mini": {
1647
1641
  "description": "Solar Mini는 컴팩트한 LLM으로, GPT-3.5보다 성능이 우수하며, 강력한 다국어 능력을 갖추고 있어 영어와 한국어를 지원하며, 효율적이고 소형의 솔루션을 제공합니다."
1648
1642
  },
@@ -1655,6 +1649,9 @@
1655
1649
  "sonar": {
1656
1650
  "description": "검색 맥락 기반의 경량 검색 제품으로, Sonar Pro보다 더 빠르고 저렴합니다."
1657
1651
  },
1652
+ "sonar-deep-research": {
1653
+ "description": "Deep Research는 포괄적인 전문가 수준의 연구를 수행하고 이를 접근 가능하고 실행 가능한 보고서로 통합합니다."
1654
+ },
1658
1655
  "sonar-pro": {
1659
1656
  "description": "고급 쿼리 및 후속 작업을 지원하는 검색 맥락 기반의 고급 검색 제품입니다."
1660
1657
  },
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M tekens",
90
90
  "inputMinutes": "${{amount}}/minuut",
91
91
  "inputTokens": "Invoer {{amount}}/credits · ${{amount}}/M",
92
- "outputTokens": "Uitvoer {{amount}}/credits · ${{amount}}/M"
92
+ "outputTokens": "Uitvoer {{amount}}/credits · ${{amount}}/M",
93
+ "writeCacheInputTokens": "Cache-invoer schrijven {{amount}}/punten · ${{amount}}/M"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "Gemiddelde prijs",
96
98
  "input": "Invoer",
97
99
  "inputAudio": "Audio-invoer",
98
100
  "inputCached": "Gecacheerde invoer",
101
+ "inputCitation": "Invoer citeren",
99
102
  "inputText": "Tekstinvoer",
100
103
  "inputTitle": "Invoerdetails",
101
104
  "inputUncached": "Ongecacheerde invoer",
105
+ "inputWriteCached": "Invoer cache schrijven",
102
106
  "output": "Uitvoer",
103
107
  "outputAudio": "Audio-uitvoer",
104
108
  "outputText": "Tekstuitvoer",
@@ -1121,15 +1121,6 @@
1121
1121
  "llama-3.1-8b-instant": {
1122
1122
  "description": "Llama 3.1 8B is een hoogpresterend model dat snelle tekstgeneratiecapaciteiten biedt, zeer geschikt voor toepassingen die grootschalige efficiëntie en kosteneffectiviteit vereisen."
1123
1123
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "Llama 3.1 Sonar Huge Online model, met 405B parameters, ondersteunt een contextlengte van ongeveer 127.000 tokens, ontworpen voor complexe online chattoepassingen."
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "Llama 3.1 Sonar Large Online model, met 70B parameters, ondersteunt een contextlengte van ongeveer 127.000 tokens, geschikt voor hoge capaciteit en diverse chattaken."
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "Llama 3.1 Sonar Small Online model, met 8B parameters, ondersteunt een contextlengte van ongeveer 127.000 tokens, speciaal ontworpen voor online chat en kan efficiënt verschillende tekstinteracties verwerken."
1132
- },
1133
1124
  "llama-3.2-11b-vision-instruct": {
1134
1125
  "description": "Uitstekende beeldredeneringscapaciteiten op hoge resolutie-afbeeldingen, geschikt voor visuele begrijptoepassingen."
1135
1126
  },
@@ -1643,6 +1634,9 @@
1643
1634
  "qwq-32b-preview": {
1644
1635
  "description": "Het QwQ-model is een experimenteel onderzoeksmodel ontwikkeld door het Qwen-team, gericht op het verbeteren van de AI-redeneringscapaciteiten."
1645
1636
  },
1637
+ "r1-1776": {
1638
+ "description": "R1-1776 is een versie van het DeepSeek R1-model, dat is bijgetraind om ongecensureerde, onpartijdige feitelijke informatie te bieden."
1639
+ },
1646
1640
  "solar-mini": {
1647
1641
  "description": "Solar Mini is een compacte LLM die beter presteert dan GPT-3.5, met sterke meertalige capaciteiten, ondersteunt Engels en Koreaans, en biedt een efficiënte en compacte oplossing."
1648
1642
  },
@@ -1655,6 +1649,9 @@
1655
1649
  "sonar": {
1656
1650
  "description": "Een lichtgewicht zoekproduct op basis van contextuele zoekopdrachten, sneller en goedkoper dan Sonar Pro."
1657
1651
  },
1652
+ "sonar-deep-research": {
1653
+ "description": "Deep Research voert uitgebreide expertstudies uit en bundelt deze in toegankelijke, bruikbare rapporten."
1654
+ },
1658
1655
  "sonar-pro": {
1659
1656
  "description": "Een geavanceerd zoekproduct dat contextuele zoekopdrachten ondersteunt, met geavanceerde query's en vervolgacties."
1660
1657
  },
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M znaków",
90
90
  "inputMinutes": "${{amount}}/minutę",
91
91
  "inputTokens": "Wejście {{amount}}/punktów · ${{amount}}/M",
92
- "outputTokens": "Wyjście {{amount}}/punktów · ${{amount}}/M"
92
+ "outputTokens": "Wyjście {{amount}}/punktów · ${{amount}}/M",
93
+ "writeCacheInputTokens": "Zapisz wejście w pamięci podręcznej {{amount}}/punktów · ${{amount}}/M"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "Średnia cena",
96
98
  "input": "Wejście",
97
99
  "inputAudio": "Wejście audio",
98
100
  "inputCached": "Zbuforowane wejście",
101
+ "inputCitation": "Cytowanie wejścia",
99
102
  "inputText": "Wejście tekstowe",
100
103
  "inputTitle": "Szczegóły wejścia",
101
104
  "inputUncached": "Wejście niezbuforowane",
105
+ "inputWriteCached": "Zapisz wejście w pamięci podręcznej",
102
106
  "output": "Wyjście",
103
107
  "outputAudio": "Wyjście audio",
104
108
  "outputText": "Wyjście tekstowe",
@@ -1121,15 +1121,6 @@
1121
1121
  "llama-3.1-8b-instant": {
1122
1122
  "description": "Llama 3.1 8B to model o wysokiej wydajności, oferujący szybkie możliwości generowania tekstu, idealny do zastosowań wymagających dużej efektywności i opłacalności."
1123
1123
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "Model Llama 3.1 Sonar Huge Online, z 405B parametrami, obsługujący kontekst o długości około 127,000 tokenów, zaprojektowany do złożonych aplikacji czatu online."
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "Model Llama 3.1 Sonar Large Online, z 70B parametrami, obsługujący kontekst o długości około 127,000 tokenów, idealny do zadań czatu o dużej pojemności i różnorodności."
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "Model Llama 3.1 Sonar Small Online, z 8B parametrami, obsługujący kontekst o długości około 127,000 tokenów, zaprojektowany do czatów online, efektywnie przetwarzający różne interakcje tekstowe."
1132
- },
1133
1124
  "llama-3.2-11b-vision-instruct": {
1134
1125
  "description": "Wyjątkowe zdolności wnioskowania wizualnego na obrazach o wysokiej rozdzielczości, idealne do zastosowań związanych ze zrozumieniem wizualnym."
1135
1126
  },
@@ -1643,6 +1634,9 @@
1643
1634
  "qwq-32b-preview": {
1644
1635
  "description": "Model QwQ to eksperymentalny model badawczy opracowany przez zespół Qwen, skoncentrowany na zwiększeniu zdolności wnioskowania AI."
1645
1636
  },
1637
+ "r1-1776": {
1638
+ "description": "R1-1776 to wersja modelu DeepSeek R1, która została poddana dalszemu treningowi, aby dostarczać nieocenzurowane, bezstronne informacje faktograficzne."
1639
+ },
1646
1640
  "solar-mini": {
1647
1641
  "description": "Solar Mini to kompaktowy LLM, który przewyższa GPT-3.5, posiadając potężne zdolności wielojęzyczne, wspierając angielski i koreański, oferując efektywne i zgrabne rozwiązania."
1648
1642
  },
@@ -1655,6 +1649,9 @@
1655
1649
  "sonar": {
1656
1650
  "description": "Lekki produkt wyszukiwania oparty na kontekście, szybszy i tańszy niż Sonar Pro."
1657
1651
  },
1652
+ "sonar-deep-research": {
1653
+ "description": "Deep Research przeprowadza kompleksowe badania na poziomie eksperckim i łączy je w dostępne, praktyczne raporty."
1654
+ },
1658
1655
  "sonar-pro": {
1659
1656
  "description": "Zaawansowany produkt wyszukiwania wspierający kontekst wyszukiwania, oferujący zaawansowane zapytania i śledzenie."
1660
1657
  },
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M caracteres",
90
90
  "inputMinutes": "${{amount}}/minuto",
91
91
  "inputTokens": "Entrada {{amount}}/créditos · ${{amount}}/M",
92
- "outputTokens": "Saída {{amount}}/créditos · ${{amount}}/M"
92
+ "outputTokens": "Saída {{amount}}/créditos · ${{amount}}/M",
93
+ "writeCacheInputTokens": "Cache de entrada de escrita {{amount}}/pontos · ${{amount}}/M"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "Preço médio",
96
98
  "input": "Entrada",
97
99
  "inputAudio": "Entrada de áudio",
98
100
  "inputCached": "Entrada em cache",
101
+ "inputCitation": "Citação de entrada",
99
102
  "inputText": "Entrada de texto",
100
103
  "inputTitle": "Detalhes da entrada",
101
104
  "inputUncached": "Entrada não cacheada",
105
+ "inputWriteCached": "Entrada de cache de escrita",
102
106
  "output": "Saída",
103
107
  "outputAudio": "Saída de áudio",
104
108
  "outputText": "Saída de texto",
@@ -1121,15 +1121,6 @@
1121
1121
  "llama-3.1-8b-instant": {
1122
1122
  "description": "Llama 3.1 8B é um modelo de alto desempenho, oferecendo capacidade de geração de texto rápida, ideal para cenários de aplicação que exigem eficiência em larga escala e custo-benefício."
1123
1123
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "O modelo Llama 3.1 Sonar Huge Online possui 405B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, projetado para aplicações de chat online complexas."
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "O modelo Llama 3.1 Sonar Large Online possui 70B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, adequado para tarefas de chat de alta capacidade e diversidade."
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "O modelo Llama 3.1 Sonar Small Online possui 8B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, projetado para chats online, capaz de processar eficientemente diversas interações textuais."
1132
- },
1133
1124
  "llama-3.2-11b-vision-instruct": {
1134
1125
  "description": "Capacidade excepcional de raciocínio visual em imagens de alta resolução, adequada para aplicações de compreensão visual."
1135
1126
  },
@@ -1643,6 +1634,9 @@
1643
1634
  "qwq-32b-preview": {
1644
1635
  "description": "O modelo QwQ é um modelo de pesquisa experimental desenvolvido pela equipe Qwen, focado em aprimorar a capacidade de raciocínio da IA."
1645
1636
  },
1637
+ "r1-1776": {
1638
+ "description": "R1-1776 é uma versão do modelo DeepSeek R1, treinada posteriormente para fornecer informações factuais não filtradas e imparciais."
1639
+ },
1646
1640
  "solar-mini": {
1647
1641
  "description": "Solar Mini é um LLM compacto, com desempenho superior ao GPT-3.5, possuindo forte capacidade multilíngue, suportando inglês e coreano, oferecendo uma solução eficiente e compacta."
1648
1642
  },
@@ -1655,6 +1649,9 @@
1655
1649
  "sonar": {
1656
1650
  "description": "Produto de busca leve baseado em contexto de busca, mais rápido e mais barato que o Sonar Pro."
1657
1651
  },
1652
+ "sonar-deep-research": {
1653
+ "description": "A Pesquisa Profunda realiza uma pesquisa abrangente de nível especialista e a sintetiza em relatórios acessíveis e acionáveis."
1654
+ },
1658
1655
  "sonar-pro": {
1659
1656
  "description": "Produto de busca avançada que suporta contexto de busca, consultas avançadas e acompanhamento."
1660
1657
  },
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M символов",
90
90
  "inputMinutes": "${{amount}}/минуту",
91
91
  "inputTokens": "Входные {{amount}}/кредиты · ${{amount}}/M",
92
- "outputTokens": "Выходные {{amount}}/кредиты · ${{amount}}/M"
92
+ "outputTokens": "Выходные {{amount}}/кредиты · ${{amount}}/M",
93
+ "writeCacheInputTokens": "Кэширование ввода записи {{amount}}/баллов · ${{amount}}/М"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "Средняя цена",
96
98
  "input": "Вход",
97
99
  "inputAudio": "Аудиовход",
98
100
  "inputCached": "Кэшированный вход",
101
+ "inputCitation": "Цитирование ввода",
99
102
  "inputText": "Текстовый вход",
100
103
  "inputTitle": "Детали входа",
101
104
  "inputUncached": "Некэшированный вход",
105
+ "inputWriteCached": "Запись кэшированного ввода",
102
106
  "output": "Выход",
103
107
  "outputAudio": "Аудиовыход",
104
108
  "outputText": "Текстовый выход",
@@ -1121,15 +1121,6 @@
1121
1121
  "llama-3.1-8b-instant": {
1122
1122
  "description": "Llama 3.1 8B — это высокоэффективная модель, обеспечивающая быструю генерацию текста, идеально подходящая для приложений, требующих масштабной эффективности и экономичности."
1123
1123
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "Модель Llama 3.1 Sonar Huge Online, обладающая 405B параметрами, поддерживает контекст длиной около 127,000 токенов, предназначена для сложных онлайн-чат-приложений."
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "Модель Llama 3.1 Sonar Large Online, обладающая 70B параметрами, поддерживает контекст длиной около 127,000 токенов, подходит для задач с высокой нагрузкой и разнообразными чатами."
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "Модель Llama 3.1 Sonar Small Online, обладающая 8B параметрами, поддерживает контекст длиной около 127,000 токенов, специально разработана для онлайн-чатов и эффективно обрабатывает различные текстовые взаимодействия."
1132
- },
1133
1124
  "llama-3.2-11b-vision-instruct": {
1134
1125
  "description": "Отличные способности к визуальному пониманию изображений на высоком разрешении, предназначенные для приложений визуального понимания."
1135
1126
  },
@@ -1643,6 +1634,9 @@
1643
1634
  "qwq-32b-preview": {
1644
1635
  "description": "Модель QwQ — это экспериментальная исследовательская модель, разработанная командой Qwen, сосредоточенная на улучшении возможностей вывода ИИ."
1645
1636
  },
1637
+ "r1-1776": {
1638
+ "description": "R1-1776 — это версия модели DeepSeek R1, прошедшая дообучение, которая предоставляет непроверенную, беспристрастную фактическую информацию."
1639
+ },
1646
1640
  "solar-mini": {
1647
1641
  "description": "Solar Mini — это компактная LLM, которая превосходит GPT-3.5, обладает мощными многоязычными возможностями, поддерживает английский и корейский языки, предлагая эффективное и компактное решение."
1648
1642
  },
@@ -1655,6 +1649,9 @@
1655
1649
  "sonar": {
1656
1650
  "description": "Легковесный продукт поиска на основе контекста, быстрее и дешевле, чем Sonar Pro."
1657
1651
  },
1652
+ "sonar-deep-research": {
1653
+ "description": "Глубокое исследование проводит всесторонние экспертные исследования и сводит их в доступные и практичные отчеты."
1654
+ },
1658
1655
  "sonar-pro": {
1659
1656
  "description": "Расширенный продукт поиска, поддерживающий контекст поиска, сложные запросы и последующие действия."
1660
1657
  },
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M karakter",
90
90
  "inputMinutes": "${{amount}}/dakika",
91
91
  "inputTokens": "Giriş {{amount}}/kredi · ${{amount}}/M",
92
- "outputTokens": "Çıkış {{amount}}/kredi · ${{amount}}/M"
92
+ "outputTokens": "Çıkış {{amount}}/kredi · ${{amount}}/M",
93
+ "writeCacheInputTokens": "Giriş yazma önbelleği {{amount}}/puan · ${{amount}}/M"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "Ortalama birim fiyat",
96
98
  "input": "Giriş",
97
99
  "inputAudio": "Ses girişi",
98
100
  "inputCached": "Önceden yüklenmiş giriş",
101
+ "inputCitation": "Giriş alıntısı",
99
102
  "inputText": "Metin girişi",
100
103
  "inputTitle": "Giriş detayları",
101
104
  "inputUncached": "Önceden yüklenmemiş giriş",
105
+ "inputWriteCached": "Giriş önbelleği yazma",
102
106
  "output": "Çıkış",
103
107
  "outputAudio": "Ses çıkışı",
104
108
  "outputText": "Metin çıkışı",
@@ -1121,15 +1121,6 @@
1121
1121
  "llama-3.1-8b-instant": {
1122
1122
  "description": "Llama 3.1 8B, hızlı metin üretim yeteneği sunan yüksek performanslı bir modeldir ve büyük ölçekli verimlilik ve maliyet etkinliği gerektiren uygulama senaryoları için son derece uygundur."
1123
1123
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "Llama 3.1 Sonar Huge Online modeli, 405B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, karmaşık çevrimiçi sohbet uygulamaları için tasarlanmıştır."
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "Llama 3.1 Sonar Large Online modeli, 70B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, yüksek kapasiteli ve çeşitli sohbet görevleri için uygundur."
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "Llama 3.1 Sonar Small Online modeli, 8B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, çevrimiçi sohbet için tasarlanmıştır ve çeşitli metin etkileşimlerini etkili bir şekilde işler."
1132
- },
1133
1124
  "llama-3.2-11b-vision-instruct": {
1134
1125
  "description": "Yüksek çözünürlüklü görüntülerde mükemmel görüntü akıl yürütme yeteneği, görsel anlama uygulamaları için uygundur."
1135
1126
  },
@@ -1643,6 +1634,9 @@
1643
1634
  "qwq-32b-preview": {
1644
1635
  "description": "QwQ modeli, Qwen ekibi tarafından geliştirilen deneysel bir araştırma modelidir ve AI akıl yürütme yeteneklerini artırmaya odaklanmaktadır."
1645
1636
  },
1637
+ "r1-1776": {
1638
+ "description": "R1-1776, DeepSeek R1 modelinin bir versiyonudur ve son eğitimle, sansürsüz, tarafsız gerçek bilgileri sunar."
1639
+ },
1646
1640
  "solar-mini": {
1647
1641
  "description": "Solar Mini, GPT-3.5'ten daha iyi performansa sahip kompakt bir LLM'dir, güçlü çok dilli yeteneklere sahiptir, İngilizce ve Korece'yi destekler ve etkili, kompakt çözümler sunar."
1648
1642
  },
@@ -1655,6 +1649,9 @@
1655
1649
  "sonar": {
1656
1650
  "description": "Arama bağlamına dayalı hafif bir arama ürünüdür, Sonar Pro'dan daha hızlı ve daha ucuzdur."
1657
1651
  },
1652
+ "sonar-deep-research": {
1653
+ "description": "Deep Research, kapsamlı uzman düzeyinde araştırmalar yapar ve bunları erişilebilir, uygulanabilir raporlar haline getirir."
1654
+ },
1658
1655
  "sonar-pro": {
1659
1656
  "description": "Gelişmiş sorgular ve takip desteği sunan, arama bağlamını destekleyen bir üst düzey arama ürünüdür."
1660
1657
  },
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M ký tự",
90
90
  "inputMinutes": "${{amount}}/phút",
91
91
  "inputTokens": "Nhập {{amount}}/điểm · ${{amount}}/M",
92
- "outputTokens": "Xuất {{amount}}/điểm · ${{amount}}/M"
92
+ "outputTokens": "Xuất {{amount}}/điểm · ${{amount}}/M",
93
+ "writeCacheInputTokens": "Ghi vào bộ nhớ đệm đầu vào {{amount}}/điểm · ${{amount}}/M"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "Giá trung bình",
96
98
  "input": "Nhập",
97
99
  "inputAudio": "Âm thanh nhập",
98
100
  "inputCached": "Nhập cached",
101
+ "inputCitation": "Trích dẫn đầu vào",
99
102
  "inputText": "Văn bản nhập",
100
103
  "inputTitle": "Chi tiết nhập",
101
104
  "inputUncached": "Nhập chưa cached",
105
+ "inputWriteCached": "Ghi vào bộ nhớ đệm đầu vào",
102
106
  "output": "Xuất",
103
107
  "outputAudio": "Âm thanh xuất",
104
108
  "outputText": "Văn bản xuất",
@@ -1121,15 +1121,6 @@
1121
1121
  "llama-3.1-8b-instant": {
1122
1122
  "description": "Llama 3.1 8B là một mô hình hiệu suất cao, cung cấp khả năng sinh văn bản nhanh chóng, rất phù hợp cho các tình huống ứng dụng cần hiệu quả quy mô lớn và tiết kiệm chi phí."
1123
1123
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "Mô hình Llama 3.1 Sonar Huge Online, có 405B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, được thiết kế cho các ứng dụng trò chuyện trực tuyến phức tạp."
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "Mô hình Llama 3.1 Sonar Large Online, có 70B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, phù hợp cho các nhiệm vụ trò chuyện có dung lượng lớn và đa dạng."
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "Mô hình Llama 3.1 Sonar Small Online, có 8B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, được thiết kế cho trò chuyện trực tuyến, có khả năng xử lý hiệu quả các tương tác văn bản khác nhau."
1132
- },
1133
1124
  "llama-3.2-11b-vision-instruct": {
1134
1125
  "description": "Khả năng suy luận hình ảnh xuất sắc trên hình ảnh độ phân giải cao, phù hợp cho các ứng dụng hiểu biết hình ảnh."
1135
1126
  },
@@ -1643,6 +1634,9 @@
1643
1634
  "qwq-32b-preview": {
1644
1635
  "description": "Mô hình QwQ là một mô hình nghiên cứu thử nghiệm được phát triển bởi đội ngũ Qwen, tập trung vào việc nâng cao khả năng suy luận của AI."
1645
1636
  },
1637
+ "r1-1776": {
1638
+ "description": "R1-1776 là một phiên bản của mô hình DeepSeek R1, đã được huấn luyện lại, cung cấp thông tin sự thật chưa được kiểm duyệt và không thiên lệch."
1639
+ },
1646
1640
  "solar-mini": {
1647
1641
  "description": "Solar Mini là một LLM dạng nhỏ gọn, hiệu suất vượt trội hơn GPT-3.5, có khả năng đa ngôn ngữ mạnh mẽ, hỗ trợ tiếng Anh và tiếng Hàn, cung cấp giải pháp hiệu quả và nhỏ gọn."
1648
1642
  },
@@ -1655,6 +1649,9 @@
1655
1649
  "sonar": {
1656
1650
  "description": "Sản phẩm tìm kiếm nhẹ dựa trên ngữ cảnh tìm kiếm, nhanh hơn và rẻ hơn so với Sonar Pro."
1657
1651
  },
1652
+ "sonar-deep-research": {
1653
+ "description": "Nghiên cứu sâu tiến hành nghiên cứu chuyên gia toàn diện và tổng hợp thành các báo cáo có thể truy cập và có thể hành động."
1654
+ },
1658
1655
  "sonar-pro": {
1659
1656
  "description": "Sản phẩm tìm kiếm nâng cao hỗ trợ ngữ cảnh tìm kiếm, cho phép truy vấn và theo dõi nâng cao."
1660
1657
  },
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M 字符",
90
90
  "inputMinutes": "${{amount}}/分钟",
91
91
  "inputTokens": "输入 {{amount}}/积分 · ${{amount}}/M",
92
- "outputTokens": "输出 {{amount}}/积分 · ${{amount}}/M"
92
+ "outputTokens": "输出 {{amount}}/积分 · ${{amount}}/M",
93
+ "writeCacheInputTokens": "缓存输入写入 {{amount}}/积分 · ${{amount}}/M"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "平均单价",
96
98
  "input": "输入",
97
99
  "inputAudio": "音频输入",
98
100
  "inputCached": "输入缓存",
101
+ "inputCitation": "引用输入",
99
102
  "inputText": "文本输入",
100
103
  "inputTitle": "输入明细",
101
104
  "inputUncached": "输入未缓存",
105
+ "inputWriteCached": "输入缓存写入",
102
106
  "output": "输出",
103
107
  "outputAudio": "音频输出",
104
108
  "outputText": "文本输出",
@@ -1121,15 +1121,6 @@
1121
1121
  "llama-3.1-8b-instant": {
1122
1122
  "description": "Llama 3.1 8B 是一款高效能模型,提供了快速的文本生成能力,非常适合需要大规模效率和成本效益的应用场景。"
1123
1123
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "Llama 3.1 Sonar Huge Online 模型,具备405B参数,支持约127,000个标记的上下文长度,设计用于复杂的在线聊天应用。"
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "Llama 3.1 Sonar Large Online 模型,具备70B参数,支持约127,000个标记的上下文长度,适用于高容量和多样化聊天任务。"
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "Llama 3.1 Sonar Small Online 模型,具备8B参数,支持约127,000个标记的上下文长度,专为在线聊天设计,能高效处理各种文本交互。"
1132
- },
1133
1124
  "llama-3.2-11b-vision-instruct": {
1134
1125
  "description": "在高分辨率图像上表现出色的图像推理能力,适用于视觉理解应用。"
1135
1126
  },
@@ -1643,6 +1634,9 @@
1643
1634
  "qwq-32b-preview": {
1644
1635
  "description": "QwQ模型是由 Qwen 团队开发的实验性研究模型,专注于增强 AI 推理能力。"
1645
1636
  },
1637
+ "r1-1776": {
1638
+ "description": "R1-1776 是 DeepSeek R1 模型的一个版本,经过后训练,可提供未经审查、无偏见的事实信息。"
1639
+ },
1646
1640
  "solar-mini": {
1647
1641
  "description": "Solar Mini 是一种紧凑型 LLM,性能优于 GPT-3.5,具备强大的多语言能力,支持英语和韩语,提供高效小巧的解决方案。"
1648
1642
  },
@@ -1655,6 +1649,9 @@
1655
1649
  "sonar": {
1656
1650
  "description": "基于搜索上下文的轻量级搜索产品,比 Sonar Pro 更快、更便宜。"
1657
1651
  },
1652
+ "sonar-deep-research": {
1653
+ "description": "Deep Research 进行全面的专家级研究,并将其综合成可访问、可作的报告。"
1654
+ },
1658
1655
  "sonar-pro": {
1659
1656
  "description": "支持搜索上下文的高级搜索产品,支持高级查询和跟进。"
1660
1657
  },
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M 字元",
90
90
  "inputMinutes": "${{amount}}/分鐘",
91
91
  "inputTokens": "輸入 {{amount}}/積分 · ${{amount}}/M",
92
- "outputTokens": "輸出 {{amount}}/積分 · ${{amount}}/M"
92
+ "outputTokens": "輸出 {{amount}}/積分 · ${{amount}}/M",
93
+ "writeCacheInputTokens": "快取輸入寫入 {{amount}}/積分 · ${{amount}}/M"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "平均單價",
96
98
  "input": "輸入",
97
99
  "inputAudio": "音頻輸入",
98
100
  "inputCached": "輸入快取",
101
+ "inputCitation": "引用輸入",
99
102
  "inputText": "文本輸入",
100
103
  "inputTitle": "輸入明細",
101
104
  "inputUncached": "輸入未快取",
105
+ "inputWriteCached": "輸入快取寫入",
102
106
  "output": "輸出",
103
107
  "outputAudio": "音頻輸出",
104
108
  "outputText": "文本輸出",