@lobehub/chat 1.24.2 → 1.25.1

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (51) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/locales/ar/chat.json +2 -1
  3. package/locales/ar/models.json +12 -9
  4. package/locales/bg-BG/chat.json +2 -1
  5. package/locales/bg-BG/models.json +12 -9
  6. package/locales/de-DE/chat.json +2 -1
  7. package/locales/de-DE/models.json +12 -9
  8. package/locales/en-US/chat.json +2 -1
  9. package/locales/en-US/models.json +12 -9
  10. package/locales/es-ES/chat.json +2 -1
  11. package/locales/es-ES/models.json +12 -9
  12. package/locales/fr-FR/chat.json +2 -1
  13. package/locales/fr-FR/models.json +12 -9
  14. package/locales/it-IT/chat.json +2 -1
  15. package/locales/it-IT/models.json +12 -9
  16. package/locales/ja-JP/chat.json +2 -1
  17. package/locales/ja-JP/models.json +12 -9
  18. package/locales/ko-KR/chat.json +2 -1
  19. package/locales/ko-KR/models.json +12 -9
  20. package/locales/nl-NL/chat.json +2 -1
  21. package/locales/nl-NL/models.json +12 -9
  22. package/locales/pl-PL/chat.json +2 -1
  23. package/locales/pl-PL/models.json +12 -9
  24. package/locales/pt-BR/chat.json +2 -1
  25. package/locales/pt-BR/models.json +12 -9
  26. package/locales/ru-RU/chat.json +2 -1
  27. package/locales/ru-RU/models.json +12 -9
  28. package/locales/tr-TR/chat.json +2 -1
  29. package/locales/tr-TR/models.json +12 -9
  30. package/locales/vi-VN/chat.json +2 -1
  31. package/locales/vi-VN/models.json +12 -9
  32. package/locales/zh-CN/chat.json +2 -1
  33. package/locales/zh-CN/models.json +12 -9
  34. package/locales/zh-TW/chat.json +2 -1
  35. package/locales/zh-TW/models.json +12 -9
  36. package/package.json +1 -1
  37. package/src/app/(main)/@nav/_layout/Desktop/index.tsx +12 -6
  38. package/src/app/(main)/chat/(workspace)/@conversation/default.tsx +2 -0
  39. package/src/app/(main)/chat/(workspace)/@conversation/features/ZenModeToast/Toast.tsx +87 -0
  40. package/src/app/(main)/chat/(workspace)/@conversation/features/ZenModeToast/index.tsx +16 -0
  41. package/src/app/(main)/chat/(workspace)/_layout/Desktop/ChatHeader/index.tsx +18 -7
  42. package/src/app/(main)/chat/(workspace)/_layout/Desktop/HotKeys.tsx +10 -6
  43. package/src/app/(main)/chat/(workspace)/_layout/Desktop/TopicPanel.tsx +4 -4
  44. package/src/app/(main)/chat/_layout/Desktop/index.tsx +1 -1
  45. package/src/const/hotkeys.ts +7 -1
  46. package/src/locales/default/chat.ts +1 -0
  47. package/src/store/global/action.test.ts +162 -0
  48. package/src/store/global/action.ts +7 -0
  49. package/src/store/global/initialState.ts +2 -0
  50. package/src/store/global/selectors.ts +6 -2
  51. package/src/store/user/slices/modelList/action.ts +4 -17
@@ -68,9 +68,6 @@
68
68
  "Gryphe/MythoMax-L2-13b": {
69
69
  "description": "MythoMax-L2 (13B) è un modello innovativo, adatto per applicazioni in più settori e compiti complessi."
70
70
  },
71
- "Max-32k": {
72
- "description": "Spark Max 32K è dotato di una grande capacità di elaborazione del contesto, con una comprensione e un ragionamento logico più potenti, supporta l'input di testo fino a 32K token, adatto per la lettura di documenti lunghi, domande e risposte su conoscenze private e altri scenari."
73
- },
74
71
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
75
72
  "description": "Hermes 2 Mixtral 8x7B DPO è un modello altamente flessibile, progettato per offrire un'esperienza creativa eccezionale."
76
73
  },
@@ -110,9 +107,6 @@
110
107
  "Phi-3.5-vision-instrust": {
111
108
  "description": "Versione aggiornata del modello Phi-3-vision."
112
109
  },
113
- "Pro-128k": {
114
- "description": "Spark Pro-128K è dotato di capacità di elaborazione del contesto eccezionalmente grandi, in grado di gestire fino a 128K di informazioni contestuali, particolarmente adatto per contenuti lunghi che richiedono analisi complete e gestione di associazioni logiche a lungo termine, fornendo logica fluida e coerenza in comunicazioni testuali complesse e supporto per citazioni varie."
115
- },
116
110
  "Pro/OpenGVLab/InternVL2-8B": {
117
111
  "description": "InternVL2 ha dimostrato prestazioni eccezionali in una varietà di compiti visivi linguistici, tra cui comprensione di documenti e grafici, comprensione di testo in scena, OCR, risoluzione di problemi scientifici e matematici."
118
112
  },
@@ -278,6 +272,9 @@
278
272
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
279
273
  "description": "Claude 3.5 Sonnet ha elevato gli standard del settore, superando i modelli concorrenti e Claude 3 Opus, dimostrando prestazioni eccezionali in una vasta gamma di valutazioni, mantenendo la velocità e i costi dei nostri modelli di livello medio."
280
274
  },
275
+ "anthropic.claude-3-5-sonnet-20241022-v2:0": {
276
+ "description": "Claude 3.5 Sonnet ha elevato gli standard del settore, superando le prestazioni dei modelli concorrenti e di Claude 3 Opus, dimostrando eccellenza in una vasta gamma di valutazioni, mantenendo al contempo la velocità e i costi dei nostri modelli di livello medio."
277
+ },
281
278
  "anthropic.claude-3-haiku-20240307-v1:0": {
282
279
  "description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, offrendo una velocità di risposta quasi istantanea. Può rispondere rapidamente a query e richieste semplici. I clienti saranno in grado di costruire un'esperienza AI senza soluzione di continuità che imita l'interazione umana. Claude 3 Haiku può gestire immagini e restituire output testuali, con una finestra di contesto di 200K."
283
280
  },
@@ -467,9 +464,6 @@
467
464
  "gemma2:2b": {
468
465
  "description": "Gemma 2 è un modello efficiente lanciato da Google, coprendo una vasta gamma di scenari applicativi, da applicazioni di piccole dimensioni a elaborazioni di dati complesse."
469
466
  },
470
- "general": {
471
- "description": "Spark Lite è un modello linguistico di grandi dimensioni leggero, con latenza estremamente bassa e capacità di elaborazione efficiente, completamente gratuito e aperto, supportando funzionalità di ricerca online in tempo reale. La sua caratteristica di risposta rapida lo rende eccellente per applicazioni di inferenza su dispositivi a bassa potenza e per il fine-tuning del modello, offrendo un ottimo rapporto costo-efficacia e un'esperienza intelligente, in particolare in scenari di domande e risposte, generazione di contenuti e ricerca."
472
- },
473
467
  "generalv3": {
474
468
  "description": "Spark Pro è un modello linguistico di grandi dimensioni ad alte prestazioni, ottimizzato per settori professionali, focalizzandosi su matematica, programmazione, medicina, educazione e altro, supportando la ricerca online e plugin integrati per meteo, data e altro. Il modello ottimizzato mostra prestazioni eccellenti e alta efficienza in domande e risposte complesse, comprensione del linguaggio e creazione di testi di alto livello, rendendolo una scelta ideale per scenari di applicazione professionale."
475
469
  },
@@ -625,6 +619,9 @@
625
619
  },
626
620
  "jamba-1.5-large": {},
627
621
  "jamba-1.5-mini": {},
622
+ "lite": {
623
+ "description": "Spark Lite è un modello di linguaggio di grandi dimensioni leggero, con latenza estremamente bassa e capacità di elaborazione efficiente, completamente gratuito e aperto, supporta funzionalità di ricerca online in tempo reale. La sua caratteristica di risposta rapida lo rende eccellente per applicazioni di inferenza su dispositivi a bassa potenza e per il fine-tuning dei modelli, offrendo agli utenti un'ottima efficienza dei costi e un'esperienza intelligente, soprattutto nei contesti di domande e risposte, generazione di contenuti e ricerca."
624
+ },
628
625
  "llama-3.1-70b-instruct": {
629
626
  "description": "Il modello Llama 3.1 70B Instruct, con 70B parametri, offre prestazioni eccezionali in generazione di testi di grandi dimensioni e compiti di istruzione."
630
627
  },
@@ -700,6 +697,9 @@
700
697
  "mathstral": {
701
698
  "description": "MathΣtral è progettato per la ricerca scientifica e il ragionamento matematico, offre capacità di calcolo efficaci e interpretazione dei risultati."
702
699
  },
700
+ "max-32k": {
701
+ "description": "Spark Max 32K è dotato di una grande capacità di elaborazione del contesto, con una comprensione del contesto e capacità di ragionamento logico superiori, supporta input testuali fino a 32K token, adatto per la lettura di documenti lunghi, domande e risposte su conoscenze private e altri scenari."
702
+ },
703
703
  "meta-llama-3-70b-instruct": {
704
704
  "description": "Un potente modello con 70 miliardi di parametri che eccelle nel ragionamento, nella codifica e nelle ampie applicazioni linguistiche."
705
705
  },
@@ -940,6 +940,9 @@
940
940
  "pixtral-12b-2409": {
941
941
  "description": "Il modello Pixtral dimostra potenti capacità in compiti di comprensione di grafici e immagini, domande e risposte su documenti, ragionamento multimodale e rispetto delle istruzioni, in grado di elaborare immagini a risoluzione naturale e proporzioni, e di gestire un numero arbitrario di immagini in una finestra di contesto lunga fino a 128K token."
942
942
  },
943
+ "pro-128k": {
944
+ "description": "Spark Pro 128K è dotato di una capacità di elaborazione del contesto eccezionale, in grado di gestire fino a 128K di informazioni contestuali, particolarmente adatto per l'analisi completa e la gestione di associazioni logiche a lungo termine in contenuti lunghi, fornendo una logica fluida e coerente e un supporto variegato per le citazioni in comunicazioni testuali complesse."
945
+ },
943
946
  "qwen-coder-turbo-latest": {
944
947
  "description": "Modello di codice Tongyi Qwen."
945
948
  },
@@ -184,5 +184,6 @@
184
184
  "processing": "ファイル処理中..."
185
185
  }
186
186
  }
187
- }
187
+ },
188
+ "zenMode": "集中モード"
188
189
  }
@@ -68,9 +68,6 @@
68
68
  "Gryphe/MythoMax-L2-13b": {
69
69
  "description": "MythoMax-L2 (13B)は、革新的なモデルであり、多分野のアプリケーションや複雑なタスクに適しています。"
70
70
  },
71
- "Max-32k": {
72
- "description": "Spark Max 32Kは、大規模なコンテキスト処理能力を備え、より強力なコンテキスト理解と論理推論能力を持ち、32Kトークンのテキスト入力をサポートします。長文書の読解やプライベートな知識に基づく質問応答などのシーンに適しています。"
73
- },
74
71
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
75
72
  "description": "Hermes 2 Mixtral 8x7B DPOは非常に柔軟なマルチモデル統合で、卓越した創造的体験を提供することを目的としています。"
76
73
  },
@@ -110,9 +107,6 @@
110
107
  "Phi-3.5-vision-instrust": {
111
108
  "description": "Phi-3-visionモデルの更新版です。"
112
109
  },
113
- "Pro-128k": {
114
- "description": "Spark Pro-128Kは特大のコンテキスト処理能力を備え、最大128Kのコンテキスト情報を処理でき、特に全体分析や長期的な論理関連処理が必要な長文コンテンツに適しており、複雑なテキストコミュニケーションにおいて流暢で一貫した論理と多様な引用サポートを提供します。"
115
- },
116
110
  "Pro/OpenGVLab/InternVL2-8B": {
117
111
  "description": "InternVL2はさまざまな視覚と言語タスクで卓越した性能を発揮しており、文書や図表の理解、シーンテキストの理解、OCR、科学および数学の問題解決などを含みます。"
118
112
  },
@@ -278,6 +272,9 @@
278
272
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
279
273
  "description": "Claude 3.5 Sonnetは業界標準を向上させ、競合モデルやClaude 3 Opusを超える性能を持ち、広範な評価で優れたパフォーマンスを示し、私たちの中程度のモデルの速度とコストを兼ね備えています。"
280
274
  },
275
+ "anthropic.claude-3-5-sonnet-20241022-v2:0": {
276
+ "description": "Claude 3.5 Sonnetは業界標準を引き上げ、競合モデルやClaude 3 Opusを上回る性能を発揮し、広範な評価で優れた結果を示しています。また、中程度のレベルのモデルと同等の速度とコストを持っています。"
277
+ },
281
278
  "anthropic.claude-3-haiku-20240307-v1:0": {
282
279
  "description": "Claude 3 HaikuはAnthropicの最も速く、最もコンパクトなモデルで、ほぼ瞬時の応答速度を提供します。簡単なクエリやリクエストに迅速に回答できます。顧客は人間のインタラクションを模倣するシームレスなAI体験を構築できるようになります。Claude 3 Haikuは画像を処理し、テキスト出力を返すことができ、200Kのコンテキストウィンドウを持っています。"
283
280
  },
@@ -467,9 +464,6 @@
467
464
  "gemma2:2b": {
468
465
  "description": "Gemma 2は、Googleが提供する高効率モデルであり、小型アプリケーションから複雑なデータ処理まで、さまざまなアプリケーションシーンをカバーしています。"
469
466
  },
470
- "general": {
471
- "description": "Spark Liteは軽量な大言語モデルで、極めて低い遅延と高効率な処理能力を備え、完全に無料でオープンに提供され、リアルタイムのオンライン検索機能をサポートします。その迅速な応答特性により、低算力デバイスでの推論アプリケーションやモデル微調整において優れたパフォーマンスを発揮し、ユーザーに優れたコスト効果とインテリジェントな体験を提供し、特に知識問答、コンテンツ生成、検索シーンでのパフォーマンスが優れています。"
472
- },
473
467
  "generalv3": {
474
468
  "description": "Spark Proは専門分野に最適化された高性能な大言語モデルで、数学、プログラミング、医療、教育などの複数の分野に特化し、ネットワーク検索や内蔵の天気、日付などのプラグインをサポートします。最適化されたモデルは、複雑な知識問答、言語理解、高度なテキスト創作において優れたパフォーマンスと高効率を示し、専門的なアプリケーションシーンに最適な選択肢です。"
475
469
  },
@@ -625,6 +619,9 @@
625
619
  },
626
620
  "jamba-1.5-large": {},
627
621
  "jamba-1.5-mini": {},
622
+ "lite": {
623
+ "description": "Spark Liteは軽量な大規模言語モデルで、非常に低い遅延と高い処理能力を備えています。完全に無料でオープンであり、リアルタイムのオンライン検索機能をサポートしています。その迅速な応答特性により、低算力デバイスでの推論アプリケーションやモデルの微調整において優れたパフォーマンスを発揮し、特に知識問答、コンテンツ生成、検索シーンにおいて優れたコストパフォーマンスとインテリジェントな体験を提供します。"
624
+ },
628
625
  "llama-3.1-70b-instruct": {
629
626
  "description": "Llama 3.1 70B Instructモデルは、70Bパラメータを持ち、大規模なテキスト生成と指示タスクで卓越した性能を提供します。"
630
627
  },
@@ -700,6 +697,9 @@
700
697
  "mathstral": {
701
698
  "description": "MathΣtralは、科学研究と数学推論のために設計されており、効果的な計算能力と結果の解釈を提供します。"
702
699
  },
700
+ "max-32k": {
701
+ "description": "Spark Max 32Kは大規模なコンテキスト処理能力を備え、より強力なコンテキスト理解と論理推論能力を持ち、32Kトークンのテキスト入力をサポートします。長文書の読解やプライベートな知識問答などのシーンに適しています。"
702
+ },
703
703
  "meta-llama-3-70b-instruct": {
704
704
  "description": "推論、コーディング、広範な言語アプリケーションに優れた70億パラメータの強力なモデルです。"
705
705
  },
@@ -940,6 +940,9 @@
940
940
  "pixtral-12b-2409": {
941
941
  "description": "Pixtralモデルは、グラフと画像理解、文書質問応答、多モーダル推論、指示遵守などのタスクで強力な能力を発揮し、自然な解像度とアスペクト比で画像を取り込み、最大128Kトークンの長いコンテキストウィンドウで任意の数の画像を処理できます。"
942
942
  },
943
+ "pro-128k": {
944
+ "description": "Spark Pro 128Kは特大のコンテキスト処理能力を備え、最大128Kのコンテキスト情報を処理できます。特に、全体を通じての分析や長期的な論理的関連性の処理が必要な長文コンテンツに適しており、複雑なテキストコミュニケーションにおいて滑らかで一貫した論理と多様な引用サポートを提供します。"
945
+ },
943
946
  "qwen-coder-turbo-latest": {
944
947
  "description": "通義千問のコードモデルです。"
945
948
  },
@@ -184,5 +184,6 @@
184
184
  "processing": "파일 처리 중..."
185
185
  }
186
186
  }
187
- }
187
+ },
188
+ "zenMode": "집중 모드"
188
189
  }
@@ -68,9 +68,6 @@
68
68
  "Gryphe/MythoMax-L2-13b": {
69
69
  "description": "MythoMax-L2 (13B)는 혁신적인 모델로, 다양한 분야의 응용과 복잡한 작업에 적합합니다."
70
70
  },
71
- "Max-32k": {
72
- "description": "Spark Max 32K는 대규모 컨텍스트 처리 능력을 갖추고 있으며, 더 강력한 컨텍스트 이해 및 논리 추론 능력을 제공합니다. 32K 토큰의 텍스트 입력을 지원하며, 긴 문서 읽기, 개인 지식 질문 응답 등 다양한 상황에 적합합니다."
73
- },
74
71
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
75
72
  "description": "Hermes 2 Mixtral 8x7B DPO는 뛰어난 창의적 경험을 제공하기 위해 설계된 고도로 유연한 다중 모델 통합입니다."
76
73
  },
@@ -110,9 +107,6 @@
110
107
  "Phi-3.5-vision-instrust": {
111
108
  "description": "Phi-3-vision 모델의 업데이트된 버전입니다."
112
109
  },
113
- "Pro-128k": {
114
- "description": "Spark Pro-128K는 초대형 컨텍스트 처리 능력을 갖추고 있으며, 최대 128K의 컨텍스트 정보를 처리할 수 있어, 특히 전체 분석 및 장기 논리 연관 처리가 필요한 긴 문서 콘텐츠에 적합합니다. 복잡한 텍스트 커뮤니케이션에서 매끄럽고 일관된 논리와 다양한 인용 지원을 제공합니다."
115
- },
116
110
  "Pro/OpenGVLab/InternVL2-8B": {
117
111
  "description": "InternVL2는 문서 및 차트 이해, 장면 텍스트 이해, OCR, 과학 및 수학 문제 해결을 포함한 다양한 시각 언어 작업에서 뛰어난 성능을 보여줍니다."
118
112
  },
@@ -278,6 +272,9 @@
278
272
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
279
273
  "description": "Claude 3.5 Sonnet는 업계 표준을 향상시켜 경쟁 모델 및 Claude 3 Opus를 초월하며, 광범위한 평가에서 뛰어난 성능을 보이고, 중간 수준 모델의 속도와 비용을 갖추고 있습니다."
280
274
  },
275
+ "anthropic.claude-3-5-sonnet-20241022-v2:0": {
276
+ "description": "Claude 3.5 Sonnet는 업계 표준을 향상시켰으며, 경쟁 모델과 Claude 3 Opus를 초월하는 성능을 보여주고, 광범위한 평가에서 뛰어난 성과를 보였습니다. 또한 중간 수준 모델의 속도와 비용을 갖추고 있습니다."
277
+ },
281
278
  "anthropic.claude-3-haiku-20240307-v1:0": {
282
279
  "description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 간결한 모델로, 거의 즉각적인 응답 속도를 제공합니다. 간단한 질문과 요청에 신속하게 답변할 수 있습니다. 고객은 인간 상호작용을 모방하는 원활한 AI 경험을 구축할 수 있습니다. Claude 3 Haiku는 이미지를 처리하고 텍스트 출력을 반환할 수 있으며, 200K의 컨텍스트 창을 갖추고 있습니다."
283
280
  },
@@ -467,9 +464,6 @@
467
464
  "gemma2:2b": {
468
465
  "description": "Gemma 2는 Google에서 출시한 효율적인 모델로, 소형 응용 프로그램부터 복잡한 데이터 처리까지 다양한 응용 시나리오를 포함합니다."
469
466
  },
470
- "general": {
471
- "description": "Spark Lite는 경량 대형 언어 모델로, 매우 낮은 지연 시간과 효율적인 처리 능력을 갖추고 있으며, 완전 무료로 개방되어 실시간 온라인 검색 기능을 지원합니다. 빠른 응답 특성 덕분에 저전력 장치에서의 추론 응용 및 모델 미세 조정에서 뛰어난 성능을 발휘하여 사용자에게 뛰어난 비용 효율성과 지능적인 경험을 제공합니다. 특히 지식 질문 응답, 콘텐츠 생성 및 검색 시나리오에서 두각을 나타냅니다."
472
- },
473
467
  "generalv3": {
474
468
  "description": "Spark Pro는 전문 분야에 최적화된 고성능 대형 언어 모델로, 수학, 프로그래밍, 의료, 교육 등 여러 분야에 중점을 두고 있으며, 네트워크 검색 및 내장된 날씨, 날짜 등의 플러그인을 지원합니다. 최적화된 모델은 복잡한 지식 질문 응답, 언어 이해 및 고급 텍스트 창작에서 뛰어난 성능과 효율성을 보여주며, 전문 응용 시나리오에 적합한 이상적인 선택입니다."
475
469
  },
@@ -625,6 +619,9 @@
625
619
  },
626
620
  "jamba-1.5-large": {},
627
621
  "jamba-1.5-mini": {},
622
+ "lite": {
623
+ "description": "Spark Lite는 경량 대형 언어 모델로, 매우 낮은 지연 시간과 효율적인 처리 능력을 갖추고 있으며, 완전히 무료로 제공되고 실시간 온라인 검색 기능을 지원합니다. 빠른 응답 특성 덕분에 저전력 장치에서의 추론 응용 및 모델 미세 조정에서 뛰어난 성능을 발휘하며, 사용자에게 뛰어난 비용 효율성과 스마트한 경험을 제공합니다. 특히 지식 질문 응답, 콘텐츠 생성 및 검색 시나리오에서 두각을 나타냅니다."
624
+ },
628
625
  "llama-3.1-70b-instruct": {
629
626
  "description": "Llama 3.1 70B Instruct 모델은 70B 매개변수를 갖추고 있으며, 대규모 텍스트 생성 및 지시 작업에서 뛰어난 성능을 제공합니다."
630
627
  },
@@ -700,6 +697,9 @@
700
697
  "mathstral": {
701
698
  "description": "MathΣtral은 과학 연구 및 수학 추론을 위해 설계되었으며, 효과적인 계산 능력과 결과 해석을 제공합니다."
702
699
  },
700
+ "max-32k": {
701
+ "description": "Spark Max 32K는 큰 컨텍스트 처리 능력을 갖추고 있으며, 더 강력한 컨텍스트 이해 및 논리 추론 능력을 지원합니다. 32K 토큰의 텍스트 입력을 지원하며, 긴 문서 읽기, 개인 지식 질문 응답 등 다양한 시나리오에 적합합니다."
702
+ },
703
703
  "meta-llama-3-70b-instruct": {
704
704
  "description": "추론, 코딩 및 광범위한 언어 응용 프로그램에서 뛰어난 성능을 발휘하는 강력한 70억 매개변수 모델입니다."
705
705
  },
@@ -940,6 +940,9 @@
940
940
  "pixtral-12b-2409": {
941
941
  "description": "Pixtral 모델은 차트 및 이미지 이해, 문서 질문 응답, 다중 모드 추론 및 지시 준수와 같은 작업에서 강력한 능력을 발휘하며, 자연 해상도와 가로 세로 비율로 이미지를 입력할 수 있고, 최대 128K 토큰의 긴 컨텍스트 창에서 임의의 수의 이미지를 처리할 수 있습니다."
942
942
  },
943
+ "pro-128k": {
944
+ "description": "Spark Pro 128K는 매우 큰 컨텍스트 처리 능력을 갖추고 있으며, 최대 128K의 컨텍스트 정보를 처리할 수 있습니다. 특히 전체 분석 및 장기 논리 연관 처리가 필요한 긴 문서 콘텐츠에 적합하며, 복잡한 텍스트 커뮤니케이션에서 매끄럽고 일관된 논리와 다양한 인용 지원을 제공합니다."
945
+ },
943
946
  "qwen-coder-turbo-latest": {
944
947
  "description": "통의 천문 코드 모델입니다."
945
948
  },
@@ -184,5 +184,6 @@
184
184
  "processing": "Bestand wordt verwerkt..."
185
185
  }
186
186
  }
187
- }
187
+ },
188
+ "zenMode": "Focusmodus"
188
189
  }
@@ -68,9 +68,6 @@
68
68
  "Gryphe/MythoMax-L2-13b": {
69
69
  "description": "MythoMax-L2 (13B) is een innovatief model, geschikt voor toepassingen in meerdere domeinen en complexe taken."
70
70
  },
71
- "Max-32k": {
72
- "description": "Spark Max 32K is uitgerust met een grote contextverwerkingscapaciteit, verbeterd begrip van context en logische redeneervaardigheden, ondersteunt tekstinvoer van 32K tokens, geschikt voor het lezen van lange documenten, privé kennisvragen en andere scenario's."
73
- },
74
71
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
75
72
  "description": "Hermes 2 Mixtral 8x7B DPO is een zeer flexibele multi-model combinatie, ontworpen om een uitstekende creatieve ervaring te bieden."
76
73
  },
@@ -110,9 +107,6 @@
110
107
  "Phi-3.5-vision-instrust": {
111
108
  "description": "Een geüpdatete versie van het Phi-3-vision model."
112
109
  },
113
- "Pro-128k": {
114
- "description": "Spark Pro-128K is uitgerust met een enorme contextverwerkingscapaciteit, in staat om tot 128K contextinformatie te verwerken, bijzonder geschikt voor lange teksten die volledige analyse en langdurige logische verbanden vereisen, en biedt vloeiende en consistente logica met diverse referenties in complexe tekstcommunicatie."
115
- },
116
110
  "Pro/OpenGVLab/InternVL2-8B": {
117
111
  "description": "InternVL2 toont uitstekende prestaties bij diverse visuele taaltaken, waaronder document- en grafiekbegrip, scène-tekstbegrip, OCR, en het oplossen van wetenschappelijke en wiskundige problemen."
118
112
  },
@@ -278,6 +272,9 @@
278
272
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
279
273
  "description": "Claude 3.5 Sonnet heeft de industrienormen verbeterd, met prestaties die de concurrentiemodellen en Claude 3 Opus overtreffen, en presteert uitstekend in brede evaluaties, met de snelheid en kosten van ons gemiddelde model."
280
274
  },
275
+ "anthropic.claude-3-5-sonnet-20241022-v2:0": {
276
+ "description": "Claude 3.5 Sonnet heeft de industrienormen verhoogd, met prestaties die de concurrentiemodellen en Claude 3 Opus overtreffen. Het presteert uitstekend in uitgebreide evaluaties, terwijl het de snelheid en kosten van onze middelgrote modellen behoudt."
277
+ },
281
278
  "anthropic.claude-3-haiku-20240307-v1:0": {
282
279
  "description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, met bijna onmiddellijke reactietijden. Het kan snel eenvoudige vragen en verzoeken beantwoorden. Klanten kunnen een naadloze AI-ervaring creëren die menselijke interactie nabootst. Claude 3 Haiku kan afbeeldingen verwerken en tekstoutput retourneren, met een contextvenster van 200K."
283
280
  },
@@ -467,9 +464,6 @@
467
464
  "gemma2:2b": {
468
465
  "description": "Gemma 2 is een efficiënt model van Google, dat een breed scala aan toepassingsscenario's dekt, van kleine toepassingen tot complexe gegevensverwerking."
469
466
  },
470
- "general": {
471
- "description": "Spark Lite is een lichtgewicht groot taalmodel met extreem lage latentie en efficiënte verwerkingscapaciteiten, volledig gratis en open, met ondersteuning voor realtime online zoekfunctionaliteit. De snelle respons maakt het uitermate geschikt voor inferentie-toepassingen en modelfijnstelling op apparaten met lage rekenkracht, en biedt gebruikers uitstekende kosteneffectiviteit en een intelligente ervaring, vooral in kennisvragen, inhoudsgeneratie en zoekscenario's."
472
- },
473
467
  "generalv3": {
474
468
  "description": "Spark Pro is een hoogwaardig groot taalmodel dat is geoptimaliseerd voor professionele domeinen, met een focus op wiskunde, programmeren, geneeskunde, onderwijs en meer, en ondersteunt online zoeken en ingebouwde plugins voor weer, datum, enz. Het geoptimaliseerde model toont uitstekende prestaties en efficiëntie in complexe kennisvragen, taalbegrip en hoogwaardig tekstcreatie, en is de ideale keuze voor professionele toepassingsscenario's."
475
469
  },
@@ -625,6 +619,9 @@
625
619
  },
626
620
  "jamba-1.5-large": {},
627
621
  "jamba-1.5-mini": {},
622
+ "lite": {
623
+ "description": "Spark Lite is een lichtgewicht groot taalmodel met extreem lage latentie en efficiënte verwerkingscapaciteit. Het is volledig gratis en open, en ondersteunt realtime online zoekfunctionaliteit. De snelle respons maakt het uitermate geschikt voor inferentie op apparaten met lage rekenkracht en modelafstemming, wat gebruikers uitstekende kosteneffectiviteit en een slimme ervaring biedt, vooral in kennisvragen, contentgeneratie en zoekscenario's."
624
+ },
628
625
  "llama-3.1-70b-instruct": {
629
626
  "description": "Llama 3.1 70B Instruct model, met 70B parameters, biedt uitstekende prestaties in grote tekstgeneratie- en instructietaken."
630
627
  },
@@ -700,6 +697,9 @@
700
697
  "mathstral": {
701
698
  "description": "MathΣtral is ontworpen voor wetenschappelijk onderzoek en wiskundige inferentie, biedt effectieve rekencapaciteiten en resultaatinterpretatie."
702
699
  },
700
+ "max-32k": {
701
+ "description": "Spark Max 32K is uitgerust met een grote contextverwerkingscapaciteit, met verbeterd begrip van context en logische redeneervaardigheden. Het ondersteunt tekstinvoer van 32K tokens en is geschikt voor het lezen van lange documenten, privé kennisvragen en andere scenario's."
702
+ },
703
703
  "meta-llama-3-70b-instruct": {
704
704
  "description": "Een krachtig model met 70 miljard parameters dat uitblinkt in redeneren, coderen en brede taaltoepassingen."
705
705
  },
@@ -940,6 +940,9 @@
940
940
  "pixtral-12b-2409": {
941
941
  "description": "Het Pixtral model toont sterke capaciteiten in taken zoals grafiek- en beeldbegrip, documentvraag-en-antwoord, multimodale redenering en instructievolging, en kan afbeeldingen met natuurlijke resolutie en beeldverhouding verwerken, evenals een onbeperkt aantal afbeeldingen in een lange contextvenster van maximaal 128K tokens."
942
942
  },
943
+ "pro-128k": {
944
+ "description": "Spark Pro 128K is uitgerust met een zeer grote contextverwerkingscapaciteit, in staat om tot 128K contextinformatie te verwerken. Het is bijzonder geschikt voor lange teksten die een volledige analyse en langdurige logische verbanden vereisen, en biedt een vloeiende en consistente logica met diverse ondersteuningen voor citaten in complexe tekstcommunicatie."
945
+ },
943
946
  "qwen-coder-turbo-latest": {
944
947
  "description": "Het Tongyi Qianwen codeermodel."
945
948
  },
@@ -184,5 +184,6 @@
184
184
  "processing": "Przetwarzanie pliku..."
185
185
  }
186
186
  }
187
- }
187
+ },
188
+ "zenMode": "Tryb skupienia"
188
189
  }
@@ -68,9 +68,6 @@
68
68
  "Gryphe/MythoMax-L2-13b": {
69
69
  "description": "MythoMax-L2 (13B) to innowacyjny model, idealny do zastosowań w wielu dziedzinach i złożonych zadań."
70
70
  },
71
- "Max-32k": {
72
- "description": "Spark Max 32K ma dużą zdolność przetwarzania kontekstu, lepsze zrozumienie kontekstu i zdolności logicznego rozumowania, obsługując teksty o długości 32K tokenów, odpowiednie do czytania długich dokumentów, prywatnych pytań o wiedzę i innych scenariuszy."
73
- },
74
71
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
75
72
  "description": "Hermes 2 Mixtral 8x7B DPO to wysoce elastyczna fuzja wielu modeli, mająca na celu zapewnienie doskonałego doświadczenia twórczego."
76
73
  },
@@ -110,9 +107,6 @@
110
107
  "Phi-3.5-vision-instrust": {
111
108
  "description": "Zaktualizowana wersja modelu Phi-3-vision."
112
109
  },
113
- "Pro-128k": {
114
- "description": "Spark Pro-128K ma wyjątkową zdolność przetwarzania kontekstu, mogąc obsługiwać do 128K informacji kontekstowych, szczególnie odpowiedni do analizy całościowej i długoterminowego przetwarzania logicznego w długich tekstach, zapewniając płynne i spójne logicznie komunikowanie się oraz różnorodne wsparcie cytatów."
115
- },
116
110
  "Pro/OpenGVLab/InternVL2-8B": {
117
111
  "description": "InternVL2 pokazuje wyjątkowe wyniki w różnych zadaniach językowych i wizualnych, w tym zrozumieniu dokumentów i wykresów, zrozumieniu tekstu w scenach, OCR, rozwiązywaniu problemów naukowych i matematycznych."
118
112
  },
@@ -278,6 +272,9 @@
278
272
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
279
273
  "description": "Claude 3.5 Sonnet podnosi standardy branżowe, przewyższając modele konkurencji oraz Claude 3 Opus, osiągając doskonałe wyniki w szerokim zakresie ocen, jednocześnie oferując szybkość i koszty na poziomie naszych modeli średniej klasy."
280
274
  },
275
+ "anthropic.claude-3-5-sonnet-20241022-v2:0": {
276
+ "description": "Claude 3.5 Sonnet podnosi standardy branżowe, przewyższając modele konkurencji oraz Claude 3 Opus, wykazując doskonałe wyniki w szerokich ocenach, jednocześnie oferując prędkość i koszty naszych modeli średniego poziomu."
277
+ },
281
278
  "anthropic.claude-3-haiku-20240307-v1:0": {
282
279
  "description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model od Anthropic, oferujący niemal natychmiastową szybkość odpowiedzi. Może szybko odpowiadać na proste zapytania i prośby. Klienci będą mogli budować płynne doświadczenia AI, które naśladują interakcje międzyludzkie. Claude 3 Haiku może przetwarzać obrazy i zwracać wyjścia tekstowe, z oknem kontekstowym wynoszącym 200K."
283
280
  },
@@ -467,9 +464,6 @@
467
464
  "gemma2:2b": {
468
465
  "description": "Gemma 2 to wydajny model wydany przez Google, obejmujący różnorodne zastosowania, od małych aplikacji po złożone przetwarzanie danych."
469
466
  },
470
- "general": {
471
- "description": "Spark Lite to lekki model dużego języka, charakteryzujący się bardzo niskim opóźnieniem i wysoką wydajnością przetwarzania, całkowicie darmowy i otwarty, wspierający funkcję wyszukiwania w czasie rzeczywistym. Jego szybka reakcja sprawia, że doskonale sprawdza się w zastosowaniach inferencyjnych i dostrajaniu modeli na urządzeniach o niskiej mocy obliczeniowej, oferując użytkownikom doskonały stosunek kosztów do korzyści oraz inteligentne doświadczenie, szczególnie w zadaniach związanych z pytaniami o wiedzę, generowaniem treści i wyszukiwaniem."
472
- },
473
467
  "generalv3": {
474
468
  "description": "Spark Pro to model dużego języka o wysokiej wydajności, zoptymalizowany do profesjonalnych dziedzin, takich jak matematyka, programowanie, medycyna i edukacja, wspierający wyszukiwanie w sieci oraz wbudowane wtyczki, takie jak pogoda i daty. Jego zoptymalizowany model wykazuje doskonałe wyniki i wysoką wydajność w skomplikowanych pytaniach o wiedzę, rozumieniu języka oraz tworzeniu zaawansowanych tekstów, co czyni go idealnym wyborem do profesjonalnych zastosowań."
475
469
  },
@@ -625,6 +619,9 @@
625
619
  },
626
620
  "jamba-1.5-large": {},
627
621
  "jamba-1.5-mini": {},
622
+ "lite": {
623
+ "description": "Spark Lite to lekki model językowy o dużej skali, charakteryzujący się niezwykle niskim opóźnieniem i wysoką wydajnością przetwarzania, całkowicie darmowy i otwarty, wspierający funkcje wyszukiwania w czasie rzeczywistym. Jego cechy szybkiej reakcji sprawiają, że doskonale sprawdza się w zastosowaniach inferencyjnych na urządzeniach o niskiej mocy obliczeniowej oraz w dostosowywaniu modeli, oferując użytkownikom znakomity stosunek kosztów do korzyści oraz inteligentne doświadczenie, szczególnie w kontekście pytań i odpowiedzi, generowania treści oraz wyszukiwania."
624
+ },
628
625
  "llama-3.1-70b-instruct": {
629
626
  "description": "Model Llama 3.1 70B Instruct, z 70B parametrami, oferujący doskonałe osiągi w dużych zadaniach generowania tekstu i poleceń."
630
627
  },
@@ -700,6 +697,9 @@
700
697
  "mathstral": {
701
698
  "description": "MathΣtral zaprojektowany do badań naukowych i wnioskowania matematycznego, oferujący efektywne możliwości obliczeniowe i interpretację wyników."
702
699
  },
700
+ "max-32k": {
701
+ "description": "Spark Max 32K jest wyposażony w dużą zdolność przetwarzania kontekstu, oferując silniejsze zrozumienie kontekstu i zdolności logicznego wnioskowania, obsługując teksty o długości do 32K tokenów, co czyni go odpowiednim do czytania długich dokumentów, prywatnych pytań i odpowiedzi oraz innych scenariuszy."
702
+ },
703
703
  "meta-llama-3-70b-instruct": {
704
704
  "description": "Potężny model z 70 miliardami parametrów, doskonały w rozumowaniu, kodowaniu i szerokich zastosowaniach językowych."
705
705
  },
@@ -940,6 +940,9 @@
940
940
  "pixtral-12b-2409": {
941
941
  "description": "Model Pixtral wykazuje silne zdolności w zadaniach związanych z analizą wykresów i zrozumieniem obrazów, pytaniami dokumentowymi, wielomodalnym rozumowaniem i przestrzeganiem instrukcji, zdolny do przyjmowania obrazów w naturalnej rozdzielczości i proporcjach, a także do przetwarzania dowolnej liczby obrazów w długim oknie kontekstowym o długości do 128K tokenów."
942
942
  },
943
+ "pro-128k": {
944
+ "description": "Spark Pro 128K jest wyposażony w wyjątkową zdolność przetwarzania kontekstu, mogąc obsługiwać do 128K informacji kontekstowych, co czyni go idealnym do analizy całościowej i długoterminowego przetwarzania logicznych powiązań w długich treściach, zapewniając płynność i spójność logiczną oraz różnorodne wsparcie cytatów w złożonej komunikacji tekstowej."
945
+ },
943
946
  "qwen-coder-turbo-latest": {
944
947
  "description": "Model kodowania Qwen."
945
948
  },
@@ -184,5 +184,6 @@
184
184
  "processing": "Processando arquivo..."
185
185
  }
186
186
  }
187
- }
187
+ },
188
+ "zenMode": "Modo de Foco"
188
189
  }
@@ -68,9 +68,6 @@
68
68
  "Gryphe/MythoMax-L2-13b": {
69
69
  "description": "MythoMax-L2 (13B) é um modelo inovador, adequado para aplicações em múltiplas áreas e tarefas complexas."
70
70
  },
71
- "Max-32k": {
72
- "description": "O Spark Max 32K possui uma grande capacidade de processamento de contexto, com uma compreensão e raciocínio lógico mais robustos, suportando entradas de texto de 32K tokens, adequado para leitura de documentos longos, perguntas e respostas sobre conhecimento privado e outros cenários."
73
- },
74
71
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
75
72
  "description": "Hermes 2 Mixtral 8x7B DPO é uma fusão de múltiplos modelos altamente flexível, projetada para oferecer uma experiência criativa excepcional."
76
73
  },
@@ -110,9 +107,6 @@
110
107
  "Phi-3.5-vision-instrust": {
111
108
  "description": "Versão atualizada do modelo Phi-3-vision."
112
109
  },
113
- "Pro-128k": {
114
- "description": "Spark Pro-128K possui capacidade de processamento de contexto extremamente grande, capaz de lidar com até 128K de informações de contexto, especialmente adequado para análise completa e processamento de associações lógicas de longo prazo em conteúdos longos, podendo fornecer lógica fluida e consistente e suporte a diversas citações em comunicações textuais complexas."
115
- },
116
110
  "Pro/OpenGVLab/InternVL2-8B": {
117
111
  "description": "InternVL2 demonstrou desempenho excepcional em diversas tarefas de linguagem visual, incluindo compreensão de documentos e gráficos, compreensão de texto em cena, OCR, e resolução de problemas científicos e matemáticos."
118
112
  },
@@ -278,6 +272,9 @@
278
272
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
279
273
  "description": "O Claude 3.5 Sonnet eleva o padrão da indústria, superando modelos concorrentes e o Claude 3 Opus, apresentando um desempenho excepcional em avaliações amplas, ao mesmo tempo que mantém a velocidade e o custo de nossos modelos de nível médio."
280
274
  },
275
+ "anthropic.claude-3-5-sonnet-20241022-v2:0": {
276
+ "description": "Claude 3.5 Sonnet elevou o padrão da indústria, superando modelos concorrentes e o Claude 3 Opus, apresentando um desempenho excepcional em avaliações amplas, enquanto mantém a velocidade e o custo de nossos modelos de nível médio."
277
+ },
281
278
  "anthropic.claude-3-haiku-20240307-v1:0": {
282
279
  "description": "O Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, oferecendo uma velocidade de resposta quase instantânea. Ele pode responder rapidamente a consultas e solicitações simples. Os clientes poderão construir uma experiência de IA sem costura que imita a interação humana. O Claude 3 Haiku pode processar imagens e retornar saídas de texto, com uma janela de contexto de 200K."
283
280
  },
@@ -467,9 +464,6 @@
467
464
  "gemma2:2b": {
468
465
  "description": "Gemma 2 é um modelo eficiente lançado pelo Google, abrangendo uma variedade de cenários de aplicação, desde aplicações pequenas até processamento de dados complexos."
469
466
  },
470
- "general": {
471
- "description": "Spark Lite é um modelo de linguagem leve, com latência extremamente baixa e alta capacidade de processamento, totalmente gratuito e aberto, suportando funcionalidade de busca online em tempo real. Sua característica de resposta rápida o torna excelente em aplicações de inferência e ajuste de modelo em dispositivos de baixa potência, proporcionando aos usuários um excelente custo-benefício e experiência inteligente, especialmente em perguntas e respostas, geração de conteúdo e cenários de busca."
472
- },
473
467
  "generalv3": {
474
468
  "description": "Spark Pro é um modelo de linguagem de alto desempenho otimizado para áreas profissionais, focando em matemática, programação, medicina, educação e outros campos, e suportando busca online e plugins integrados como clima e data. Seu modelo otimizado apresenta desempenho excepcional e eficiência em perguntas e respostas complexas, compreensão de linguagem e criação de texto de alto nível, sendo a escolha ideal para cenários de aplicação profissional."
475
469
  },
@@ -625,6 +619,9 @@
625
619
  },
626
620
  "jamba-1.5-large": {},
627
621
  "jamba-1.5-mini": {},
622
+ "lite": {
623
+ "description": "Spark Lite é um modelo de linguagem grande leve, com latência extremamente baixa e alta eficiência de processamento, totalmente gratuito e aberto, suportando funcionalidades de busca online em tempo real. Sua característica de resposta rápida o torna excelente para aplicações de inferência em dispositivos de baixo poder computacional e ajuste fino de modelos, proporcionando aos usuários uma excelente relação custo-benefício e experiência inteligente, especialmente em cenários de perguntas e respostas, geração de conteúdo e busca."
624
+ },
628
625
  "llama-3.1-70b-instruct": {
629
626
  "description": "O modelo Llama 3.1 70B Instruct possui 70B de parâmetros, capaz de oferecer desempenho excepcional em tarefas de geração de texto e instrução em larga escala."
630
627
  },
@@ -700,6 +697,9 @@
700
697
  "mathstral": {
701
698
  "description": "MathΣtral é projetado para pesquisa científica e raciocínio matemático, oferecendo capacidade de cálculo eficaz e interpretação de resultados."
702
699
  },
700
+ "max-32k": {
701
+ "description": "Spark Max 32K possui uma capacidade de processamento de contexto grande, com melhor compreensão de contexto e capacidade de raciocínio lógico, suportando entradas de texto de 32K tokens, adequado para leitura de documentos longos, perguntas e respostas de conhecimento privado e outros cenários."
702
+ },
703
703
  "meta-llama-3-70b-instruct": {
704
704
  "description": "Um poderoso modelo com 70 bilhões de parâmetros, destacando-se em raciocínio, codificação e amplas aplicações linguísticas."
705
705
  },
@@ -940,6 +940,9 @@
940
940
  "pixtral-12b-2409": {
941
941
  "description": "O modelo Pixtral demonstra forte capacidade em tarefas de compreensão de gráficos e imagens, perguntas e respostas de documentos, raciocínio multimodal e seguimento de instruções, podendo ingerir imagens em resolução natural e proporções, além de processar um número arbitrário de imagens em uma janela de contexto longa de até 128K tokens."
942
942
  },
943
+ "pro-128k": {
944
+ "description": "Spark Pro 128K possui uma capacidade de processamento de contexto extremamente grande, capaz de lidar com até 128K de informações contextuais, especialmente adequado para análise completa e processamento de associações lógicas de longo prazo em conteúdos longos, podendo oferecer lógica fluida e consistente e suporte a diversas citações em comunicações textuais complexas."
945
+ },
943
946
  "qwen-coder-turbo-latest": {
944
947
  "description": "Modelo de código Qwen."
945
948
  },
@@ -184,5 +184,6 @@
184
184
  "processing": "Обработка файла..."
185
185
  }
186
186
  }
187
- }
187
+ },
188
+ "zenMode": "Режим концентрации"
188
189
  }
@@ -68,9 +68,6 @@
68
68
  "Gryphe/MythoMax-L2-13b": {
69
69
  "description": "MythoMax-L2 (13B) — это инновационная модель, подходящая для многообластных приложений и сложных задач."
70
70
  },
71
- "Max-32k": {
72
- "description": "Spark Max 32K оснащен высокой способностью обработки контекста, улучшенным пониманием контекста и логическим выводом, поддерживает текстовый ввод до 32K токенов, подходит для чтения длинных документов, частных вопросов и ответов и других сценариев"
73
- },
74
71
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
75
72
  "description": "Hermes 2 Mixtral 8x7B DPO — это высокоадаптивная многомодельная комбинация, предназначенная для предоставления выдающегося творческого опыта."
76
73
  },
@@ -110,9 +107,6 @@
110
107
  "Phi-3.5-vision-instrust": {
111
108
  "description": "Обновленная версия модели Phi-3-vision."
112
109
  },
113
- "Pro-128k": {
114
- "description": "Spark Pro-128K оснащен возможностями обработки контекста большого объема, способным обрабатывать до 128K контекстной информации, особенно подходит для анализа длинных текстов и обработки долгосрочных логических связей, обеспечивая плавную и последовательную логику и разнообразную поддержку ссылок в сложных текстовых коммуникациях."
115
- },
116
110
  "Pro/OpenGVLab/InternVL2-8B": {
117
111
  "description": "InternVL2 демонстрирует превосходные результаты в различных визуально-языковых задачах, включая понимание документов и графиков, понимание текстов сцены, OCR, решение научных и математических задач."
118
112
  },
@@ -278,6 +272,9 @@
278
272
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
279
273
  "description": "Claude 3.5 Sonnet устанавливает новые отраслевые стандарты, превосходя модели конкурентов и Claude 3 Opus, демонстрируя отличные результаты в широком спектре оценок, при этом обладая скоростью и стоимостью наших моделей среднего уровня."
280
274
  },
275
+ "anthropic.claude-3-5-sonnet-20241022-v2:0": {
276
+ "description": "Claude 3.5 Sonnet установил новые стандарты в отрасли, превзойдя модели конкурентов и Claude 3 Opus, продемонстрировав отличные результаты в широкомасштабных оценках, при этом обладая скоростью и стоимостью наших моделей среднего уровня."
277
+ },
281
278
  "anthropic.claude-3-haiku-20240307-v1:0": {
282
279
  "description": "Claude 3 Haiku — это самая быстрая и компактная модель от Anthropic, обеспечивающая почти мгновенную скорость ответа. Она может быстро отвечать на простые запросы и запросы. Клиенты смогут создать бесшовный AI-опыт, имитирующий человеческое взаимодействие. Claude 3 Haiku может обрабатывать изображения и возвращать текстовый вывод, имея контекстное окно в 200K."
283
280
  },
@@ -467,9 +464,6 @@
467
464
  "gemma2:2b": {
468
465
  "description": "Gemma 2 — это высокоэффективная модель, выпущенная Google, охватывающая широкий спектр приложений от малых до сложных задач обработки данных."
469
466
  },
470
- "general": {
471
- "description": "Spark Lite — это легковесная большая языковая модель с крайне низкой задержкой и высокой эффективностью обработки, полностью бесплатная и открытая, поддерживающая функцию онлайн-поиска в реальном времени. Ее быстрая реакция делает ее выдающимся выбором для применения в низкопроизводительных устройствах и тонкой настройке моделей, обеспечивая пользователям отличное соотношение цены и качества, особенно в задачах на знание, генерацию контента и поисковых сценариях."
472
- },
473
467
  "generalv3": {
474
468
  "description": "Spark Pro — это высокопроизводительная большая языковая модель, оптимизированная для профессиональных областей, таких как математика, программирование, медицина и образование, поддерживающая сетевой поиск и встроенные плагины для погоды, даты и т.д. Оптимизированная модель демонстрирует выдающиеся результаты и высокую эффективность в сложных задачах на знание, понимании языка и высокоуровневом создании текстов, что делает ее идеальным выбором для профессиональных приложений."
475
469
  },
@@ -625,6 +619,9 @@
625
619
  },
626
620
  "jamba-1.5-large": {},
627
621
  "jamba-1.5-mini": {},
622
+ "lite": {
623
+ "description": "Spark Lite — это легковесная большая языковая модель с крайне низкой задержкой и высокой эффективностью обработки, полностью бесплатная и открытая, поддерживающая функции онлайн-поиска в реальном времени. Ее быстрая реакция делает ее отличным выбором для применения в устройствах с низкой вычислительной мощностью и для тонкой настройки моделей, обеспечивая пользователям отличное соотношение цены и качества, особенно в сценариях вопросов и ответов, генерации контента и поиска."
624
+ },
628
625
  "llama-3.1-70b-instruct": {
629
626
  "description": "Модель Llama 3.1 70B для команд, обладающая 70B параметрами, обеспечивает выдающуюся производительность в задачах генерации текста и выполнения команд."
630
627
  },
@@ -700,6 +697,9 @@
700
697
  "mathstral": {
701
698
  "description": "MathΣtral специально разработан для научных исследований и математического вывода, обеспечивая эффективные вычислительные возможности и интерпретацию результатов."
702
699
  },
700
+ "max-32k": {
701
+ "description": "Spark Max 32K обладает большой способностью обработки контекста, улучшенным пониманием контекста и логическим выводом, поддерживает текстовый ввод до 32K токенов, подходит для чтения длинных документов, частных вопросов и ответов и других сценариев."
702
+ },
703
703
  "meta-llama-3-70b-instruct": {
704
704
  "description": "Мощная модель с 70 миллиардами параметров, превосходящая в области рассуждений, кодирования и широких языковых приложений."
705
705
  },
@@ -940,6 +940,9 @@
940
940
  "pixtral-12b-2409": {
941
941
  "description": "Модель Pixtral демонстрирует мощные способности в задачах графиков и понимания изображений, вопросов и ответов по документам, многомодального вывода и соблюдения инструкций, способная обрабатывать изображения в естественном разрешении и соотношении сторон, а также обрабатывать произвольное количество изображений в контекстном окне длиной до 128K токенов."
942
942
  },
943
+ "pro-128k": {
944
+ "description": "Spark Pro 128K оснащен огромной способностью обработки контекста, способной обрабатывать до 128K контекстной информации, что делает его особенно подходящим для анализа длинных текстов и обработки долгосрочных логических связей, обеспечивая плавную и последовательную логику и разнообразную поддержку ссылок в сложных текстовых коммуникациях."
945
+ },
943
946
  "qwen-coder-turbo-latest": {
944
947
  "description": "Модель кода Tongyi Qwen."
945
948
  },
@@ -184,5 +184,6 @@
184
184
  "processing": "Dosya İşleniyor..."
185
185
  }
186
186
  }
187
- }
187
+ },
188
+ "zenMode": "Odak Modu"
188
189
  }