@lobehub/chat 1.24.2 → 1.25.0
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/locales/ar/chat.json +2 -1
- package/locales/ar/models.json +12 -9
- package/locales/bg-BG/chat.json +2 -1
- package/locales/bg-BG/models.json +12 -9
- package/locales/de-DE/chat.json +2 -1
- package/locales/de-DE/models.json +12 -9
- package/locales/en-US/chat.json +2 -1
- package/locales/en-US/models.json +12 -9
- package/locales/es-ES/chat.json +2 -1
- package/locales/es-ES/models.json +12 -9
- package/locales/fr-FR/chat.json +2 -1
- package/locales/fr-FR/models.json +12 -9
- package/locales/it-IT/chat.json +2 -1
- package/locales/it-IT/models.json +12 -9
- package/locales/ja-JP/chat.json +2 -1
- package/locales/ja-JP/models.json +12 -9
- package/locales/ko-KR/chat.json +2 -1
- package/locales/ko-KR/models.json +12 -9
- package/locales/nl-NL/chat.json +2 -1
- package/locales/nl-NL/models.json +12 -9
- package/locales/pl-PL/chat.json +2 -1
- package/locales/pl-PL/models.json +12 -9
- package/locales/pt-BR/chat.json +2 -1
- package/locales/pt-BR/models.json +12 -9
- package/locales/ru-RU/chat.json +2 -1
- package/locales/ru-RU/models.json +12 -9
- package/locales/tr-TR/chat.json +2 -1
- package/locales/tr-TR/models.json +12 -9
- package/locales/vi-VN/chat.json +2 -1
- package/locales/vi-VN/models.json +12 -9
- package/locales/zh-CN/chat.json +2 -1
- package/locales/zh-CN/models.json +12 -9
- package/locales/zh-TW/chat.json +2 -1
- package/locales/zh-TW/models.json +12 -9
- package/package.json +1 -1
- package/src/app/(main)/@nav/_layout/Desktop/index.tsx +12 -6
- package/src/app/(main)/chat/(workspace)/@conversation/default.tsx +2 -0
- package/src/app/(main)/chat/(workspace)/@conversation/features/ZenModeToast/Toast.tsx +87 -0
- package/src/app/(main)/chat/(workspace)/@conversation/features/ZenModeToast/index.tsx +16 -0
- package/src/app/(main)/chat/(workspace)/_layout/Desktop/ChatHeader/index.tsx +18 -7
- package/src/app/(main)/chat/(workspace)/_layout/Desktop/HotKeys.tsx +10 -6
- package/src/app/(main)/chat/(workspace)/_layout/Desktop/TopicPanel.tsx +4 -4
- package/src/app/(main)/chat/_layout/Desktop/index.tsx +1 -1
- package/src/const/hotkeys.ts +7 -1
- package/src/locales/default/chat.ts +1 -0
- package/src/store/global/action.test.ts +162 -0
- package/src/store/global/action.ts +7 -0
- package/src/store/global/initialState.ts +2 -0
- package/src/store/global/selectors.ts +6 -2
@@ -68,9 +68,6 @@
|
|
68
68
|
"Gryphe/MythoMax-L2-13b": {
|
69
69
|
"description": "MythoMax-L2 (13B)は、革新的なモデルであり、多分野のアプリケーションや複雑なタスクに適しています。"
|
70
70
|
},
|
71
|
-
"Max-32k": {
|
72
|
-
"description": "Spark Max 32Kは、大規模なコンテキスト処理能力を備え、より強力なコンテキスト理解と論理推論能力を持ち、32Kトークンのテキスト入力をサポートします。長文書の読解やプライベートな知識に基づく質問応答などのシーンに適しています。"
|
73
|
-
},
|
74
71
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
75
72
|
"description": "Hermes 2 Mixtral 8x7B DPOは非常に柔軟なマルチモデル統合で、卓越した創造的体験を提供することを目的としています。"
|
76
73
|
},
|
@@ -110,9 +107,6 @@
|
|
110
107
|
"Phi-3.5-vision-instrust": {
|
111
108
|
"description": "Phi-3-visionモデルの更新版です。"
|
112
109
|
},
|
113
|
-
"Pro-128k": {
|
114
|
-
"description": "Spark Pro-128Kは特大のコンテキスト処理能力を備え、最大128Kのコンテキスト情報を処理でき、特に全体分析や長期的な論理関連処理が必要な長文コンテンツに適しており、複雑なテキストコミュニケーションにおいて流暢で一貫した論理と多様な引用サポートを提供します。"
|
115
|
-
},
|
116
110
|
"Pro/OpenGVLab/InternVL2-8B": {
|
117
111
|
"description": "InternVL2はさまざまな視覚と言語タスクで卓越した性能を発揮しており、文書や図表の理解、シーンテキストの理解、OCR、科学および数学の問題解決などを含みます。"
|
118
112
|
},
|
@@ -278,6 +272,9 @@
|
|
278
272
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
279
273
|
"description": "Claude 3.5 Sonnetは業界標準を向上させ、競合モデルやClaude 3 Opusを超える性能を持ち、広範な評価で優れたパフォーマンスを示し、私たちの中程度のモデルの速度とコストを兼ね備えています。"
|
280
274
|
},
|
275
|
+
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
276
|
+
"description": "Claude 3.5 Sonnetは業界標準を引き上げ、競合モデルやClaude 3 Opusを上回る性能を発揮し、広範な評価で優れた結果を示しています。また、中程度のレベルのモデルと同等の速度とコストを持っています。"
|
277
|
+
},
|
281
278
|
"anthropic.claude-3-haiku-20240307-v1:0": {
|
282
279
|
"description": "Claude 3 HaikuはAnthropicの最も速く、最もコンパクトなモデルで、ほぼ瞬時の応答速度を提供します。簡単なクエリやリクエストに迅速に回答できます。顧客は人間のインタラクションを模倣するシームレスなAI体験を構築できるようになります。Claude 3 Haikuは画像を処理し、テキスト出力を返すことができ、200Kのコンテキストウィンドウを持っています。"
|
283
280
|
},
|
@@ -467,9 +464,6 @@
|
|
467
464
|
"gemma2:2b": {
|
468
465
|
"description": "Gemma 2は、Googleが提供する高効率モデルであり、小型アプリケーションから複雑なデータ処理まで、さまざまなアプリケーションシーンをカバーしています。"
|
469
466
|
},
|
470
|
-
"general": {
|
471
|
-
"description": "Spark Liteは軽量な大言語モデルで、極めて低い遅延と高効率な処理能力を備え、完全に無料でオープンに提供され、リアルタイムのオンライン検索機能をサポートします。その迅速な応答特性により、低算力デバイスでの推論アプリケーションやモデル微調整において優れたパフォーマンスを発揮し、ユーザーに優れたコスト効果とインテリジェントな体験を提供し、特に知識問答、コンテンツ生成、検索シーンでのパフォーマンスが優れています。"
|
472
|
-
},
|
473
467
|
"generalv3": {
|
474
468
|
"description": "Spark Proは専門分野に最適化された高性能な大言語モデルで、数学、プログラミング、医療、教育などの複数の分野に特化し、ネットワーク検索や内蔵の天気、日付などのプラグインをサポートします。最適化されたモデルは、複雑な知識問答、言語理解、高度なテキスト創作において優れたパフォーマンスと高効率を示し、専門的なアプリケーションシーンに最適な選択肢です。"
|
475
469
|
},
|
@@ -625,6 +619,9 @@
|
|
625
619
|
},
|
626
620
|
"jamba-1.5-large": {},
|
627
621
|
"jamba-1.5-mini": {},
|
622
|
+
"lite": {
|
623
|
+
"description": "Spark Liteは軽量な大規模言語モデルで、非常に低い遅延と高い処理能力を備えています。完全に無料でオープンであり、リアルタイムのオンライン検索機能をサポートしています。その迅速な応答特性により、低算力デバイスでの推論アプリケーションやモデルの微調整において優れたパフォーマンスを発揮し、特に知識問答、コンテンツ生成、検索シーンにおいて優れたコストパフォーマンスとインテリジェントな体験を提供します。"
|
624
|
+
},
|
628
625
|
"llama-3.1-70b-instruct": {
|
629
626
|
"description": "Llama 3.1 70B Instructモデルは、70Bパラメータを持ち、大規模なテキスト生成と指示タスクで卓越した性能を提供します。"
|
630
627
|
},
|
@@ -700,6 +697,9 @@
|
|
700
697
|
"mathstral": {
|
701
698
|
"description": "MathΣtralは、科学研究と数学推論のために設計されており、効果的な計算能力と結果の解釈を提供します。"
|
702
699
|
},
|
700
|
+
"max-32k": {
|
701
|
+
"description": "Spark Max 32Kは大規模なコンテキスト処理能力を備え、より強力なコンテキスト理解と論理推論能力を持ち、32Kトークンのテキスト入力をサポートします。長文書の読解やプライベートな知識問答などのシーンに適しています。"
|
702
|
+
},
|
703
703
|
"meta-llama-3-70b-instruct": {
|
704
704
|
"description": "推論、コーディング、広範な言語アプリケーションに優れた70億パラメータの強力なモデルです。"
|
705
705
|
},
|
@@ -940,6 +940,9 @@
|
|
940
940
|
"pixtral-12b-2409": {
|
941
941
|
"description": "Pixtralモデルは、グラフと画像理解、文書質問応答、多モーダル推論、指示遵守などのタスクで強力な能力を発揮し、自然な解像度とアスペクト比で画像を取り込み、最大128Kトークンの長いコンテキストウィンドウで任意の数の画像を処理できます。"
|
942
942
|
},
|
943
|
+
"pro-128k": {
|
944
|
+
"description": "Spark Pro 128Kは特大のコンテキスト処理能力を備え、最大128Kのコンテキスト情報を処理できます。特に、全体を通じての分析や長期的な論理的関連性の処理が必要な長文コンテンツに適しており、複雑なテキストコミュニケーションにおいて滑らかで一貫した論理と多様な引用サポートを提供します。"
|
945
|
+
},
|
943
946
|
"qwen-coder-turbo-latest": {
|
944
947
|
"description": "通義千問のコードモデルです。"
|
945
948
|
},
|
package/locales/ko-KR/chat.json
CHANGED
@@ -68,9 +68,6 @@
|
|
68
68
|
"Gryphe/MythoMax-L2-13b": {
|
69
69
|
"description": "MythoMax-L2 (13B)는 혁신적인 모델로, 다양한 분야의 응용과 복잡한 작업에 적합합니다."
|
70
70
|
},
|
71
|
-
"Max-32k": {
|
72
|
-
"description": "Spark Max 32K는 대규모 컨텍스트 처리 능력을 갖추고 있으며, 더 강력한 컨텍스트 이해 및 논리 추론 능력을 제공합니다. 32K 토큰의 텍스트 입력을 지원하며, 긴 문서 읽기, 개인 지식 질문 응답 등 다양한 상황에 적합합니다."
|
73
|
-
},
|
74
71
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
75
72
|
"description": "Hermes 2 Mixtral 8x7B DPO는 뛰어난 창의적 경험을 제공하기 위해 설계된 고도로 유연한 다중 모델 통합입니다."
|
76
73
|
},
|
@@ -110,9 +107,6 @@
|
|
110
107
|
"Phi-3.5-vision-instrust": {
|
111
108
|
"description": "Phi-3-vision 모델의 업데이트된 버전입니다."
|
112
109
|
},
|
113
|
-
"Pro-128k": {
|
114
|
-
"description": "Spark Pro-128K는 초대형 컨텍스트 처리 능력을 갖추고 있으며, 최대 128K의 컨텍스트 정보를 처리할 수 있어, 특히 전체 분석 및 장기 논리 연관 처리가 필요한 긴 문서 콘텐츠에 적합합니다. 복잡한 텍스트 커뮤니케이션에서 매끄럽고 일관된 논리와 다양한 인용 지원을 제공합니다."
|
115
|
-
},
|
116
110
|
"Pro/OpenGVLab/InternVL2-8B": {
|
117
111
|
"description": "InternVL2는 문서 및 차트 이해, 장면 텍스트 이해, OCR, 과학 및 수학 문제 해결을 포함한 다양한 시각 언어 작업에서 뛰어난 성능을 보여줍니다."
|
118
112
|
},
|
@@ -278,6 +272,9 @@
|
|
278
272
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
279
273
|
"description": "Claude 3.5 Sonnet는 업계 표준을 향상시켜 경쟁 모델 및 Claude 3 Opus를 초월하며, 광범위한 평가에서 뛰어난 성능을 보이고, 중간 수준 모델의 속도와 비용을 갖추고 있습니다."
|
280
274
|
},
|
275
|
+
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
276
|
+
"description": "Claude 3.5 Sonnet는 업계 표준을 향상시켰으며, 경쟁 모델과 Claude 3 Opus를 초월하는 성능을 보여주고, 광범위한 평가에서 뛰어난 성과를 보였습니다. 또한 중간 수준 모델의 속도와 비용을 갖추고 있습니다."
|
277
|
+
},
|
281
278
|
"anthropic.claude-3-haiku-20240307-v1:0": {
|
282
279
|
"description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 간결한 모델로, 거의 즉각적인 응답 속도를 제공합니다. 간단한 질문과 요청에 신속하게 답변할 수 있습니다. 고객은 인간 상호작용을 모방하는 원활한 AI 경험을 구축할 수 있습니다. Claude 3 Haiku는 이미지를 처리하고 텍스트 출력을 반환할 수 있으며, 200K의 컨텍스트 창을 갖추고 있습니다."
|
283
280
|
},
|
@@ -467,9 +464,6 @@
|
|
467
464
|
"gemma2:2b": {
|
468
465
|
"description": "Gemma 2는 Google에서 출시한 효율적인 모델로, 소형 응용 프로그램부터 복잡한 데이터 처리까지 다양한 응용 시나리오를 포함합니다."
|
469
466
|
},
|
470
|
-
"general": {
|
471
|
-
"description": "Spark Lite는 경량 대형 언어 모델로, 매우 낮은 지연 시간과 효율적인 처리 능력을 갖추고 있으며, 완전 무료로 개방되어 실시간 온라인 검색 기능을 지원합니다. 빠른 응답 특성 덕분에 저전력 장치에서의 추론 응용 및 모델 미세 조정에서 뛰어난 성능을 발휘하여 사용자에게 뛰어난 비용 효율성과 지능적인 경험을 제공합니다. 특히 지식 질문 응답, 콘텐츠 생성 및 검색 시나리오에서 두각을 나타냅니다."
|
472
|
-
},
|
473
467
|
"generalv3": {
|
474
468
|
"description": "Spark Pro는 전문 분야에 최적화된 고성능 대형 언어 모델로, 수학, 프로그래밍, 의료, 교육 등 여러 분야에 중점을 두고 있으며, 네트워크 검색 및 내장된 날씨, 날짜 등의 플러그인을 지원합니다. 최적화된 모델은 복잡한 지식 질문 응답, 언어 이해 및 고급 텍스트 창작에서 뛰어난 성능과 효율성을 보여주며, 전문 응용 시나리오에 적합한 이상적인 선택입니다."
|
475
469
|
},
|
@@ -625,6 +619,9 @@
|
|
625
619
|
},
|
626
620
|
"jamba-1.5-large": {},
|
627
621
|
"jamba-1.5-mini": {},
|
622
|
+
"lite": {
|
623
|
+
"description": "Spark Lite는 경량 대형 언어 모델로, 매우 낮은 지연 시간과 효율적인 처리 능력을 갖추고 있으며, 완전히 무료로 제공되고 실시간 온라인 검색 기능을 지원합니다. 빠른 응답 특성 덕분에 저전력 장치에서의 추론 응용 및 모델 미세 조정에서 뛰어난 성능을 발휘하며, 사용자에게 뛰어난 비용 효율성과 스마트한 경험을 제공합니다. 특히 지식 질문 응답, 콘텐츠 생성 및 검색 시나리오에서 두각을 나타냅니다."
|
624
|
+
},
|
628
625
|
"llama-3.1-70b-instruct": {
|
629
626
|
"description": "Llama 3.1 70B Instruct 모델은 70B 매개변수를 갖추고 있으며, 대규모 텍스트 생성 및 지시 작업에서 뛰어난 성능을 제공합니다."
|
630
627
|
},
|
@@ -700,6 +697,9 @@
|
|
700
697
|
"mathstral": {
|
701
698
|
"description": "MathΣtral은 과학 연구 및 수학 추론을 위해 설계되었으며, 효과적인 계산 능력과 결과 해석을 제공합니다."
|
702
699
|
},
|
700
|
+
"max-32k": {
|
701
|
+
"description": "Spark Max 32K는 큰 컨텍스트 처리 능력을 갖추고 있으며, 더 강력한 컨텍스트 이해 및 논리 추론 능력을 지원합니다. 32K 토큰의 텍스트 입력을 지원하며, 긴 문서 읽기, 개인 지식 질문 응답 등 다양한 시나리오에 적합합니다."
|
702
|
+
},
|
703
703
|
"meta-llama-3-70b-instruct": {
|
704
704
|
"description": "추론, 코딩 및 광범위한 언어 응용 프로그램에서 뛰어난 성능을 발휘하는 강력한 70억 매개변수 모델입니다."
|
705
705
|
},
|
@@ -940,6 +940,9 @@
|
|
940
940
|
"pixtral-12b-2409": {
|
941
941
|
"description": "Pixtral 모델은 차트 및 이미지 이해, 문서 질문 응답, 다중 모드 추론 및 지시 준수와 같은 작업에서 강력한 능력을 발휘하며, 자연 해상도와 가로 세로 비율로 이미지를 입력할 수 있고, 최대 128K 토큰의 긴 컨텍스트 창에서 임의의 수의 이미지를 처리할 수 있습니다."
|
942
942
|
},
|
943
|
+
"pro-128k": {
|
944
|
+
"description": "Spark Pro 128K는 매우 큰 컨텍스트 처리 능력을 갖추고 있으며, 최대 128K의 컨텍스트 정보를 처리할 수 있습니다. 특히 전체 분석 및 장기 논리 연관 처리가 필요한 긴 문서 콘텐츠에 적합하며, 복잡한 텍스트 커뮤니케이션에서 매끄럽고 일관된 논리와 다양한 인용 지원을 제공합니다."
|
945
|
+
},
|
943
946
|
"qwen-coder-turbo-latest": {
|
944
947
|
"description": "통의 천문 코드 모델입니다."
|
945
948
|
},
|
package/locales/nl-NL/chat.json
CHANGED
@@ -68,9 +68,6 @@
|
|
68
68
|
"Gryphe/MythoMax-L2-13b": {
|
69
69
|
"description": "MythoMax-L2 (13B) is een innovatief model, geschikt voor toepassingen in meerdere domeinen en complexe taken."
|
70
70
|
},
|
71
|
-
"Max-32k": {
|
72
|
-
"description": "Spark Max 32K is uitgerust met een grote contextverwerkingscapaciteit, verbeterd begrip van context en logische redeneervaardigheden, ondersteunt tekstinvoer van 32K tokens, geschikt voor het lezen van lange documenten, privé kennisvragen en andere scenario's."
|
73
|
-
},
|
74
71
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
75
72
|
"description": "Hermes 2 Mixtral 8x7B DPO is een zeer flexibele multi-model combinatie, ontworpen om een uitstekende creatieve ervaring te bieden."
|
76
73
|
},
|
@@ -110,9 +107,6 @@
|
|
110
107
|
"Phi-3.5-vision-instrust": {
|
111
108
|
"description": "Een geüpdatete versie van het Phi-3-vision model."
|
112
109
|
},
|
113
|
-
"Pro-128k": {
|
114
|
-
"description": "Spark Pro-128K is uitgerust met een enorme contextverwerkingscapaciteit, in staat om tot 128K contextinformatie te verwerken, bijzonder geschikt voor lange teksten die volledige analyse en langdurige logische verbanden vereisen, en biedt vloeiende en consistente logica met diverse referenties in complexe tekstcommunicatie."
|
115
|
-
},
|
116
110
|
"Pro/OpenGVLab/InternVL2-8B": {
|
117
111
|
"description": "InternVL2 toont uitstekende prestaties bij diverse visuele taaltaken, waaronder document- en grafiekbegrip, scène-tekstbegrip, OCR, en het oplossen van wetenschappelijke en wiskundige problemen."
|
118
112
|
},
|
@@ -278,6 +272,9 @@
|
|
278
272
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
279
273
|
"description": "Claude 3.5 Sonnet heeft de industrienormen verbeterd, met prestaties die de concurrentiemodellen en Claude 3 Opus overtreffen, en presteert uitstekend in brede evaluaties, met de snelheid en kosten van ons gemiddelde model."
|
280
274
|
},
|
275
|
+
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
276
|
+
"description": "Claude 3.5 Sonnet heeft de industrienormen verhoogd, met prestaties die de concurrentiemodellen en Claude 3 Opus overtreffen. Het presteert uitstekend in uitgebreide evaluaties, terwijl het de snelheid en kosten van onze middelgrote modellen behoudt."
|
277
|
+
},
|
281
278
|
"anthropic.claude-3-haiku-20240307-v1:0": {
|
282
279
|
"description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, met bijna onmiddellijke reactietijden. Het kan snel eenvoudige vragen en verzoeken beantwoorden. Klanten kunnen een naadloze AI-ervaring creëren die menselijke interactie nabootst. Claude 3 Haiku kan afbeeldingen verwerken en tekstoutput retourneren, met een contextvenster van 200K."
|
283
280
|
},
|
@@ -467,9 +464,6 @@
|
|
467
464
|
"gemma2:2b": {
|
468
465
|
"description": "Gemma 2 is een efficiënt model van Google, dat een breed scala aan toepassingsscenario's dekt, van kleine toepassingen tot complexe gegevensverwerking."
|
469
466
|
},
|
470
|
-
"general": {
|
471
|
-
"description": "Spark Lite is een lichtgewicht groot taalmodel met extreem lage latentie en efficiënte verwerkingscapaciteiten, volledig gratis en open, met ondersteuning voor realtime online zoekfunctionaliteit. De snelle respons maakt het uitermate geschikt voor inferentie-toepassingen en modelfijnstelling op apparaten met lage rekenkracht, en biedt gebruikers uitstekende kosteneffectiviteit en een intelligente ervaring, vooral in kennisvragen, inhoudsgeneratie en zoekscenario's."
|
472
|
-
},
|
473
467
|
"generalv3": {
|
474
468
|
"description": "Spark Pro is een hoogwaardig groot taalmodel dat is geoptimaliseerd voor professionele domeinen, met een focus op wiskunde, programmeren, geneeskunde, onderwijs en meer, en ondersteunt online zoeken en ingebouwde plugins voor weer, datum, enz. Het geoptimaliseerde model toont uitstekende prestaties en efficiëntie in complexe kennisvragen, taalbegrip en hoogwaardig tekstcreatie, en is de ideale keuze voor professionele toepassingsscenario's."
|
475
469
|
},
|
@@ -625,6 +619,9 @@
|
|
625
619
|
},
|
626
620
|
"jamba-1.5-large": {},
|
627
621
|
"jamba-1.5-mini": {},
|
622
|
+
"lite": {
|
623
|
+
"description": "Spark Lite is een lichtgewicht groot taalmodel met extreem lage latentie en efficiënte verwerkingscapaciteit. Het is volledig gratis en open, en ondersteunt realtime online zoekfunctionaliteit. De snelle respons maakt het uitermate geschikt voor inferentie op apparaten met lage rekenkracht en modelafstemming, wat gebruikers uitstekende kosteneffectiviteit en een slimme ervaring biedt, vooral in kennisvragen, contentgeneratie en zoekscenario's."
|
624
|
+
},
|
628
625
|
"llama-3.1-70b-instruct": {
|
629
626
|
"description": "Llama 3.1 70B Instruct model, met 70B parameters, biedt uitstekende prestaties in grote tekstgeneratie- en instructietaken."
|
630
627
|
},
|
@@ -700,6 +697,9 @@
|
|
700
697
|
"mathstral": {
|
701
698
|
"description": "MathΣtral is ontworpen voor wetenschappelijk onderzoek en wiskundige inferentie, biedt effectieve rekencapaciteiten en resultaatinterpretatie."
|
702
699
|
},
|
700
|
+
"max-32k": {
|
701
|
+
"description": "Spark Max 32K is uitgerust met een grote contextverwerkingscapaciteit, met verbeterd begrip van context en logische redeneervaardigheden. Het ondersteunt tekstinvoer van 32K tokens en is geschikt voor het lezen van lange documenten, privé kennisvragen en andere scenario's."
|
702
|
+
},
|
703
703
|
"meta-llama-3-70b-instruct": {
|
704
704
|
"description": "Een krachtig model met 70 miljard parameters dat uitblinkt in redeneren, coderen en brede taaltoepassingen."
|
705
705
|
},
|
@@ -940,6 +940,9 @@
|
|
940
940
|
"pixtral-12b-2409": {
|
941
941
|
"description": "Het Pixtral model toont sterke capaciteiten in taken zoals grafiek- en beeldbegrip, documentvraag-en-antwoord, multimodale redenering en instructievolging, en kan afbeeldingen met natuurlijke resolutie en beeldverhouding verwerken, evenals een onbeperkt aantal afbeeldingen in een lange contextvenster van maximaal 128K tokens."
|
942
942
|
},
|
943
|
+
"pro-128k": {
|
944
|
+
"description": "Spark Pro 128K is uitgerust met een zeer grote contextverwerkingscapaciteit, in staat om tot 128K contextinformatie te verwerken. Het is bijzonder geschikt voor lange teksten die een volledige analyse en langdurige logische verbanden vereisen, en biedt een vloeiende en consistente logica met diverse ondersteuningen voor citaten in complexe tekstcommunicatie."
|
945
|
+
},
|
943
946
|
"qwen-coder-turbo-latest": {
|
944
947
|
"description": "Het Tongyi Qianwen codeermodel."
|
945
948
|
},
|
package/locales/pl-PL/chat.json
CHANGED
@@ -68,9 +68,6 @@
|
|
68
68
|
"Gryphe/MythoMax-L2-13b": {
|
69
69
|
"description": "MythoMax-L2 (13B) to innowacyjny model, idealny do zastosowań w wielu dziedzinach i złożonych zadań."
|
70
70
|
},
|
71
|
-
"Max-32k": {
|
72
|
-
"description": "Spark Max 32K ma dużą zdolność przetwarzania kontekstu, lepsze zrozumienie kontekstu i zdolności logicznego rozumowania, obsługując teksty o długości 32K tokenów, odpowiednie do czytania długich dokumentów, prywatnych pytań o wiedzę i innych scenariuszy."
|
73
|
-
},
|
74
71
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
75
72
|
"description": "Hermes 2 Mixtral 8x7B DPO to wysoce elastyczna fuzja wielu modeli, mająca na celu zapewnienie doskonałego doświadczenia twórczego."
|
76
73
|
},
|
@@ -110,9 +107,6 @@
|
|
110
107
|
"Phi-3.5-vision-instrust": {
|
111
108
|
"description": "Zaktualizowana wersja modelu Phi-3-vision."
|
112
109
|
},
|
113
|
-
"Pro-128k": {
|
114
|
-
"description": "Spark Pro-128K ma wyjątkową zdolność przetwarzania kontekstu, mogąc obsługiwać do 128K informacji kontekstowych, szczególnie odpowiedni do analizy całościowej i długoterminowego przetwarzania logicznego w długich tekstach, zapewniając płynne i spójne logicznie komunikowanie się oraz różnorodne wsparcie cytatów."
|
115
|
-
},
|
116
110
|
"Pro/OpenGVLab/InternVL2-8B": {
|
117
111
|
"description": "InternVL2 pokazuje wyjątkowe wyniki w różnych zadaniach językowych i wizualnych, w tym zrozumieniu dokumentów i wykresów, zrozumieniu tekstu w scenach, OCR, rozwiązywaniu problemów naukowych i matematycznych."
|
118
112
|
},
|
@@ -278,6 +272,9 @@
|
|
278
272
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
279
273
|
"description": "Claude 3.5 Sonnet podnosi standardy branżowe, przewyższając modele konkurencji oraz Claude 3 Opus, osiągając doskonałe wyniki w szerokim zakresie ocen, jednocześnie oferując szybkość i koszty na poziomie naszych modeli średniej klasy."
|
280
274
|
},
|
275
|
+
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
276
|
+
"description": "Claude 3.5 Sonnet podnosi standardy branżowe, przewyższając modele konkurencji oraz Claude 3 Opus, wykazując doskonałe wyniki w szerokich ocenach, jednocześnie oferując prędkość i koszty naszych modeli średniego poziomu."
|
277
|
+
},
|
281
278
|
"anthropic.claude-3-haiku-20240307-v1:0": {
|
282
279
|
"description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model od Anthropic, oferujący niemal natychmiastową szybkość odpowiedzi. Może szybko odpowiadać na proste zapytania i prośby. Klienci będą mogli budować płynne doświadczenia AI, które naśladują interakcje międzyludzkie. Claude 3 Haiku może przetwarzać obrazy i zwracać wyjścia tekstowe, z oknem kontekstowym wynoszącym 200K."
|
283
280
|
},
|
@@ -467,9 +464,6 @@
|
|
467
464
|
"gemma2:2b": {
|
468
465
|
"description": "Gemma 2 to wydajny model wydany przez Google, obejmujący różnorodne zastosowania, od małych aplikacji po złożone przetwarzanie danych."
|
469
466
|
},
|
470
|
-
"general": {
|
471
|
-
"description": "Spark Lite to lekki model dużego języka, charakteryzujący się bardzo niskim opóźnieniem i wysoką wydajnością przetwarzania, całkowicie darmowy i otwarty, wspierający funkcję wyszukiwania w czasie rzeczywistym. Jego szybka reakcja sprawia, że doskonale sprawdza się w zastosowaniach inferencyjnych i dostrajaniu modeli na urządzeniach o niskiej mocy obliczeniowej, oferując użytkownikom doskonały stosunek kosztów do korzyści oraz inteligentne doświadczenie, szczególnie w zadaniach związanych z pytaniami o wiedzę, generowaniem treści i wyszukiwaniem."
|
472
|
-
},
|
473
467
|
"generalv3": {
|
474
468
|
"description": "Spark Pro to model dużego języka o wysokiej wydajności, zoptymalizowany do profesjonalnych dziedzin, takich jak matematyka, programowanie, medycyna i edukacja, wspierający wyszukiwanie w sieci oraz wbudowane wtyczki, takie jak pogoda i daty. Jego zoptymalizowany model wykazuje doskonałe wyniki i wysoką wydajność w skomplikowanych pytaniach o wiedzę, rozumieniu języka oraz tworzeniu zaawansowanych tekstów, co czyni go idealnym wyborem do profesjonalnych zastosowań."
|
475
469
|
},
|
@@ -625,6 +619,9 @@
|
|
625
619
|
},
|
626
620
|
"jamba-1.5-large": {},
|
627
621
|
"jamba-1.5-mini": {},
|
622
|
+
"lite": {
|
623
|
+
"description": "Spark Lite to lekki model językowy o dużej skali, charakteryzujący się niezwykle niskim opóźnieniem i wysoką wydajnością przetwarzania, całkowicie darmowy i otwarty, wspierający funkcje wyszukiwania w czasie rzeczywistym. Jego cechy szybkiej reakcji sprawiają, że doskonale sprawdza się w zastosowaniach inferencyjnych na urządzeniach o niskiej mocy obliczeniowej oraz w dostosowywaniu modeli, oferując użytkownikom znakomity stosunek kosztów do korzyści oraz inteligentne doświadczenie, szczególnie w kontekście pytań i odpowiedzi, generowania treści oraz wyszukiwania."
|
624
|
+
},
|
628
625
|
"llama-3.1-70b-instruct": {
|
629
626
|
"description": "Model Llama 3.1 70B Instruct, z 70B parametrami, oferujący doskonałe osiągi w dużych zadaniach generowania tekstu i poleceń."
|
630
627
|
},
|
@@ -700,6 +697,9 @@
|
|
700
697
|
"mathstral": {
|
701
698
|
"description": "MathΣtral zaprojektowany do badań naukowych i wnioskowania matematycznego, oferujący efektywne możliwości obliczeniowe i interpretację wyników."
|
702
699
|
},
|
700
|
+
"max-32k": {
|
701
|
+
"description": "Spark Max 32K jest wyposażony w dużą zdolność przetwarzania kontekstu, oferując silniejsze zrozumienie kontekstu i zdolności logicznego wnioskowania, obsługując teksty o długości do 32K tokenów, co czyni go odpowiednim do czytania długich dokumentów, prywatnych pytań i odpowiedzi oraz innych scenariuszy."
|
702
|
+
},
|
703
703
|
"meta-llama-3-70b-instruct": {
|
704
704
|
"description": "Potężny model z 70 miliardami parametrów, doskonały w rozumowaniu, kodowaniu i szerokich zastosowaniach językowych."
|
705
705
|
},
|
@@ -940,6 +940,9 @@
|
|
940
940
|
"pixtral-12b-2409": {
|
941
941
|
"description": "Model Pixtral wykazuje silne zdolności w zadaniach związanych z analizą wykresów i zrozumieniem obrazów, pytaniami dokumentowymi, wielomodalnym rozumowaniem i przestrzeganiem instrukcji, zdolny do przyjmowania obrazów w naturalnej rozdzielczości i proporcjach, a także do przetwarzania dowolnej liczby obrazów w długim oknie kontekstowym o długości do 128K tokenów."
|
942
942
|
},
|
943
|
+
"pro-128k": {
|
944
|
+
"description": "Spark Pro 128K jest wyposażony w wyjątkową zdolność przetwarzania kontekstu, mogąc obsługiwać do 128K informacji kontekstowych, co czyni go idealnym do analizy całościowej i długoterminowego przetwarzania logicznych powiązań w długich treściach, zapewniając płynność i spójność logiczną oraz różnorodne wsparcie cytatów w złożonej komunikacji tekstowej."
|
945
|
+
},
|
943
946
|
"qwen-coder-turbo-latest": {
|
944
947
|
"description": "Model kodowania Qwen."
|
945
948
|
},
|
package/locales/pt-BR/chat.json
CHANGED
@@ -68,9 +68,6 @@
|
|
68
68
|
"Gryphe/MythoMax-L2-13b": {
|
69
69
|
"description": "MythoMax-L2 (13B) é um modelo inovador, adequado para aplicações em múltiplas áreas e tarefas complexas."
|
70
70
|
},
|
71
|
-
"Max-32k": {
|
72
|
-
"description": "O Spark Max 32K possui uma grande capacidade de processamento de contexto, com uma compreensão e raciocínio lógico mais robustos, suportando entradas de texto de 32K tokens, adequado para leitura de documentos longos, perguntas e respostas sobre conhecimento privado e outros cenários."
|
73
|
-
},
|
74
71
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
75
72
|
"description": "Hermes 2 Mixtral 8x7B DPO é uma fusão de múltiplos modelos altamente flexível, projetada para oferecer uma experiência criativa excepcional."
|
76
73
|
},
|
@@ -110,9 +107,6 @@
|
|
110
107
|
"Phi-3.5-vision-instrust": {
|
111
108
|
"description": "Versão atualizada do modelo Phi-3-vision."
|
112
109
|
},
|
113
|
-
"Pro-128k": {
|
114
|
-
"description": "Spark Pro-128K possui capacidade de processamento de contexto extremamente grande, capaz de lidar com até 128K de informações de contexto, especialmente adequado para análise completa e processamento de associações lógicas de longo prazo em conteúdos longos, podendo fornecer lógica fluida e consistente e suporte a diversas citações em comunicações textuais complexas."
|
115
|
-
},
|
116
110
|
"Pro/OpenGVLab/InternVL2-8B": {
|
117
111
|
"description": "InternVL2 demonstrou desempenho excepcional em diversas tarefas de linguagem visual, incluindo compreensão de documentos e gráficos, compreensão de texto em cena, OCR, e resolução de problemas científicos e matemáticos."
|
118
112
|
},
|
@@ -278,6 +272,9 @@
|
|
278
272
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
279
273
|
"description": "O Claude 3.5 Sonnet eleva o padrão da indústria, superando modelos concorrentes e o Claude 3 Opus, apresentando um desempenho excepcional em avaliações amplas, ao mesmo tempo que mantém a velocidade e o custo de nossos modelos de nível médio."
|
280
274
|
},
|
275
|
+
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
276
|
+
"description": "Claude 3.5 Sonnet elevou o padrão da indústria, superando modelos concorrentes e o Claude 3 Opus, apresentando um desempenho excepcional em avaliações amplas, enquanto mantém a velocidade e o custo de nossos modelos de nível médio."
|
277
|
+
},
|
281
278
|
"anthropic.claude-3-haiku-20240307-v1:0": {
|
282
279
|
"description": "O Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, oferecendo uma velocidade de resposta quase instantânea. Ele pode responder rapidamente a consultas e solicitações simples. Os clientes poderão construir uma experiência de IA sem costura que imita a interação humana. O Claude 3 Haiku pode processar imagens e retornar saídas de texto, com uma janela de contexto de 200K."
|
283
280
|
},
|
@@ -467,9 +464,6 @@
|
|
467
464
|
"gemma2:2b": {
|
468
465
|
"description": "Gemma 2 é um modelo eficiente lançado pelo Google, abrangendo uma variedade de cenários de aplicação, desde aplicações pequenas até processamento de dados complexos."
|
469
466
|
},
|
470
|
-
"general": {
|
471
|
-
"description": "Spark Lite é um modelo de linguagem leve, com latência extremamente baixa e alta capacidade de processamento, totalmente gratuito e aberto, suportando funcionalidade de busca online em tempo real. Sua característica de resposta rápida o torna excelente em aplicações de inferência e ajuste de modelo em dispositivos de baixa potência, proporcionando aos usuários um excelente custo-benefício e experiência inteligente, especialmente em perguntas e respostas, geração de conteúdo e cenários de busca."
|
472
|
-
},
|
473
467
|
"generalv3": {
|
474
468
|
"description": "Spark Pro é um modelo de linguagem de alto desempenho otimizado para áreas profissionais, focando em matemática, programação, medicina, educação e outros campos, e suportando busca online e plugins integrados como clima e data. Seu modelo otimizado apresenta desempenho excepcional e eficiência em perguntas e respostas complexas, compreensão de linguagem e criação de texto de alto nível, sendo a escolha ideal para cenários de aplicação profissional."
|
475
469
|
},
|
@@ -625,6 +619,9 @@
|
|
625
619
|
},
|
626
620
|
"jamba-1.5-large": {},
|
627
621
|
"jamba-1.5-mini": {},
|
622
|
+
"lite": {
|
623
|
+
"description": "Spark Lite é um modelo de linguagem grande leve, com latência extremamente baixa e alta eficiência de processamento, totalmente gratuito e aberto, suportando funcionalidades de busca online em tempo real. Sua característica de resposta rápida o torna excelente para aplicações de inferência em dispositivos de baixo poder computacional e ajuste fino de modelos, proporcionando aos usuários uma excelente relação custo-benefício e experiência inteligente, especialmente em cenários de perguntas e respostas, geração de conteúdo e busca."
|
624
|
+
},
|
628
625
|
"llama-3.1-70b-instruct": {
|
629
626
|
"description": "O modelo Llama 3.1 70B Instruct possui 70B de parâmetros, capaz de oferecer desempenho excepcional em tarefas de geração de texto e instrução em larga escala."
|
630
627
|
},
|
@@ -700,6 +697,9 @@
|
|
700
697
|
"mathstral": {
|
701
698
|
"description": "MathΣtral é projetado para pesquisa científica e raciocínio matemático, oferecendo capacidade de cálculo eficaz e interpretação de resultados."
|
702
699
|
},
|
700
|
+
"max-32k": {
|
701
|
+
"description": "Spark Max 32K possui uma capacidade de processamento de contexto grande, com melhor compreensão de contexto e capacidade de raciocínio lógico, suportando entradas de texto de 32K tokens, adequado para leitura de documentos longos, perguntas e respostas de conhecimento privado e outros cenários."
|
702
|
+
},
|
703
703
|
"meta-llama-3-70b-instruct": {
|
704
704
|
"description": "Um poderoso modelo com 70 bilhões de parâmetros, destacando-se em raciocínio, codificação e amplas aplicações linguísticas."
|
705
705
|
},
|
@@ -940,6 +940,9 @@
|
|
940
940
|
"pixtral-12b-2409": {
|
941
941
|
"description": "O modelo Pixtral demonstra forte capacidade em tarefas de compreensão de gráficos e imagens, perguntas e respostas de documentos, raciocínio multimodal e seguimento de instruções, podendo ingerir imagens em resolução natural e proporções, além de processar um número arbitrário de imagens em uma janela de contexto longa de até 128K tokens."
|
942
942
|
},
|
943
|
+
"pro-128k": {
|
944
|
+
"description": "Spark Pro 128K possui uma capacidade de processamento de contexto extremamente grande, capaz de lidar com até 128K de informações contextuais, especialmente adequado para análise completa e processamento de associações lógicas de longo prazo em conteúdos longos, podendo oferecer lógica fluida e consistente e suporte a diversas citações em comunicações textuais complexas."
|
945
|
+
},
|
943
946
|
"qwen-coder-turbo-latest": {
|
944
947
|
"description": "Modelo de código Qwen."
|
945
948
|
},
|
package/locales/ru-RU/chat.json
CHANGED
@@ -68,9 +68,6 @@
|
|
68
68
|
"Gryphe/MythoMax-L2-13b": {
|
69
69
|
"description": "MythoMax-L2 (13B) — это инновационная модель, подходящая для многообластных приложений и сложных задач."
|
70
70
|
},
|
71
|
-
"Max-32k": {
|
72
|
-
"description": "Spark Max 32K оснащен высокой способностью обработки контекста, улучшенным пониманием контекста и логическим выводом, поддерживает текстовый ввод до 32K токенов, подходит для чтения длинных документов, частных вопросов и ответов и других сценариев"
|
73
|
-
},
|
74
71
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
75
72
|
"description": "Hermes 2 Mixtral 8x7B DPO — это высокоадаптивная многомодельная комбинация, предназначенная для предоставления выдающегося творческого опыта."
|
76
73
|
},
|
@@ -110,9 +107,6 @@
|
|
110
107
|
"Phi-3.5-vision-instrust": {
|
111
108
|
"description": "Обновленная версия модели Phi-3-vision."
|
112
109
|
},
|
113
|
-
"Pro-128k": {
|
114
|
-
"description": "Spark Pro-128K оснащен возможностями обработки контекста большого объема, способным обрабатывать до 128K контекстной информации, особенно подходит для анализа длинных текстов и обработки долгосрочных логических связей, обеспечивая плавную и последовательную логику и разнообразную поддержку ссылок в сложных текстовых коммуникациях."
|
115
|
-
},
|
116
110
|
"Pro/OpenGVLab/InternVL2-8B": {
|
117
111
|
"description": "InternVL2 демонстрирует превосходные результаты в различных визуально-языковых задачах, включая понимание документов и графиков, понимание текстов сцены, OCR, решение научных и математических задач."
|
118
112
|
},
|
@@ -278,6 +272,9 @@
|
|
278
272
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
279
273
|
"description": "Claude 3.5 Sonnet устанавливает новые отраслевые стандарты, превосходя модели конкурентов и Claude 3 Opus, демонстрируя отличные результаты в широком спектре оценок, при этом обладая скоростью и стоимостью наших моделей среднего уровня."
|
280
274
|
},
|
275
|
+
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
276
|
+
"description": "Claude 3.5 Sonnet установил новые стандарты в отрасли, превзойдя модели конкурентов и Claude 3 Opus, продемонстрировав отличные результаты в широкомасштабных оценках, при этом обладая скоростью и стоимостью наших моделей среднего уровня."
|
277
|
+
},
|
281
278
|
"anthropic.claude-3-haiku-20240307-v1:0": {
|
282
279
|
"description": "Claude 3 Haiku — это самая быстрая и компактная модель от Anthropic, обеспечивающая почти мгновенную скорость ответа. Она может быстро отвечать на простые запросы и запросы. Клиенты смогут создать бесшовный AI-опыт, имитирующий человеческое взаимодействие. Claude 3 Haiku может обрабатывать изображения и возвращать текстовый вывод, имея контекстное окно в 200K."
|
283
280
|
},
|
@@ -467,9 +464,6 @@
|
|
467
464
|
"gemma2:2b": {
|
468
465
|
"description": "Gemma 2 — это высокоэффективная модель, выпущенная Google, охватывающая широкий спектр приложений от малых до сложных задач обработки данных."
|
469
466
|
},
|
470
|
-
"general": {
|
471
|
-
"description": "Spark Lite — это легковесная большая языковая модель с крайне низкой задержкой и высокой эффективностью обработки, полностью бесплатная и открытая, поддерживающая функцию онлайн-поиска в реальном времени. Ее быстрая реакция делает ее выдающимся выбором для применения в низкопроизводительных устройствах и тонкой настройке моделей, обеспечивая пользователям отличное соотношение цены и качества, особенно в задачах на знание, генерацию контента и поисковых сценариях."
|
472
|
-
},
|
473
467
|
"generalv3": {
|
474
468
|
"description": "Spark Pro — это высокопроизводительная большая языковая модель, оптимизированная для профессиональных областей, таких как математика, программирование, медицина и образование, поддерживающая сетевой поиск и встроенные плагины для погоды, даты и т.д. Оптимизированная модель демонстрирует выдающиеся результаты и высокую эффективность в сложных задачах на знание, понимании языка и высокоуровневом создании текстов, что делает ее идеальным выбором для профессиональных приложений."
|
475
469
|
},
|
@@ -625,6 +619,9 @@
|
|
625
619
|
},
|
626
620
|
"jamba-1.5-large": {},
|
627
621
|
"jamba-1.5-mini": {},
|
622
|
+
"lite": {
|
623
|
+
"description": "Spark Lite — это легковесная большая языковая модель с крайне низкой задержкой и высокой эффективностью обработки, полностью бесплатная и открытая, поддерживающая функции онлайн-поиска в реальном времени. Ее быстрая реакция делает ее отличным выбором для применения в устройствах с низкой вычислительной мощностью и для тонкой настройки моделей, обеспечивая пользователям отличное соотношение цены и качества, особенно в сценариях вопросов и ответов, генерации контента и поиска."
|
624
|
+
},
|
628
625
|
"llama-3.1-70b-instruct": {
|
629
626
|
"description": "Модель Llama 3.1 70B для команд, обладающая 70B параметрами, обеспечивает выдающуюся производительность в задачах генерации текста и выполнения команд."
|
630
627
|
},
|
@@ -700,6 +697,9 @@
|
|
700
697
|
"mathstral": {
|
701
698
|
"description": "MathΣtral специально разработан для научных исследований и математического вывода, обеспечивая эффективные вычислительные возможности и интерпретацию результатов."
|
702
699
|
},
|
700
|
+
"max-32k": {
|
701
|
+
"description": "Spark Max 32K обладает большой способностью обработки контекста, улучшенным пониманием контекста и логическим выводом, поддерживает текстовый ввод до 32K токенов, подходит для чтения длинных документов, частных вопросов и ответов и других сценариев."
|
702
|
+
},
|
703
703
|
"meta-llama-3-70b-instruct": {
|
704
704
|
"description": "Мощная модель с 70 миллиардами параметров, превосходящая в области рассуждений, кодирования и широких языковых приложений."
|
705
705
|
},
|
@@ -940,6 +940,9 @@
|
|
940
940
|
"pixtral-12b-2409": {
|
941
941
|
"description": "Модель Pixtral демонстрирует мощные способности в задачах графиков и понимания изображений, вопросов и ответов по документам, многомодального вывода и соблюдения инструкций, способная обрабатывать изображения в естественном разрешении и соотношении сторон, а также обрабатывать произвольное количество изображений в контекстном окне длиной до 128K токенов."
|
942
942
|
},
|
943
|
+
"pro-128k": {
|
944
|
+
"description": "Spark Pro 128K оснащен огромной способностью обработки контекста, способной обрабатывать до 128K контекстной информации, что делает его особенно подходящим для анализа длинных текстов и обработки долгосрочных логических связей, обеспечивая плавную и последовательную логику и разнообразную поддержку ссылок в сложных текстовых коммуникациях."
|
945
|
+
},
|
943
946
|
"qwen-coder-turbo-latest": {
|
944
947
|
"description": "Модель кода Tongyi Qwen."
|
945
948
|
},
|
package/locales/tr-TR/chat.json
CHANGED
@@ -68,9 +68,6 @@
|
|
68
68
|
"Gryphe/MythoMax-L2-13b": {
|
69
69
|
"description": "MythoMax-L2 (13B), çok alanlı uygulamalar ve karmaşık görevler için uygun yenilikçi bir modeldir."
|
70
70
|
},
|
71
|
-
"Max-32k": {
|
72
|
-
"description": "Spark Max 32K, büyük bağlam işleme yeteneği, daha güçlü bağlam anlama ve mantıksal akıl yürütme yeteneği ile donatılmıştır. 32K token'lık metin girişi destekler ve uzun belgelerin okunması, özel bilgi sorgulamaları gibi senaryolar için uygundur."
|
73
|
-
},
|
74
71
|
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
75
72
|
"description": "Hermes 2 Mixtral 8x7B DPO, olağanüstü yaratıcı deneyimler sunmak için tasarlanmış son derece esnek bir çoklu model birleşimidir."
|
76
73
|
},
|
@@ -110,9 +107,6 @@
|
|
110
107
|
"Phi-3.5-vision-instrust": {
|
111
108
|
"description": "Phi-3-görsel modelinin güncellenmiş versiyonu."
|
112
109
|
},
|
113
|
-
"Pro-128k": {
|
114
|
-
"description": "Spark Pro-128K, olağanüstü bağlam işleme yeteneği ile donatılmıştır, 128K'ya kadar bağlam bilgisi işleyebilir, özellikle uzun metin içeriklerinde bütünsel analiz ve uzun vadeli mantıksal bağlantı işleme gerektiren durumlar için uygundur, karmaşık metin iletişiminde akıcı ve tutarlı bir mantık ile çeşitli alıntı desteği sunar."
|
115
|
-
},
|
116
110
|
"Pro/OpenGVLab/InternVL2-8B": {
|
117
111
|
"description": "InternVL2, belgelere ve grafiklere anlama, sahne metni anlama, OCR, bilimsel ve matematik soruları çözme gibi çeşitli görsel dil görevlerinde mükemmel performans sergilemiştir."
|
118
112
|
},
|
@@ -278,6 +272,9 @@
|
|
278
272
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
279
273
|
"description": "Claude 3.5 Sonnet, endüstri standartlarını yükselterek, rakip modelleri ve Claude 3 Opus'u geride bırakarak geniş bir değerlendirmede mükemmel performans sergilerken, orta seviye modellerimizin hızı ve maliyeti ile birlikte gelir."
|
280
274
|
},
|
275
|
+
"anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
276
|
+
"description": "Claude 3.5 Sonnet, sektör standartlarını yükselterek, rakip modelleri ve Claude 3 Opus'u geride bırakarak, geniş bir değerlendirme yelpazesinde mükemmel performans sergilemekte, orta seviye modellerimizin hız ve maliyet avantajlarını sunmaktadır."
|
277
|
+
},
|
281
278
|
"anthropic.claude-3-haiku-20240307-v1:0": {
|
282
279
|
"description": "Claude 3 Haiku, Anthropic'in en hızlı ve en kompakt modelidir, neredeyse anında yanıt hızı sunar. Basit sorgular ve taleplere hızlı bir şekilde yanıt verebilir. Müşteriler, insan etkileşimini taklit eden kesintisiz bir AI deneyimi oluşturabileceklerdir. Claude 3 Haiku, görüntüleri işleyebilir ve metin çıktısı döndürebilir, 200K bağlam penceresine sahiptir."
|
283
280
|
},
|
@@ -467,9 +464,6 @@
|
|
467
464
|
"gemma2:2b": {
|
468
465
|
"description": "Gemma 2, Google tarafından sunulan verimli bir modeldir, küçük uygulamalardan karmaşık veri işleme senaryolarına kadar çeşitli uygulama alanlarını kapsar."
|
469
466
|
},
|
470
|
-
"general": {
|
471
|
-
"description": "Spark Lite, son derece düşük gecikme ve yüksek verimlilik sunan hafif bir büyük dil modelidir, tamamen ücretsiz ve açık olup, gerçek zamanlı çevrimiçi arama işlevini destekler. Hızlı yanıt verme özelliği, düşük hesaplama gücüne sahip cihazlarda çıkarım uygulamaları ve model ince ayarlarında mükemmel performans gösterir, kullanıcılara mükemmel maliyet etkinliği ve akıllı deneyim sunar, özellikle bilgi sorgulama, içerik oluşturma ve arama senaryolarında başarılıdır."
|
472
|
-
},
|
473
467
|
"generalv3": {
|
474
468
|
"description": "Spark Pro, profesyonel alanlar için optimize edilmiş yüksek performanslı büyük dil modelidir, matematik, programlama, sağlık, eğitim gibi birçok alana odaklanır ve çevrimiçi arama ile yerleşik hava durumu, tarih gibi eklentileri destekler. Optimize edilmiş modeli, karmaşık bilgi sorgulama, dil anlama ve yüksek düzeyde metin oluşturma konularında mükemmel performans ve yüksek verimlilik sergiler, profesyonel uygulama senaryoları için ideal bir seçimdir."
|
475
469
|
},
|
@@ -625,6 +619,9 @@
|
|
625
619
|
},
|
626
620
|
"jamba-1.5-large": {},
|
627
621
|
"jamba-1.5-mini": {},
|
622
|
+
"lite": {
|
623
|
+
"description": "Spark Lite, son derece düşük gecikme süresi ve yüksek verimlilikle çalışan hafif bir büyük dil modelidir. Tamamen ücretsiz ve açık olup, gerçek zamanlı çevrimiçi arama işlevini desteklemektedir. Hızlı yanıt verme özelliği, düşük hesaplama gücüne sahip cihazlarda çıkarım uygulamaları ve model ince ayarlarında mükemmel performans sergileyerek, kullanıcılara maliyet etkinliği ve akıllı deneyim sunmakta, özellikle bilgi sorgulama, içerik oluşturma ve arama senaryolarında başarılı olmaktadır."
|
624
|
+
},
|
628
625
|
"llama-3.1-70b-instruct": {
|
629
626
|
"description": "Llama 3.1 70B Instruct modeli, 70B parametreye sahiptir ve büyük metin üretimi ve talimat görevlerinde mükemmel performans sunar."
|
630
627
|
},
|
@@ -700,6 +697,9 @@
|
|
700
697
|
"mathstral": {
|
701
698
|
"description": "MathΣtral, bilimsel araştırma ve matematik akıl yürütme için tasarlanmış, etkili hesaplama yetenekleri ve sonuç açıklamaları sunar."
|
702
699
|
},
|
700
|
+
"max-32k": {
|
701
|
+
"description": "Spark Max 32K, büyük bağlam işleme yeteneği ile donatılmıştır ve daha güçlü bağlam anlama ve mantıksal çıkarım yetenekleri sunmaktadır. 32K token'lık metin girişi desteklemekte olup, uzun belgelerin okunması, özel bilgi sorgulama gibi senaryolar için uygundur."
|
702
|
+
},
|
703
703
|
"meta-llama-3-70b-instruct": {
|
704
704
|
"description": "Akıl yürütme, kodlama ve geniş dil uygulamalarında mükemmel bir 70 milyar parametreli model."
|
705
705
|
},
|
@@ -940,6 +940,9 @@
|
|
940
940
|
"pixtral-12b-2409": {
|
941
941
|
"description": "Pixtral modeli, grafik ve görüntü anlama, belge yanıtı, çok modlu akıl yürütme ve talimat takibi gibi görevlerde güçlü yetenekler sergiler, doğal çözünürlük ve en boy oranında görüntüleri alabilir ve 128K token uzunluğunda bir bağlam penceresinde herhangi bir sayıda görüntüyü işleyebilir."
|
942
942
|
},
|
943
|
+
"pro-128k": {
|
944
|
+
"description": "Spark Pro 128K, olağanüstü bağlam işleme yeteneği ile donatılmıştır ve 128K'ya kadar bağlam bilgilerini işleyebilir. Özellikle uzun metinlerin bütünsel analizi ve uzun vadeli mantıksal ilişkilerin işlenmesi gereken durumlar için uygundur ve karmaşık metin iletişiminde akıcı ve tutarlı bir mantık ile çeşitli alıntı desteği sunmaktadır."
|
945
|
+
},
|
943
946
|
"qwen-coder-turbo-latest": {
|
944
947
|
"description": "Tongyi Qianwen kodlama modeli."
|
945
948
|
},
|