@lobehub/chat 1.110.0 → 1.110.2
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +59 -0
- package/Dockerfile +1 -1
- package/apps/desktop/.i18nrc.js +2 -1
- package/apps/desktop/package.json +1 -2
- package/apps/desktop/resources/locales/ar/menu.json +1 -0
- package/apps/desktop/resources/locales/bg-BG/menu.json +1 -0
- package/apps/desktop/resources/locales/de-DE/menu.json +1 -0
- package/apps/desktop/resources/locales/en-US/menu.json +1 -0
- package/apps/desktop/resources/locales/es-ES/menu.json +1 -0
- package/apps/desktop/resources/locales/fa-IR/menu.json +1 -0
- package/apps/desktop/resources/locales/fr-FR/menu.json +1 -0
- package/apps/desktop/resources/locales/it-IT/menu.json +1 -0
- package/apps/desktop/resources/locales/ja-JP/menu.json +1 -0
- package/apps/desktop/resources/locales/ko-KR/menu.json +1 -0
- package/apps/desktop/resources/locales/nl-NL/menu.json +1 -0
- package/apps/desktop/resources/locales/pl-PL/menu.json +1 -0
- package/apps/desktop/resources/locales/pt-BR/menu.json +1 -0
- package/apps/desktop/resources/locales/ru-RU/menu.json +1 -0
- package/apps/desktop/resources/locales/tr-TR/menu.json +1 -0
- package/apps/desktop/resources/locales/vi-VN/menu.json +1 -0
- package/apps/desktop/resources/locales/zh-CN/menu.json +1 -0
- package/apps/desktop/resources/locales/zh-TW/menu.json +1 -0
- package/apps/desktop/src/main/controllers/MenuCtr.ts +2 -2
- package/apps/desktop/src/main/locales/default/menu.ts +1 -0
- package/apps/desktop/src/main/menus/impls/linux.ts +9 -24
- package/apps/desktop/src/main/menus/impls/macOS.ts +9 -28
- package/apps/desktop/src/main/menus/impls/windows.ts +9 -27
- package/changelog/v1.json +21 -0
- package/locales/ar/modelProvider.json +10 -1
- package/locales/ar/models.json +19 -1
- package/locales/bg-BG/modelProvider.json +10 -1
- package/locales/bg-BG/models.json +19 -1
- package/locales/de-DE/modelProvider.json +10 -1
- package/locales/de-DE/models.json +19 -1
- package/locales/en-US/modelProvider.json +10 -1
- package/locales/en-US/models.json +19 -1
- package/locales/es-ES/modelProvider.json +10 -1
- package/locales/es-ES/models.json +19 -1
- package/locales/fa-IR/modelProvider.json +10 -1
- package/locales/fa-IR/models.json +19 -1
- package/locales/fr-FR/modelProvider.json +10 -1
- package/locales/fr-FR/models.json +19 -1
- package/locales/it-IT/modelProvider.json +10 -1
- package/locales/it-IT/models.json +19 -1
- package/locales/ja-JP/modelProvider.json +10 -1
- package/locales/ja-JP/models.json +19 -1
- package/locales/ko-KR/modelProvider.json +10 -1
- package/locales/ko-KR/models.json +19 -1
- package/locales/nl-NL/modelProvider.json +10 -1
- package/locales/nl-NL/models.json +19 -1
- package/locales/pl-PL/modelProvider.json +10 -1
- package/locales/pl-PL/models.json +19 -1
- package/locales/pt-BR/modelProvider.json +10 -1
- package/locales/pt-BR/models.json +19 -1
- package/locales/ru-RU/modelProvider.json +10 -1
- package/locales/ru-RU/models.json +19 -1
- package/locales/tr-TR/modelProvider.json +10 -1
- package/locales/tr-TR/models.json +19 -1
- package/locales/vi-VN/modelProvider.json +10 -1
- package/locales/vi-VN/models.json +19 -1
- package/locales/zh-CN/modelProvider.json +10 -1
- package/locales/zh-CN/models.json +19 -1
- package/locales/zh-TW/modelProvider.json +10 -1
- package/locales/zh-TW/models.json +19 -1
- package/package.json +1 -1
- package/packages/electron-client-ipc/src/events/menu.ts +1 -1
- package/packages/types/package.json +3 -0
- package/packages/types/src/agent/chatConfig.ts +1 -1
- package/packages/types/src/agent/index.ts +3 -4
- package/packages/types/src/discover/assistants.ts +3 -3
- package/packages/types/src/message/chat.ts +4 -4
- package/src/app/(backend)/_deprecated/createBizOpenAI/auth.ts +2 -1
- package/src/app/(backend)/_deprecated/createBizOpenAI/createAzureOpenai.ts +1 -1
- package/src/app/(backend)/_deprecated/createBizOpenAI/createOpenai.ts +1 -1
- package/src/app/(backend)/_deprecated/createBizOpenAI/index.ts +1 -1
- package/src/app/(backend)/middleware/auth/index.test.ts +1 -1
- package/src/app/(backend)/middleware/auth/index.ts +1 -1
- package/src/app/(backend)/middleware/auth/utils.ts +1 -1
- package/src/app/(backend)/webapi/chat/[provider]/route.test.ts +1 -1
- package/src/app/(backend)/webapi/chat/[provider]/route.ts +2 -1
- package/src/app/(backend)/webapi/models/[provider]/pull/route.ts +2 -1
- package/src/app/(backend)/webapi/models/[provider]/route.ts +1 -1
- package/src/app/(backend)/webapi/plugin/gateway/route.ts +1 -1
- package/src/app/(backend)/webapi/text-to-image/[provider]/route.ts +1 -1
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/DisabledModels.tsx +15 -5
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/EnabledModelList/index.tsx +22 -4
- package/src/app/[variants]/(main)/settings/provider/features/ModelList/index.tsx +99 -3
- package/src/config/modelProviders/ai302.ts +1 -0
- package/src/config/modelProviders/openai.ts +1 -0
- package/src/features/ChatInput/Desktop/InputArea/index.tsx +14 -0
- package/src/features/ChatItem/index.tsx +25 -2
- package/src/features/Conversation/Error/index.tsx +1 -1
- package/src/features/Conversation/components/ChatItem/index.tsx +18 -1
- package/src/features/Portal/Artifacts/Header.tsx +1 -1
- package/src/libs/model-runtime/RouterRuntime/createRuntime.ts +2 -2
- package/src/locales/default/modelProvider.ts +9 -0
- package/src/services/__tests__/chat.test.ts +1 -1
- package/src/services/chat.ts +1 -1
- package/src/services/electron/system.ts +3 -1
- package/src/store/chat/slices/message/action.ts +1 -1
- package/src/store/chat/slices/plugin/action.ts +1 -1
- package/src/utils/errorResponse.test.ts +1 -1
- package/src/utils/errorResponse.ts +2 -1
- package/src/utils/fetch/__tests__/parseError.test.ts +1 -2
- package/src/utils/fetch/fetchSSE.ts +2 -1
- package/src/utils/fetch/parseError.ts +1 -1
- package/tsconfig.json +1 -1
- package/.dockerignore +0 -9
- package/packages/file-loaders/src/loaders/docx/fixtures/test.docx +0 -0
- package/packages/file-loaders/src/loaders/excel/fixtures/test.xlsx +0 -0
- package/packages/file-loaders/src/loaders/pptx/fixtures/test.pptx +0 -0
- package/packages/file-loaders/test/fixtures/test.docx +0 -0
- package/packages/file-loaders/test/fixtures/test.pptx +0 -0
- /package/{packages/types/src → src/types}/next.ts +0 -0
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3は、深度求索社が独自に開発したMoEモデルです。DeepSeek-V3は、Qwen2.5-72BやLlama-3.1-405Bなどの他のオープンソースモデルを超える評価成績を収め、性能面では世界トップクラスのクローズドソースモデルであるGPT-4oやClaude-3.5-Sonnetと肩を並べています。"
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-Fast": {
|
78
|
+
"description": "モデル提供元:sophnetプラットフォーム。DeepSeek V3 FastはDeepSeek V3 0324バージョンの高TPS高速版で、フルパワーの非量子化モデルです。コードと数学能力が強化され、応答速度がさらに速くなっています!"
|
79
|
+
},
|
77
80
|
"Doubao-lite-128k": {
|
78
81
|
"description": "Doubao-liteは極めて高速な応答速度と優れたコストパフォーマンスを備え、さまざまなシナリオに柔軟な選択肢を提供します。128kのコンテキストウィンドウでの推論と微調整をサポートします。"
|
79
82
|
},
|
@@ -608,6 +611,9 @@
|
|
608
611
|
"aya:35b": {
|
609
612
|
"description": "Aya 23は、Cohereが提供する多言語モデルであり、23の言語をサポートし、多様な言語アプリケーションを便利にします。"
|
610
613
|
},
|
614
|
+
"azure-DeepSeek-R1-0528": {
|
615
|
+
"description": "Microsoftによって展開されています。DeepSeek R1モデルはマイナーバージョンアップが行われ、現在のバージョンはDeepSeek-R1-0528です。最新のアップデートでは、計算リソースの増強と後訓練段階のアルゴリズム最適化メカニズムの導入により、推論の深さと推断能力が大幅に向上しました。このモデルは数学、プログラミング、一般的な論理など複数のベンチマークテストで優れた性能を示し、全体的なパフォーマンスはO3やGemini 2.5 Proなどの先進モデルに近づいています。"
|
616
|
+
},
|
611
617
|
"baichuan/baichuan2-13b-chat": {
|
612
618
|
"description": "Baichuan-13Bは百川智能が開発した130億パラメータを持つオープンソースの商用大規模言語モデルで、権威ある中国語と英語のベンチマークで同サイズの中で最良の結果を達成しています。"
|
613
619
|
},
|
@@ -668,6 +674,9 @@
|
|
668
674
|
"claude-3-sonnet-20240229": {
|
669
675
|
"description": "Claude 3 Sonnetは、企業のワークロードに理想的なバランスを提供し、より低価格で最大の効用を提供し、信頼性が高く、大規模な展開に適しています。"
|
670
676
|
},
|
677
|
+
"claude-opus-4-1-20250805": {
|
678
|
+
"description": "Claude Opus 4.1はAnthropicの最新かつ最強のモデルで、高度に複雑なタスクの処理に適しています。性能、知能、流暢さ、理解力の面で卓越したパフォーマンスを発揮します。"
|
679
|
+
},
|
671
680
|
"claude-opus-4-20250514": {
|
672
681
|
"description": "Claude Opus 4は、Anthropicが高度に複雑なタスクを処理するために開発した最も強力なモデルです。性能、知性、流暢さ、理解力において卓越したパフォーマンスを発揮します。"
|
673
682
|
},
|
@@ -2123,6 +2132,12 @@
|
|
2123
2132
|
"openai/gpt-4o-mini": {
|
2124
2133
|
"description": "GPT-4o miniはOpenAIがGPT-4 Omniの後に発表した最新モデルで、画像とテキストの入力をサポートし、テキストを出力します。彼らの最先端の小型モデルとして、最近の他の最前線モデルよりもはるかに安価で、GPT-3.5 Turboよりも60%以上安価です。最先端の知能を維持しつつ、顕著なコストパフォーマンスを誇ります。GPT-4o miniはMMLUテストで82%のスコアを獲得し、現在チャットの好みでGPT-4よりも高い評価を得ています。"
|
2125
2134
|
},
|
2135
|
+
"openai/gpt-oss-120b": {
|
2136
|
+
"description": "OpenAI GPT-OSS 120Bは1200億パラメータを持つ最先端の言語モデルで、ブラウザ検索とコード実行機能を内蔵し、推論能力も備えています。"
|
2137
|
+
},
|
2138
|
+
"openai/gpt-oss-20b": {
|
2139
|
+
"description": "OpenAI GPT-OSS 20Bは200億パラメータを持つ最先端の言語モデルで、ブラウザ検索とコード実行機能を内蔵し、推論能力も備えています。"
|
2140
|
+
},
|
2126
2141
|
"openai/o1": {
|
2127
2142
|
"description": "o1はOpenAIの新しい推論モデルで、画像とテキストの入力をサポートし、テキストを出力します。広範な一般知識を必要とする複雑なタスクに適しています。このモデルは20万トークンのコンテキストと2023年10月の知識カットオフを備えています。"
|
2128
2143
|
},
|
@@ -2411,8 +2426,11 @@
|
|
2411
2426
|
"qwen3-coder-480b-a35b-instruct": {
|
2412
2427
|
"description": "通義千問のコードモデルオープンソース版。最新のqwen3-coder-480b-a35b-instructはQwen3ベースのコード生成モデルで、強力なコーディングエージェント能力を持ち、ツール呼び出しや環境とのインタラクションに優れ、自律的なプログラミングが可能で、コード能力と汎用能力を兼ね備えています。"
|
2413
2428
|
},
|
2429
|
+
"qwen3-coder-flash": {
|
2430
|
+
"description": "通義千問コードモデル。最新のQwen3-CoderシリーズモデルはQwen3をベースにしたコード生成モデルで、強力なコーディングエージェント能力を持ち、ツール呼び出しや環境とのインタラクションに長けています。自主的なプログラミングが可能で、コード能力に優れると同時に汎用能力も兼ね備えています。"
|
2431
|
+
},
|
2414
2432
|
"qwen3-coder-plus": {
|
2415
|
-
"description": "
|
2433
|
+
"description": "通義千問コードモデル。最新のQwen3-CoderシリーズモデルはQwen3をベースにしたコード生成モデルで、強力なコーディングエージェント能力を持ち、ツール呼び出しや環境とのインタラクションに長けています。自主的なプログラミングが可能で、コード能力に優れると同時に汎用能力も兼ね備えています。"
|
2416
2434
|
},
|
2417
2435
|
"qwq": {
|
2418
2436
|
"description": "QwQはAIの推論能力を向上させることに特化した実験的研究モデルです。"
|
@@ -306,6 +306,7 @@
|
|
306
306
|
"latestTime": "마지막 업데이트 시간: {{time}}",
|
307
307
|
"noLatestTime": "아직 목록을 가져오지 않았습니다."
|
308
308
|
},
|
309
|
+
"noModelsInCategory": "이 카테고리에는 활성화된 모델이 없습니다",
|
309
310
|
"resetAll": {
|
310
311
|
"conform": "현재 모델의 모든 수정을 초기화하시겠습니까? 초기화 후 현재 모델 목록은 기본 상태로 돌아갑니다.",
|
311
312
|
"success": "초기화 성공",
|
@@ -316,7 +317,15 @@
|
|
316
317
|
"title": "모델 목록",
|
317
318
|
"total": "사용 가능한 모델 총 {{count}} 개"
|
318
319
|
},
|
319
|
-
"searchNotFound": "검색 결과를 찾을 수 없습니다"
|
320
|
+
"searchNotFound": "검색 결과를 찾을 수 없습니다",
|
321
|
+
"tabs": {
|
322
|
+
"all": "전체",
|
323
|
+
"chat": "대화",
|
324
|
+
"embedding": "임베딩",
|
325
|
+
"image": "이미지",
|
326
|
+
"stt": "음성 인식",
|
327
|
+
"tts": "음성 합성"
|
328
|
+
}
|
320
329
|
},
|
321
330
|
"sortModal": {
|
322
331
|
"success": "정렬 업데이트 성공",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3는 심층 탐색 회사에서 자체 개발한 MoE 모델입니다. DeepSeek-V3는 여러 평가에서 Qwen2.5-72B 및 Llama-3.1-405B와 같은 다른 오픈 소스 모델을 초월하며, 성능 면에서 세계 최고의 폐쇄형 모델인 GPT-4o 및 Claude-3.5-Sonnet과 동등합니다."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-Fast": {
|
78
|
+
"description": "모델 공급자는 sophnet 플랫폼입니다. DeepSeek V3 Fast는 DeepSeek V3 0324 버전의 고TPS 초고속 버전으로, 완전 비양자화되어 코드와 수학 능력이 더욱 강력하며 반응 속도가 훨씬 빠릅니다!"
|
79
|
+
},
|
77
80
|
"Doubao-lite-128k": {
|
78
81
|
"description": "Doubao-lite는 탁월한 응답 속도와 뛰어난 가성비를 자랑하며, 고객의 다양한 시나리오에 더 유연한 선택을 제공합니다. 128k 컨텍스트 윈도우 추론 및 미세 조정을 지원합니다."
|
79
82
|
},
|
@@ -608,6 +611,9 @@
|
|
608
611
|
"aya:35b": {
|
609
612
|
"description": "Aya 23은 Cohere에서 출시한 다국어 모델로, 23개 언어를 지원하여 다양한 언어 응용에 편리함을 제공합니다."
|
610
613
|
},
|
614
|
+
"azure-DeepSeek-R1-0528": {
|
615
|
+
"description": "마이크로소프트에서 배포 및 제공; DeepSeek R1 모델은 소규모 버전 업그레이드를 거쳤으며, 현재 버전은 DeepSeek-R1-0528입니다. 최신 업데이트에서 DeepSeek R1은 계산 자원 증대와 후학습 단계의 알고리즘 최적화 메커니즘 도입을 통해 추론 깊이와 추론 능력을 크게 향상시켰습니다. 이 모델은 수학, 프로그래밍, 일반 논리 등 여러 벤치마크 테스트에서 뛰어난 성능을 보이며, 전체 성능은 O3 및 Gemini 2.5 Pro와 같은 선도 모델에 근접합니다."
|
616
|
+
},
|
611
617
|
"baichuan/baichuan2-13b-chat": {
|
612
618
|
"description": "Baichuan-13B는 백천 인공지능이 개발한 130억 개의 매개변수를 가진 오픈 소스 상용 대형 언어 모델로, 권위 있는 중국어 및 영어 벤치마크에서 동일한 크기에서 최고의 성과를 달성했습니다."
|
613
619
|
},
|
@@ -668,6 +674,9 @@
|
|
668
674
|
"claude-3-sonnet-20240229": {
|
669
675
|
"description": "Claude 3 Sonnet은 기업 작업 부하에 이상적인 균형을 제공하며, 더 낮은 가격으로 최대 효용을 제공합니다. 신뢰성이 높고 대규모 배포에 적합합니다."
|
670
676
|
},
|
677
|
+
"claude-opus-4-1-20250805": {
|
678
|
+
"description": "Claude Opus 4.1은 Anthropic의 최신 고난도 작업 처리용 최강 모델입니다. 성능, 지능, 유창성, 이해력 면에서 탁월한 성과를 보입니다."
|
679
|
+
},
|
671
680
|
"claude-opus-4-20250514": {
|
672
681
|
"description": "Claude Opus 4는 Anthropic이 매우 복잡한 작업을 처리하기 위해 개발한 가장 강력한 모델입니다. 성능, 지능, 유창성 및 이해력 면에서 뛰어난 성과를 보입니다."
|
673
682
|
},
|
@@ -2123,6 +2132,12 @@
|
|
2123
2132
|
"openai/gpt-4o-mini": {
|
2124
2133
|
"description": "GPT-4o mini는 OpenAI가 GPT-4 Omni 이후에 출시한 최신 모델로, 이미지와 텍스트 입력을 지원하며 텍스트를 출력합니다. 가장 진보된 소형 모델로, 최근의 다른 최첨단 모델보다 훨씬 저렴하며, GPT-3.5 Turbo보다 60% 이상 저렴합니다. 최첨단 지능을 유지하면서도 뛰어난 가성비를 자랑합니다. GPT-4o mini는 MMLU 테스트에서 82%의 점수를 기록했으며, 현재 채팅 선호도에서 GPT-4보다 높은 순위를 차지하고 있습니다."
|
2125
2134
|
},
|
2135
|
+
"openai/gpt-oss-120b": {
|
2136
|
+
"description": "OpenAI GPT-OSS 120B는 1,200억 개의 파라미터를 가진 최첨단 언어 모델로, 내장된 브라우저 검색 및 코드 실행 기능과 추론 능력을 갖추고 있습니다."
|
2137
|
+
},
|
2138
|
+
"openai/gpt-oss-20b": {
|
2139
|
+
"description": "OpenAI GPT-OSS 20B는 200억 개의 파라미터를 가진 최첨단 언어 모델로, 내장된 브라우저 검색 및 코드 실행 기능과 추론 능력을 갖추고 있습니다."
|
2140
|
+
},
|
2126
2141
|
"openai/o1": {
|
2127
2142
|
"description": "o1은 OpenAI의 새로운 추론 모델로, 이미지와 텍스트 입력을 지원하며 텍스트를 출력합니다. 광범위한 일반 지식이 필요한 복잡한 작업에 적합합니다. 이 모델은 20만 토큰의 컨텍스트와 2023년 10월 기준 지식을 보유하고 있습니다."
|
2128
2143
|
},
|
@@ -2411,8 +2426,11 @@
|
|
2411
2426
|
"qwen3-coder-480b-a35b-instruct": {
|
2412
2427
|
"description": "통의천문 코드 모델 오픈 소스 버전입니다. 최신 qwen3-coder-480b-a35b-instruct는 Qwen3 기반 코드 생성 모델로, 강력한 코딩 에이전트 능력을 갖추고 도구 호출 및 환경 상호작용에 능하며, 자율 프로그래밍과 뛰어난 코드 능력 및 범용 능력을 동시에 구현합니다."
|
2413
2428
|
},
|
2429
|
+
"qwen3-coder-flash": {
|
2430
|
+
"description": "통의천문 코드 모델입니다. 최신 Qwen3-Coder 시리즈 모델은 Qwen3 기반의 코드 생성 모델로, 강력한 코딩 에이전트 능력을 보유하고 있으며 도구 호출과 환경 상호작용에 능숙하여 자율 프로그래밍이 가능하며, 뛰어난 코드 능력과 함께 범용 능력도 겸비하고 있습니다."
|
2431
|
+
},
|
2414
2432
|
"qwen3-coder-plus": {
|
2415
|
-
"description": "통의천문 코드 모델입니다. 최신 Qwen3-Coder
|
2433
|
+
"description": "통의천문 코드 모델입니다. 최신 Qwen3-Coder 시리즈 모델은 Qwen3 기반의 코드 생성 모델로, 강력한 코딩 에이전트 능력을 보유하고 있으며 도구 호출과 환경 상호작용에 능숙하여 자율 프로그래밍이 가능하며, 뛰어난 코드 능력과 함께 범용 능력도 겸비하고 있습니다."
|
2416
2434
|
},
|
2417
2435
|
"qwq": {
|
2418
2436
|
"description": "QwQ는 AI 추론 능력을 향상시키는 데 중점을 둔 실험 연구 모델입니다."
|
@@ -306,6 +306,7 @@
|
|
306
306
|
"latestTime": "Laatste update tijd: {{time}}",
|
307
307
|
"noLatestTime": "Lijst nog niet opgehaald"
|
308
308
|
},
|
309
|
+
"noModelsInCategory": "Er zijn geen ingeschakelde modellen in deze categorie",
|
309
310
|
"resetAll": {
|
310
311
|
"conform": "Weet je zeker dat je alle wijzigingen van het huidige model wilt resetten? Na de reset zal de huidige modellenlijst terugkeren naar de standaardstatus",
|
311
312
|
"success": "Resetten geslaagd",
|
@@ -316,7 +317,15 @@
|
|
316
317
|
"title": "Modellenlijst",
|
317
318
|
"total": "In totaal {{count}} modellen beschikbaar"
|
318
319
|
},
|
319
|
-
"searchNotFound": "Geen zoekresultaten gevonden"
|
320
|
+
"searchNotFound": "Geen zoekresultaten gevonden",
|
321
|
+
"tabs": {
|
322
|
+
"all": "Alles",
|
323
|
+
"chat": "Chat",
|
324
|
+
"embedding": "Inbedding",
|
325
|
+
"image": "Afbeelding",
|
326
|
+
"stt": "ASR",
|
327
|
+
"tts": "TTS"
|
328
|
+
}
|
320
329
|
},
|
321
330
|
"sortModal": {
|
322
331
|
"success": "Sortering succesvol bijgewerkt",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3 is een MoE-model dat zelf is ontwikkeld door DeepSeek Company. De prestaties van DeepSeek-V3 overtreffen die van andere open-source modellen zoals Qwen2.5-72B en Llama-3.1-405B, en presteert op het gebied van prestaties gelijkwaardig aan de wereldtop gesloten modellen zoals GPT-4o en Claude-3.5-Sonnet."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-Fast": {
|
78
|
+
"description": "Modelleverancier: sophnet-platform. DeepSeek V3 Fast is de high-TPS snelle versie van DeepSeek V3 0324, volledig niet-gequantiseerd, met sterkere codeer- en wiskundige capaciteiten en snellere respons!"
|
79
|
+
},
|
77
80
|
"Doubao-lite-128k": {
|
78
81
|
"description": "Doubao-lite biedt een ultieme responssnelheid en een betere prijs-kwaliteitverhouding, waardoor het flexibele keuzes biedt voor verschillende klantenscenario's. Ondersteunt redeneren en fijn afstemmen met een contextvenster van 128k."
|
79
82
|
},
|
@@ -608,6 +611,9 @@
|
|
608
611
|
"aya:35b": {
|
609
612
|
"description": "Aya 23 is een meertalig model van Cohere, ondersteunt 23 talen en biedt gemak voor diverse taaltoepassingen."
|
610
613
|
},
|
614
|
+
"azure-DeepSeek-R1-0528": {
|
615
|
+
"description": "Gehost en geleverd door Microsoft; het DeepSeek R1-model heeft een kleine versie-upgrade ondergaan, de huidige versie is DeepSeek-R1-0528. In de nieuwste update heeft DeepSeek R1 door het toevoegen van rekenkracht en het introduceren van algoritmische optimalisaties in de natrainingsfase de inferentiediepte en -capaciteit aanzienlijk verbeterd. Dit model presteert uitstekend op meerdere benchmarks zoals wiskunde, programmeren en algemene logica, en de algehele prestaties benaderen toonaangevende modellen zoals O3 en Gemini 2.5 Pro."
|
616
|
+
},
|
611
617
|
"baichuan/baichuan2-13b-chat": {
|
612
618
|
"description": "Baichuan-13B is een open-source, commercieel bruikbaar groot taalmodel ontwikkeld door Baichuan Intelligent, met 13 miljard parameters, dat de beste prestaties in zijn klasse heeft behaald op gezaghebbende Chinese en Engelse benchmarks."
|
613
619
|
},
|
@@ -668,6 +674,9 @@
|
|
668
674
|
"claude-3-sonnet-20240229": {
|
669
675
|
"description": "Claude 3 Sonnet biedt een ideale balans tussen intelligentie en snelheid voor bedrijfswerkbelastingen. Het biedt maximale bruikbaarheid tegen een lagere prijs, betrouwbaar en geschikt voor grootschalige implementatie."
|
670
676
|
},
|
677
|
+
"claude-opus-4-1-20250805": {
|
678
|
+
"description": "Claude Opus 4.1 is het nieuwste en krachtigste model van Anthropic voor het verwerken van zeer complexe taken. Het blinkt uit in prestaties, intelligentie, vloeiendheid en begrip."
|
679
|
+
},
|
671
680
|
"claude-opus-4-20250514": {
|
672
681
|
"description": "Claude Opus 4 is het krachtigste model van Anthropic voor het verwerken van zeer complexe taken. Het presteert uitstekend op het gebied van prestaties, intelligentie, vloeiendheid en begrip."
|
673
682
|
},
|
@@ -2123,6 +2132,12 @@
|
|
2123
2132
|
"openai/gpt-4o-mini": {
|
2124
2133
|
"description": "GPT-4o mini is het nieuwste model van OpenAI, gelanceerd na GPT-4 Omni, dat tekst- en afbeeldingsinvoer ondersteunt en tekstuitvoer genereert. Als hun meest geavanceerde kleine model is het veel goedkoper dan andere recente toonaangevende modellen en meer dan 60% goedkoper dan GPT-3.5 Turbo. Het behoudt de meest geavanceerde intelligentie met een aanzienlijke prijs-kwaliteitverhouding. GPT-4o mini behaalde 82% op de MMLU-test en staat momenteel hoger in chatvoorkeuren dan GPT-4."
|
2125
2134
|
},
|
2135
|
+
"openai/gpt-oss-120b": {
|
2136
|
+
"description": "OpenAI GPT-OSS 120B is een toonaangevend taalmodel met 120 miljard parameters, ingebouwde browserzoekfunctie en code-uitvoeringsmogelijkheden, en beschikt over redeneervermogen."
|
2137
|
+
},
|
2138
|
+
"openai/gpt-oss-20b": {
|
2139
|
+
"description": "OpenAI GPT-OSS 20B is een toonaangevend taalmodel met 20 miljard parameters, ingebouwde browserzoekfunctie en code-uitvoeringsmogelijkheden, en beschikt over redeneervermogen."
|
2140
|
+
},
|
2126
2141
|
"openai/o1": {
|
2127
2142
|
"description": "o1 is het nieuwe redeneermodel van OpenAI, ondersteunt tekst- en beeldinvoer en genereert tekstuitvoer, geschikt voor complexe taken die brede algemene kennis vereisen. Dit model heeft een context van 200K en een kennisafkapdatum van oktober 2023."
|
2128
2143
|
},
|
@@ -2411,8 +2426,11 @@
|
|
2411
2426
|
"qwen3-coder-480b-a35b-instruct": {
|
2412
2427
|
"description": "Open-source codeermodel van Tongyi Qianwen. De nieuwste qwen3-coder-480b-a35b-instruct is gebaseerd op Qwen3, met krachtige Coding Agent-capaciteiten, bedreven in toolaanroepen en omgevingsinteractie, en kan zelfstandig programmeren met uitstekende codeervaardigheden en algemene capaciteiten."
|
2413
2428
|
},
|
2429
|
+
"qwen3-coder-flash": {
|
2430
|
+
"description": "Tongyi Qianwen codeermodel. De nieuwste Qwen3-Coder-serie is gebaseerd op Qwen3 en is een codegeneratiemodel met krachtige Coding Agent-capaciteiten, bedreven in het aanroepen van tools en interactie met omgevingen, in staat tot autonoom programmeren, met uitstekende codeervaardigheden en tevens algemene capaciteiten."
|
2431
|
+
},
|
2414
2432
|
"qwen3-coder-plus": {
|
2415
|
-
"description": "
|
2433
|
+
"description": "Tongyi Qianwen codeermodel. De nieuwste Qwen3-Coder-serie is gebaseerd op Qwen3 en is een codegeneratiemodel met krachtige Coding Agent-capaciteiten, bedreven in het aanroepen van tools en interactie met omgevingen, in staat tot autonoom programmeren, met uitstekende codeervaardigheden en tevens algemene capaciteiten."
|
2416
2434
|
},
|
2417
2435
|
"qwq": {
|
2418
2436
|
"description": "QwQ is een experimenteel onderzoeksmodel dat zich richt op het verbeteren van de AI-redeneringscapaciteiten."
|
@@ -306,6 +306,7 @@
|
|
306
306
|
"latestTime": "Ostatnia aktualizacja: {{time}}",
|
307
307
|
"noLatestTime": "Lista nie została jeszcze pobrana"
|
308
308
|
},
|
309
|
+
"noModelsInCategory": "Brak włączonych modeli w tej kategorii",
|
309
310
|
"resetAll": {
|
310
311
|
"conform": "Czy na pewno chcesz zresetować wszystkie zmiany w bieżącym modelu? Po zresetowaniu lista modeli wróci do stanu domyślnego",
|
311
312
|
"success": "Resetowanie zakończone sukcesem",
|
@@ -316,7 +317,15 @@
|
|
316
317
|
"title": "Lista modeli",
|
317
318
|
"total": "Łącznie dostępnych modeli: {{count}}"
|
318
319
|
},
|
319
|
-
"searchNotFound": "Nie znaleziono wyników wyszukiwania"
|
320
|
+
"searchNotFound": "Nie znaleziono wyników wyszukiwania",
|
321
|
+
"tabs": {
|
322
|
+
"all": "Wszystkie",
|
323
|
+
"chat": "Czat",
|
324
|
+
"embedding": "Wektoryzacja",
|
325
|
+
"image": "Obraz",
|
326
|
+
"stt": "ASR",
|
327
|
+
"tts": "TTS"
|
328
|
+
}
|
320
329
|
},
|
321
330
|
"sortModal": {
|
322
331
|
"success": "Aktualizacja sortowania zakończona sukcesem",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3 to model MoE opracowany przez firmę DeepSeek. Wyniki DeepSeek-V3 w wielu testach przewyższają inne modele open source, takie jak Qwen2.5-72B i Llama-3.1-405B, a jego wydajność jest porównywalna z najlepszymi zamkniętymi modelami na świecie, takimi jak GPT-4o i Claude-3.5-Sonnet."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-Fast": {
|
78
|
+
"description": "Dostawca modelu: platforma sophnet. DeepSeek V3 Fast to szybka wersja o wysokim TPS modelu DeepSeek V3 0324, w pełni nienkwantyzowana, z ulepszonym kodem i zdolnościami matematycznymi, zapewniająca szybszą reakcję!"
|
79
|
+
},
|
77
80
|
"Doubao-lite-128k": {
|
78
81
|
"description": "Doubao-lite oferuje niezwykle szybkie reakcje i lepszy stosunek jakości do ceny, zapewniając klientom elastyczne opcje dla różnych scenariuszy. Obsługuje wnioskowanie i dostrajanie z kontekstem do 128k."
|
79
82
|
},
|
@@ -608,6 +611,9 @@
|
|
608
611
|
"aya:35b": {
|
609
612
|
"description": "Aya 23 to model wielojęzyczny wydany przez Cohere, wspierający 23 języki, ułatwiający różnorodne zastosowania językowe."
|
610
613
|
},
|
614
|
+
"azure-DeepSeek-R1-0528": {
|
615
|
+
"description": "Dostarczony i wdrożony przez Microsoft; model DeepSeek R1 przeszedł drobną aktualizację wersji, obecna wersja to DeepSeek-R1-0528. W najnowszej aktualizacji DeepSeek R1 znacznie poprawił głębokość wnioskowania i zdolności inferencyjne poprzez zwiększenie zasobów obliczeniowych oraz wprowadzenie optymalizacji algorytmów w fazie post-treningowej. Model ten osiąga doskonałe wyniki w testach bazowych z matematyki, programowania i logiki ogólnej, a jego ogólna wydajność zbliża się do czołowych modeli, takich jak O3 i Gemini 2.5 Pro."
|
616
|
+
},
|
611
617
|
"baichuan/baichuan2-13b-chat": {
|
612
618
|
"description": "Baichuan-13B to otwarty model językowy stworzony przez Baichuan Intelligence, zawierający 13 miliardów parametrów, który osiągnął najlepsze wyniki w swojej klasie w autorytatywnych benchmarkach w języku chińskim i angielskim."
|
613
619
|
},
|
@@ -668,6 +674,9 @@
|
|
668
674
|
"claude-3-sonnet-20240229": {
|
669
675
|
"description": "Claude 3 Sonnet zapewnia idealną równowagę między inteligencją a szybkością dla obciążeń roboczych w przedsiębiorstwach. Oferuje maksymalną użyteczność przy niższej cenie, jest niezawodny i odpowiedni do dużych wdrożeń."
|
670
676
|
},
|
677
|
+
"claude-opus-4-1-20250805": {
|
678
|
+
"description": "Claude Opus 4.1 to najnowszy i najpotężniejszy model Anthropic do obsługi wysoce złożonych zadań. Wyróżnia się doskonałą wydajnością, inteligencją, płynnością i zdolnością rozumienia."
|
679
|
+
},
|
671
680
|
"claude-opus-4-20250514": {
|
672
681
|
"description": "Claude Opus 4 to najpotężniejszy model Anthropic, zaprojektowany do obsługi wysoce złożonych zadań. Wyróżnia się doskonałymi osiągami, inteligencją, płynnością i zdolnością rozumienia."
|
673
682
|
},
|
@@ -2123,6 +2132,12 @@
|
|
2123
2132
|
"openai/gpt-4o-mini": {
|
2124
2133
|
"description": "GPT-4o mini to najnowszy model OpenAI, wydany po GPT-4 Omni, obsługujący wejścia tekstowe i wizualne. Jako ich najnowocześniejszy mały model, jest znacznie tańszy od innych niedawnych modeli czołowych i kosztuje o ponad 60% mniej niż GPT-3.5 Turbo. Utrzymuje najnowocześniejszą inteligencję, oferując jednocześnie znaczną wartość za pieniądze. GPT-4o mini uzyskał wynik 82% w teście MMLU i obecnie zajmuje wyższą pozycję w preferencjach czatu niż GPT-4."
|
2125
2134
|
},
|
2135
|
+
"openai/gpt-oss-120b": {
|
2136
|
+
"description": "OpenAI GPT-OSS 120B to zaawansowany model językowy z 120 miliardami parametrów, wyposażony w funkcje przeglądarki internetowej, wykonywania kodu oraz zdolności wnioskowania."
|
2137
|
+
},
|
2138
|
+
"openai/gpt-oss-20b": {
|
2139
|
+
"description": "OpenAI GPT-OSS 20B to zaawansowany model językowy z 20 miliardami parametrów, wyposażony w funkcje przeglądarki internetowej, wykonywania kodu oraz zdolności wnioskowania."
|
2140
|
+
},
|
2126
2141
|
"openai/o1": {
|
2127
2142
|
"description": "o1 to nowy model wnioskowania OpenAI, obsługujący wejścia tekstowo-obrazowe i generujący tekst, odpowiedni do złożonych zadań wymagających szerokiej wiedzy ogólnej. Model posiada kontekst o długości 200K oraz datę odcięcia wiedzy na październik 2023."
|
2128
2143
|
},
|
@@ -2411,8 +2426,11 @@
|
|
2411
2426
|
"qwen3-coder-480b-a35b-instruct": {
|
2412
2427
|
"description": "Otwartoźródłowa wersja modelu kodowania Tongyi Qianwen. Najnowszy qwen3-coder-480b-a35b-instruct to model generowania kodu oparty na Qwen3, posiadający potężne zdolności agenta kodującego, specjalizujący się w wywoływaniu narzędzi i interakcji środowiskowej, umożliwiający autonomiczne programowanie z doskonałymi zdolnościami kodowania i ogólnymi."
|
2413
2428
|
},
|
2429
|
+
"qwen3-coder-flash": {
|
2430
|
+
"description": "Model kodowania Tongyi Qianwen. Najnowsza seria modeli Qwen3-Coder oparta na Qwen3 to modele generujące kod, posiadające potężne zdolności agenta kodującego, biegłe w wywoływaniu narzędzi i interakcji ze środowiskiem, umożliwiające autonomiczne programowanie, łącząc doskonałe umiejętności kodowania z uniwersalnymi zdolnościami."
|
2431
|
+
},
|
2414
2432
|
"qwen3-coder-plus": {
|
2415
|
-
"description": "Model kodowania Tongyi Qianwen. Najnowsza seria Qwen3-Coder
|
2433
|
+
"description": "Model kodowania Tongyi Qianwen. Najnowsza seria modeli Qwen3-Coder oparta na Qwen3 to modele generujące kod, posiadające potężne zdolności agenta kodującego, biegłe w wywoływaniu narzędzi i interakcji ze środowiskiem, umożliwiające autonomiczne programowanie, łącząc doskonałe umiejętności kodowania z uniwersalnymi zdolnościami."
|
2416
2434
|
},
|
2417
2435
|
"qwq": {
|
2418
2436
|
"description": "QwQ to eksperymentalny model badawczy, skoncentrowany na zwiększeniu zdolności wnioskowania AI."
|
@@ -306,6 +306,7 @@
|
|
306
306
|
"latestTime": "Última atualização: {{time}}",
|
307
307
|
"noLatestTime": "Lista ainda não obtida"
|
308
308
|
},
|
309
|
+
"noModelsInCategory": "Nenhum modelo ativado nesta categoria",
|
309
310
|
"resetAll": {
|
310
311
|
"conform": "Você tem certeza de que deseja redefinir todas as modificações do modelo atual? Após a redefinição, a lista de modelos atuais voltará ao estado padrão",
|
311
312
|
"success": "Redefinição bem-sucedida",
|
@@ -316,7 +317,15 @@
|
|
316
317
|
"title": "Lista de Modelos",
|
317
318
|
"total": "Um total de {{count}} modelos disponíveis"
|
318
319
|
},
|
319
|
-
"searchNotFound": "Nenhum resultado encontrado"
|
320
|
+
"searchNotFound": "Nenhum resultado encontrado",
|
321
|
+
"tabs": {
|
322
|
+
"all": "Todos",
|
323
|
+
"chat": "Conversa",
|
324
|
+
"embedding": "Vetorização",
|
325
|
+
"image": "Imagem",
|
326
|
+
"stt": "ASR",
|
327
|
+
"tts": "TTS"
|
328
|
+
}
|
320
329
|
},
|
321
330
|
"sortModal": {
|
322
331
|
"success": "Ordenação atualizada com sucesso",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3 é um modelo MoE desenvolvido internamente pela DeepSeek. Os resultados de várias avaliações do DeepSeek-V3 superaram outros modelos de código aberto, como Qwen2.5-72B e Llama-3.1-405B, e seu desempenho é comparável aos melhores modelos fechados do mundo, como GPT-4o e Claude-3.5-Sonnet."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-Fast": {
|
78
|
+
"description": "Fornecedor do modelo: plataforma sophnet. DeepSeek V3 Fast é a versão de alta velocidade e alto TPS do DeepSeek V3 0324, totalmente não quantificada, com capacidades aprimoradas de código e matemática, respondendo de forma mais rápida!"
|
79
|
+
},
|
77
80
|
"Doubao-lite-128k": {
|
78
81
|
"description": "Doubao-lite oferece velocidade de resposta extrema e melhor custo-benefício, proporcionando opções mais flexíveis para diferentes cenários dos clientes. Suporta inferência e fine-tuning com janela de contexto de 128k."
|
79
82
|
},
|
@@ -608,6 +611,9 @@
|
|
608
611
|
"aya:35b": {
|
609
612
|
"description": "Aya 23 é um modelo multilíngue lançado pela Cohere, suportando 23 idiomas, facilitando aplicações linguísticas diversificadas."
|
610
613
|
},
|
614
|
+
"azure-DeepSeek-R1-0528": {
|
615
|
+
"description": "Implantado e fornecido pela Microsoft; o modelo DeepSeek R1 passou por uma atualização menor, a versão atual é DeepSeek-R1-0528. Na atualização mais recente, o DeepSeek R1 aumentou significativamente a profundidade de inferência e a capacidade de dedução ao adicionar recursos computacionais e introduzir mecanismos de otimização algorítmica na fase pós-treinamento. Este modelo apresenta desempenho excelente em vários benchmarks, incluindo matemática, programação e lógica geral, com desempenho geral próximo aos modelos líderes, como O3 e Gemini 2.5 Pro."
|
616
|
+
},
|
611
617
|
"baichuan/baichuan2-13b-chat": {
|
612
618
|
"description": "Baichuan-13B é um modelo de linguagem de código aberto e comercializável desenvolvido pela Baichuan Intelligence, contendo 13 bilhões de parâmetros, alcançando os melhores resultados em benchmarks de chinês e inglês na mesma dimensão."
|
613
619
|
},
|
@@ -668,6 +674,9 @@
|
|
668
674
|
"claude-3-sonnet-20240229": {
|
669
675
|
"description": "Claude 3 Sonnet oferece um equilíbrio ideal entre inteligência e velocidade para cargas de trabalho empresariais. Ele fornece máxima utilidade a um custo mais baixo, sendo confiável e adequado para implantação em larga escala."
|
670
676
|
},
|
677
|
+
"claude-opus-4-1-20250805": {
|
678
|
+
"description": "Claude Opus 4.1 é o modelo mais poderoso e recente da Anthropic para lidar com tarefas altamente complexas. Ele se destaca em desempenho, inteligência, fluidez e compreensão."
|
679
|
+
},
|
671
680
|
"claude-opus-4-20250514": {
|
672
681
|
"description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para lidar com tarefas altamente complexas. Ele se destaca em desempenho, inteligência, fluência e compreensão."
|
673
682
|
},
|
@@ -2123,6 +2132,12 @@
|
|
2123
2132
|
"openai/gpt-4o-mini": {
|
2124
2133
|
"description": "GPT-4o mini é o mais recente modelo da OpenAI, lançado após o GPT-4 Omni, que suporta entrada de texto e imagem e saída de texto. Como seu modelo compacto mais avançado, é muito mais barato do que outros modelos de ponta recentes e custa mais de 60% menos que o GPT-3.5 Turbo. Ele mantém inteligência de ponta, ao mesmo tempo que oferece uma relação custo-benefício significativa. O GPT-4o mini obteve uma pontuação de 82% no teste MMLU e atualmente está classificado acima do GPT-4 em preferências de chat."
|
2125
2134
|
},
|
2135
|
+
"openai/gpt-oss-120b": {
|
2136
|
+
"description": "OpenAI GPT-OSS 120B é um modelo de linguagem de ponta com 120 bilhões de parâmetros, incorporando funcionalidades de busca no navegador e execução de código, além de possuir capacidades de raciocínio."
|
2137
|
+
},
|
2138
|
+
"openai/gpt-oss-20b": {
|
2139
|
+
"description": "OpenAI GPT-OSS 20B é um modelo de linguagem de ponta com 20 bilhões de parâmetros, incorporando funcionalidades de busca no navegador e execução de código, além de possuir capacidades de raciocínio."
|
2140
|
+
},
|
2126
2141
|
"openai/o1": {
|
2127
2142
|
"description": "o1 é o novo modelo de raciocínio da OpenAI, que suporta entrada de texto e imagem e gera texto, adequado para tarefas complexas que exigem amplo conhecimento geral. Este modelo possui um contexto de 200K e data de corte de conhecimento em outubro de 2023."
|
2128
2143
|
},
|
@@ -2411,8 +2426,11 @@
|
|
2411
2426
|
"qwen3-coder-480b-a35b-instruct": {
|
2412
2427
|
"description": "Versão open source do modelo de código Tongyi Qianwen. O mais recente qwen3-coder-480b-a35b-instruct é um modelo de geração de código baseado no Qwen3, com forte capacidade de agente de codificação, especializado em chamadas de ferramentas e interação com ambientes, capaz de programação autônoma, combinando excelência em código com capacidades gerais."
|
2413
2428
|
},
|
2429
|
+
"qwen3-coder-flash": {
|
2430
|
+
"description": "Modelo de código Tongyi Qianwen. A mais recente série de modelos Qwen3-Coder é baseada no Qwen3 para geração de código, com forte capacidade de agente de codificação, especializada em chamadas de ferramentas e interação com o ambiente, capaz de programação autônoma, combinando excelente habilidade de codificação com capacidades gerais."
|
2431
|
+
},
|
2414
2432
|
"qwen3-coder-plus": {
|
2415
|
-
"description": "Modelo de código Tongyi Qianwen. A
|
2433
|
+
"description": "Modelo de código Tongyi Qianwen. A mais recente série de modelos Qwen3-Coder é baseada no Qwen3 para geração de código, com forte capacidade de agente de codificação, especializada em chamadas de ferramentas e interação com o ambiente, capaz de programação autônoma, combinando excelente habilidade de codificação com capacidades gerais."
|
2416
2434
|
},
|
2417
2435
|
"qwq": {
|
2418
2436
|
"description": "QwQ é um modelo de pesquisa experimental, focado em melhorar a capacidade de raciocínio da IA."
|
@@ -306,6 +306,7 @@
|
|
306
306
|
"latestTime": "Последнее обновление: {{time}}",
|
307
307
|
"noLatestTime": "Список еще не получен"
|
308
308
|
},
|
309
|
+
"noModelsInCategory": "В этой категории нет активных моделей",
|
309
310
|
"resetAll": {
|
310
311
|
"conform": "Вы уверены, что хотите сбросить все изменения текущей модели? После сброса список текущих моделей вернется к состоянию по умолчанию",
|
311
312
|
"success": "Сброс выполнен успешно",
|
@@ -316,7 +317,15 @@
|
|
316
317
|
"title": "Список моделей",
|
317
318
|
"total": "Всего доступно {{count}} моделей"
|
318
319
|
},
|
319
|
-
"searchNotFound": "Результаты поиска не найдены"
|
320
|
+
"searchNotFound": "Результаты поиска не найдены",
|
321
|
+
"tabs": {
|
322
|
+
"all": "Все",
|
323
|
+
"chat": "Чат",
|
324
|
+
"embedding": "Векторизация",
|
325
|
+
"image": "Изображение",
|
326
|
+
"stt": "ASR",
|
327
|
+
"tts": "TTS"
|
328
|
+
}
|
320
329
|
},
|
321
330
|
"sortModal": {
|
322
331
|
"success": "Сортировка обновлена успешно",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3 — это модель MoE, разработанная компанией DeepSeek. Результаты DeepSeek-V3 в нескольких оценках превосходят другие открытые модели, такие как Qwen2.5-72B и Llama-3.1-405B, и по производительности не уступают мировым ведущим закрытым моделям GPT-4o и Claude-3.5-Sonnet."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-Fast": {
|
78
|
+
"description": "Поставщик модели: платформа sophnet. DeepSeek V3 Fast — это высокоскоростная версия DeepSeek V3 0324 с высокой пропускной способностью (TPS), полностью не квантизированная, с улучшенными возможностями кода и математики, обеспечивающая более быструю реакцию!"
|
79
|
+
},
|
77
80
|
"Doubao-lite-128k": {
|
78
81
|
"description": "Doubao-lite обладает исключительной скоростью отклика и лучшим соотношением цена-качество, предоставляя клиентам более гибкие варианты для различных сценариев. Поддерживает вывод и дообучение с контекстным окном в 128k."
|
79
82
|
},
|
@@ -608,6 +611,9 @@
|
|
608
611
|
"aya:35b": {
|
609
612
|
"description": "Aya 23 — это многоязычная модель, выпущенная Cohere, поддерживающая 23 языка, обеспечивая удобство для многоязычных приложений."
|
610
613
|
},
|
614
|
+
"azure-DeepSeek-R1-0528": {
|
615
|
+
"description": "Развернуто и предоставлено Microsoft; модель DeepSeek R1 получила небольшое обновление версии, текущая версия — DeepSeek-R1-0528. В последнем обновлении DeepSeek R1 значительно улучшил глубину вывода и вычислительные возможности за счет увеличения вычислительных ресурсов и внедрения алгоритмических оптимизаций на этапе дообучения. Эта модель демонстрирует отличные результаты в тестах по математике, программированию и общей логике, а её общая производительность близка к ведущим моделям, таким как O3 и Gemini 2.5 Pro."
|
616
|
+
},
|
611
617
|
"baichuan/baichuan2-13b-chat": {
|
612
618
|
"description": "Baichuan-13B — это открытая коммерческая крупная языковая модель с 13 миллиардами параметров, разработанная Baichuan Intelligence, которая показала лучшие результаты среди моделей того же размера на авторитетных бенчмарках на китайском и английском языках."
|
613
619
|
},
|
@@ -668,6 +674,9 @@
|
|
668
674
|
"claude-3-sonnet-20240229": {
|
669
675
|
"description": "Claude 3 Sonnet обеспечивает идеальный баланс между интеллектом и скоростью для корпоративных рабочих нагрузок. Он предлагает максимальную полезность по более низкой цене, надежен и подходит для масштабного развертывания."
|
670
676
|
},
|
677
|
+
"claude-opus-4-1-20250805": {
|
678
|
+
"description": "Claude Opus 4.1 — новейшая и самая мощная модель Anthropic для решения высоко сложных задач. Она превосходна по производительности, интеллекту, плавности и пониманию."
|
679
|
+
},
|
671
680
|
"claude-opus-4-20250514": {
|
672
681
|
"description": "Claude Opus 4 — это самая мощная модель Anthropic для решения высококомплексных задач. Она превосходно проявляет себя в производительности, интеллекте, плавности и понимании."
|
673
682
|
},
|
@@ -2123,6 +2132,12 @@
|
|
2123
2132
|
"openai/gpt-4o-mini": {
|
2124
2133
|
"description": "GPT-4o mini — это последняя модель от OpenAI, выпущенная после GPT-4 Omni, поддерживающая ввод изображений и текста с выводом текста. Как их самый продвинутый компактный модель, она значительно дешевле других недавних передовых моделей и более чем на 60% дешевле GPT-3.5 Turbo. Она сохраняет передовой уровень интеллекта при значительном соотношении цена-качество. GPT-4o mini набрала 82% в тесте MMLU и в настоящее время занимает более высокое место по предпочтениям в чате, чем GPT-4."
|
2125
2134
|
},
|
2135
|
+
"openai/gpt-oss-120b": {
|
2136
|
+
"description": "OpenAI GPT-OSS 120B — передовая языковая модель с 120 миллиардами параметров, встроенным поиском в браузере и возможностями выполнения кода, обладающая навыками рассуждения."
|
2137
|
+
},
|
2138
|
+
"openai/gpt-oss-20b": {
|
2139
|
+
"description": "OpenAI GPT-OSS 20B — передовая языковая модель с 20 миллиардами параметров, встроенным поиском в браузере и возможностями выполнения кода, обладающая навыками рассуждения."
|
2140
|
+
},
|
2126
2141
|
"openai/o1": {
|
2127
2142
|
"description": "o1 — новая модель рассуждений от OpenAI, поддерживающая ввод изображений и текста с выводом текста, предназначенная для сложных задач, требующих широких универсальных знаний. Модель обладает контекстом в 200K и датой отсечения знаний — октябрь 2023 года."
|
2128
2143
|
},
|
@@ -2411,8 +2426,11 @@
|
|
2411
2426
|
"qwen3-coder-480b-a35b-instruct": {
|
2412
2427
|
"description": "Открытая версия модели кода Tongyi Qianwen. Последняя модель qwen3-coder-480b-a35b-instruct основана на Qwen3 и обладает мощными возможностями Coding Agent, хорошо справляется с вызовом инструментов и взаимодействием с окружением, обеспечивая автономное программирование с выдающимися кодовыми и универсальными способностями."
|
2413
2428
|
},
|
2429
|
+
"qwen3-coder-flash": {
|
2430
|
+
"description": "Модель кода Tongyi Qianwen. Последняя серия моделей Qwen3-Coder основана на Qwen3 и представляет собой модель генерации кода с мощными возможностями Coding Agent, отлично справляющуюся с вызовом инструментов и взаимодействием с окружением, способную к автономному программированию, обладающую выдающимися кодировочными и универсальными способностями."
|
2431
|
+
},
|
2414
2432
|
"qwen3-coder-plus": {
|
2415
|
-
"description": "Модель кода Tongyi Qianwen. Последняя серия моделей Qwen3-Coder
|
2433
|
+
"description": "Модель кода Tongyi Qianwen. Последняя серия моделей Qwen3-Coder основана на Qwen3 и представляет собой модель генерации кода с мощными возможностями Coding Agent, отлично справляющуюся с вызовом инструментов и взаимодействием с окружением, способную к автономному программированию, обладающую выдающимися кодировочными и универсальными способностями."
|
2416
2434
|
},
|
2417
2435
|
"qwq": {
|
2418
2436
|
"description": "QwQ — это экспериментальная исследовательская модель, сосредоточенная на повышении возможностей вывода ИИ."
|
@@ -306,6 +306,7 @@
|
|
306
306
|
"latestTime": "Son güncelleme zamanı: {{time}}",
|
307
307
|
"noLatestTime": "Henüz liste alınmadı"
|
308
308
|
},
|
309
|
+
"noModelsInCategory": "Bu kategoride etkinleştirilmiş model yok",
|
309
310
|
"resetAll": {
|
310
311
|
"conform": "Mevcut modelin tüm değişikliklerini sıfırlamak istediğinize emin misiniz? Sıfırladıktan sonra mevcut model listesi varsayılan duruma dönecektir.",
|
311
312
|
"success": "Sıfırlama başarılı",
|
@@ -316,7 +317,15 @@
|
|
316
317
|
"title": "Model Listesi",
|
317
318
|
"total": "Toplam {{count}} adet model mevcut"
|
318
319
|
},
|
319
|
-
"searchNotFound": "Arama sonuçları bulunamadı"
|
320
|
+
"searchNotFound": "Arama sonuçları bulunamadı",
|
321
|
+
"tabs": {
|
322
|
+
"all": "Tümü",
|
323
|
+
"chat": "Sohbet",
|
324
|
+
"embedding": "Vektörleştirme",
|
325
|
+
"image": "Resim",
|
326
|
+
"stt": "ASR",
|
327
|
+
"tts": "TTS"
|
328
|
+
}
|
320
329
|
},
|
321
330
|
"sortModal": {
|
322
331
|
"success": "Sıralama güncellemesi başarılı",
|
@@ -74,6 +74,9 @@
|
|
74
74
|
"DeepSeek-V3": {
|
75
75
|
"description": "DeepSeek-V3, Derin Arayış şirketi tarafından geliştirilen bir MoE modelidir. DeepSeek-V3, birçok değerlendirmede Qwen2.5-72B ve Llama-3.1-405B gibi diğer açık kaynak modelleri geride bırakmış ve performans açısından dünya çapında en iyi kapalı kaynak model olan GPT-4o ve Claude-3.5-Sonnet ile eşit seviyededir."
|
76
76
|
},
|
77
|
+
"DeepSeek-V3-Fast": {
|
78
|
+
"description": "Model sağlayıcısı: sophnet platformu. DeepSeek V3 Fast, DeepSeek V3 0324 sürümünün yüksek TPS hızlı versiyonudur, tam performanslı ve kuantize edilmemiştir, kodlama ve matematik yetenekleri daha güçlüdür, yanıt süresi daha hızlıdır!"
|
79
|
+
},
|
77
80
|
"Doubao-lite-128k": {
|
78
81
|
"description": "Doubao-lite, son derece hızlı yanıt süresi ve daha iyi fiyat-performans oranı ile müşterilere farklı senaryolar için daha esnek seçenekler sunar. 128k bağlam penceresi ile çıkarım ve ince ayar desteği sağlar."
|
79
82
|
},
|
@@ -608,6 +611,9 @@
|
|
608
611
|
"aya:35b": {
|
609
612
|
"description": "Aya 23, Cohere tarafından sunulan çok dilli bir modeldir, 23 dili destekler ve çok dilli uygulamalar için kolaylık sağlar."
|
610
613
|
},
|
614
|
+
"azure-DeepSeek-R1-0528": {
|
615
|
+
"description": "Microsoft tarafından dağıtılmıştır; DeepSeek R1 modeli küçük bir sürüm güncellemesi almıştır, mevcut sürüm DeepSeek-R1-0528'dir. En son güncellemede, DeepSeek R1 hesaplama kaynaklarını artırarak ve eğitim sonrası algoritma optimizasyon mekanizmasını tanıtarak çıkarım derinliği ve tahmin yeteneğini önemli ölçüde geliştirmiştir. Bu model matematik, programlama ve genel mantık gibi çeşitli kıyaslama testlerinde üstün performans göstermiştir ve genel performansı O3 ve Gemini 2.5 Pro gibi önde gelen modellerle yakındır."
|
616
|
+
},
|
611
617
|
"baichuan/baichuan2-13b-chat": {
|
612
618
|
"description": "Baichuan-13B, Baichuan Zhi Neng tarafından geliştirilen 130 milyar parametreye sahip açık kaynaklı ticari bir büyük dil modelidir ve yetkili Çince ve İngilizce benchmark'larda aynı boyuttaki en iyi sonuçları elde etmiştir."
|
613
619
|
},
|
@@ -668,6 +674,9 @@
|
|
668
674
|
"claude-3-sonnet-20240229": {
|
669
675
|
"description": "Claude 3 Sonnet, akıllı ve hızlı bir denge sunarak kurumsal iş yükleri için idealdir. Daha düşük bir fiyatla maksimum fayda sağlar, güvenilir ve büyük ölçekli dağıtım için uygundur."
|
670
676
|
},
|
677
|
+
"claude-opus-4-1-20250805": {
|
678
|
+
"description": "Claude Opus 4.1, Anthropic'in en karmaşık görevleri işlemek için geliştirdiği en güçlü modelidir. Performans, zeka, akıcılık ve anlama yeteneği açısından olağanüstü bir performans sergiler."
|
679
|
+
},
|
671
680
|
"claude-opus-4-20250514": {
|
672
681
|
"description": "Claude Opus 4, Anthropic'in son derece karmaşık görevleri işlemek için geliştirdiği en güçlü modeldir. Performans, zeka, akıcılık ve anlama açısından mükemmel bir şekilde öne çıkmaktadır."
|
673
682
|
},
|
@@ -2123,6 +2132,12 @@
|
|
2123
2132
|
"openai/gpt-4o-mini": {
|
2124
2133
|
"description": "GPT-4o mini, OpenAI'nin GPT-4 Omni'den sonra sunduğu en son modeldir; görsel ve metin girişi destekler ve metin çıktısı verir. En gelişmiş küçük model olarak, diğer son zamanlardaki öncü modellere göre çok daha ucuzdur ve GPT-3.5 Turbo'dan %60'tan fazla daha ucuzdur. En son teknolojiyi korurken, önemli bir maliyet etkinliği sunar. GPT-4o mini, MMLU testinde %82 puan almış olup, şu anda sohbet tercihleri açısından GPT-4'ün üzerinde bir sıralamaya sahiptir."
|
2125
2134
|
},
|
2135
|
+
"openai/gpt-oss-120b": {
|
2136
|
+
"description": "OpenAI GPT-OSS 120B, 120 milyar parametreye sahip üst düzey bir dil modelidir, yerleşik tarayıcı arama ve kod yürütme özellikleri ile birlikte çıkarım yeteneğine sahiptir."
|
2137
|
+
},
|
2138
|
+
"openai/gpt-oss-20b": {
|
2139
|
+
"description": "OpenAI GPT-OSS 20B, 20 milyar parametreye sahip üst düzey bir dil modelidir, yerleşik tarayıcı arama ve kod yürütme özellikleri ile birlikte çıkarım yeteneğine sahiptir."
|
2140
|
+
},
|
2126
2141
|
"openai/o1": {
|
2127
2142
|
"description": "o1, OpenAI'nin yeni çıkarım modeli olup, metin ve görsel girişleri destekler ve metin çıktısı üretir; geniş kapsamlı genel bilgi gerektiren karmaşık görevler için uygundur. Model, 200K bağlam uzunluğuna ve 2023 Ekim bilgi kesim tarihine sahiptir."
|
2128
2143
|
},
|
@@ -2411,8 +2426,11 @@
|
|
2411
2426
|
"qwen3-coder-480b-a35b-instruct": {
|
2412
2427
|
"description": "Tongyi Qianwen kod modeli açık kaynak versiyonudur. En yeni qwen3-coder-480b-a35b-instruct, Qwen3 tabanlı kod oluşturma modelidir; güçlü Kodlama Ajanı yeteneklerine sahiptir, araç çağrısı ve ortam etkileşiminde uzmandır, otonom programlama yapabilir ve üstün kodlama yetenekleri ile genel yetenekleri bir arada sunar."
|
2413
2428
|
},
|
2429
|
+
"qwen3-coder-flash": {
|
2430
|
+
"description": "Tongyi Qianwen kod modeli. En yeni Qwen3-Coder serisi modeller, Qwen3 tabanlı kod üretim modelleridir, güçlü Kodlama Ajanı yeteneklerine sahiptir, araç çağrıları ve ortam etkileşiminde uzmandır, bağımsız programlama yapabilir, üstün kodlama yeteneklerinin yanı sıra genel yeteneklere de sahiptir."
|
2431
|
+
},
|
2414
2432
|
"qwen3-coder-plus": {
|
2415
|
-
"description": "Tongyi Qianwen kod
|
2433
|
+
"description": "Tongyi Qianwen kod modeli. En yeni Qwen3-Coder serisi modeller, Qwen3 tabanlı kod üretim modelleridir, güçlü Kodlama Ajanı yeteneklerine sahiptir, araç çağrıları ve ortam etkileşiminde uzmandır, bağımsız programlama yapabilir, üstün kodlama yeteneklerinin yanı sıra genel yeteneklere de sahiptir."
|
2416
2434
|
},
|
2417
2435
|
"qwq": {
|
2418
2436
|
"description": "QwQ, AI akıl yürütme yeteneklerini artırmaya odaklanan deneysel bir araştırma modelidir."
|
@@ -306,6 +306,7 @@
|
|
306
306
|
"latestTime": "Thời gian cập nhật lần cuối: {{time}}",
|
307
307
|
"noLatestTime": "Chưa lấy danh sách"
|
308
308
|
},
|
309
|
+
"noModelsInCategory": "Không có mô hình nào được kích hoạt trong danh mục này",
|
309
310
|
"resetAll": {
|
310
311
|
"conform": "Xác nhận việc đặt lại tất cả các thay đổi của mô hình hiện tại? Sau khi đặt lại, danh sách mô hình hiện tại sẽ trở về trạng thái mặc định",
|
311
312
|
"success": "Đặt lại thành công",
|
@@ -316,7 +317,15 @@
|
|
316
317
|
"title": "Danh sách mô hình",
|
317
318
|
"total": "Có tổng cộng {{count}} mô hình khả dụng"
|
318
319
|
},
|
319
|
-
"searchNotFound": "Không tìm thấy kết quả tìm kiếm"
|
320
|
+
"searchNotFound": "Không tìm thấy kết quả tìm kiếm",
|
321
|
+
"tabs": {
|
322
|
+
"all": "Tất cả",
|
323
|
+
"chat": "Đối thoại",
|
324
|
+
"embedding": "Nhúng",
|
325
|
+
"image": "Hình ảnh",
|
326
|
+
"stt": "Nhận dạng giọng nói",
|
327
|
+
"tts": "Chuyển văn bản thành giọng nói"
|
328
|
+
}
|
320
329
|
},
|
321
330
|
"sortModal": {
|
322
331
|
"success": "Cập nhật sắp xếp thành công",
|