@lobehub/lobehub 2.0.0-next.272 → 2.0.0-next.273
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/locales/ar/common.json +1 -1
- package/locales/ar/discover.json +2 -2
- package/locales/ar/models.json +38 -9
- package/locales/ar/onboarding.json +1 -1
- package/locales/ar/providers.json +0 -1
- package/locales/bg-BG/common.json +2 -0
- package/locales/bg-BG/discover.json +2 -2
- package/locales/bg-BG/models.json +45 -10
- package/locales/bg-BG/onboarding.json +1 -1
- package/locales/bg-BG/providers.json +0 -1
- package/locales/de-DE/common.json +2 -0
- package/locales/de-DE/discover.json +2 -2
- package/locales/de-DE/models.json +34 -9
- package/locales/de-DE/onboarding.json +3 -0
- package/locales/de-DE/providers.json +0 -1
- package/locales/en-US/discover.json +2 -2
- package/locales/en-US/models.json +10 -10
- package/locales/en-US/providers.json +0 -1
- package/locales/es-ES/common.json +2 -0
- package/locales/es-ES/discover.json +2 -2
- package/locales/es-ES/models.json +29 -10
- package/locales/es-ES/onboarding.json +3 -0
- package/locales/es-ES/providers.json +0 -1
- package/locales/fa-IR/common.json +2 -0
- package/locales/fa-IR/discover.json +2 -2
- package/locales/fa-IR/models.json +33 -10
- package/locales/fa-IR/onboarding.json +3 -0
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fr-FR/common.json +2 -0
- package/locales/fr-FR/discover.json +2 -2
- package/locales/fr-FR/models.json +45 -10
- package/locales/fr-FR/onboarding.json +3 -0
- package/locales/fr-FR/providers.json +0 -1
- package/locales/it-IT/common.json +2 -0
- package/locales/it-IT/discover.json +2 -2
- package/locales/it-IT/models.json +5 -10
- package/locales/it-IT/onboarding.json +3 -0
- package/locales/it-IT/providers.json +0 -1
- package/locales/ja-JP/common.json +2 -0
- package/locales/ja-JP/discover.json +2 -2
- package/locales/ja-JP/models.json +34 -5
- package/locales/ja-JP/onboarding.json +3 -0
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ko-KR/common.json +2 -0
- package/locales/ko-KR/discover.json +2 -2
- package/locales/ko-KR/models.json +5 -11
- package/locales/ko-KR/onboarding.json +3 -0
- package/locales/ko-KR/providers.json +0 -1
- package/locales/nl-NL/common.json +2 -0
- package/locales/nl-NL/discover.json +2 -2
- package/locales/nl-NL/models.json +47 -6
- package/locales/nl-NL/onboarding.json +3 -0
- package/locales/nl-NL/providers.json +0 -1
- package/locales/pl-PL/common.json +2 -0
- package/locales/pl-PL/discover.json +2 -2
- package/locales/pl-PL/models.json +35 -10
- package/locales/pl-PL/onboarding.json +3 -0
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pt-BR/common.json +2 -0
- package/locales/pt-BR/discover.json +2 -2
- package/locales/pt-BR/models.json +47 -9
- package/locales/pt-BR/onboarding.json +3 -0
- package/locales/pt-BR/providers.json +0 -1
- package/locales/ru-RU/common.json +2 -0
- package/locales/ru-RU/discover.json +2 -2
- package/locales/ru-RU/models.json +52 -10
- package/locales/ru-RU/onboarding.json +3 -0
- package/locales/ru-RU/providers.json +0 -1
- package/locales/tr-TR/common.json +2 -0
- package/locales/tr-TR/discover.json +2 -2
- package/locales/tr-TR/models.json +38 -10
- package/locales/tr-TR/onboarding.json +3 -0
- package/locales/tr-TR/providers.json +0 -1
- package/locales/vi-VN/common.json +2 -0
- package/locales/vi-VN/discover.json +2 -2
- package/locales/vi-VN/models.json +5 -5
- package/locales/vi-VN/onboarding.json +3 -0
- package/locales/vi-VN/providers.json +0 -1
- package/locales/zh-CN/discover.json +2 -2
- package/locales/zh-CN/models.json +41 -9
- package/locales/zh-CN/onboarding.json +3 -0
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-TW/common.json +2 -0
- package/locales/zh-TW/discover.json +2 -2
- package/locales/zh-TW/models.json +43 -9
- package/locales/zh-TW/onboarding.json +3 -0
- package/locales/zh-TW/providers.json +0 -1
- package/package.json +1 -1
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、顧客サポート、教育、技術支援などの大規模ユースケースにおいて、優れた理解力と生成能力を兼ね備えています。",
|
|
272
272
|
"claude-2.0.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
|
|
273
273
|
"claude-2.1.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku は、Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku は、Anthropic による次世代モデルの中で最速のモデルです。Claude 3 Haiku と比較してあらゆるスキルが向上しており、従来の最大モデルである Claude 3 Opus を多くの知能ベンチマークで上回ります。",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haikuは、軽量タスク向けに高速な応答を提供します。",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet は、Anthropic による最も知的なモデルであり、市場初のハイブリッド推論モデルです。瞬時の応答から、ユーザーが確認できる段階的な推論まで対応可能です。特にコーディング、データサイエンス、画像認識、エージェントタスクに優れています。",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnetは、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haikuは、Anthropicの最速かつ最小のモデルで、即時応答と高速かつ正確な性能を実現するよう設計されています。",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opusは、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnetは、知性と速度のバランスを取り、エンタープライズ向けのワークロードにおいて高い実用性とコスト効率、信頼性のある大規模展開を実現します。",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 は、Anthropic
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 は、Anthropic による最速かつ最も賢い Haiku モデルであり、驚異的なスピードと高度な推論能力を備えています。",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinkingは、推論プロセスを可視化できる高度なバリアントです。",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1は、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 は、Anthropic
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 は、Anthropic による最も強力なモデルであり、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、卓越した知性とスケーラブルな性能を兼ね備え、最高品質の応答と推論が求められる複雑なタスクに最適です。",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinkingは、即時応答または段階的な思考プロセスを可視化しながら出力できます。",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 は、瞬時の応答と、可視化された段階的な思考プロセスの両方を生成できます。",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5は、Anthropic史上最も知的なモデルです。",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4は、開発者の生産性を向上させる多言語対応のAIコーディングアシスタントで、Q&Aやコード補完をサポートします。",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9Bは、多言語コード生成モデルで、コード補完、生成、インタープリタ、Web検索、関数呼び出し、リポジトリレベルのQ&Aなど、幅広いソフトウェア開発シナリオに対応します。10B未満のパラメータで最高クラスのコードモデルです。",
|
|
@@ -355,6 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 は DeepSeekMoE-27B をベースにした MoE 視覚言語モデルで、スパースアクティベーションにより、4.5B のアクティブパラメータで高性能を実現しています。視覚 QA、OCR、文書・表・チャート理解、視覚的グラウンディングに優れています。",
|
|
358
|
+
"deepseek-chat.description": "一般的な対話能力とコーディング能力を融合した新しいオープンソースモデルです。チャットモデルの自然な対話性と、コーディングモデルの強力なプログラミング能力を維持しつつ、ユーザーの好みにより適合するよう調整されています。DeepSeek-V2.5 は、文章生成や指示の理解・実行能力も向上しています。",
|
|
358
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B は 2T トークン(コード 87%、中英テキスト 13%)で学習されたコード言語モデルです。16K のコンテキストウィンドウと Fill-in-the-Middle タスクを導入し、プロジェクトレベルのコード補完とスニペット補完を提供します。",
|
|
359
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
|
|
360
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
|
|
@@ -377,6 +378,7 @@
|
|
|
377
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 高速フルバージョンは、リアルタイムのウェブ検索を搭載し、671Bスケールの能力と高速応答を両立します。",
|
|
378
379
|
"deepseek-r1-online.description": "DeepSeek R1 フルバージョンは、671Bパラメータとリアルタイムのウェブ検索を備え、より強力な理解と生成を提供します。",
|
|
379
380
|
"deepseek-r1.description": "DeepSeek-R1は、強化学習前にコールドスタートデータを使用し、数学、コーディング、推論においてOpenAI-o1と同等の性能を発揮します。",
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 の思考モードは、最終的な回答の前に思考の過程(Chain-of-Thought)を出力することで、精度を高めます。",
|
|
380
382
|
"deepseek-v2.description": "DeepSeek V2は、コスト効率の高い処理を実現する効率的なMoEモデルです。",
|
|
381
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236Bは、コード生成に特化したDeepSeekのモデルで、強力なコード生成能力を持ちます。",
|
|
382
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324は、671BパラメータのMoEモデルで、プログラミングや技術的能力、文脈理解、長文処理において優れた性能を発揮します。",
|
|
@@ -469,6 +471,7 @@
|
|
|
469
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K は、シンプルな質問応答、分類、低コスト推論に適した超軽量モデルです。",
|
|
470
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K は、複雑な推論やマルチターン対話に対応した 32K コンテキストの高速思考モデルです。",
|
|
471
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview は、評価およびテスト用の思考モデルプレビューです。",
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 は、ByteDance Seed による画像生成モデルで、テキストおよび画像入力に対応し、高い制御性と高品質な画像生成を実現します。テキストプロンプトから画像を生成します。",
|
|
472
475
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 モデルは画像編集に特化しており、テキストと画像の入力に対応しています。",
|
|
473
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] は、テキストと参照画像を入力として受け取り、局所的な編集や複雑なシーン全体の変換を可能にします。",
|
|
474
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] は、よりリアルで自然な画像を生成する美的バイアスを持つ画像生成モデルです。",
|
|
@@ -476,6 +479,8 @@
|
|
|
476
479
|
"fal-ai/hunyuan-image/v3.description": "強力なネイティブマルチモーダル画像生成モデルです。",
|
|
477
480
|
"fal-ai/imagen4/preview.description": "Google による高品質な画像生成モデルです。",
|
|
478
481
|
"fal-ai/nano-banana.description": "Nano Banana は Google による最新・最速・最も効率的なネイティブマルチモーダルモデルで、会話を通じた画像生成と編集が可能です。",
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Qwen チームによるプロフェッショナルな画像編集モデルで、意味や外観の編集、中文・英文テキストの精密な編集、スタイル変換や物体の回転など高品質な編集が可能です。",
|
|
483
|
+
"fal-ai/qwen-image.description": "Qwen チームによる強力な画像生成モデルで、中国語テキストの描画に優れ、多様なビジュアルスタイルに対応します。",
|
|
479
484
|
"flux-1-schnell.description": "Black Forest Labs による 120 億パラメータのテキストから画像への変換モデルで、潜在敵対的拡散蒸留を用いて 1~4 ステップで高品質な画像を生成します。クローズドな代替モデルに匹敵し、Apache-2.0 ライセンスのもと、個人・研究・商用利用が可能です。",
|
|
480
485
|
"flux-dev.description": "FLUX.1 [dev] は、非商用利用向けのオープンウェイト蒸留モデルで、プロレベルに近い画像品質と指示追従性を維持しつつ、同サイズの標準モデルよりも効率的に動作します。",
|
|
481
486
|
"flux-kontext-max.description": "最先端のコンテキスト画像生成・編集モデルで、テキストと画像を組み合わせて精密かつ一貫性のある結果を生成します。",
|
|
@@ -501,6 +506,30 @@
|
|
|
501
506
|
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 は、アプリ開発における柔軟性を高めた強力なマルチモーダル処理を提供します。",
|
|
502
507
|
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 は、より効率的なマルチモーダル処理のための最新の最適化を適用しています。",
|
|
503
508
|
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro は最大 200 万トークンに対応し、複雑なタスクに最適な中規模マルチモーダルモデルです。",
|
|
509
|
+
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash は、次世代の機能を提供するモデルで、卓越したスピード、ネイティブツールの使用、マルチモーダル生成、100万トークンのコンテキストウィンドウを備えています。",
|
|
510
|
+
"gemini-2.0-flash-exp-image-generation.description": "画像生成に対応した Gemini 2.0 Flash の実験的モデルです。",
|
|
511
|
+
"gemini-2.0-flash-exp.description": "コスト効率と低遅延に最適化された Gemini 2.0 Flash のバリアントです。",
|
|
512
|
+
"gemini-2.0-flash-lite-001.description": "コスト効率と低遅延に最適化された Gemini 2.0 Flash のバリアントです。",
|
|
513
|
+
"gemini-2.0-flash-lite.description": "コスト効率と低遅延に最適化された Gemini 2.0 Flash のバリアントです。",
|
|
514
|
+
"gemini-2.0-flash.description": "Gemini 2.0 Flash は、次世代の機能を提供するモデルで、卓越したスピード、ネイティブツールの使用、マルチモーダル生成、100万トークンのコンテキストウィンドウを備えています。",
|
|
515
|
+
"gemini-2.5-flash-image-preview.description": "Nano Banana は、Google による最新かつ最速、最も効率的なネイティブマルチモーダルモデルで、会話形式での画像生成と編集が可能です。",
|
|
516
|
+
"gemini-2.5-flash-image-preview:image.description": "Nano Banana は、Google による最新かつ最速、最も効率的なネイティブマルチモーダルモデルで、会話形式での画像生成と編集が可能です。",
|
|
517
|
+
"gemini-2.5-flash-image.description": "Nano Banana は、Google による最新かつ最速、最も効率的なネイティブマルチモーダルモデルで、会話形式での画像生成と編集が可能です。",
|
|
518
|
+
"gemini-2.5-flash-image:image.description": "Nano Banana は、Google による最新かつ最速、最も効率的なネイティブマルチモーダルモデルで、会話形式での画像生成と編集が可能です。",
|
|
519
|
+
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview は、Google による最小かつ最もコストパフォーマンスに優れたモデルで、大規模利用に適しています。",
|
|
520
|
+
"gemini-2.5-flash-lite-preview-09-2025.description": "Gemini 2.5 Flash-Lite のプレビューリリース(2025年9月25日)",
|
|
521
|
+
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite は、Google による最小かつ最もコストパフォーマンスに優れたモデルで、大規模利用に適しています。",
|
|
522
|
+
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview は、Google によるフル機能を備えた最もコスト効率の高いモデルです。",
|
|
523
|
+
"gemini-2.5-flash-preview-09-2025.description": "Gemini 2.5 Flash のプレビューリリース(2025年9月25日)",
|
|
524
|
+
"gemini-2.5-flash.description": "Gemini 2.5 Flash は、Google によるフル機能を備えた最もコスト効率の高いモデルです。",
|
|
525
|
+
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview は、Google による最も高度な推論モデルで、コード、数学、STEM 問題に対する推論や、大規模なデータセット、コードベース、文書の分析に対応します。",
|
|
526
|
+
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview は、Google による最も高度な推論モデルで、コード、数学、STEM 問題に対する推論や、大規模なデータセット、コードベース、文書の分析に対応します。",
|
|
527
|
+
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview は、Google による最も高度な推論モデルで、コード、数学、STEM 問題に対する推論や、大規模なデータセット、コードベース、文書の分析に対応します。",
|
|
528
|
+
"gemini-2.5-pro.description": "Gemini 2.5 Pro は、Google による最も高度な推論モデルで、コード、数学、STEM 問題に対する推論や、大規模なデータセット、コードベース、文書の分析に対応します。",
|
|
529
|
+
"gemini-3-flash-preview.description": "Gemini 3 Flash は、スピードを重視して設計された最もインテリジェントなモデルで、最先端の知能と優れた検索接地を融合しています。",
|
|
530
|
+
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)は、Google による画像生成モデルで、マルチモーダル対話にも対応しています。",
|
|
531
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)は、Google による画像生成モデルで、マルチモーダル対話にも対応しています。",
|
|
532
|
+
"gemini-3-pro-preview.description": "Gemini 3 Pro は、Google による最も強力なエージェントおよびバイブコーディングモデルで、最先端の推論に加え、より豊かなビジュアルと深い対話を実現します。",
|
|
504
533
|
"gemini-flash-latest.description": "Gemini Flash の最新リリース",
|
|
505
534
|
"gemini-flash-lite-latest.description": "Gemini Flash-Lite の最新リリース",
|
|
506
535
|
"gemini-pro-latest.description": "Gemini Pro の最新リリース",
|
|
@@ -12,6 +12,9 @@
|
|
|
12
12
|
"interests.area.writing": "コンテンツ制作",
|
|
13
13
|
"interests.hint": "設定からいつでも変更できます",
|
|
14
14
|
"interests.placeholder": "興味のある分野を入力してください...",
|
|
15
|
+
"interests.title": "どの分野に興味がありますか?",
|
|
16
|
+
"interests.title2": "あなたのことをもっとよく知る手助けになります",
|
|
17
|
+
"interests.title3": "ゆっくりで大丈夫ですよ、もっとあなたのことを知っていきますね",
|
|
15
18
|
"modeSelection.desc": "あなたに合った使用モードを選択してください",
|
|
16
19
|
"modeSelection.hint": "設定からいつでも変更できます",
|
|
17
20
|
"modeSelection.lite.desc": "日常会話やQ&A、軽作業のサポートやモデル体験に最適",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "InternLMは、大規模モデルの研究とツール開発に特化したオープンソース組織で、最先端のモデルとアルゴリズムを誰でも使いやすく提供します。",
|
|
30
30
|
"jina.description": "Jina AIは2020年に設立された検索AIのリーディングカンパニーで、ベクトルモデル、リランカー、小型言語モデルを含む検索スタックにより、高品質な生成・マルチモーダル検索アプリを構築できます。",
|
|
31
31
|
"lmstudio.description": "LM Studioは、ローカルPC上でLLMの開発と実験ができるデスクトップアプリです。",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud は、公式 API を使用して AI モデルにアクセスし、モデルのトークンに基づいたクレジットで使用量を測定します。",
|
|
33
32
|
"minimax.description": "MiniMaxは2021年に設立され、マルチモーダル基盤モデルを用いた汎用AIを開発しています。兆単位パラメータのMoEテキストモデル、音声モデル、ビジョンモデル、Hailuo AIなどのアプリを提供します。",
|
|
34
33
|
"mistral.description": "Mistralは、複雑な推論、多言語タスク、コード生成に対応した高度な汎用・専門・研究モデルを提供し、関数呼び出しによるカスタム統合も可能です。",
|
|
35
34
|
"modelscope.description": "ModelScopeは、Alibaba Cloudが提供するモデル・アズ・ア・サービス(MaaS)プラットフォームで、幅広いAIモデルと推論サービスを提供します。",
|
|
@@ -134,6 +134,8 @@
|
|
|
134
134
|
"cmdk.search.communityAgent": "커뮤니티 도우미",
|
|
135
135
|
"cmdk.search.file": "파일",
|
|
136
136
|
"cmdk.search.files": "파일",
|
|
137
|
+
"cmdk.search.folder": "폴더",
|
|
138
|
+
"cmdk.search.folders": "폴더들",
|
|
137
139
|
"cmdk.search.loading": "검색 중…",
|
|
138
140
|
"cmdk.search.market": "커뮤니티",
|
|
139
141
|
"cmdk.search.mcp": "MCP 서버",
|
|
@@ -56,12 +56,12 @@
|
|
|
56
56
|
"assistants.more": "더 보기",
|
|
57
57
|
"assistants.plugins": "통합 기능",
|
|
58
58
|
"assistants.recentSubmits": "최근 업데이트",
|
|
59
|
-
"assistants.sorts.recommended": "추천",
|
|
60
59
|
"assistants.sorts.createdAt": "최신 등록",
|
|
61
60
|
"assistants.sorts.identifier": "도우미 ID",
|
|
62
61
|
"assistants.sorts.knowledgeCount": "자료 라이브러리 수",
|
|
63
62
|
"assistants.sorts.myown": "내가 만든 것 보기",
|
|
64
63
|
"assistants.sorts.pluginCount": "기능 수",
|
|
64
|
+
"assistants.sorts.recommended": "추천",
|
|
65
65
|
"assistants.sorts.title": "도우미 이름",
|
|
66
66
|
"assistants.sorts.tokenUsage": "토큰 사용량",
|
|
67
67
|
"assistants.status.archived.reasons.official": "보안 또는 정치적 문제로 인해 공식적으로 마켓에서 제거됨",
|
|
@@ -83,12 +83,12 @@
|
|
|
83
83
|
"assistants.withKnowledge": "이 도우미에는 자료 라이브러리가 포함되어 있습니다",
|
|
84
84
|
"assistants.withPlugin": "이 도우미는 기능을 포함합니다",
|
|
85
85
|
"back": "탐색으로 돌아가기",
|
|
86
|
-
"category.assistant.discover": "탐색",
|
|
87
86
|
"category.assistant.academic": "학술",
|
|
88
87
|
"category.assistant.all": "전체",
|
|
89
88
|
"category.assistant.career": "커리어",
|
|
90
89
|
"category.assistant.copywriting": "카피라이팅",
|
|
91
90
|
"category.assistant.design": "디자인",
|
|
91
|
+
"category.assistant.discover": "탐색",
|
|
92
92
|
"category.assistant.education": "교육",
|
|
93
93
|
"category.assistant.emotions": "감정",
|
|
94
94
|
"category.assistant.entertainment": "엔터테인먼트",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 고객 지원, 교육, 기술 지원과 같은 대규모 활용 사례를 위한 강력한 이해 및 생성 능력을 결합합니다.",
|
|
272
272
|
"claude-2.0.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
|
|
273
273
|
"claude-2.1.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른 모델입니다. Claude 3 Haiku와 비교해 전반적인 능력이 향상되었으며, 지능 벤치마크에서 이전의 최고 모델인 Claude 3 Opus를 능가합니다.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku는 가벼운 작업에 빠른 응답을 제공하는 모델입니다.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet은 Anthropic의 가장 지능적인 모델이자 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답은 물론, 사용자가 확인할 수 있는 단계별 추론도 제공합니다. Sonnet은 특히 코딩, 데이터 과학, 비전, 에이전트 작업에 강점을 보입니다.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 빠르고 정확한 성능으로 즉각적인 응답을 위해 설계되었습니다.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet은 엔터프라이즈 워크로드를 위한 지능과 속도의 균형을 제공하며, 낮은 비용으로 높은 효용성과 안정적인 대규모 배포를 지원합니다.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 확장된 추론 능력을 갖추고 있습니다.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking은 자신의 추론 과정을 드러낼 수 있는 고급 변형 모델입니다.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 탁월한 성능, 지능, 유창성, 이해력을
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 탁월한 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5는 Anthropic의 플래그십 모델로, 탁월한 지능과 확장 가능한 성능을 결합하여 최고 품질의 응답과 추론이 필요한 복잡한 작업에 이상적입니다.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking은 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 사고를 생성할 수 있습니다.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 추론을 제공합니다.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 Anthropic이 지금까지 개발한 가장 지능적인 모델입니다.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4는 다국어 Q&A 및 코드 자동 완성을 지원하여 개발자의 생산성을 높이는 강력한 AI 코딩 도우미입니다.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B는 코드 자동 완성 및 생성, 코드 인터프리터, 웹 검색, 함수 호출, 저장소 수준의 코드 Q&A를 지원하는 다국어 코드 생성 모델로, 다양한 소프트웨어 개발 시나리오를 포괄합니다. 10B 미만 파라미터 중 최고 수준의 코드 모델입니다.",
|
|
@@ -355,7 +355,6 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2는 DeepSeekMoE-27B 기반의 MoE 비전-언어 모델로, 희소 활성화를 통해 4.5B 활성 파라미터만으로도 뛰어난 성능을 발휘합니다. 시각적 QA, OCR, 문서/표/차트 이해, 시각적 정렬에 탁월합니다.",
|
|
358
|
-
"deepseek-chat.description": "DeepSeek V3.2는 일상적인 질의응답 및 에이전트 작업을 위해 추론 능력과 출력 길이의 균형을 맞춘 모델입니다. 공개 벤치마크에서 GPT-5 수준에 도달했으며, 도구 사용에 사고 과정을 통합한 최초의 모델로, 오픈소스 에이전트 평가에서 선도적인 성과를 보입니다.",
|
|
359
358
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B는 2T 토큰(코드 87%, 중/영문 텍스트 13%)으로 학습된 코드 언어 모델입니다. 16K 문맥 창과 중간 채우기(fit-in-the-middle) 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 보완을 지원합니다.",
|
|
360
359
|
"deepseek-coder-v2.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
|
|
361
360
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
|
|
@@ -378,7 +377,6 @@
|
|
|
378
377
|
"deepseek-r1-fast-online.description": "DeepSeek R1의 빠른 전체 버전으로, 실시간 웹 검색을 지원하며 671B 규모의 성능과 빠른 응답을 결합합니다.",
|
|
379
378
|
"deepseek-r1-online.description": "DeepSeek R1 전체 버전은 671B 파라미터와 실시간 웹 검색을 지원하여 더 강력한 이해 및 생성 능력을 제공합니다.",
|
|
380
379
|
"deepseek-r1.description": "DeepSeek-R1은 강화 학습 전 콜드 스타트 데이터를 사용하며, 수학, 코딩, 추론에서 OpenAI-o1과 유사한 성능을 보입니다.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking은 출력 전에 사고 과정을 생성하여 정확도를 높이는 심화 추론 모델입니다. 주요 대회에서 우수한 성적을 거두었으며, Gemini-3.0-Pro에 필적하는 추론 능력을 보유하고 있습니다.",
|
|
382
380
|
"deepseek-v2.description": "DeepSeek V2는 비용 효율적인 처리를 위한 고효율 MoE 모델입니다.",
|
|
383
381
|
"deepseek-v2:236b.description": "DeepSeek V2 236B는 코드 생성에 강점을 가진 DeepSeek의 코드 특화 모델입니다.",
|
|
384
382
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324는 671B 파라미터의 MoE 모델로, 프로그래밍 및 기술 역량, 문맥 이해, 장문 처리에서 뛰어난 성능을 보입니다.",
|
|
@@ -471,7 +469,6 @@
|
|
|
471
469
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K는 간단한 질의응답, 분류, 저비용 추론에 적합한 초경량 모델입니다.",
|
|
472
470
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K는 복잡한 추론 및 다중 턴 대화를 위한 32K 컨텍스트의 고속 사고 모델입니다.",
|
|
473
471
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview는 평가 및 테스트를 위한 사고 모델 프리뷰입니다.",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "ByteDance Seed에서 개발한 Seedream 4.0은 텍스트 및 이미지 입력을 지원하며, 프롬프트 기반의 고품질 이미지 생성을 정밀하게 제어할 수 있습니다.",
|
|
475
472
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 모델은 이미지 편집에 중점을 두며, 텍스트와 이미지 입력을 지원합니다.",
|
|
476
473
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro]는 텍스트와 참조 이미지를 입력으로 받아, 국소 편집과 복잡한 장면 변환을 정밀하게 수행할 수 있습니다.",
|
|
477
474
|
"fal-ai/flux/krea.description": "Flux Krea [dev]는 보다 사실적이고 자연스러운 이미지 스타일에 중점을 둔 이미지 생성 모델입니다.",
|
|
@@ -479,8 +476,6 @@
|
|
|
479
476
|
"fal-ai/hunyuan-image/v3.description": "강력한 네이티브 멀티모달 이미지 생성 모델입니다.",
|
|
480
477
|
"fal-ai/imagen4/preview.description": "Google에서 개발한 고품질 이미지 생성 모델입니다.",
|
|
481
478
|
"fal-ai/nano-banana.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "Qwen 팀이 개발한 전문 이미지 편집 모델로, 의미 기반 및 외형 편집, 정확한 중/영문 텍스트 편집, 스타일 전환, 회전 등 다양한 기능을 지원합니다.",
|
|
483
|
-
"fal-ai/qwen-image.description": "Qwen 팀이 개발한 강력한 이미지 생성 모델로, 뛰어난 중국어 텍스트 렌더링과 다양한 시각 스타일을 제공합니다.",
|
|
484
479
|
"flux-1-schnell.description": "Black Forest Labs에서 개발한 120억 파라미터 텍스트-이미지 모델로, 잠재 적대 확산 증류를 사용하여 1~4단계 내에 고품질 이미지를 생성합니다. Apache-2.0 라이선스로 개인, 연구, 상업적 사용이 가능합니다.",
|
|
485
480
|
"flux-dev.description": "FLUX.1 [dev]는 오픈 가중치 증류 모델로, 비상업적 사용을 위해 설계되었습니다. 전문가 수준의 이미지 품질과 지시 따르기를 유지하면서도 더 효율적으로 작동하며, 동일 크기의 표준 모델보다 자원을 더 잘 활용합니다.",
|
|
486
481
|
"flux-kontext-max.description": "최첨단 문맥 기반 이미지 생성 및 편집 모델로, 텍스트와 이미지를 결합하여 정밀하고 일관된 결과를 생성합니다.",
|
|
@@ -522,7 +517,6 @@
|
|
|
522
517
|
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview는 Google의 가성비 최고의 모델로, 모든 기능을 갖추고 있습니다.",
|
|
523
518
|
"gemini-2.5-flash-preview-09-2025.description": "Gemini 2.5 Flash의 2025년 9월 25일자 프리뷰 릴리스입니다.",
|
|
524
519
|
"gemini-2.5-flash.description": "Gemini 2.5 Flash는 Google의 가성비 최고의 모델로, 모든 기능을 갖추고 있습니다.",
|
|
525
|
-
"gemini-2.5-flash:image.description": "Gemini 2.5 Flash는 Google의 가성비 최고의 모델로, 모든 기능을 갖추고 있습니다.",
|
|
526
520
|
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview는 Google의 가장 진보된 추론 모델로, 코드, 수학, STEM 문제에 대한 추론과 대규모 데이터셋, 코드베이스, 문서 분석을 장기 문맥 내에서 수행할 수 있습니다.",
|
|
527
521
|
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview는 Google의 가장 진보된 추론 모델로, 코드, 수학, STEM 문제에 대한 추론과 대규모 데이터셋, 코드베이스, 문서 분석을 장기 문맥 내에서 수행할 수 있습니다.",
|
|
528
522
|
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview는 Google의 가장 진보된 추론 모델로, 코드, 수학, STEM 문제에 대한 추론과 대규모 데이터셋, 코드베이스, 문서 분석을 장기 문맥 내에서 수행할 수 있습니다.",
|
|
@@ -12,6 +12,9 @@
|
|
|
12
12
|
"interests.area.writing": "콘텐츠 제작",
|
|
13
13
|
"interests.hint": "설정에서 언제든지 수정할 수 있어요",
|
|
14
14
|
"interests.placeholder": "관심 있는 분야를 입력해 주세요...",
|
|
15
|
+
"interests.title": "어떤 분야에 관심이 있으신가요?",
|
|
16
|
+
"interests.title2": "당신을 더 잘 이해하는 데 도움이 될 거예요",
|
|
17
|
+
"interests.title3": "천천히 하세요, 제가 더 잘 알아갈게요",
|
|
15
18
|
"modeSelection.desc": "당신에게 맞는 사용 모드를 선택하세요",
|
|
16
19
|
"modeSelection.hint": "설정에서 언제든지 변경할 수 있어요",
|
|
17
20
|
"modeSelection.lite.desc": "일상 대화, Q&A, 가벼운 업무 보조 및 모델 체험에 적합",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "InternLM은 대규모 모델 연구 및 도구 개발에 집중하는 오픈소스 조직으로, 최신 모델과 알고리즘을 누구나 쉽게 사용할 수 있도록 효율적인 플랫폼을 제공합니다.",
|
|
30
30
|
"jina.description": "2020년에 설립된 Jina AI는 선도적인 검색 AI 기업으로, 벡터 모델, 재정렬기, 소형 언어 모델을 포함한 검색 스택을 통해 신뢰성 높고 고품질의 생성형 및 멀티모달 검색 앱을 구축합니다.",
|
|
31
31
|
"lmstudio.description": "LM Studio는 데스크탑에서 LLM을 개발하고 실험할 수 있는 애플리케이션입니다.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud는 공식 API를 사용하여 AI 모델에 접근하며, 모델 토큰에 연동된 크레딧을 통해 사용량을 측정합니다.",
|
|
33
32
|
"minimax.description": "2021년에 설립된 MiniMax는 텍스트, 음성, 비전 등 멀티모달 기반의 범용 AI를 개발하며, 조 단위 파라미터의 MoE 텍스트 모델과 Hailuo AI와 같은 앱을 제공합니다.",
|
|
34
33
|
"mistral.description": "Mistral은 복잡한 추론, 다국어 작업, 코드 생성에 적합한 고급 범용, 특화, 연구용 모델을 제공하며, 사용자 정의 통합을 위한 함수 호출 기능도 지원합니다.",
|
|
35
34
|
"modelscope.description": "ModelScope는 Alibaba Cloud의 모델 서비스 플랫폼으로, 다양한 AI 모델과 추론 서비스를 제공합니다.",
|
|
@@ -134,6 +134,8 @@
|
|
|
134
134
|
"cmdk.search.communityAgent": "Community Agent",
|
|
135
135
|
"cmdk.search.file": "Bestand",
|
|
136
136
|
"cmdk.search.files": "Bestanden",
|
|
137
|
+
"cmdk.search.folder": "Map",
|
|
138
|
+
"cmdk.search.folders": "Mappen",
|
|
137
139
|
"cmdk.search.loading": "Zoeken...",
|
|
138
140
|
"cmdk.search.market": "Community",
|
|
139
141
|
"cmdk.search.mcp": "MCP-server",
|
|
@@ -56,12 +56,12 @@
|
|
|
56
56
|
"assistants.more": "Meer",
|
|
57
57
|
"assistants.plugins": "Geïntegreerde Vaardigheden",
|
|
58
58
|
"assistants.recentSubmits": "Recente updates",
|
|
59
|
-
"assistants.sorts.recommended": "Aanbevolen",
|
|
60
59
|
"assistants.sorts.createdAt": "Recent gepubliceerd",
|
|
61
60
|
"assistants.sorts.identifier": "Agent-ID",
|
|
62
61
|
"assistants.sorts.knowledgeCount": "Bibliotheken",
|
|
63
62
|
"assistants.sorts.myown": "Mijn Agents bekijken",
|
|
64
63
|
"assistants.sorts.pluginCount": "Vaardigheden",
|
|
64
|
+
"assistants.sorts.recommended": "Aanbevolen",
|
|
65
65
|
"assistants.sorts.title": "Agentnaam",
|
|
66
66
|
"assistants.sorts.tokenUsage": "Tokengebruik",
|
|
67
67
|
"assistants.status.archived.reasons.official": "Het platform heeft deze Agent verwijderd vanwege beveiliging, beleid of andere zorgen.",
|
|
@@ -83,12 +83,12 @@
|
|
|
83
83
|
"assistants.withKnowledge": "Deze Agent bevat bibliotheken",
|
|
84
84
|
"assistants.withPlugin": "Deze Agent bevat vaardigheden",
|
|
85
85
|
"back": "Terug naar Ontdekking",
|
|
86
|
-
"category.assistant.discover": "Ontdekking",
|
|
87
86
|
"category.assistant.academic": "Academisch",
|
|
88
87
|
"category.assistant.all": "Alle",
|
|
89
88
|
"category.assistant.career": "Carrière",
|
|
90
89
|
"category.assistant.copywriting": "Tekstschrijven",
|
|
91
90
|
"category.assistant.design": "Design",
|
|
91
|
+
"category.assistant.discover": "Ontdekking",
|
|
92
92
|
"category.assistant.education": "Onderwijs",
|
|
93
93
|
"category.assistant.emotions": "Emoties",
|
|
94
94
|
"category.assistant.entertainment": "Amusement",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt en sterke begrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic. In vergelijking met Claude 3 Haiku zijn de vaardigheden verbeterd en overtreft het op veel intelligentietests het eerdere topmodel Claude 3 Opus.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku levert snelle reacties voor lichte taken.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze redeneringen tonen die zichtbaar zijn voor de gebruiker. Sonnet blinkt uit in programmeren, datawetenschap, visuele taken en agenttoepassingen.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met hoge bruikbaarheid tegen lagere kosten en betrouwbare grootschalige inzet.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle prestaties en uitgebreide redeneercapaciteiten.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
284
284
|
"claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze denkprocessen tonen met een zichtbaar verloop.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 is een krachtige AI-codeassistent die meertalige Q&A en codeaanvulling ondersteunt om de productiviteit van ontwikkelaars te verhogen.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat codeaanvulling en -generatie, code-interpreter, webzoekopdrachten, functieaanroepen en Q&A op repo-niveau ondersteunt. Het dekt een breed scala aan softwareontwikkelingsscenario’s en is een topmodel onder de 10 miljard parameters.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is een MoE vision-language model gebaseerd op DeepSeekMoE-27B met sparse activatie, dat sterke prestaties levert met slechts 4,5B actieve parameters. Het blinkt uit in visuele QA, OCR, document-/tabel-/grafiekbegrip en visuele verankering.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "Een nieuw open-source model dat algemene en programmeervaardigheden combineert. Het behoudt de algemene dialoogmogelijkheden van het chatmodel en de sterke codeerprestaties van het programmeermodel, met verbeterde voorkeurafstemming. DeepSeek-V2.5 verbetert ook schrijfvaardigheid en het opvolgen van instructies.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is een codeertaalmodel getraind op 2 biljoen tokens (87% code, 13% Chinees/Engels tekst). Het introduceert een contextvenster van 16K en 'fill-in-the-middle'-taken, wat projectniveau codeaanvulling en fragmentinvoeging mogelijk maakt.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 snelle volledige versie met realtime webzoekfunctie, combineert 671B-capaciteit met snellere reacties.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 volledige versie met 671B parameters en realtime webzoekfunctie, biedt sterkere begrip- en generatiecapaciteiten.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 gebruikt cold-start data vóór versterkingsleren en presteert vergelijkbaar met OpenAI-o1 op wiskunde, programmeren en redenering.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2-denkmodus genereert een keten van gedachten vóór het uiteindelijke antwoord om de nauwkeurigheid te verbeteren.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 is een efficiënt MoE-model voor kosteneffectieve verwerking.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s codegerichte model met sterke codegeneratie.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is een MoE-model met 671B parameters en uitmuntende prestaties in programmeren, technische vaardigheden, contextbegrip en verwerking van lange teksten.",
|
|
@@ -471,6 +471,47 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K is een ultralicht model voor eenvoudige vraag-en-antwoord, classificatie en goedkope inferentie.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is een snel denkend model met 32K context voor complexe redenatie en meerstapsgesprekken.",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is een preview van een denkmodel voor evaluatie en testen.",
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is een afbeeldingsgeneratiemodel van ByteDance Seed, dat tekst- en afbeeldingsinvoer ondersteunt voor hoogwaardige, nauwkeurig aanpasbare beeldgeneratie. Het genereert beelden op basis van tekstprompts.",
|
|
475
|
+
"fal-ai/flux-kontext/dev.description": "FLUX.1-model gericht op beeldbewerking, met ondersteuning voor tekst- en afbeeldingsinvoer.",
|
|
476
|
+
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepteert tekst en referentieafbeeldingen als invoer, waardoor gerichte lokale bewerkingen en complexe wereldwijde scèneaanpassingen mogelijk zijn.",
|
|
477
|
+
"fal-ai/flux/krea.description": "Flux Krea [dev] is een afbeeldingsgeneratiemodel met een esthetische voorkeur voor realistische, natuurlijke beelden.",
|
|
478
|
+
"fal-ai/flux/schnell.description": "FLUX.1 [schnell] is een afbeeldingsgeneratiemodel met 12 miljard parameters, ontworpen voor snelle en hoogwaardige output.",
|
|
479
|
+
"fal-ai/hunyuan-image/v3.description": "Een krachtig, native multimodaal afbeeldingsgeneratiemodel.",
|
|
480
|
+
"fal-ai/imagen4/preview.description": "Hoogwaardig afbeeldingsgeneratiemodel van Google.",
|
|
481
|
+
"fal-ai/nano-banana.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee beeldgeneratie en -bewerking via conversatie mogelijk is.",
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Een professioneel afbeeldingsbewerkingsmodel van het Qwen-team dat semantische en visuele bewerkingen ondersteunt, nauwkeurige bewerking van Chinese en Engelse tekst mogelijk maakt, en hoogwaardige bewerkingen zoals stijltransformatie en objectrotatie uitvoert.",
|
|
483
|
+
"fal-ai/qwen-image.description": "Een krachtig afbeeldingsgeneratiemodel van het Qwen-team met indrukwekkende weergave van Chinese tekst en diverse visuele stijlen.",
|
|
484
|
+
"flux-1-schnell.description": "Een tekst-naar-beeldmodel met 12 miljard parameters van Black Forest Labs, dat gebruikmaakt van latente adversariële diffusiedistillatie om hoogwaardige beelden te genereren in 1–4 stappen. Het evenaart gesloten alternatieven en is uitgebracht onder de Apache-2.0-licentie voor persoonlijk, onderzoeks- en commercieel gebruik.",
|
|
485
|
+
"flux-dev.description": "FLUX.1 [dev] is een open-gewichten gedistilleerd model voor niet-commercieel gebruik. Het behoudt bijna professionele beeldkwaliteit en instructieopvolging, terwijl het efficiënter werkt en middelen beter benut dan standaardmodellen van vergelijkbare grootte.",
|
|
486
|
+
"flux-kontext-max.description": "State-of-the-art contextuele beeldgeneratie en -bewerking, waarbij tekst en afbeeldingen worden gecombineerd voor nauwkeurige, samenhangende resultaten.",
|
|
487
|
+
"flux-kontext-pro.description": "State-of-the-art contextuele beeldgeneratie en -bewerking, waarbij tekst en afbeeldingen worden gecombineerd voor nauwkeurige, samenhangende resultaten.",
|
|
488
|
+
"flux-merged.description": "FLUX.1-merged combineert de diepe functies van \"DEV\" met de snelheid van \"Schnell\", waardoor de prestatiegrenzen worden verlegd en de toepassingsmogelijkheden worden uitgebreid.",
|
|
489
|
+
"flux-pro-1.1-ultra.description": "Ultra-hoge resolutie beeldgeneratie met 4MP output, levert scherpe beelden in 10 seconden.",
|
|
490
|
+
"flux-pro-1.1.description": "Geüpgraded professioneel afbeeldingsgeneratiemodel met uitstekende beeldkwaliteit en nauwkeurige promptnauwkeurigheid.",
|
|
491
|
+
"flux-pro.description": "Topklasse commercieel afbeeldingsgeneratiemodel met ongeëvenaarde beeldkwaliteit en diverse outputmogelijkheden.",
|
|
492
|
+
"flux-schnell.description": "FLUX.1 [schnell] is het meest geavanceerde open-source few-step model, dat vergelijkbare concurrenten en zelfs sterke niet-gedistilleerde modellen zoals Midjourney v6.0 en DALL-E 3 (HD) overtreft. Het is fijn afgestemd om de diversiteit van de pretraining te behouden, wat de visuele kwaliteit, instructieopvolging, formaatvariatie, lettertypeverwerking en outputdiversiteit aanzienlijk verbetert.",
|
|
493
|
+
"flux.1-schnell.description": "FLUX.1-schnell is een hoogwaardig afbeeldingsgeneratiemodel voor snelle output in meerdere stijlen.",
|
|
494
|
+
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) biedt stabiele, aanpasbare prestaties voor complexe taken.",
|
|
495
|
+
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) biedt sterke multimodale ondersteuning voor complexe taken.",
|
|
496
|
+
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro is het krachtige AI-model van Google, ontworpen voor grootschalige taakverwerking.",
|
|
497
|
+
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 is een efficiënt multimodaal model voor brede toepassingsschaling.",
|
|
498
|
+
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 is een efficiënt multimodaal model, gebouwd voor grootschalige inzet.",
|
|
499
|
+
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 is het nieuwste experimentele model met aanzienlijke verbeteringen voor tekst- en multimodale toepassingen.",
|
|
500
|
+
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B is een efficiënt multimodaal model, gebouwd voor grootschalige inzet.",
|
|
501
|
+
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B is een efficiënt multimodaal model voor brede toepassingsschaling.",
|
|
502
|
+
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 levert geoptimaliseerde multimodale verwerking voor complexe taken.",
|
|
503
|
+
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash is het nieuwste multimodale AI-model van Google met snelle verwerking, ondersteuning voor tekst-, beeld- en video-invoer, en efficiënte schaalbaarheid over taken heen.",
|
|
504
|
+
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 is een schaalbare multimodale AI-oplossing voor complexe taken.",
|
|
505
|
+
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 is het nieuwste productierijpe model met hogere outputkwaliteit, vooral voor wiskunde, lange context en visuele taken.",
|
|
506
|
+
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 biedt sterke multimodale verwerking met meer flexibiliteit voor app-ontwikkeling.",
|
|
507
|
+
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 past de nieuwste optimalisaties toe voor efficiëntere multimodale verwerking.",
|
|
508
|
+
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro ondersteunt tot 2 miljoen tokens en is een ideaal middelgroot multimodaal model voor complexe taken.",
|
|
509
|
+
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash biedt functies van de volgende generatie, waaronder uitzonderlijke snelheid, native toolgebruik, multimodale generatie en een contextvenster van 1 miljoen tokens.",
|
|
510
|
+
"gemini-2.0-flash-exp-image-generation.description": "Experimentele variant van Gemini 2.0 Flash met ondersteuning voor beeldgeneratie.",
|
|
511
|
+
"gemini-2.0-flash-exp.description": "Een variant van Gemini 2.0 Flash geoptimaliseerd voor kostenefficiëntie en lage latentie.",
|
|
512
|
+
"gemini-2.0-flash-lite-001.description": "Een variant van Gemini 2.0 Flash geoptimaliseerd voor kostenefficiëntie en lage latentie.",
|
|
513
|
+
"gemini-2.0-flash-lite.description": "Een variant van Gemini 2.0 Flash geoptimaliseerd voor kostenefficiëntie en lage latentie.",
|
|
514
|
+
"gemini-2.0-flash.description": "Gemini 2.0 Flash biedt functies van de volgende generatie, waaronder uitzonderlijke snelheid, native toolgebruik, multimodale generatie en een contextvenster van 1 miljoen tokens.",
|
|
474
515
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 is een open LLM voor ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoord opschalen van generatieve AI-ideeën. Als onderdeel van de basis voor wereldwijde gemeenschapsinnovatie is het goed geschikt voor beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden.",
|
|
475
516
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Sterke beeldredenering op afbeeldingen met hoge resolutie, geschikt voor toepassingen voor visueel begrip.",
|
|
476
517
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Geavanceerde beeldredenering voor toepassingen met visueel begrip en agentfunctionaliteit.",
|
|
@@ -12,6 +12,9 @@
|
|
|
12
12
|
"interests.area.writing": "Contentcreatie",
|
|
13
13
|
"interests.hint": "Je kunt dit op elk moment aanpassen in de instellingen",
|
|
14
14
|
"interests.placeholder": "Voer je interesses in...",
|
|
15
|
+
"interests.title": "In welke onderwerpen ben je geïnteresseerd?",
|
|
16
|
+
"interests.title2": "Dit helpt me om je beter te leren kennen",
|
|
17
|
+
"interests.title3": "Neem je tijd, ik leer je graag beter kennen",
|
|
15
18
|
"modeSelection.desc": "Kies de modus die het beste bij je past",
|
|
16
19
|
"modeSelection.hint": "Je kunt dit op elk moment aanpassen in de instellingen",
|
|
17
20
|
"modeSelection.lite.desc": "Ideaal voor dagelijkse gesprekken, Q&A, lichte productiviteit en het uitproberen van modellen",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Een open-source organisatie gericht op grootschalig modelonderzoek en tooling, met een efficiënt en gebruiksvriendelijk platform dat geavanceerde modellen en algoritmen toegankelijk maakt.",
|
|
30
30
|
"jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.",
|
|
31
31
|
"lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLM’s op je eigen computer.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud gebruikt officiële API's om toegang te krijgen tot AI-modellen en meet het gebruik met Credits die gekoppeld zijn aan modeltokens.",
|
|
33
32
|
"minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral biedt geavanceerde algemene, gespecialiseerde en onderzoeksmodellen voor complexe redenering, meertalige taken en codegeneratie, met functie-aanroepen voor aangepaste integraties.",
|
|
35
34
|
"modelscope.description": "ModelScope is het model-as-a-service platform van Alibaba Cloud, met een breed scala aan AI-modellen en inferentiediensten.",
|
|
@@ -134,6 +134,8 @@
|
|
|
134
134
|
"cmdk.search.communityAgent": "Agent społeczności",
|
|
135
135
|
"cmdk.search.file": "Plik",
|
|
136
136
|
"cmdk.search.files": "Pliki",
|
|
137
|
+
"cmdk.search.folder": "Folder",
|
|
138
|
+
"cmdk.search.folders": "Foldery",
|
|
137
139
|
"cmdk.search.loading": "Wyszukiwanie...",
|
|
138
140
|
"cmdk.search.market": "Społeczność",
|
|
139
141
|
"cmdk.search.mcp": "Serwer MCP",
|
|
@@ -56,12 +56,12 @@
|
|
|
56
56
|
"assistants.more": "Więcej",
|
|
57
57
|
"assistants.plugins": "Zintegrowane Umiejętności",
|
|
58
58
|
"assistants.recentSubmits": "Ostatnie aktualizacje",
|
|
59
|
-
"assistants.sorts.recommended": "Polecane",
|
|
60
59
|
"assistants.sorts.createdAt": "Najnowsze publikacje",
|
|
61
60
|
"assistants.sorts.identifier": "ID Agenta",
|
|
62
61
|
"assistants.sorts.knowledgeCount": "Biblioteki",
|
|
63
62
|
"assistants.sorts.myown": "Zobacz Moich Agentów",
|
|
64
63
|
"assistants.sorts.pluginCount": "Umiejętności",
|
|
64
|
+
"assistants.sorts.recommended": "Polecane",
|
|
65
65
|
"assistants.sorts.title": "Nazwa Agenta",
|
|
66
66
|
"assistants.sorts.tokenUsage": "Zużycie tokenów",
|
|
67
67
|
"assistants.status.archived.reasons.official": "Platforma usunęła tego Agenta z powodów bezpieczeństwa, polityki lub innych.",
|
|
@@ -83,12 +83,12 @@
|
|
|
83
83
|
"assistants.withKnowledge": "Ten Agent zawiera Biblioteki",
|
|
84
84
|
"assistants.withPlugin": "Ten Agent zawiera Umiejętności",
|
|
85
85
|
"back": "Powrót do Odkrywania",
|
|
86
|
-
"category.assistant.discover": "Odkrywanie",
|
|
87
86
|
"category.assistant.academic": "Akademickie",
|
|
88
87
|
"category.assistant.all": "Wszystkie",
|
|
89
88
|
"category.assistant.career": "Kariera",
|
|
90
89
|
"category.assistant.copywriting": "Copywriting",
|
|
91
90
|
"category.assistant.design": "Projektowanie",
|
|
91
|
+
"category.assistant.discover": "Odkrywanie",
|
|
92
92
|
"category.assistant.education": "Edukacja",
|
|
93
93
|
"category.assistant.emotions": "Emocje",
|
|
94
94
|
"category.assistant.entertainment": "Rozrywka",
|