@lobehub/chat 1.57.1 → 1.58.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (86) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/docker-compose/local/docker-compose.yml +1 -0
  4. package/locales/ar/modelProvider.json +24 -0
  5. package/locales/ar/models.json +60 -0
  6. package/locales/ar/providers.json +12 -0
  7. package/locales/bg-BG/modelProvider.json +24 -0
  8. package/locales/bg-BG/models.json +60 -0
  9. package/locales/bg-BG/providers.json +12 -0
  10. package/locales/de-DE/modelProvider.json +24 -0
  11. package/locales/de-DE/models.json +60 -0
  12. package/locales/de-DE/providers.json +12 -0
  13. package/locales/en-US/modelProvider.json +24 -0
  14. package/locales/en-US/models.json +60 -0
  15. package/locales/en-US/providers.json +12 -0
  16. package/locales/es-ES/modelProvider.json +24 -0
  17. package/locales/es-ES/models.json +60 -0
  18. package/locales/es-ES/providers.json +12 -0
  19. package/locales/fa-IR/modelProvider.json +30 -0
  20. package/locales/fa-IR/models.json +60 -0
  21. package/locales/fa-IR/providers.json +12 -0
  22. package/locales/fr-FR/modelProvider.json +24 -0
  23. package/locales/fr-FR/models.json +60 -0
  24. package/locales/fr-FR/providers.json +12 -0
  25. package/locales/it-IT/modelProvider.json +24 -0
  26. package/locales/it-IT/models.json +60 -0
  27. package/locales/it-IT/providers.json +12 -0
  28. package/locales/ja-JP/modelProvider.json +24 -0
  29. package/locales/ja-JP/models.json +60 -0
  30. package/locales/ja-JP/providers.json +12 -0
  31. package/locales/ko-KR/modelProvider.json +24 -0
  32. package/locales/ko-KR/models.json +60 -0
  33. package/locales/ko-KR/providers.json +12 -0
  34. package/locales/nl-NL/modelProvider.json +24 -0
  35. package/locales/nl-NL/models.json +60 -0
  36. package/locales/nl-NL/providers.json +12 -0
  37. package/locales/pl-PL/modelProvider.json +24 -0
  38. package/locales/pl-PL/models.json +60 -0
  39. package/locales/pl-PL/providers.json +12 -0
  40. package/locales/pt-BR/modelProvider.json +24 -0
  41. package/locales/pt-BR/models.json +60 -0
  42. package/locales/pt-BR/providers.json +12 -0
  43. package/locales/ru-RU/modelProvider.json +24 -0
  44. package/locales/ru-RU/models.json +60 -0
  45. package/locales/ru-RU/providers.json +12 -0
  46. package/locales/tr-TR/modelProvider.json +30 -0
  47. package/locales/tr-TR/models.json +60 -0
  48. package/locales/tr-TR/providers.json +12 -0
  49. package/locales/vi-VN/modelProvider.json +24 -0
  50. package/locales/vi-VN/models.json +60 -0
  51. package/locales/vi-VN/providers.json +12 -0
  52. package/locales/zh-CN/modelProvider.json +24 -0
  53. package/locales/zh-CN/models.json +1112 -1052
  54. package/locales/zh-CN/providers.json +80 -68
  55. package/locales/zh-TW/modelProvider.json +24 -0
  56. package/locales/zh-TW/models.json +60 -0
  57. package/locales/zh-TW/providers.json +12 -0
  58. package/package.json +4 -2
  59. package/src/app/[variants]/(main)/settings/provider/(detail)/azureai/page.tsx +58 -0
  60. package/src/app/[variants]/(main)/settings/provider/features/CreateNewProvider/index.tsx +13 -2
  61. package/src/app/[variants]/(main)/settings/provider/features/ModelList/CreateNewModelModal/Form.tsx +6 -8
  62. package/src/app/[variants]/(main)/settings/provider/features/ModelList/CreateNewModelModal/index.tsx +5 -6
  63. package/src/app/[variants]/(main)/settings/provider/features/ModelList/ModelConfigModal/index.tsx +4 -3
  64. package/src/app/[variants]/(main)/settings/provider/features/ModelList/ProviderSettingsContext.ts +2 -0
  65. package/src/app/[variants]/(main)/settings/provider/features/ModelList/index.tsx +6 -7
  66. package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/index.tsx +1 -1
  67. package/src/config/aiModels/azureai.ts +18 -0
  68. package/src/config/aiModels/index.ts +3 -0
  69. package/src/config/modelProviders/azure.ts +2 -1
  70. package/src/config/modelProviders/azureai.ts +19 -0
  71. package/src/config/modelProviders/index.ts +3 -0
  72. package/src/database/server/models/aiProvider.ts +2 -0
  73. package/src/libs/agent-runtime/AgentRuntime.ts +13 -6
  74. package/src/libs/agent-runtime/azureai/index.ts +109 -0
  75. package/src/libs/agent-runtime/baichuan/index.test.ts +8 -250
  76. package/src/libs/agent-runtime/cloudflare/index.ts +22 -18
  77. package/src/libs/agent-runtime/index.ts +1 -0
  78. package/src/libs/agent-runtime/types/type.ts +1 -0
  79. package/src/libs/agent-runtime/utils/streams/__snapshots__/protocol.test.ts.snap +331 -0
  80. package/src/libs/agent-runtime/utils/streams/protocol.test.ts +137 -0
  81. package/src/libs/agent-runtime/utils/streams/protocol.ts +34 -0
  82. package/src/locales/default/modelProvider.ts +25 -0
  83. package/src/server/modules/AgentRuntime/index.ts +8 -1
  84. package/src/services/chat.ts +12 -3
  85. package/src/types/aiProvider.ts +1 -0
  86. package/src/types/user/settings/keyVaults.ts +1 -0
@@ -19,6 +19,24 @@
19
19
  "title": "API Key"
20
20
  }
21
21
  },
22
+ "azureai": {
23
+ "azureApiVersion": {
24
+ "desc": "AzureのAPIバージョン。YYYY-MM-DD形式に従い、[最新バージョン](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)を参照してください。",
25
+ "fetch": "リストを取得",
26
+ "title": "Azure APIバージョン"
27
+ },
28
+ "endpoint": {
29
+ "desc": "Azure AIプロジェクトの概要からAzure AIモデル推論エンドポイントを見つけます。",
30
+ "placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
31
+ "title": "Azure AIエンドポイント"
32
+ },
33
+ "title": "Azure OpenAI",
34
+ "token": {
35
+ "desc": "Azure AIプロジェクトの概要からAPIキーを見つけます。",
36
+ "placeholder": "Azureキー",
37
+ "title": "キー"
38
+ }
39
+ },
22
40
  "bedrock": {
23
41
  "accessKeyId": {
24
42
  "desc": "AWS Access Key Id を入力してください",
@@ -97,6 +115,7 @@
97
115
  "title": "プロキシアドレス"
98
116
  },
99
117
  "sdkType": {
118
+ "placeholder": "openai/anthropic/azureai/ollama/...",
100
119
  "required": "SDK タイプを選択してください",
101
120
  "title": "リクエスト形式"
102
121
  },
@@ -210,6 +229,11 @@
210
229
  "placeholder": "Azure でのモデルデプロイ名を入力してください",
211
230
  "title": "モデルデプロイ名"
212
231
  },
232
+ "deployName": {
233
+ "extra": "リクエストを送信する際に、このフィールドがモデルIDとして使用されます。",
234
+ "placeholder": "モデルの実際のデプロイ名またはIDを入力してください。",
235
+ "title": "モデルデプロイ名"
236
+ },
213
237
  "displayName": {
214
238
  "placeholder": "モデルの表示名を入力してください(例: ChatGPT、GPT-4 など)",
215
239
  "title": "モデル表示名"
@@ -578,6 +578,9 @@
578
578
  "deepseek-ai/deepseek-llm-67b-chat": {
579
579
  "description": "DeepSeek 67Bは、高い複雑性の対話のために訓練された先進的なモデルです。"
580
580
  },
581
+ "deepseek-ai/deepseek-r1": {
582
+ "description": "最先端の効率的なLLMで、推論、数学、プログラミングに優れています。"
583
+ },
581
584
  "deepseek-ai/deepseek-vl2": {
582
585
  "description": "DeepSeek-VL2は、DeepSeekMoE-27Bに基づいて開発された混合専門家(MoE)視覚言語モデルであり、スパースアクティベーションのMoEアーキテクチャを採用し、わずか4.5Bパラメータを活性化することで卓越した性能を実現しています。このモデルは、視覚的質問応答、光学文字認識、文書/表/グラフ理解、視覚的定位などの複数のタスクで優れたパフォーマンスを発揮します。"
583
586
  },
@@ -629,6 +632,12 @@
629
632
  "deepseek/deepseek-chat": {
630
633
  "description": "汎用性とコード能力を融合させた新しいオープンソースモデルで、元のChatモデルの汎用対話能力とCoderモデルの強力なコード処理能力を保持しつつ、人間の好みにより良く整合しています。さらに、DeepSeek-V2.5は執筆タスク、指示の遵守などの多くの面で大幅な向上を実現しました。"
631
634
  },
635
+ "deepseek/deepseek-r1": {
636
+ "description": "DeepSeek-R1は、わずかなラベル付きデータしかない状況で、モデルの推論能力を大幅に向上させました。最終的な回答を出力する前に、モデルは思考の連鎖を出力し、最終的な答えの正確性を向上させます。"
637
+ },
638
+ "deepseek/deepseek-r1:free": {
639
+ "description": "DeepSeek-R1は、わずかなラベル付きデータしかない状況で、モデルの推論能力を大幅に向上させました。最終的な回答を出力する前に、モデルは思考の連鎖を出力し、最終的な答えの正確性を向上させます。"
640
+ },
632
641
  "emohaa": {
633
642
  "description": "Emohaaは心理モデルで、専門的な相談能力を持ち、ユーザーが感情問題を理解するのを助けます。"
634
643
  },
@@ -821,12 +830,18 @@
821
830
  "google/gemini-pro-1.5": {
822
831
  "description": "Gemini 1.5 Proは、最新の最適化技術を組み合わせて、より効率的なマルチモーダルデータ処理能力を実現します。"
823
832
  },
833
+ "google/gemma-2-27b": {
834
+ "description": "Gemma 2はGoogleが提供する効率的なモデルで、小型アプリケーションから複雑なデータ処理まで、さまざまなアプリケーションシナリオをカバーしています。"
835
+ },
824
836
  "google/gemma-2-27b-it": {
825
837
  "description": "Gemma 2は、軽量化と高効率のデザイン理念を継承しています。"
826
838
  },
827
839
  "google/gemma-2-2b-it": {
828
840
  "description": "Googleの軽量指示調整モデル"
829
841
  },
842
+ "google/gemma-2-9b": {
843
+ "description": "Gemma 2はGoogleが提供する効率的なモデルで、小型アプリケーションから複雑なデータ処理まで、さまざまなアプリケーションシナリオをカバーしています。"
844
+ },
830
845
  "google/gemma-2-9b-it": {
831
846
  "description": "Gemma 2は、Googleの軽量オープンソーステキストモデルシリーズです。"
832
847
  },
@@ -998,6 +1013,9 @@
998
1013
  "internlm3-latest": {
999
1014
  "description": "私たちの最新のモデルシリーズは、卓越した推論性能を持ち、同等のオープンソースモデルの中でリーダーシップを発揮しています。デフォルトで最新のInternLM3シリーズモデルを指します。"
1000
1015
  },
1016
+ "jina-deepsearch-v1": {
1017
+ "description": "深層検索は、ウェブ検索、読解、推論を組み合わせて、包括的な調査を行います。これは、あなたの研究タスクを受け入れる代理人として考えることができ、広範な検索を行い、何度も反復してから答えを提供します。このプロセスには、継続的な研究、推論、さまざまな視点からの問題解決が含まれます。これは、事前に訓練されたデータから直接答えを生成する標準的な大規模モデルや、一度きりの表面的な検索に依存する従来のRAGシステムとは根本的に異なります。"
1018
+ },
1001
1019
  "learnlm-1.5-pro-experimental": {
1002
1020
  "description": "LearnLMは、学習科学の原則に従って訓練された実験的なタスク特化型言語モデルで、教育や学習のシーンでシステムの指示に従い、専門的なメンターとして機能します。"
1003
1021
  },
@@ -1139,6 +1157,9 @@
1139
1157
  "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
1140
1158
  "description": "405BのLlama 3.1 Turboモデルは、大規模データ処理のために超大容量のコンテキストサポートを提供し、超大規模な人工知能アプリケーションで優れたパフォーマンスを発揮します。"
1141
1159
  },
1160
+ "meta-llama/Meta-Llama-3.1-70B": {
1161
+ "description": "Llama 3.1はMetaが提供する先進的なモデルで、最大405Bのパラメータをサポートし、複雑な対話、多言語翻訳、データ分析の分野で利用できます。"
1162
+ },
1142
1163
  "meta-llama/Meta-Llama-3.1-70B-Instruct": {
1143
1164
  "description": "LLaMA 3.1 70Bは多言語の高効率な対話サポートを提供します。"
1144
1165
  },
@@ -1196,6 +1217,30 @@
1196
1217
  "meta.llama3-8b-instruct-v1:0": {
1197
1218
  "description": "Meta Llama 3は、開発者、研究者、企業向けのオープンな大規模言語モデル(LLM)であり、生成AIのアイデアを構築、実験、責任を持って拡張するのを支援することを目的としています。世界的なコミュニティの革新の基盤システムの一部として、計算能力とリソースが限られたエッジデバイスや、より迅速なトレーニング時間に非常に適しています。"
1198
1219
  },
1220
+ "meta/llama-3.1-405b-instruct": {
1221
+ "description": "高度なLLMで、合成データ生成、知識蒸留、推論をサポートし、チャットボット、プログラミング、特定の分野のタスクに適しています。"
1222
+ },
1223
+ "meta/llama-3.1-70b-instruct": {
1224
+ "description": "複雑な対話を可能にし、卓越した文脈理解、推論能力、テキスト生成能力を備えています。"
1225
+ },
1226
+ "meta/llama-3.1-8b-instruct": {
1227
+ "description": "高度な最先端モデルで、言語理解、卓越した推論能力、テキスト生成能力を備えています。"
1228
+ },
1229
+ "meta/llama-3.2-11b-vision-instruct": {
1230
+ "description": "最先端の視覚-言語モデルで、画像から高品質な推論を行うのが得意です。"
1231
+ },
1232
+ "meta/llama-3.2-1b-instruct": {
1233
+ "description": "最先端の小型言語モデルで、言語理解、卓越した推論能力、テキスト生成能力を備えています。"
1234
+ },
1235
+ "meta/llama-3.2-3b-instruct": {
1236
+ "description": "最先端の小型言語モデルで、言語理解、卓越した推論能力、テキスト生成能力を備えています。"
1237
+ },
1238
+ "meta/llama-3.2-90b-vision-instruct": {
1239
+ "description": "最先端の視覚-言語モデルで、画像から高品質な推論を行うのが得意です。"
1240
+ },
1241
+ "meta/llama-3.3-70b-instruct": {
1242
+ "description": "高度なLLMで、推論、数学、常識、関数呼び出しに優れています。"
1243
+ },
1199
1244
  "microsoft/WizardLM-2-8x22B": {
1200
1245
  "description": "WizardLM 2はMicrosoft AIが提供する言語モデルで、複雑な対話、多言語、推論、インテリジェントアシスタントの分野で特に優れた性能を発揮します。"
1201
1246
  },
@@ -1292,6 +1337,12 @@
1292
1337
  "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
1293
1338
  "description": "Llama 3.1 Nemotron 70BはNVIDIAによってカスタマイズされた大規模言語モデルで、LLMが生成する応答がユーザーのクエリにどれだけ役立つかを向上させることを目的としています。このモデルはArena Hard、AlpacaEval 2 LC、GPT-4-Turbo MT-Benchなどのベンチマークテストで優れたパフォーマンスを示し、2024年10月1日現在、すべての自動整合ベンチマークテストで1位にランクされています。このモデルはRLHF(特にREINFORCE)、Llama-3.1-Nemotron-70B-Reward、HelpSteer2-Preferenceプロンプトを使用してLlama-3.1-70B-Instructモデルの基盤の上で訓練されています。"
1294
1339
  },
1340
+ "nvidia/llama-3.1-nemotron-51b-instruct": {
1341
+ "description": "独自の言語モデルで、比類のない精度と効率を提供します。"
1342
+ },
1343
+ "nvidia/llama-3.1-nemotron-70b-instruct": {
1344
+ "description": "Llama-3.1-Nemotron-70B-Instructは、NVIDIAがカスタマイズした大規模言語モデルで、LLMが生成する応答の有用性を向上させることを目的としています。"
1345
+ },
1295
1346
  "o1": {
1296
1347
  "description": "高度な推論と複雑な問題の解決に焦点を当てており、数学や科学のタスクを含みます。深いコンテキスト理解とエージェントワークフローを必要とするアプリケーションに非常に適しています。"
1297
1348
  },
@@ -1406,6 +1457,15 @@
1406
1457
  "qwen/qwen-2-7b-instruct:free": {
1407
1458
  "description": "Qwen2は全く新しい大型言語モデルシリーズで、より強力な理解と生成能力を備えています。"
1408
1459
  },
1460
+ "qwen/qwen2.5-7b-instruct": {
1461
+ "description": "中国語と英語に対応したLLMで、言語、プログラミング、数学、推論などの分野に特化しています。"
1462
+ },
1463
+ "qwen/qwen2.5-coder-32b-instruct": {
1464
+ "description": "高度なLLMで、コード生成、推論、修正をサポートし、主流のプログラミング言語をカバーしています。"
1465
+ },
1466
+ "qwen/qwen2.5-coder-7b-instruct": {
1467
+ "description": "強力な中型コードモデルで、32Kのコンテキスト長をサポートし、多言語プログラミングに優れています。"
1468
+ },
1409
1469
  "qwen2": {
1410
1470
  "description": "Qwen2は、Alibabaの新世代大規模言語モデルであり、優れた性能で多様なアプリケーションニーズをサポートします。"
1411
1471
  },
@@ -11,6 +11,9 @@
11
11
  "azure": {
12
12
  "description": "Azureは、GPT-3.5や最新のGPT-4シリーズを含む多様な先進AIモデルを提供し、さまざまなデータタイプや複雑なタスクをサポートし、安全で信頼性が高く持続可能なAIソリューションに取り組んでいます。"
13
13
  },
14
+ "azureai": {
15
+ "description": "Azureは、GPT-3.5や最新のGPT-4シリーズを含む多様な先進的AIモデルを提供し、さまざまなデータタイプや複雑なタスクをサポートし、安全で信頼性が高く持続可能なAIソリューションに取り組んでいます。"
16
+ },
14
17
  "baichuan": {
15
18
  "description": "百川智能は、人工知能大モデルの研究開発に特化した企業であり、そのモデルは国内の知識百科、長文処理、生成創作などの中国語タスクで卓越したパフォーマンスを示し、海外の主流モデルを超えています。百川智能は、業界をリードする多モーダル能力を持ち、複数の権威ある評価で優れたパフォーマンスを示しています。そのモデルには、Baichuan 4、Baichuan 3 Turbo、Baichuan 3 Turbo 128kなどが含まれ、異なるアプリケーションシーンに最適化され、高コストパフォーマンスのソリューションを提供しています。"
16
19
  },
@@ -53,6 +56,9 @@
53
56
  "internlm": {
54
57
  "description": "大規模モデルの研究と開発ツールチェーンに特化したオープンソース組織です。すべてのAI開発者に対して、高効率で使いやすいオープンプラットフォームを提供し、最先端の大規模モデルとアルゴリズム技術を身近に感じられるようにします。"
55
58
  },
59
+ "jina": {
60
+ "description": "Jina AIは2020年に設立され、検索AIのリーディングカンパニーです。私たちの検索基盤プラットフォームには、ベクトルモデル、リランキングモデル、小型言語モデルが含まれており、企業が信頼性が高く高品質な生成AIおよびマルチモーダル検索アプリケーションを構築するのを支援します。"
61
+ },
56
62
  "lmstudio": {
57
63
  "description": "LM Studioは、あなたのコンピュータ上でLLMを開発し、実験するためのデスクトップアプリケーションです。"
58
64
  },
@@ -68,6 +74,9 @@
68
74
  "novita": {
69
75
  "description": "Novita AIは、さまざまな大規模言語モデルとAI画像生成のAPIサービスを提供するプラットフォームであり、柔軟で信頼性が高く、コスト効率に優れています。Llama3、Mistralなどの最新のオープンソースモデルをサポートし、生成的AIアプリケーションの開発に向けた包括的でユーザーフレンドリーかつ自動スケーリングのAPIソリューションを提供し、AIスタートアップの急成長を支援します。"
70
76
  },
77
+ "nvidia": {
78
+ "description": "NVIDIA NIM™は、自己ホスティングのGPU加速推論マイクロサービスに使用できるコンテナを提供し、クラウド、データセンター、RTX™ AIパーソナルコンピュータ、ワークステーション上で事前トレーニング済みおよびカスタムAIモデルを展開することをサポートします。"
79
+ },
71
80
  "ollama": {
72
81
  "description": "Ollamaが提供するモデルは、コード生成、数学演算、多言語処理、対話インタラクションなどの分野を広くカバーし、企業向けおよびローカライズされた展開の多様なニーズに対応しています。"
73
82
  },
@@ -107,6 +116,9 @@
107
116
  "upstage": {
108
117
  "description": "Upstageは、さまざまなビジネスニーズに応じたAIモデルの開発に特化しており、Solar LLMや文書AIを含み、人造一般知能(AGI)の実現を目指しています。Chat APIを通じてシンプルな対話エージェントを作成し、機能呼び出し、翻訳、埋め込み、特定分野のアプリケーションをサポートします。"
109
118
  },
119
+ "vllm": {
120
+ "description": "vLLMは、LLM推論とサービスのための迅速で使いやすいライブラリです。"
121
+ },
110
122
  "wenxin": {
111
123
  "description": "企業向けのワンストップ大規模モデルとAIネイティブアプリケーションの開発およびサービスプラットフォームで、最も包括的で使いやすい生成的人工知能モデルの開発とアプリケーション開発の全プロセスツールチェーンを提供します。"
112
124
  },
@@ -19,6 +19,24 @@
19
19
  "title": "API 키"
20
20
  }
21
21
  },
22
+ "azureai": {
23
+ "azureApiVersion": {
24
+ "desc": "Azure API 버전, YYYY-MM-DD 형식을 따릅니다. [최신 버전](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)을 참조하세요.",
25
+ "fetch": "목록 가져오기",
26
+ "title": "Azure API 버전"
27
+ },
28
+ "endpoint": {
29
+ "desc": "Azure AI 프로젝트 개요에서 Azure AI 모델 추론 엔드포인트를 찾습니다.",
30
+ "placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
31
+ "title": "Azure AI 엔드포인트"
32
+ },
33
+ "title": "Azure OpenAI",
34
+ "token": {
35
+ "desc": "Azure AI 프로젝트 개요에서 API 키를 찾습니다.",
36
+ "placeholder": "Azure 키",
37
+ "title": "키"
38
+ }
39
+ },
22
40
  "bedrock": {
23
41
  "accessKeyId": {
24
42
  "desc": "AWS 액세스 키 ID를 입력하세요.",
@@ -97,6 +115,7 @@
97
115
  "title": "프록시 주소"
98
116
  },
99
117
  "sdkType": {
118
+ "placeholder": "openai/anthropic/azureai/ollama/...",
100
119
  "required": "SDK 유형을 선택하세요",
101
120
  "title": "요청 형식"
102
121
  },
@@ -210,6 +229,11 @@
210
229
  "placeholder": "Azure에서 모델 배포 이름을 입력하세요",
211
230
  "title": "모델 배포 이름"
212
231
  },
232
+ "deployName": {
233
+ "extra": "요청을 보낼 때 이 필드가 모델 ID로 사용됩니다.",
234
+ "placeholder": "모델 실제 배포 이름 또는 ID를 입력하세요.",
235
+ "title": "모델 배포 이름"
236
+ },
213
237
  "displayName": {
214
238
  "placeholder": "모델의 표시 이름을 입력하세요, 예: ChatGPT, GPT-4 등",
215
239
  "title": "모델 표시 이름"
@@ -578,6 +578,9 @@
578
578
  "deepseek-ai/deepseek-llm-67b-chat": {
579
579
  "description": "DeepSeek 67B는 고복잡성 대화를 위해 훈련된 고급 모델입니다."
580
580
  },
581
+ "deepseek-ai/deepseek-r1": {
582
+ "description": "추론, 수학 및 프로그래밍에 능숙한 최첨단 효율 LLM입니다."
583
+ },
581
584
  "deepseek-ai/deepseek-vl2": {
582
585
  "description": "DeepSeek-VL2는 DeepSeekMoE-27B를 기반으로 개발된 혼합 전문가(MoE) 비주얼 언어 모델로, 희소 활성화 MoE 아키텍처를 사용하여 4.5B 매개변수만 활성화된 상태에서 뛰어난 성능을 발휘합니다. 이 모델은 비주얼 질문 응답, 광학 문자 인식, 문서/표/차트 이해 및 비주얼 위치 지정 등 여러 작업에서 우수한 성과를 보입니다."
583
586
  },
@@ -629,6 +632,12 @@
629
632
  "deepseek/deepseek-chat": {
630
633
  "description": "일반 및 코드 능력을 통합한 새로운 오픈 소스 모델로, 기존 Chat 모델의 일반 대화 능력과 Coder 모델의 강력한 코드 처리 능력을 유지하면서 인간의 선호에 더 잘 맞춰졌습니다. 또한, DeepSeek-V2.5는 작문 작업, 지시 따르기 등 여러 분야에서 큰 향상을 이루었습니다."
631
634
  },
635
+ "deepseek/deepseek-r1": {
636
+ "description": "DeepSeek-R1은 극히 적은 주석 데이터로 모델의 추론 능력을 크게 향상시킵니다. 최종 답변을 출력하기 전에 모델은 먼저 사고의 연쇄 내용을 출력하여 최종 답변의 정확성을 높입니다."
637
+ },
638
+ "deepseek/deepseek-r1:free": {
639
+ "description": "DeepSeek-R1은 극히 적은 주석 데이터로 모델의 추론 능력을 크게 향상시킵니다. 최종 답변을 출력하기 전에 모델은 먼저 사고의 연쇄 내용을 출력하여 최종 답변의 정확성을 높입니다."
640
+ },
632
641
  "emohaa": {
633
642
  "description": "Emohaa는 심리 모델로, 전문 상담 능력을 갖추고 있어 사용자가 감정 문제를 이해하는 데 도움을 줍니다."
634
643
  },
@@ -821,12 +830,18 @@
821
830
  "google/gemini-pro-1.5": {
822
831
  "description": "Gemini 1.5 Pro는 최신 최적화 기술을 결합하여 더 효율적인 다중 모달 데이터 처리 능력을 제공합니다."
823
832
  },
833
+ "google/gemma-2-27b": {
834
+ "description": "Gemma 2는 Google에서 출시한 효율적인 모델로, 소형 애플리케이션부터 복잡한 데이터 처리까지 다양한 응용 시나리오를 포함합니다."
835
+ },
824
836
  "google/gemma-2-27b-it": {
825
837
  "description": "Gemma 2는 경량화와 효율적인 설계를 이어갑니다."
826
838
  },
827
839
  "google/gemma-2-2b-it": {
828
840
  "description": "Google의 경량 지시 조정 모델"
829
841
  },
842
+ "google/gemma-2-9b": {
843
+ "description": "Gemma 2는 Google에서 출시한 효율적인 모델로, 소형 애플리케이션부터 복잡한 데이터 처리까지 다양한 응용 시나리오를 포함합니다."
844
+ },
830
845
  "google/gemma-2-9b-it": {
831
846
  "description": "Gemma 2는 Google의 경량화된 오픈 소스 텍스트 모델 시리즈입니다."
832
847
  },
@@ -998,6 +1013,9 @@
998
1013
  "internlm3-latest": {
999
1014
  "description": "우리의 최신 모델 시리즈는 뛰어난 추론 성능을 가지고 있으며, 동급 오픈 소스 모델 중에서 선두를 달리고 있습니다. 기본적으로 최신 출시된 InternLM3 시리즈 모델을 가리킵니다."
1000
1015
  },
1016
+ "jina-deepsearch-v1": {
1017
+ "description": "딥 서치는 웹 검색, 독서 및 추론을 결합하여 포괄적인 조사를 수행합니다. 연구 작업을 수용하는 에이전트로 생각할 수 있으며, 광범위한 검색을 수행하고 여러 번 반복한 후에야 답변을 제공합니다. 이 과정은 지속적인 연구, 추론 및 다양한 각도에서 문제를 해결하는 것을 포함합니다. 이는 사전 훈련된 데이터에서 직접 답변을 생성하는 표준 대형 모델 및 일회성 표면 검색에 의존하는 전통적인 RAG 시스템과 근본적으로 다릅니다."
1018
+ },
1001
1019
  "learnlm-1.5-pro-experimental": {
1002
1020
  "description": "LearnLM은 학습 과학 원칙에 맞춰 훈련된 실험적이고 특정 작업에 특화된 언어 모델로, 교육 및 학습 환경에서 시스템 지침을 따르며 전문가 멘토 역할을 수행합니다."
1003
1021
  },
@@ -1139,6 +1157,9 @@
1139
1157
  "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
1140
1158
  "description": "405B Llama 3.1 Turbo 모델은 대규모 데이터 처리를 위한 초대용량의 컨텍스트 지원을 제공하며, 초대규모 인공지능 애플리케이션에서 뛰어난 성능을 발휘합니다."
1141
1159
  },
1160
+ "meta-llama/Meta-Llama-3.1-70B": {
1161
+ "description": "Llama 3.1은 Meta에서 출시한 선도적인 모델로, 최대 405B 매개변수를 지원하며 복잡한 대화, 다국어 번역 및 데이터 분석 분야에 적용됩니다."
1162
+ },
1142
1163
  "meta-llama/Meta-Llama-3.1-70B-Instruct": {
1143
1164
  "description": "LLaMA 3.1 70B는 다국어의 효율적인 대화 지원을 제공합니다."
1144
1165
  },
@@ -1196,6 +1217,30 @@
1196
1217
  "meta.llama3-8b-instruct-v1:0": {
1197
1218
  "description": "Meta Llama 3은 개발자, 연구자 및 기업을 위한 오픈 대형 언어 모델(LLM)로, 생성 AI 아이디어를 구축하고 실험하며 책임감 있게 확장하는 데 도움을 주기 위해 설계되었습니다. 전 세계 커뮤니티 혁신의 기초 시스템의 일환으로, 계산 능력과 자원이 제한된 환경, 엣지 장치 및 더 빠른 훈련 시간에 매우 적합합니다."
1198
1219
  },
1220
+ "meta/llama-3.1-405b-instruct": {
1221
+ "description": "합성 데이터 생성, 지식 증류 및 추론을 지원하는 고급 LLM으로, 챗봇, 프로그래밍 및 특정 분야 작업에 적합합니다."
1222
+ },
1223
+ "meta/llama-3.1-70b-instruct": {
1224
+ "description": "복잡한 대화를 가능하게 하며, 뛰어난 맥락 이해, 추론 능력 및 텍스트 생성 능력을 갖추고 있습니다."
1225
+ },
1226
+ "meta/llama-3.1-8b-instruct": {
1227
+ "description": "언어 이해, 뛰어난 추론 능력 및 텍스트 생성 능력을 갖춘 고급 최첨단 모델입니다."
1228
+ },
1229
+ "meta/llama-3.2-11b-vision-instruct": {
1230
+ "description": "이미지에서 고품질 추론을 수행하는 최첨단 비주얼-언어 모델입니다."
1231
+ },
1232
+ "meta/llama-3.2-1b-instruct": {
1233
+ "description": "언어 이해, 뛰어난 추론 능력 및 텍스트 생성 능력을 갖춘 최첨단 소형 언어 모델입니다."
1234
+ },
1235
+ "meta/llama-3.2-3b-instruct": {
1236
+ "description": "언어 이해, 뛰어난 추론 능력 및 텍스트 생성 능력을 갖춘 최첨단 소형 언어 모델입니다."
1237
+ },
1238
+ "meta/llama-3.2-90b-vision-instruct": {
1239
+ "description": "이미지에서 고품질 추론을 수행하는 최첨단 비주얼-언어 모델입니다."
1240
+ },
1241
+ "meta/llama-3.3-70b-instruct": {
1242
+ "description": "추론, 수학, 상식 및 함수 호출에 능숙한 고급 LLM입니다."
1243
+ },
1199
1244
  "microsoft/WizardLM-2-8x22B": {
1200
1245
  "description": "WizardLM 2는 Microsoft AI가 제공하는 언어 모델로, 복잡한 대화, 다국어, 추론 및 스마트 어시스턴트 분야에서 특히 뛰어난 성능을 보입니다."
1201
1246
  },
@@ -1292,6 +1337,12 @@
1292
1337
  "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
1293
1338
  "description": "Llama 3.1 Nemotron 70B는 NVIDIA가 맞춤 제작한 대규모 언어 모델로, LLM이 생성한 응답이 사용자 쿼리에 얼마나 도움이 되는지를 향상시키기 위해 설계되었습니다. 이 모델은 Arena Hard, AlpacaEval 2 LC 및 GPT-4-Turbo MT-Bench와 같은 벤치마크 테스트에서 뛰어난 성능을 보였으며, 2024년 10월 1일 기준으로 모든 자동 정렬 벤치마크 테스트에서 1위를 차지했습니다. 이 모델은 RLHF(특히 REINFORCE), Llama-3.1-Nemotron-70B-Reward 및 HelpSteer2-Preference 프롬프트를 사용하여 Llama-3.1-70B-Instruct 모델을 기반으로 훈련되었습니다."
1294
1339
  },
1340
+ "nvidia/llama-3.1-nemotron-51b-instruct": {
1341
+ "description": "비교할 수 없는 정확성과 효율성을 제공하는 독특한 언어 모델입니다."
1342
+ },
1343
+ "nvidia/llama-3.1-nemotron-70b-instruct": {
1344
+ "description": "Llama-3.1-Nemotron-70B-Instruct는 NVIDIA가 맞춤 제작한 대형 언어 모델로, LLM이 생성한 응답의 유용성을 향상시키기 위해 설계되었습니다."
1345
+ },
1295
1346
  "o1": {
1296
1347
  "description": "고급 추론 및 복잡한 문제 해결에 중점을 두며, 수학 및 과학 작업을 포함합니다. 깊이 있는 컨텍스트 이해와 에이전트 작업 흐름이 필요한 애플리케이션에 매우 적합합니다."
1297
1348
  },
@@ -1406,6 +1457,15 @@
1406
1457
  "qwen/qwen-2-7b-instruct:free": {
1407
1458
  "description": "Qwen2는 더 강력한 이해 및 생성 능력을 갖춘 새로운 대형 언어 모델 시리즈입니다."
1408
1459
  },
1460
+ "qwen/qwen2.5-7b-instruct": {
1461
+ "description": "중국어와 영어를 위한 LLM으로, 언어, 프로그래밍, 수학, 추론 등 다양한 분야를 다룹니다."
1462
+ },
1463
+ "qwen/qwen2.5-coder-32b-instruct": {
1464
+ "description": "코드 생성, 추론 및 수정 지원을 위한 고급 LLM으로, 주요 프로그래밍 언어를 포함합니다."
1465
+ },
1466
+ "qwen/qwen2.5-coder-7b-instruct": {
1467
+ "description": "32K 컨텍스트 길이를 지원하는 강력한 중형 코드 모델로, 다국어 프로그래밍에 능숙합니다."
1468
+ },
1409
1469
  "qwen2": {
1410
1470
  "description": "Qwen2는 Alibaba의 차세대 대규모 언어 모델로, 뛰어난 성능으로 다양한 응용 요구를 지원합니다."
1411
1471
  },
@@ -11,6 +11,9 @@
11
11
  "azure": {
12
12
  "description": "Azure는 GPT-3.5 및 최신 GPT-4 시리즈를 포함한 다양한 고급 AI 모델을 제공하며, 다양한 데이터 유형과 복잡한 작업을 지원하고 안전하고 신뢰할 수 있으며 지속 가능한 AI 솔루션을 목표로 하고 있습니다."
13
13
  },
14
+ "azureai": {
15
+ "description": "Azure는 GPT-3.5 및 최신 GPT-4 시리즈를 포함한 다양한 고급 AI 모델을 제공하며, 다양한 데이터 유형과 복잡한 작업을 지원하고 안전하고 신뢰할 수 있으며 지속 가능한 AI 솔루션을 위해 노력합니다."
16
+ },
14
17
  "baichuan": {
15
18
  "description": "百川智能은 인공지능 대형 모델 연구 개발에 집중하는 회사로, 그 모델은 국내 지식 백과, 긴 텍스트 처리 및 생성 창작 등 중국어 작업에서 뛰어난 성능을 보이며, 해외 주류 모델을 초월합니다. 百川智能은 업계 선도적인 다중 모드 능력을 갖추고 있으며, 여러 권위 있는 평가에서 우수한 성능을 보였습니다. 그 모델에는 Baichuan 4, Baichuan 3 Turbo 및 Baichuan 3 Turbo 128k 등이 포함되어 있으며, 각각 다른 응용 시나리오에 최적화되어 비용 효율적인 솔루션을 제공합니다."
16
19
  },
@@ -53,6 +56,9 @@
53
56
  "internlm": {
54
57
  "description": "대규모 모델 연구 및 개발 도구 체인에 전념하는 오픈 소스 조직입니다. 모든 AI 개발자에게 효율적이고 사용하기 쉬운 오픈 소스 플랫폼을 제공하여 최첨단 대규모 모델 및 알고리즘 기술을 손쉽게 이용할 수 있도록 합니다."
55
58
  },
59
+ "jina": {
60
+ "description": "Jina AI는 2020년에 설립된 선도적인 검색 AI 회사입니다. 우리의 검색 기반 플랫폼은 기업이 신뢰할 수 있고 고품질의 생성적 AI 및 다중 모드 검색 애플리케이션을 구축할 수 있도록 돕는 벡터 모델, 재배치기 및 소형 언어 모델을 포함하고 있습니다."
61
+ },
56
62
  "lmstudio": {
57
63
  "description": "LM Studio는 귀하의 컴퓨터에서 LLM을 개발하고 실험하기 위한 데스크탑 애플리케이션입니다."
58
64
  },
@@ -68,6 +74,9 @@
68
74
  "novita": {
69
75
  "description": "Novita AI는 다양한 대형 언어 모델과 AI 이미지 생성을 제공하는 API 서비스 플랫폼으로, 유연하고 신뢰할 수 있으며 비용 효율적입니다. Llama3, Mistral 등 최신 오픈 소스 모델을 지원하며, 생성적 AI 응용 프로그램 개발을 위한 포괄적이고 사용자 친화적이며 자동 확장 가능한 API 솔루션을 제공하여 AI 스타트업의 빠른 발전에 적합합니다."
70
76
  },
77
+ "nvidia": {
78
+ "description": "NVIDIA NIM™은 클라우드, 데이터 센터, RTX™ AI 개인용 컴퓨터 및 워크스테이션에서 사전 훈련된 AI 모델과 사용자 정의 AI 모델을 배포할 수 있도록 지원하는 컨테이너를 제공합니다."
79
+ },
71
80
  "ollama": {
72
81
  "description": "Ollama가 제공하는 모델은 코드 생성, 수학 연산, 다국어 처리 및 대화 상호작용 등 다양한 분야를 포괄하며, 기업급 및 로컬 배포의 다양한 요구를 지원합니다."
73
82
  },
@@ -107,6 +116,9 @@
107
116
  "upstage": {
108
117
  "description": "Upstage는 Solar LLM 및 문서 AI를 포함하여 다양한 비즈니스 요구를 위한 AI 모델 개발에 집중하고 있으며, 인공지능 일반 지능(AGI)을 실현하는 것을 목표로 하고 있습니다. Chat API를 통해 간단한 대화 에이전트를 생성하고 기능 호출, 번역, 임베딩 및 특정 분야 응용 프로그램을 지원합니다."
109
118
  },
119
+ "vllm": {
120
+ "description": "vLLM은 LLM 추론 및 서비스를 위한 빠르고 사용하기 쉬운 라이브러리입니다."
121
+ },
110
122
  "wenxin": {
111
123
  "description": "기업용 원스톱 대형 모델 및 AI 네이티브 애플리케이션 개발 및 서비스 플랫폼으로, 가장 포괄적이고 사용하기 쉬운 생성적 인공지능 모델 개발 및 애플리케이션 개발 전체 프로세스 도구 체인을 제공합니다."
112
124
  },
@@ -19,6 +19,24 @@
19
19
  "title": "API Key"
20
20
  }
21
21
  },
22
+ "azureai": {
23
+ "azureApiVersion": {
24
+ "desc": "De API-versie van Azure, volgens het formaat YYYY-MM-DD. Raadpleeg de [laatste versie](https://learn.microsoft.com/zh-cn/azure/ai-services/openai/reference#chat-completions)",
25
+ "fetch": "Lijst ophalen",
26
+ "title": "Azure API-versie"
27
+ },
28
+ "endpoint": {
29
+ "desc": "Vind het Azure AI-model inferentie-eindpunt in het overzicht van het Azure AI-project",
30
+ "placeholder": "https://ai-userxxxxxxxxxx.services.ai.azure.com/models",
31
+ "title": "Azure AI-eindpunt"
32
+ },
33
+ "title": "Azure OpenAI",
34
+ "token": {
35
+ "desc": "Vind de API-sleutel in het overzicht van het Azure AI-project",
36
+ "placeholder": "Azure-sleutel",
37
+ "title": "Sleutel"
38
+ }
39
+ },
22
40
  "bedrock": {
23
41
  "accessKeyId": {
24
42
  "desc": "Voer AWS Access Key Id in",
@@ -97,6 +115,7 @@
97
115
  "title": "Proxy-adres"
98
116
  },
99
117
  "sdkType": {
118
+ "placeholder": "openai/anthropic/azureai/ollama/...",
100
119
  "required": "Selecteer het SDK-type",
101
120
  "title": "Aanvraagformaat"
102
121
  },
@@ -210,6 +229,11 @@
210
229
  "placeholder": "Voer de modelimplementatienaam in Azure in",
211
230
  "title": "Modelimplementatienaam"
212
231
  },
232
+ "deployName": {
233
+ "extra": "Dit veld wordt als model-ID verzonden bij het indienen van een verzoek",
234
+ "placeholder": "Voer de naam of ID van het daadwerkelijk gedeployde model in",
235
+ "title": "Modeldeploynaam"
236
+ },
213
237
  "displayName": {
214
238
  "placeholder": "Voer de weergavenaam van het model in, bijvoorbeeld ChatGPT, GPT-4, enz.",
215
239
  "title": "Weergavenaam van het model"
@@ -578,6 +578,9 @@
578
578
  "deepseek-ai/deepseek-llm-67b-chat": {
579
579
  "description": "DeepSeek 67B is een geavanceerd model dat is getraind voor complexe gesprekken."
580
580
  },
581
+ "deepseek-ai/deepseek-r1": {
582
+ "description": "Geavanceerd efficiënt LLM, gespecialiseerd in redeneren, wiskunde en programmeren."
583
+ },
581
584
  "deepseek-ai/deepseek-vl2": {
582
585
  "description": "DeepSeek-VL2 is een hybride expert (MoE) visueel taalmodel dat is ontwikkeld op basis van DeepSeekMoE-27B, met een MoE-architectuur met spaarzame activatie, die uitstekende prestaties levert met slechts 4,5 miljard geactiveerde parameters. Dit model presteert uitstekend in verschillende taken, waaronder visuele vraag-antwoord, optische tekenherkenning, document/tabel/grafiekbegrip en visuele positionering."
583
586
  },
@@ -629,6 +632,12 @@
629
632
  "deepseek/deepseek-chat": {
630
633
  "description": "Een nieuw open-source model dat algemene en codeercapaciteiten combineert, niet alleen de algemene gespreksvaardigheden van het oorspronkelijke Chat-model en de krachtige codeverwerkingscapaciteiten van het Coder-model behoudt, maar ook beter is afgestemd op menselijke voorkeuren. Bovendien heeft DeepSeek-V2.5 aanzienlijke verbeteringen gerealiseerd in schrijfopdrachten, instructievolging en meer."
631
634
  },
635
+ "deepseek/deepseek-r1": {
636
+ "description": "DeepSeek-R1 heeft de redeneringscapaciteiten van het model aanzienlijk verbeterd, zelfs met zeer weinig gelabelde gegevens. Voordat het model het uiteindelijke antwoord geeft, genereert het eerst een denkproces om de nauwkeurigheid van het uiteindelijke antwoord te verbeteren."
637
+ },
638
+ "deepseek/deepseek-r1:free": {
639
+ "description": "DeepSeek-R1 heeft de redeneringscapaciteiten van het model aanzienlijk verbeterd, zelfs met zeer weinig gelabelde gegevens. Voordat het model het uiteindelijke antwoord geeft, genereert het eerst een denkproces om de nauwkeurigheid van het uiteindelijke antwoord te verbeteren."
640
+ },
632
641
  "emohaa": {
633
642
  "description": "Emohaa is een psychologisch model met professionele adviescapaciteiten, dat gebruikers helpt emotionele problemen te begrijpen."
634
643
  },
@@ -821,12 +830,18 @@
821
830
  "google/gemini-pro-1.5": {
822
831
  "description": "Gemini 1.5 Pro combineert de nieuwste optimalisatietechnologieën en biedt efficiëntere multimodale gegevensverwerkingscapaciteiten."
823
832
  },
833
+ "google/gemma-2-27b": {
834
+ "description": "Gemma 2 is een efficiënt model van Google, dat een breed scala aan toepassingen dekt, van kleine toepassingen tot complexe gegevensverwerking."
835
+ },
824
836
  "google/gemma-2-27b-it": {
825
837
  "description": "Gemma 2 behoudt het ontwerpprincipe van lichtgewicht en efficiëntie."
826
838
  },
827
839
  "google/gemma-2-2b-it": {
828
840
  "description": "Google's lichtgewicht instructieafstemmingsmodel"
829
841
  },
842
+ "google/gemma-2-9b": {
843
+ "description": "Gemma 2 is een efficiënt model van Google, dat een breed scala aan toepassingen dekt, van kleine toepassingen tot complexe gegevensverwerking."
844
+ },
830
845
  "google/gemma-2-9b-it": {
831
846
  "description": "Gemma 2 is een lichtgewicht open-source tekstmodelserie van Google."
832
847
  },
@@ -998,6 +1013,9 @@
998
1013
  "internlm3-latest": {
999
1014
  "description": "Onze nieuwste modelreeks heeft uitstekende inferentieprestaties en leidt de open-source modellen in dezelfde klasse. Standaard gericht op ons recentste InternLM3 model."
1000
1015
  },
1016
+ "jina-deepsearch-v1": {
1017
+ "description": "Diepe zoekopdrachten combineren webzoekopdrachten, lezen en redeneren voor een uitgebreide verkenning. Je kunt het beschouwen als een agent die jouw onderzoeksopdracht aanneemt - het zal een uitgebreide zoektocht uitvoeren en meerdere iteraties doorlopen voordat het een antwoord geeft. Dit proces omvat voortdurende onderzoek, redeneren en het oplossen van problemen vanuit verschillende invalshoeken. Dit is fundamenteel anders dan het rechtstreeks genereren van antwoorden uit voorgetrainde gegevens door standaard grote modellen en het vertrouwen op eenmalige oppervlakkige zoekopdrachten van traditionele RAG-systemen."
1018
+ },
1001
1019
  "learnlm-1.5-pro-experimental": {
1002
1020
  "description": "LearnLM is een experimenteel, taak-specifiek taalmodel dat is getraind volgens de principes van de leerwetenschap, en kan systeeminstructies volgen in onderwijs- en leeromgevingen, en fungeert als een expertmentor."
1003
1021
  },
@@ -1139,6 +1157,9 @@
1139
1157
  "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo": {
1140
1158
  "description": "405B Llama 3.1 Turbo model biedt enorme contextondersteuning voor big data verwerking en presteert uitstekend in grootschalige AI-toepassingen."
1141
1159
  },
1160
+ "meta-llama/Meta-Llama-3.1-70B": {
1161
+ "description": "Llama 3.1 is een toonaangevend model van Meta, ondersteunt tot 405B parameters en kan worden toegepast in complexe gesprekken, meertalige vertalingen en data-analyse."
1162
+ },
1142
1163
  "meta-llama/Meta-Llama-3.1-70B-Instruct": {
1143
1164
  "description": "LLaMA 3.1 70B biedt efficiënte gespreksondersteuning in meerdere talen."
1144
1165
  },
@@ -1196,6 +1217,30 @@
1196
1217
  "meta.llama3-8b-instruct-v1:0": {
1197
1218
  "description": "Meta Llama 3 is een open groot taalmodel (LLM) gericht op ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoordelijk opschalen van hun generatieve AI-ideeën. Als onderdeel van het basis systeem voor wereldwijde gemeenschapsinnovatie is het zeer geschikt voor apparaten met beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden."
1198
1219
  },
1220
+ "meta/llama-3.1-405b-instruct": {
1221
+ "description": "Geavanceerd LLM, ondersteunt synthetische gegevensgeneratie, kennisdistillatie en redeneren, geschikt voor chatbots, programmeren en specifieke domeintaken."
1222
+ },
1223
+ "meta/llama-3.1-70b-instruct": {
1224
+ "description": "In staat om complexe gesprekken te ondersteunen, met uitstekende contextbegrip, redeneringsvaardigheden en tekstgeneratiecapaciteiten."
1225
+ },
1226
+ "meta/llama-3.1-8b-instruct": {
1227
+ "description": "Geavanceerd, state-of-the-art model met taalbegrip, uitstekende redeneringsvaardigheden en tekstgeneratiecapaciteiten."
1228
+ },
1229
+ "meta/llama-3.2-11b-vision-instruct": {
1230
+ "description": "State-of-the-art visueel-taalmodel, gespecialiseerd in hoogwaardige redeneringen vanuit afbeeldingen."
1231
+ },
1232
+ "meta/llama-3.2-1b-instruct": {
1233
+ "description": "Geavanceerd, state-of-the-art klein taalmodel met taalbegrip, uitstekende redeneringsvaardigheden en tekstgeneratiecapaciteiten."
1234
+ },
1235
+ "meta/llama-3.2-3b-instruct": {
1236
+ "description": "Geavanceerd, state-of-the-art klein taalmodel met taalbegrip, uitstekende redeneringsvaardigheden en tekstgeneratiecapaciteiten."
1237
+ },
1238
+ "meta/llama-3.2-90b-vision-instruct": {
1239
+ "description": "State-of-the-art visueel-taalmodel, gespecialiseerd in hoogwaardige redeneringen vanuit afbeeldingen."
1240
+ },
1241
+ "meta/llama-3.3-70b-instruct": {
1242
+ "description": "Geavanceerd LLM, gespecialiseerd in redeneren, wiskunde, algemene kennis en functieaanroepen."
1243
+ },
1199
1244
  "microsoft/WizardLM-2-8x22B": {
1200
1245
  "description": "WizardLM 2 is een taalmodel van Microsoft AI dat uitblinkt in complexe gesprekken, meertaligheid, redenering en intelligente assistenttoepassingen."
1201
1246
  },
@@ -1292,6 +1337,12 @@
1292
1337
  "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
1293
1338
  "description": "Llama 3.1 Nemotron 70B is een op maat gemaakt groot taalmodel van NVIDIA, ontworpen om de hulp van LLM-gegenereerde reacties op gebruikersvragen te verbeteren. Dit model presteert uitstekend in benchmarktests zoals Arena Hard, AlpacaEval 2 LC en GPT-4-Turbo MT-Bench, en staat per 1 oktober 2024 op de eerste plaats in alle drie de automatische afstemmingsbenchmarktests. Het model is getraind met RLHF (met name REINFORCE), Llama-3.1-Nemotron-70B-Reward en HelpSteer2-Preference prompts op basis van het Llama-3.1-70B-Instruct model."
1294
1339
  },
1340
+ "nvidia/llama-3.1-nemotron-51b-instruct": {
1341
+ "description": "Uniek taalmodel dat ongeëvenaarde nauwkeurigheid en efficiëntie biedt."
1342
+ },
1343
+ "nvidia/llama-3.1-nemotron-70b-instruct": {
1344
+ "description": "Llama-3.1-Nemotron-70B-Instruct is een op maat gemaakt groot taalmodel van NVIDIA, ontworpen om de nuttigheid van de door LLM gegenereerde reacties te verbeteren."
1345
+ },
1295
1346
  "o1": {
1296
1347
  "description": "Gefocust op geavanceerd redeneren en het oplossen van complexe problemen, inclusief wiskunde en wetenschappelijke taken. Zeer geschikt voor toepassingen die diepgaand begrip van context en agentwerkstromen vereisen."
1297
1348
  },
@@ -1406,6 +1457,15 @@
1406
1457
  "qwen/qwen-2-7b-instruct:free": {
1407
1458
  "description": "Qwen2 is een gloednieuwe serie grote taalmodellen met sterkere begrip- en generatiecapaciteiten."
1408
1459
  },
1460
+ "qwen/qwen2.5-7b-instruct": {
1461
+ "description": "LLM gericht op zowel Chinees als Engels, gericht op taal, programmeren, wiskunde, redeneren en meer."
1462
+ },
1463
+ "qwen/qwen2.5-coder-32b-instruct": {
1464
+ "description": "Geavanceerd LLM, ondersteunt codegeneratie, redeneren en reparatie, dekt gangbare programmeertalen."
1465
+ },
1466
+ "qwen/qwen2.5-coder-7b-instruct": {
1467
+ "description": "Krachtig middelgroot codeermodel, ondersteunt 32K contextlengte, gespecialiseerd in meertalige programmering."
1468
+ },
1409
1469
  "qwen2": {
1410
1470
  "description": "Qwen2 is Alibaba's nieuwe generatie grootschalig taalmodel, ondersteunt diverse toepassingsbehoeften met uitstekende prestaties."
1411
1471
  },
@@ -11,6 +11,9 @@
11
11
  "azure": {
12
12
  "description": "Azure biedt een scala aan geavanceerde AI-modellen, waaronder GPT-3.5 en de nieuwste GPT-4-serie, die verschillende datatypes en complexe taken ondersteunen, met een focus op veilige, betrouwbare en duurzame AI-oplossingen."
13
13
  },
14
+ "azureai": {
15
+ "description": "Azure biedt een verscheidenheid aan geavanceerde AI-modellen, waaronder GPT-3.5 en de nieuwste GPT-4-serie, die verschillende datatypes en complexe taken ondersteunt, met een focus op veilige, betrouwbare en duurzame AI-oplossingen."
16
+ },
14
17
  "baichuan": {
15
18
  "description": "Baichuan Intelligent is een bedrijf dat zich richt op de ontwikkeling van grote modellen voor kunstmatige intelligentie, wiens modellen uitblinken in Chinese taken zoals kennisencyclopedieën, lange tekstverwerking en generatieve creatie, en de mainstream modellen uit het buitenland overtreffen. Baichuan Intelligent heeft ook toonaangevende multimodale capaciteiten en presteert uitstekend in verschillende autoritatieve evaluaties. Hun modellen omvatten Baichuan 4, Baichuan 3 Turbo en Baichuan 3 Turbo 128k, die zijn geoptimaliseerd voor verschillende toepassingsscenario's en kosteneffectieve oplossingen bieden."
16
19
  },
@@ -53,6 +56,9 @@
53
56
  "internlm": {
54
57
  "description": "Een open-source organisatie die zich richt op onderzoek en ontwikkeling van tools voor grote modellen. Biedt een efficiënt en gebruiksvriendelijk open-source platform voor alle AI-ontwikkelaars, zodat de meest geavanceerde modellen en algoritmische technologieën binnen handbereik zijn."
55
58
  },
59
+ "jina": {
60
+ "description": "Jina AI, opgericht in 2020, is een toonaangevend zoek-AI-bedrijf. Ons zoekplatform bevat vectormodellen, herschikkers en kleine taalmodellen, die bedrijven helpen betrouwbare en hoogwaardige generatieve AI- en multimodale zoektoepassingen te bouwen."
61
+ },
56
62
  "lmstudio": {
57
63
  "description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLM's op uw computer."
58
64
  },
@@ -68,6 +74,9 @@
68
74
  "novita": {
69
75
  "description": "Novita AI is een platform dat API-diensten biedt voor verschillende grote taalmodellen en AI-beeldgeneratie, flexibel, betrouwbaar en kosteneffectief. Het ondersteunt de nieuwste open-source modellen zoals Llama3 en Mistral, en biedt een uitgebreide, gebruiksvriendelijke en automatisch schaalbare API-oplossing voor de ontwikkeling van generatieve AI-toepassingen, geschikt voor de snelle groei van AI-startups."
70
76
  },
77
+ "nvidia": {
78
+ "description": "NVIDIA NIM™ biedt containers voor zelf-gehoste GPU-versnelde inferentie-microservices, die de implementatie van voorgetrainde en aangepaste AI-modellen in de cloud, datacenters, RTX™ AI-pc's en werkstations ondersteunen."
79
+ },
71
80
  "ollama": {
72
81
  "description": "De modellen van Ollama bestrijken een breed scala aan gebieden, waaronder codegeneratie, wiskundige berekeningen, meertalige verwerking en interactieve dialogen, en voldoen aan de diverse behoeften van bedrijfs- en lokale implementaties."
73
82
  },
@@ -107,6 +116,9 @@
107
116
  "upstage": {
108
117
  "description": "Upstage richt zich op het ontwikkelen van AI-modellen voor verschillende zakelijke behoeften, waaronder Solar LLM en document AI, met als doel het realiseren van kunstmatige algemene intelligentie (AGI). Het creëert eenvoudige dialoogagenten via de Chat API en ondersteunt functionele aanroepen, vertalingen, insluitingen en specifieke domeintoepassingen."
109
118
  },
119
+ "vllm": {
120
+ "description": "vLLM is een snelle en gebruiksvriendelijke bibliotheek voor LLM-inferentie en -diensten."
121
+ },
110
122
  "wenxin": {
111
123
  "description": "Een enterprise-grade, alles-in-één platform voor de ontwikkeling en service van grote modellen en AI-native applicaties, dat de meest uitgebreide en gebruiksvriendelijke toolchain biedt voor de ontwikkeling van generatieve kunstmatige intelligentiemodellen en applicaties."
112
124
  },