@lobehub/chat 1.31.4 → 1.31.6

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (61) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/locales/ar/models.json +39 -7
  3. package/locales/ar/providers.json +4 -0
  4. package/locales/bg-BG/models.json +38 -6
  5. package/locales/bg-BG/providers.json +4 -0
  6. package/locales/de-DE/models.json +39 -7
  7. package/locales/de-DE/providers.json +4 -0
  8. package/locales/en-US/models.json +38 -6
  9. package/locales/en-US/providers.json +4 -0
  10. package/locales/es-ES/models.json +38 -6
  11. package/locales/es-ES/providers.json +4 -0
  12. package/locales/fa-IR/modelProvider.json +12 -0
  13. package/locales/fa-IR/models.json +39 -7
  14. package/locales/fa-IR/providers.json +4 -0
  15. package/locales/fr-FR/models.json +38 -6
  16. package/locales/fr-FR/providers.json +4 -0
  17. package/locales/it-IT/models.json +38 -6
  18. package/locales/it-IT/providers.json +4 -0
  19. package/locales/ja-JP/models.json +39 -7
  20. package/locales/ja-JP/providers.json +4 -0
  21. package/locales/ko-KR/models.json +38 -6
  22. package/locales/ko-KR/providers.json +4 -0
  23. package/locales/nl-NL/models.json +38 -6
  24. package/locales/nl-NL/providers.json +4 -0
  25. package/locales/pl-PL/models.json +37 -5
  26. package/locales/pl-PL/providers.json +4 -0
  27. package/locales/pt-BR/models.json +38 -6
  28. package/locales/pt-BR/providers.json +4 -0
  29. package/locales/ru-RU/models.json +38 -6
  30. package/locales/ru-RU/providers.json +4 -0
  31. package/locales/tr-TR/models.json +39 -7
  32. package/locales/tr-TR/providers.json +4 -0
  33. package/locales/vi-VN/models.json +37 -5
  34. package/locales/vi-VN/providers.json +4 -0
  35. package/locales/zh-CN/modelProvider.json +1 -1
  36. package/locales/zh-CN/models.json +37 -5
  37. package/locales/zh-CN/providers.json +4 -0
  38. package/locales/zh-TW/models.json +38 -6
  39. package/locales/zh-TW/providers.json +4 -0
  40. package/package.json +1 -1
  41. package/src/app/(main)/chat/(workspace)/@conversation/default.tsx +2 -2
  42. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Desktop/Header/index.tsx +6 -1
  43. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Desktop/index.tsx +63 -43
  44. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Mobile/index.tsx +19 -1
  45. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/Content.tsx +35 -0
  46. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/index.tsx +28 -0
  47. package/src/config/modelProviders/baichuan.ts +30 -2
  48. package/src/config/modelProviders/cloudflare.ts +1 -0
  49. package/src/config/modelProviders/deepseek.ts +1 -1
  50. package/src/config/modelProviders/qwen.ts +19 -19
  51. package/src/config/modelProviders/siliconcloud.ts +16 -4
  52. package/src/config/modelProviders/wenxin.ts +13 -0
  53. package/src/features/ChatInput/ActionBar/config.ts +1 -20
  54. package/src/features/ChatInput/ActionBar/index.tsx +25 -28
  55. package/src/features/ChatInput/types.ts +1 -0
  56. package/src/features/Conversation/components/ChatItem/index.tsx +1 -1
  57. package/src/features/Conversation/components/VirtualizedList/index.tsx +13 -28
  58. package/src/features/Conversation/index.ts +2 -0
  59. package/src/libs/agent-runtime/ai360/index.test.ts +1 -1
  60. package/src/libs/agent-runtime/ai360/index.ts +1 -1
  61. package/src/features/Conversation/index.tsx +0 -30
@@ -20,6 +20,20 @@
20
20
  "4.0Ultra": {
21
21
  "description": "Spark4.0 Ultraは星火大モデルシリーズの中で最も強力なバージョンで、ネットワーク検索のリンクをアップグレードし、テキストコンテンツの理解と要約能力を向上させています。これは、オフィスの生産性を向上させ、要求に正確に応えるための全方位のソリューションであり、業界をリードするインテリジェントな製品です。"
22
22
  },
23
+ "@cf/meta/llama-3-8b-instruct-awq": {},
24
+ "@cf/openchat/openchat-3.5-0106": {},
25
+ "@cf/qwen/qwen1.5-14b-chat-awq": {},
26
+ "@hf/google/gemma-7b-it": {},
27
+ "@hf/meta-llama/meta-llama-3-8b-instruct": {
28
+ "description": "Generation over generation, Meta Llama 3は幅広い業界ベンチマークで最先端のパフォーマンスを示し、改善された推論を含む新しい機能を提供します。"
29
+ },
30
+ "@hf/mistral/mistral-7b-instruct-v0.2": {},
31
+ "@hf/nexusflow/starling-lm-7b-beta": {},
32
+ "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
33
+ "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
34
+ "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
35
+ "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
36
+ "@hf/thebloke/zephyr-7b-beta-awq": {},
23
37
  "Baichuan2-Turbo": {
24
38
  "description": "検索強化技術を採用し、大モデルと分野知識、全網知識の全面的なリンクを実現しています。PDF、Wordなどのさまざまな文書のアップロードやURL入力をサポートし、情報取得が迅速かつ包括的で、出力結果は正確かつ専門的です。"
25
39
  },
@@ -32,6 +46,12 @@
32
46
  "Baichuan4": {
33
47
  "description": "モデル能力は国内でトップであり、知識百科、長文、生成創作などの中国語タスクで海外の主流モデルを超えています。また、業界をリードするマルチモーダル能力を備え、複数の権威ある評価基準で優れたパフォーマンスを示しています。"
34
48
  },
49
+ "Baichuan4-Air": {
50
+ "description": "モデル能力は国内で第一であり、知識百科、長文、生成創作などの中国語タスクで海外の主流モデルを超えています。また、業界をリードするマルチモーダル能力を持ち、多くの権威ある評価基準で優れたパフォーマンスを示しています。"
51
+ },
52
+ "Baichuan4-Turbo": {
53
+ "description": "モデル能力は国内で第一であり、知識百科、長文、生成創作などの中国語タスクで海外の主流モデルを超えています。また、業界をリードするマルチモーダル能力を持ち、多くの権威ある評価基準で優れたパフォーマンスを示しています。"
54
+ },
35
55
  "ERNIE-3.5-128K": {
36
56
  "description": "百度が独自に開発したフラッグシップの大規模言語モデルで、膨大な中英語のコーパスをカバーし、強力な汎用能力を持っています。ほとんどの対話型質問応答、創作生成、プラグインアプリケーションの要件を満たすことができます。また、百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。"
37
57
  },
@@ -47,6 +67,9 @@
47
67
  "ERNIE-4.0-8K-Preview": {
48
68
  "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、ERNIE 3.5に比べてモデル能力が全面的にアップグレードされ、さまざまな分野の複雑なタスクシナリオに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。"
49
69
  },
70
+ "ERNIE-4.0-Turbo-128K": {
71
+ "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、総合的な効果が優れており、さまざまな分野の複雑なタスクシーンに広く適用可能です。百度検索プラグインとの自動接続をサポートし、問答情報のタイムリーさを保証します。ERNIE 4.0に比べて性能がさらに優れています。"
72
+ },
50
73
  "ERNIE-4.0-Turbo-8K-Latest": {
51
74
  "description": "百度が自主開発したフラッグシップの超大規模な言語モデルで、総合的なパフォーマンスが優れており、各分野の複雑なタスクシナリオに広く適応します;百度検索プラグインとの自動連携をサポートし、質問応答情報のタイムリーさを保証します。ERNIE 4.0に比べてパフォーマンスが向上しています。"
52
75
  },
@@ -146,8 +169,8 @@
146
169
  "Qwen/Qwen2.5-7B-Instruct-Turbo": {
147
170
  "description": "Qwen2.5は新しい大型言語モデルシリーズで、指示タスクの処理を最適化することを目的としています。"
148
171
  },
149
- "Qwen/Qwen2.5-Coder-7B-Instruct": {
150
- "description": "Qwen2.5-Coderは、コード作成に特化しています。"
172
+ "Qwen/Qwen2.5-Coder-32B-Instruct": {
173
+ "description": "Qwen2.5-Coderはコード作成に特化しています。"
151
174
  },
152
175
  "Qwen/Qwen2.5-Math-72B-Instruct": {
153
176
  "description": "Qwen2.5-Mathは、数学分野の問題解決に特化しており、高難度の問題に対して専門的な解答を提供します。"
@@ -179,6 +202,9 @@
179
202
  "THUDM/glm-4-9b-chat": {
180
203
  "description": "GLM-4 9Bはオープンソース版で、会話アプリケーションに最適化された対話体験を提供します。"
181
204
  },
205
+ "Tencent/Hunyuan-A52B-Instruct": {
206
+ "description": "Hunyuan-Largeは業界最大のオープンソースTransformerアーキテクチャMoEモデルで、3890億の総パラメータ数と520億のアクティブパラメータ数を持っています。"
207
+ },
182
208
  "abab5.5-chat": {
183
209
  "description": "生産性シーン向けであり、複雑なタスク処理と効率的なテキスト生成をサポートし、専門分野のアプリケーションに適しています。"
184
210
  },
@@ -587,6 +613,9 @@
587
613
  "gpt-4o-mini": {
588
614
  "description": "GPT-4o miniは、OpenAIがGPT-4 Omniの後に発表した最新のモデルで、画像とテキストの入力をサポートし、テキストを出力します。最先端の小型モデルとして、最近の他の先進モデルよりもはるかに安価で、GPT-3.5 Turboよりも60%以上安価です。最先端の知能を維持しつつ、コストパフォーマンスが大幅に向上しています。GPT-4o miniはMMLUテストで82%のスコアを獲得し、現在チャットの好みではGPT-4よりも高い評価を得ています。"
589
615
  },
616
+ "grok-beta": {
617
+ "description": "Grok 2と同等の性能を持ちながら、より高い効率、速度、機能を備えています。"
618
+ },
590
619
  "gryphe/mythomax-l2-13b": {
591
620
  "description": "MythoMax l2 13Bは複数のトップモデルを統合した創造性と知性を兼ね備えた言語モデルです。"
592
621
  },
@@ -949,6 +978,9 @@
949
978
  "pro-128k": {
950
979
  "description": "Spark Pro 128Kは特大のコンテキスト処理能力を備え、最大128Kのコンテキスト情報を処理できます。特に、全体を通じての分析や長期的な論理的関連性の処理が必要な長文コンテンツに適しており、複雑なテキストコミュニケーションにおいて滑らかで一貫した論理と多様な引用サポートを提供します。"
951
980
  },
981
+ "qwen-coder-plus-latest": {
982
+ "description": "通義千問コードモデル。"
983
+ },
952
984
  "qwen-coder-turbo-latest": {
953
985
  "description": "通義千問のコードモデルです。"
954
986
  },
@@ -1000,15 +1032,12 @@
1000
1032
  "qwen2.5-7b-instruct": {
1001
1033
  "description": "通義千問2.5の対外オープンソースの7B規模のモデルです。"
1002
1034
  },
1003
- "qwen2.5-coder-1.5b-instruct": {
1004
- "description": "通義千問のコードモデルのオープンソース版です。"
1035
+ "qwen2.5-coder-32b-instruct": {
1036
+ "description": "通義千問コードモデルのオープンソース版。"
1005
1037
  },
1006
1038
  "qwen2.5-coder-7b-instruct": {
1007
1039
  "description": "通義千問のコードモデルのオープンソース版です。"
1008
1040
  },
1009
- "qwen2.5-math-1.5b-instruct": {
1010
- "description": "Qwen-Mathモデルは、強力な数学の問題解決能力を持っています。"
1011
- },
1012
1041
  "qwen2.5-math-72b-instruct": {
1013
1042
  "description": "Qwen-Mathモデルは、強力な数学の問題解決能力を持っています。"
1014
1043
  },
@@ -1069,6 +1098,9 @@
1069
1098
  "upstage/SOLAR-10.7B-Instruct-v1.0": {
1070
1099
  "description": "Upstage SOLAR Instruct v1 (11B)は、精密な指示タスクに適しており、優れた言語処理能力を提供します。"
1071
1100
  },
1101
+ "us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
1102
+ "description": "Claude 3.5 Sonnetは業界標準を向上させ、競合モデルやClaude 3 Opusを超える性能を持ち、広範な評価で優れた結果を示し、我々の中程度のモデルの速度とコストを兼ね備えています。"
1103
+ },
1072
1104
  "wizardlm2": {
1073
1105
  "description": "WizardLM 2は、Microsoft AIが提供する言語モデルであり、複雑な対話、多言語、推論、インテリジェントアシスタントの分野で特に優れた性能を発揮します。"
1074
1106
  },
@@ -15,6 +15,7 @@
15
15
  "bedrock": {
16
16
  "description": "Bedrockは、Amazon AWSが提供するサービスで、企業に先進的なAI言語モデルと視覚モデルを提供することに特化しています。そのモデルファミリーには、AnthropicのClaudeシリーズやMetaのLlama 3.1シリーズなどが含まれ、軽量から高性能までのさまざまな選択肢を提供し、テキスト生成、対話、画像処理などの多様なタスクをサポートし、異なる規模とニーズの企業アプリケーションに適しています。"
17
17
  },
18
+ "cloudflare": {},
18
19
  "deepseek": {
19
20
  "description": "DeepSeekは、人工知能技術の研究と応用に特化した企業であり、最新のモデルDeepSeek-V2.5は、汎用対話とコード処理能力を融合させ、人間の好みの整合、ライティングタスク、指示の遵守などの面で顕著な向上を実現しています。"
20
21
  },
@@ -85,6 +86,9 @@
85
86
  "wenxin": {
86
87
  "description": "企業向けのワンストップ大規模モデルとAIネイティブアプリケーションの開発およびサービスプラットフォームで、最も包括的で使いやすい生成的人工知能モデルの開発とアプリケーション開発の全プロセスツールチェーンを提供します。"
87
88
  },
89
+ "xai": {
90
+ "description": "xAIは、人類の科学的発見を加速するための人工知能を構築することに専念している企業です。私たちの使命は、宇宙に対する共通の理解を促進することです。"
91
+ },
88
92
  "zeroone": {
89
93
  "description": "01.AIは、AI 2.0時代の人工知能技術に特化し、「人+人工知能」の革新と応用を推進し、超強力なモデルと先進的なAI技術を用いて人類の生産性を向上させ、技術の力を実現します。"
90
94
  },
@@ -20,6 +20,20 @@
20
20
  "4.0Ultra": {
21
21
  "description": "Spark4.0 Ultra는 스타크 대형 모델 시리즈 중 가장 강력한 버전으로, 업그레이드된 네트워크 검색 링크와 함께 텍스트 내용의 이해 및 요약 능력을 향상시킵니다. 사무 생산성을 높이고 정확한 요구에 응답하기 위한 종합 솔루션으로, 업계를 선도하는 스마트 제품입니다."
22
22
  },
23
+ "@cf/meta/llama-3-8b-instruct-awq": {},
24
+ "@cf/openchat/openchat-3.5-0106": {},
25
+ "@cf/qwen/qwen1.5-14b-chat-awq": {},
26
+ "@hf/google/gemma-7b-it": {},
27
+ "@hf/meta-llama/meta-llama-3-8b-instruct": {
28
+ "description": "세대에서 세대로, Meta Llama 3는 다양한 산업 벤치마크에서 최첨단 성능을 보여주며, 개선된 추론을 포함한 새로운 기능을 제공합니다."
29
+ },
30
+ "@hf/mistral/mistral-7b-instruct-v0.2": {},
31
+ "@hf/nexusflow/starling-lm-7b-beta": {},
32
+ "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
33
+ "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
34
+ "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
35
+ "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
36
+ "@hf/thebloke/zephyr-7b-beta-awq": {},
23
37
  "Baichuan2-Turbo": {
24
38
  "description": "검색 강화 기술을 통해 대형 모델과 분야 지식, 전 세계 지식의 완전한 연결을 실현합니다. PDF, Word 등 다양한 문서 업로드 및 웹사이트 입력을 지원하며, 정보 획득이 신속하고 포괄적이며, 출력 결과가 정확하고 전문적입니다."
25
39
  },
@@ -32,6 +46,12 @@
32
46
  "Baichuan4": {
33
47
  "description": "모델 능력 국내 1위로, 지식 백과, 긴 텍스트, 생성 창작 등 중국어 작업에서 해외 주류 모델을 초월합니다. 또한 업계 선도적인 다중 모달 능력을 갖추고 있으며, 여러 권위 있는 평가 기준에서 우수한 성과를 보입니다."
34
48
  },
49
+ "Baichuan4-Air": {
50
+ "description": "모델 능력이 국내 1위이며, 지식 백과, 긴 텍스트, 생성 창작 등 중국어 작업에서 해외 주류 모델을 초월합니다. 또한 업계 선도적인 다중 모달 능력을 갖추고 있으며, 여러 권위 있는 평가 기준에서 우수한 성과를 보입니다."
51
+ },
52
+ "Baichuan4-Turbo": {
53
+ "description": "모델 능력이 국내 1위이며, 지식 백과, 긴 텍스트, 생성 창작 등 중국어 작업에서 해외 주류 모델을 초월합니다. 또한 업계 선도적인 다중 모달 능력을 갖추고 있으며, 여러 권위 있는 평가 기준에서 우수한 성과를 보입니다."
54
+ },
35
55
  "ERNIE-3.5-128K": {
36
56
  "description": "바이두가 자체 개발한 플래그십 대규모 언어 모델로, 방대한 중문 및 영문 코퍼스를 포함하고 있으며, 강력한 일반 능력을 갖추고 있어 대부분의 대화형 질문 응답, 창작 생성, 플러그인 응용 시나리오 요구를 충족할 수 있습니다. 또한 바이두 검색 플러그인과의 자동 연동을 지원하여 질문 응답 정보의 시의성을 보장합니다."
37
57
  },
@@ -47,6 +67,9 @@
47
67
  "ERNIE-4.0-8K-Preview": {
48
68
  "description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, ERNIE 3.5에 비해 모델 능력이 전면적으로 업그레이드되었으며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 자동으로 바이두 검색 플러그인과 연결되어 질문 응답 정보의 시의성을 보장합니다."
49
69
  },
70
+ "ERNIE-4.0-Turbo-128K": {
71
+ "description": "바이두가 자체 개발한 플래그십 초대규모 대언어 모델로, 종합적인 효과가 뛰어나며, 다양한 분야의 복잡한 작업 장면에 널리 적용됩니다. 바이두 검색 플러그인과 자동으로 연결되어 질문과 답변 정보의 시의성을 보장합니다. ERNIE 4.0에 비해 성능이 더욱 우수합니다."
72
+ },
50
73
  "ERNIE-4.0-Turbo-8K-Latest": {
51
74
  "description": "바이두가 개발한 플래그십 대규모 언어 모델로, 다양한 분야의 복잡한 작업 환경에서 뛰어난 종합 효과를 보여줍니다. 바이두 검색 플러그인 자동 연결을 지원하여 질문과 답변 정보의 시의성을 보장합니다. ERNIE 4.0에 비해 성능이 더욱 우수합니다."
52
75
  },
@@ -146,8 +169,8 @@
146
169
  "Qwen/Qwen2.5-7B-Instruct-Turbo": {
147
170
  "description": "Qwen2.5는 명령형 작업 처리를 최적화하기 위해 설계된 새로운 대형 언어 모델 시리즈입니다."
148
171
  },
149
- "Qwen/Qwen2.5-Coder-7B-Instruct": {
150
- "description": "Qwen2.5-Coder는 코드 작성을 전문으로 합니다."
172
+ "Qwen/Qwen2.5-Coder-32B-Instruct": {
173
+ "description": "Qwen2.5-Coder는 코드 작성에 중점을 둡니다."
151
174
  },
152
175
  "Qwen/Qwen2.5-Math-72B-Instruct": {
153
176
  "description": "Qwen2.5-Math는 수학 분야의 문제 해결에 중점을 두고 있으며, 고난이도 문제에 대한 전문적인 해답을 제공합니다."
@@ -179,6 +202,9 @@
179
202
  "THUDM/glm-4-9b-chat": {
180
203
  "description": "GLM-4 9B 오픈 소스 버전으로, 대화 응용을 위한 최적화된 대화 경험을 제공합니다."
181
204
  },
205
+ "Tencent/Hunyuan-A52B-Instruct": {
206
+ "description": "Hunyuan-Large는 업계에서 가장 큰 오픈 소스 Transformer 아키텍처 MoE 모델로, 총 3890억 개의 매개변수와 520억 개의 활성 매개변수를 가지고 있습니다."
207
+ },
182
208
  "abab5.5-chat": {
183
209
  "description": "생산성 시나리오를 위해 설계되었으며, 복잡한 작업 처리 및 효율적인 텍스트 생성을 지원하여 전문 분야 응용에 적합합니다."
184
210
  },
@@ -587,6 +613,9 @@
587
613
  "gpt-4o-mini": {
588
614
  "description": "GPT-4o mini는 OpenAI가 GPT-4 Omni 이후에 출시한 최신 모델로, 텍스트와 이미지를 입력받아 텍스트를 출력합니다. 이 모델은 최신의 소형 모델로, 최근의 다른 최첨단 모델보다 훨씬 저렴하며, GPT-3.5 Turbo보다 60% 이상 저렴합니다. 최첨단의 지능을 유지하면서도 뛰어난 가성비를 자랑합니다. GPT-4o mini는 MMLU 테스트에서 82%의 점수를 기록했으며, 현재 채팅 선호도에서 GPT-4보다 높은 순위를 차지하고 있습니다."
589
615
  },
616
+ "grok-beta": {
617
+ "description": "Grok 2와 유사한 성능을 가지지만, 더 높은 효율성, 속도 및 기능을 제공합니다."
618
+ },
590
619
  "gryphe/mythomax-l2-13b": {
591
620
  "description": "MythoMax l2 13B는 여러 최상위 모델을 통합한 창의성과 지능이 결합된 언어 모델입니다."
592
621
  },
@@ -949,6 +978,9 @@
949
978
  "pro-128k": {
950
979
  "description": "Spark Pro 128K는 매우 큰 컨텍스트 처리 능력을 갖추고 있으며, 최대 128K의 컨텍스트 정보를 처리할 수 있습니다. 특히 전체 분석 및 장기 논리 연관 처리가 필요한 긴 문서 콘텐츠에 적합하며, 복잡한 텍스트 커뮤니케이션에서 매끄럽고 일관된 논리와 다양한 인용 지원을 제공합니다."
951
980
  },
981
+ "qwen-coder-plus-latest": {
982
+ "description": "통의 천문 코드 모델입니다."
983
+ },
952
984
  "qwen-coder-turbo-latest": {
953
985
  "description": "통의 천문 코드 모델입니다."
954
986
  },
@@ -1000,15 +1032,12 @@
1000
1032
  "qwen2.5-7b-instruct": {
1001
1033
  "description": "통의 천문 2.5 외부 오픈 소스 7B 규모 모델입니다."
1002
1034
  },
1003
- "qwen2.5-coder-1.5b-instruct": {
1035
+ "qwen2.5-coder-32b-instruct": {
1004
1036
  "description": "통의 천문 코드 모델 오픈 소스 버전입니다."
1005
1037
  },
1006
1038
  "qwen2.5-coder-7b-instruct": {
1007
1039
  "description": "통의 천문 코드 모델 오픈 소스 버전입니다."
1008
1040
  },
1009
- "qwen2.5-math-1.5b-instruct": {
1010
- "description": "Qwen-Math 모델은 강력한 수학 문제 해결 능력을 가지고 있습니다."
1011
- },
1012
1041
  "qwen2.5-math-72b-instruct": {
1013
1042
  "description": "Qwen-Math 모델은 강력한 수학 문제 해결 능력을 가지고 있습니다."
1014
1043
  },
@@ -1069,6 +1098,9 @@
1069
1098
  "upstage/SOLAR-10.7B-Instruct-v1.0": {
1070
1099
  "description": "Upstage SOLAR Instruct v1 (11B)는 세밀한 지시 작업에 적합하며, 뛰어난 언어 처리 능력을 제공합니다."
1071
1100
  },
1101
+ "us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
1102
+ "description": "Claude 3.5 Sonnet는 업계 표준을 향상시켰으며, 경쟁 모델과 Claude 3 Opus를 초월하는 성능을 보여주고, 광범위한 평가에서 뛰어난 성과를 보이며, 중간 수준 모델의 속도와 비용을 갖추고 있습니다."
1103
+ },
1072
1104
  "wizardlm2": {
1073
1105
  "description": "WizardLM 2는 Microsoft AI에서 제공하는 언어 모델로, 복잡한 대화, 다국어, 추론 및 스마트 어시스턴트 분야에서 특히 뛰어난 성능을 발휘합니다."
1074
1106
  },
@@ -15,6 +15,7 @@
15
15
  "bedrock": {
16
16
  "description": "Bedrock은 아마존 AWS가 제공하는 서비스로, 기업에 고급 AI 언어 모델과 비주얼 모델을 제공합니다. 그 모델 가족에는 Anthropic의 Claude 시리즈, Meta의 Llama 3.1 시리즈 등이 포함되어 있으며, 경량형부터 고성능까지 다양한 선택지를 제공하고 텍스트 생성, 대화, 이미지 처리 등 여러 작업을 지원하여 다양한 규모와 요구의 기업 응용 프로그램에 적합합니다."
17
17
  },
18
+ "cloudflare": {},
18
19
  "deepseek": {
19
20
  "description": "DeepSeek는 인공지능 기술 연구 및 응용에 집중하는 회사로, 최신 모델인 DeepSeek-V2.5는 일반 대화 및 코드 처리 능력을 통합하고 인간의 선호 정렬, 작문 작업 및 지시 따르기 등에서 상당한 향상을 이루었습니다."
20
21
  },
@@ -85,6 +86,9 @@
85
86
  "wenxin": {
86
87
  "description": "기업용 원스톱 대형 모델 및 AI 네이티브 애플리케이션 개발 및 서비스 플랫폼으로, 가장 포괄적이고 사용하기 쉬운 생성적 인공지능 모델 개발 및 애플리케이션 개발 전체 프로세스 도구 체인을 제공합니다."
87
88
  },
89
+ "xai": {
90
+ "description": "xAI는 인류의 과학적 발견을 가속화하기 위해 인공지능을 구축하는 데 전념하는 회사입니다. 우리의 사명은 우주에 대한 공동의 이해를 증진하는 것입니다."
91
+ },
88
92
  "zeroone": {
89
93
  "description": "01.AI는 AI 2.0 시대의 인공지능 기술에 집중하며, '인간 + 인공지능'의 혁신과 응용을 적극적으로 추진하고, 초강력 모델과 고급 AI 기술을 활용하여 인간의 생산성을 향상시키고 기술의 힘을 실현합니다."
90
94
  },
@@ -20,6 +20,20 @@
20
20
  "4.0Ultra": {
21
21
  "description": "Spark4.0 Ultra is de krachtigste versie in de Spark-grootmodelserie, die de netwerkintegratie heeft geüpgraded en de tekstbegrip- en samenvattingscapaciteiten heeft verbeterd. Het is een allesomvattende oplossing voor het verbeteren van de kantoorproductiviteit en het nauwkeurig reageren op behoeften, en is een toonaangevend intelligent product in de industrie."
22
22
  },
23
+ "@cf/meta/llama-3-8b-instruct-awq": {},
24
+ "@cf/openchat/openchat-3.5-0106": {},
25
+ "@cf/qwen/qwen1.5-14b-chat-awq": {},
26
+ "@hf/google/gemma-7b-it": {},
27
+ "@hf/meta-llama/meta-llama-3-8b-instruct": {
28
+ "description": "Generatie na generatie toont Meta Llama 3 state-of-the-art prestaties op een breed scala aan industriële benchmarks en biedt nieuwe mogelijkheden, waaronder verbeterd redeneren."
29
+ },
30
+ "@hf/mistral/mistral-7b-instruct-v0.2": {},
31
+ "@hf/nexusflow/starling-lm-7b-beta": {},
32
+ "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
33
+ "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
34
+ "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
35
+ "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
36
+ "@hf/thebloke/zephyr-7b-beta-awq": {},
23
37
  "Baichuan2-Turbo": {
24
38
  "description": "Maakt gebruik van zoekversterkingstechnologie om een uitgebreide koppeling tussen het grote model en domeinspecifieke kennis en wereldwijde kennis te realiseren. Ondersteunt het uploaden van verschillende documenten zoals PDF en Word, evenals URL-invoer, met tijdige en uitgebreide informatieverzameling en nauwkeurige, professionele output."
25
39
  },
@@ -32,6 +46,12 @@
32
46
  "Baichuan4": {
33
47
  "description": "Het model heeft de beste prestaties in het binnenland en overtreft buitenlandse mainstream modellen in kennisencyclopedieën, lange teksten en creatieve generaties. Het heeft ook toonaangevende multimodale capaciteiten en presteert uitstekend in verschillende autoritatieve evaluatiebenchmarks."
34
48
  },
49
+ "Baichuan4-Air": {
50
+ "description": "Modelcapaciteiten zijn nationaal de beste, overtreft buitenlandse mainstream modellen in kennisencyclopedie, lange teksten en creatieve generatie in Chinese taken. Beschikt ook over toonaangevende multimodale capaciteiten en presteert uitstekend op verschillende autoritatieve evaluatiebenchmarks."
51
+ },
52
+ "Baichuan4-Turbo": {
53
+ "description": "Modelcapaciteiten zijn nationaal de beste, overtreft buitenlandse mainstream modellen in kennisencyclopedie, lange teksten en creatieve generatie in Chinese taken. Beschikt ook over toonaangevende multimodale capaciteiten en presteert uitstekend op verschillende autoritatieve evaluatiebenchmarks."
54
+ },
35
55
  "ERNIE-3.5-128K": {
36
56
  "description": "De door Baidu ontwikkelde vlaggenschip grote taalmodel, dat een enorme hoeveelheid Chinese en Engelse gegevens dekt, met krachtige algemene capaciteiten die voldoen aan de meeste eisen voor dialoogvragen, creatieve generatie en plug-in toepassingsscenario's; ondersteunt automatische integratie met de Baidu zoekplug-in, wat de actualiteit van vraag- en antwoordinformatie waarborgt."
37
57
  },
@@ -47,6 +67,9 @@
47
67
  "ERNIE-4.0-8K-Preview": {
48
68
  "description": "Het door Baidu ontwikkelde vlaggenschip van een ultra-groot taalmodel, dat in vergelijking met ERNIE 3.5 een algehele upgrade van de modelcapaciteiten heeft gerealiseerd, en breed toepasbaar is in complexe taken in verschillende domeinen; ondersteunt automatische integratie met de Baidu-zoekplug-in om de actualiteit van vraag- en antwoordinformatie te waarborgen."
49
69
  },
70
+ "ERNIE-4.0-Turbo-128K": {
71
+ "description": "Het vlaggenschip supergrote taalmodel van Baidu, met uitstekende algehele prestaties, breed toepasbaar in complexe taakscenario's in verschillende domeinen; ondersteunt automatische integratie met Baidu zoekplug-ins, wat de actualiteit van vraag- en antwoordinformatie waarborgt. In vergelijking met ERNIE 4.0 presteert het beter."
72
+ },
50
73
  "ERNIE-4.0-Turbo-8K-Latest": {
51
74
  "description": "De zelfontwikkelde vlaggenschip super-grote taalmodel van Baidu, dat uitmuntend presteert in diverse complexe taakscenario's in verschillende domeinen; ondersteunt automatische integratie met de Baidu-zoekplug-in, waarborgt de actualiteit van vraag-antwoordinformatie. Overtreft in performance ten opzichte van ERNIE 4.0."
52
75
  },
@@ -146,7 +169,7 @@
146
169
  "Qwen/Qwen2.5-7B-Instruct-Turbo": {
147
170
  "description": "Qwen2.5 is een geheel nieuwe serie grote taalmodellen, ontworpen om de verwerking van instructietaken te optimaliseren."
148
171
  },
149
- "Qwen/Qwen2.5-Coder-7B-Instruct": {
172
+ "Qwen/Qwen2.5-Coder-32B-Instruct": {
150
173
  "description": "Qwen2.5-Coder richt zich op het schrijven van code."
151
174
  },
152
175
  "Qwen/Qwen2.5-Math-72B-Instruct": {
@@ -179,6 +202,9 @@
179
202
  "THUDM/glm-4-9b-chat": {
180
203
  "description": "GLM-4 9B is de open-source versie die een geoptimaliseerde gesprekservaring biedt voor gespreksapplicaties."
181
204
  },
205
+ "Tencent/Hunyuan-A52B-Instruct": {
206
+ "description": "Hunyuan-Large is het grootste open source Transformer-architectuur MoE-model in de industrie, met een totaal van 389 miljard parameters en 52 miljard geactiveerde parameters."
207
+ },
182
208
  "abab5.5-chat": {
183
209
  "description": "Gericht op productiviteitsscenario's, ondersteunt complexe taakverwerking en efficiënte tekstgeneratie, geschikt voor professionele toepassingen."
184
210
  },
@@ -587,6 +613,9 @@
587
613
  "gpt-4o-mini": {
588
614
  "description": "GPT-4o mini is het nieuwste model van OpenAI, gelanceerd na GPT-4 Omni, en ondersteunt zowel tekst- als beeldinvoer met tekstuitvoer. Als hun meest geavanceerde kleine model is het veel goedkoper dan andere recente toonaangevende modellen en meer dan 60% goedkoper dan GPT-3.5 Turbo. Het behoudt de meest geavanceerde intelligentie met een aanzienlijke prijs-kwaliteitverhouding. GPT-4o mini behaalde 82% op de MMLU-test en staat momenteel hoger in chatvoorkeuren dan GPT-4."
589
615
  },
616
+ "grok-beta": {
617
+ "description": "Biedt prestaties vergelijkbaar met Grok 2, maar met hogere efficiëntie, snelheid en functionaliteit."
618
+ },
590
619
  "gryphe/mythomax-l2-13b": {
591
620
  "description": "MythoMax l2 13B is een taalmodel dat creativiteit en intelligentie combineert door meerdere topmodellen te integreren."
592
621
  },
@@ -949,6 +978,9 @@
949
978
  "pro-128k": {
950
979
  "description": "Spark Pro 128K is uitgerust met een zeer grote contextverwerkingscapaciteit, in staat om tot 128K contextinformatie te verwerken. Het is bijzonder geschikt voor lange teksten die een volledige analyse en langdurige logische verbanden vereisen, en biedt een vloeiende en consistente logica met diverse ondersteuningen voor citaten in complexe tekstcommunicatie."
951
980
  },
981
+ "qwen-coder-plus-latest": {
982
+ "description": "Tongyi Qianwen code model."
983
+ },
952
984
  "qwen-coder-turbo-latest": {
953
985
  "description": "Het Tongyi Qianwen codeermodel."
954
986
  },
@@ -1000,15 +1032,12 @@
1000
1032
  "qwen2.5-7b-instruct": {
1001
1033
  "description": "Het 7B model van Tongyi Qianwen 2.5 is open source beschikbaar."
1002
1034
  },
1003
- "qwen2.5-coder-1.5b-instruct": {
1004
- "description": "De open source versie van het Tongyi Qianwen codeermodel."
1035
+ "qwen2.5-coder-32b-instruct": {
1036
+ "description": "Open source versie van het Tongyi Qianwen code model."
1005
1037
  },
1006
1038
  "qwen2.5-coder-7b-instruct": {
1007
1039
  "description": "De open source versie van het Tongyi Qianwen codeermodel."
1008
1040
  },
1009
- "qwen2.5-math-1.5b-instruct": {
1010
- "description": "Het Qwen-Math model heeft krachtige capaciteiten voor het oplossen van wiskundige problemen."
1011
- },
1012
1041
  "qwen2.5-math-72b-instruct": {
1013
1042
  "description": "Het Qwen-Math model heeft krachtige capaciteiten voor het oplossen van wiskundige problemen."
1014
1043
  },
@@ -1069,6 +1098,9 @@
1069
1098
  "upstage/SOLAR-10.7B-Instruct-v1.0": {
1070
1099
  "description": "Upstage SOLAR Instruct v1 (11B) is geschikt voor verfijnde instructietaken en biedt uitstekende taalverwerkingscapaciteiten."
1071
1100
  },
1101
+ "us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
1102
+ "description": "Claude 3.5 Sonnet heeft de industrienormen verbeterd, met prestaties die de concurrentiemodellen en Claude 3 Opus overtreffen, en excelleert in uitgebreide evaluaties, terwijl het de snelheid en kosten van onze middelgrote modellen behoudt."
1103
+ },
1072
1104
  "wizardlm2": {
1073
1105
  "description": "WizardLM 2 is een taalmodel van Microsoft AI dat uitblinkt in complexe gesprekken, meertaligheid, inferentie en intelligente assistentie."
1074
1106
  },
@@ -15,6 +15,7 @@
15
15
  "bedrock": {
16
16
  "description": "Bedrock is een dienst van Amazon AWS die zich richt op het bieden van geavanceerde AI-taalmodellen en visuele modellen voor bedrijven. De modellenfamilie omvat de Claude-serie van Anthropic, de Llama 3.1-serie van Meta, en meer, met opties variërend van lichtgewicht tot hoge prestaties, en ondersteunt tekstgeneratie, dialogen, beeldverwerking en meer, geschikt voor bedrijfsapplicaties van verschillende schalen en behoeften."
17
17
  },
18
+ "cloudflare": {},
18
19
  "deepseek": {
19
20
  "description": "DeepSeek is een bedrijf dat zich richt op onderzoek en toepassing van kunstmatige intelligentietechnologie, en hun nieuwste model DeepSeek-V2.5 combineert algemene dialoog- en codeverwerkingscapaciteiten, met significante verbeteringen in het afstemmen op menselijke voorkeuren, schrijfopdrachten en het volgen van instructies."
20
21
  },
@@ -85,6 +86,9 @@
85
86
  "wenxin": {
86
87
  "description": "Een enterprise-grade, alles-in-één platform voor de ontwikkeling en service van grote modellen en AI-native applicaties, dat de meest uitgebreide en gebruiksvriendelijke toolchain biedt voor de ontwikkeling van generatieve kunstmatige intelligentiemodellen en applicaties."
87
88
  },
89
+ "xai": {
90
+ "description": "xAI is ein bedrijf dat zich richt op het bouwen van kunstmatige intelligentie om menselijke wetenschappelijke ontdekkingen te versnellen. Onze missie is om onze gezamenlijke begrip van het universum te bevorderen."
91
+ },
88
92
  "zeroone": {
89
93
  "description": "01.AI richt zich op kunstmatige intelligentietechnologie in het tijdperk van AI 2.0, en bevordert sterk de innovatie en toepassing van 'mens + kunstmatige intelligentie', met behulp van krachtige modellen en geavanceerde AI-technologie om de productiviteit van de mens te verbeteren en technologische capaciteiten te realiseren."
90
94
  },
@@ -20,6 +20,20 @@
20
20
  "4.0Ultra": {
21
21
  "description": "Spark4.0 Ultra to najsilniejsza wersja w serii modeli Spark, która, oprócz ulepszonego łącza wyszukiwania w sieci, zwiększa zdolność rozumienia i podsumowywania treści tekstowych. Jest to kompleksowe rozwiązanie mające na celu zwiększenie wydajności biurowej i dokładne odpowiadanie na potrzeby, stanowiące inteligentny produkt wiodący w branży."
22
22
  },
23
+ "@cf/meta/llama-3-8b-instruct-awq": {},
24
+ "@cf/openchat/openchat-3.5-0106": {},
25
+ "@cf/qwen/qwen1.5-14b-chat-awq": {},
26
+ "@hf/google/gemma-7b-it": {},
27
+ "@hf/meta-llama/meta-llama-3-8b-instruct": {
28
+ "description": "Generacja po generacji, Meta Llama 3 wykazuje najlepsze osiągi w szerokim zakresie benchmarków branżowych i oferuje nowe możliwości, w tym ulepszone rozumowanie."
29
+ },
30
+ "@hf/mistral/mistral-7b-instruct-v0.2": {},
31
+ "@hf/nexusflow/starling-lm-7b-beta": {},
32
+ "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
33
+ "@hf/thebloke/deepseek-coder-6.7b-instruct": {},
34
+ "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
35
+ "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
36
+ "@hf/thebloke/zephyr-7b-beta-awq": {},
23
37
  "Baichuan2-Turbo": {
24
38
  "description": "Wykorzystuje technologię wzmacniania wyszukiwania, aby połączyć duży model z wiedzą branżową i wiedzą z całej sieci. Obsługuje przesyłanie różnych dokumentów, takich jak PDF, Word, oraz wprowadzanie adresów URL, zapewniając szybki i kompleksowy dostęp do informacji oraz dokładne i profesjonalne wyniki."
25
39
  },
@@ -32,6 +46,12 @@
32
46
  "Baichuan4": {
33
47
  "description": "Model o najwyższej wydajności w kraju, przewyższający zagraniczne modele w zadaniach związanych z encyklopedią, długimi tekstami i generowaniem treści w języku chińskim. Posiada również wiodące w branży zdolności multimodalne, osiągając doskonałe wyniki w wielu autorytatywnych testach."
34
48
  },
49
+ "Baichuan4-Air": {
50
+ "description": "Model o najlepszych możliwościach w kraju, przewyższający zagraniczne modele w zadaniach związanych z wiedzą encyklopedyczną, długimi tekstami i twórczością w języku chińskim. Posiada również wiodące w branży możliwości multimodalne, osiągając doskonałe wyniki w wielu autorytatywnych testach."
51
+ },
52
+ "Baichuan4-Turbo": {
53
+ "description": "Model o najlepszych możliwościach w kraju, przewyższający zagraniczne modele w zadaniach związanych z wiedzą encyklopedyczną, długimi tekstami i twórczością w języku chińskim. Posiada również wiodące w branży możliwości multimodalne, osiągając doskonałe wyniki w wielu autorytatywnych testach."
54
+ },
35
55
  "ERNIE-3.5-128K": {
36
56
  "description": "Flagowy model dużego języka opracowany przez Baidu, obejmujący ogromne zbiory danych w języku chińskim i angielskim, charakteryzujący się silnymi zdolnościami ogólnymi, zdolny do spełnienia wymagań w większości scenariuszy związanych z pytaniami i odpowiedziami, generowaniem treści oraz aplikacjami wtyczek; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji w odpowiedziach."
37
57
  },
@@ -47,6 +67,9 @@
47
67
  "ERNIE-4.0-8K-Preview": {
48
68
  "description": "Flagowy model ultra dużego języka opracowany przez Baidu, w porównaniu do ERNIE 3.5, oferujący kompleksową aktualizację możliwości modelu, szeroko stosowany w złożonych scenariuszach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji."
49
69
  },
70
+ "ERNIE-4.0-Turbo-128K": {
71
+ "description": "Flagowy model językowy opracowany przez Baidu, o dużej skali, wykazujący doskonałe wyniki w złożonych zadaniach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji w odpowiedziach. W porównaniu do ERNIE 4.0, wykazuje lepsze osiągi."
72
+ },
50
73
  "ERNIE-4.0-Turbo-8K-Latest": {
51
74
  "description": "Opracowany przez Baidu flagowy, ultra-duży model językowy, który wykazuje doskonałe ogólne rezultaty i jest szeroko stosowany w złożonych zadaniach w różnych dziedzinach; obsługuje automatyczne łączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji odpowiadających na pytania. W porównaniu do ERNIE 4.0 wykazuje lepszą wydajność."
52
75
  },
@@ -146,7 +169,7 @@
146
169
  "Qwen/Qwen2.5-7B-Instruct-Turbo": {
147
170
  "description": "Qwen2.5 to nowa seria dużych modeli językowych, mająca na celu optymalizację przetwarzania zadań instruktażowych."
148
171
  },
149
- "Qwen/Qwen2.5-Coder-7B-Instruct": {
172
+ "Qwen/Qwen2.5-Coder-32B-Instruct": {
150
173
  "description": "Qwen2.5-Coder koncentruje się na pisaniu kodu."
151
174
  },
152
175
  "Qwen/Qwen2.5-Math-72B-Instruct": {
@@ -179,6 +202,9 @@
179
202
  "THUDM/glm-4-9b-chat": {
180
203
  "description": "GLM-4 9B to otwarta wersja, oferująca zoptymalizowane doświadczenie dialogowe dla aplikacji konwersacyjnych."
181
204
  },
205
+ "Tencent/Hunyuan-A52B-Instruct": {
206
+ "description": "Hunyuan-Large to największy w branży otwarty model Transformer MoE, z 389 miliardami parametrów ogółem i 52 miliardami aktywowanych parametrów."
207
+ },
182
208
  "abab5.5-chat": {
183
209
  "description": "Skierowany do scenariuszy produkcyjnych, wspierający przetwarzanie złożonych zadań i efektywne generowanie tekstu, odpowiedni do zastosowań w profesjonalnych dziedzinach."
184
210
  },
@@ -587,6 +613,9 @@
587
613
  "gpt-4o-mini": {
588
614
  "description": "GPT-4o mini to najnowszy model OpenAI, wprowadzony po GPT-4 Omni, obsługujący wejścia tekstowe i wizualne oraz generujący tekst. Jako ich najnowocześniejszy model w małej skali, jest znacznie tańszy niż inne niedawno wprowadzone modele, a jego cena jest o ponad 60% niższa niż GPT-3.5 Turbo. Utrzymuje najnowocześniejszą inteligencję, jednocześnie oferując znaczną wartość za pieniądze. GPT-4o mini uzyskał wynik 82% w teście MMLU i obecnie zajmuje wyższą pozycję w preferencjach czatu niż GPT-4."
589
615
  },
616
+ "grok-beta": {
617
+ "description": "Oferuje wydajność porównywalną z Grok 2, ale z wyższą efektywnością, prędkością i funkcjonalnością."
618
+ },
590
619
  "gryphe/mythomax-l2-13b": {
591
620
  "description": "MythoMax l2 13B to model językowy łączący kreatywność i inteligencję, zintegrowany z wieloma wiodącymi modelami."
592
621
  },
@@ -949,6 +978,9 @@
949
978
  "pro-128k": {
950
979
  "description": "Spark Pro 128K jest wyposażony w wyjątkową zdolność przetwarzania kontekstu, mogąc obsługiwać do 128K informacji kontekstowych, co czyni go idealnym do analizy całościowej i długoterminowego przetwarzania logicznych powiązań w długich treściach, zapewniając płynność i spójność logiczną oraz różnorodne wsparcie cytatów w złożonej komunikacji tekstowej."
951
980
  },
981
+ "qwen-coder-plus-latest": {
982
+ "description": "Model kodowania Qwen, oparty na ogólnym zrozumieniu."
983
+ },
952
984
  "qwen-coder-turbo-latest": {
953
985
  "description": "Model kodowania Qwen."
954
986
  },
@@ -1000,15 +1032,12 @@
1000
1032
  "qwen2.5-7b-instruct": {
1001
1033
  "description": "Model Qwen 2.5 o skali 7B, udostępniony na zasadzie open source."
1002
1034
  },
1003
- "qwen2.5-coder-1.5b-instruct": {
1035
+ "qwen2.5-coder-32b-instruct": {
1004
1036
  "description": "Otwarta wersja modelu kodowania Qwen."
1005
1037
  },
1006
1038
  "qwen2.5-coder-7b-instruct": {
1007
1039
  "description": "Otwarta wersja modelu kodowania Qwen."
1008
1040
  },
1009
- "qwen2.5-math-1.5b-instruct": {
1010
- "description": "Model Qwen-Math, który ma silne zdolności rozwiązywania problemów matematycznych."
1011
- },
1012
1041
  "qwen2.5-math-72b-instruct": {
1013
1042
  "description": "Model Qwen-Math, który ma silne zdolności rozwiązywania problemów matematycznych."
1014
1043
  },
@@ -1069,6 +1098,9 @@
1069
1098
  "upstage/SOLAR-10.7B-Instruct-v1.0": {
1070
1099
  "description": "Upstage SOLAR Instruct v1 (11B) jest przeznaczony do precyzyjnych zadań poleceniowych, oferując doskonałe możliwości przetwarzania języka."
1071
1100
  },
1101
+ "us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
1102
+ "description": "Claude 3.5 Sonnet podnosi standardy branżowe, przewyższając modele konkurencji oraz Claude 3 Opus, osiągając doskonałe wyniki w szerokim zakresie ocen, przy zachowaniu prędkości i kosztów naszych modeli średniego poziomu."
1103
+ },
1072
1104
  "wizardlm2": {
1073
1105
  "description": "WizardLM 2 to model językowy dostarczany przez Microsoft AI, który wyróżnia się w złożonych dialogach, wielojęzyczności, wnioskowaniu i inteligentnych asystentach."
1074
1106
  },
@@ -15,6 +15,7 @@
15
15
  "bedrock": {
16
16
  "description": "Bedrock to usługa oferowana przez Amazon AWS, skoncentrowana na dostarczaniu zaawansowanych modeli językowych i wizualnych dla przedsiębiorstw. Jej rodzina modeli obejmuje serię Claude od Anthropic, serię Llama 3.1 od Meta i inne, oferując różnorodne opcje od lekkich do wysokowydajnych, wspierając generowanie tekstu, dialogi, przetwarzanie obrazów i inne zadania, odpowiednie dla różnych skal i potrzeb aplikacji biznesowych."
17
17
  },
18
+ "cloudflare": {},
18
19
  "deepseek": {
19
20
  "description": "DeepSeek to firma skoncentrowana na badaniach i zastosowaniach technologii sztucznej inteligencji, której najnowszy model DeepSeek-V2.5 łączy zdolności do prowadzenia ogólnych rozmów i przetwarzania kodu, osiągając znaczące postępy w zakresie dostosowywania do preferencji ludzkich, zadań pisarskich i przestrzegania instrukcji."
20
21
  },
@@ -85,6 +86,9 @@
85
86
  "wenxin": {
86
87
  "description": "Platforma do rozwoju i usług aplikacji AI oraz dużych modeli w skali przedsiębiorstwa, oferująca najbardziej kompleksowy i łatwy w użyciu zestaw narzędzi do rozwoju modeli sztucznej inteligencji generatywnej oraz całego procesu tworzenia aplikacji."
87
88
  },
89
+ "xai": {
90
+ "description": "xAI to firma, która dąży do budowy sztucznej inteligencji w celu przyspieszenia ludzkich odkryć naukowych. Naszą misją jest wspieranie wspólnego zrozumienia wszechświata."
91
+ },
88
92
  "zeroone": {
89
93
  "description": "01.AI koncentruje się na technologiach sztucznej inteligencji w erze AI 2.0, intensywnie promując innowacje i zastosowania „człowiek + sztuczna inteligencja”, wykorzystując potężne modele i zaawansowane technologie AI w celu zwiększenia wydajności ludzkiej produkcji i realizacji technologicznego wsparcia."
90
94
  },