@lobehub/chat 1.22.15 → 1.22.16

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
@@ -47,8 +47,8 @@
47
47
  "ERNIE-4.0-8K-Preview": {
48
48
  "description": "Mô hình ngôn ngữ quy mô siêu lớn hàng đầu do Baidu tự phát triển, so với ERNIE 3.5 đã nâng cấp toàn diện khả năng của mô hình, phù hợp rộng rãi với các nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm Baidu, đảm bảo thông tin hỏi đáp luôn cập nhật."
49
49
  },
50
- "ERNIE-4.0-Turbo-8K": {
51
- "description": "Mô hình ngôn ngữ quy mô siêu lớn hàng đầu do Baidu tự phát triển, có hiệu suất tổng thể xuất sắc, phù hợp rộng rãi với các nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm Baidu, đảm bảo thông tin hỏi đáp luôn cập nhật. So với ERNIE 4.0, hiệu suất tốt hơn."
50
+ "ERNIE-4.0-Turbo-8K-Latest": {
51
+ "description": "Mô hình ngôn ngữ quy mô siêu lớn tự phát triển của Baidu, có hiệu suất tổng thể xuất sắc, phù hợp rộng rãi cho các tình huống tác vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo tính kịp thời của thông tin câu hỏi đáp. So với ERNIE 4.0, nó có hiệu suất tốt hơn."
52
52
  },
53
53
  "ERNIE-4.0-Turbo-8K-Preview": {
54
54
  "description": "Mô hình ngôn ngữ quy mô siêu lớn hàng đầu do Baidu tự phát triển, có hiệu suất tổng thể xuất sắc, phù hợp rộng rãi với các nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm Baidu, đảm bảo thông tin hỏi đáp luôn cập nhật. So với ERNIE 4.0, hiệu suất tốt hơn."
@@ -80,8 +80,11 @@
80
80
  "NousResearch/Nous-Hermes-2-Yi-34B": {
81
81
  "description": "Nous Hermes-2 Yi (34B) cung cấp đầu ra ngôn ngữ tối ưu và khả năng ứng dụng đa dạng."
82
82
  },
83
- "Phi-3-5-mini-instruct": {
84
- "description": "Cập nhật hình Phi-3-mini."
83
+ "OpenGVLab/InternVL2-26B": {
84
+ "description": "InternVL2 đã thể hiện hiệu suất xuất sắc trong nhiều tác vụ ngôn ngữ hình ảnh, bao gồm hiểu tài liệu và biểu đồ, hiểu văn bản trong cảnh, OCR, giải quyết vấn đề khoa học và toán học."
85
+ },
86
+ "OpenGVLab/InternVL2-Llama3-76B": {
87
+ "description": "InternVL2 đã thể hiện hiệu suất xuất sắc trong nhiều tác vụ ngôn ngữ hình ảnh, bao gồm hiểu tài liệu và biểu đồ, hiểu văn bản trong cảnh, OCR, giải quyết vấn đề khoa học và toán học."
85
88
  },
86
89
  "Phi-3-medium-128k-instruct": {
87
90
  "description": "Mô hình Phi-3-medium giống nhau, nhưng với kích thước ngữ cảnh lớn hơn cho RAG hoặc gợi ý ít."
@@ -101,9 +104,21 @@
101
104
  "Phi-3-small-8k-instruct": {
102
105
  "description": "Mô hình 7B tham số, chứng minh chất lượng tốt hơn Phi-3-mini, tập trung vào dữ liệu dày đặc lý luận chất lượng cao."
103
106
  },
107
+ "Phi-3.5-mini-instruct": {
108
+ "description": "Phi-3-mini là phiên bản cập nhật của mô hình."
109
+ },
110
+ "Phi-3.5-vision-instrust": {
111
+ "description": "Phi-3-vision là phiên bản cập nhật của mô hình."
112
+ },
104
113
  "Pro-128k": {
105
114
  "description": "Spark Pro-128K được cấu hình với khả năng xử lý ngữ cảnh cực lớn, có thể xử lý tới 128K thông tin ngữ cảnh, đặc biệt phù hợp cho việc phân tích toàn bộ và xử lý mối liên hệ logic lâu dài trong nội dung văn bản dài, có thể cung cấp logic mạch lạc và hỗ trợ trích dẫn đa dạng trong giao tiếp văn bản phức tạp."
106
115
  },
116
+ "Pro/OpenGVLab/InternVL2-8B": {
117
+ "description": "InternVL2 đã thể hiện hiệu suất xuất sắc trong nhiều tác vụ ngôn ngữ hình ảnh, bao gồm hiểu tài liệu và biểu đồ, hiểu văn bản trong cảnh, OCR, giải quyết vấn đề khoa học và toán học."
118
+ },
119
+ "Pro/Qwen/Qwen2-VL-7B-Instruct": {
120
+ "description": "Qwen2-VL là phiên bản mới nhất của mô hình Qwen-VL, đạt được hiệu suất hàng đầu trong các thử nghiệm chuẩn hiểu biết hình ảnh."
121
+ },
107
122
  "Qwen/Qwen1.5-110B-Chat": {
108
123
  "description": "Là phiên bản thử nghiệm của Qwen2, Qwen1.5 sử dụng dữ liệu quy mô lớn để đạt được chức năng đối thoại chính xác hơn."
109
124
  },
@@ -113,18 +128,27 @@
113
128
  "Qwen/Qwen2-72B-Instruct": {
114
129
  "description": "Qwen2 là mô hình ngôn ngữ tổng quát tiên tiến, hỗ trợ nhiều loại chỉ dẫn."
115
130
  },
131
+ "Qwen/Qwen2-VL-72B-Instruct": {
132
+ "description": "Qwen2-VL là phiên bản mới nhất của mô hình Qwen-VL, đạt được hiệu suất hàng đầu trong các thử nghiệm chuẩn hiểu biết hình ảnh."
133
+ },
116
134
  "Qwen/Qwen2.5-14B-Instruct": {
117
135
  "description": "Qwen2.5 là một loạt mô hình ngôn ngữ lớn hoàn toàn mới, nhằm tối ưu hóa việc xử lý các nhiệm vụ theo hướng dẫn."
118
136
  },
119
137
  "Qwen/Qwen2.5-32B-Instruct": {
120
138
  "description": "Qwen2.5 là một loạt mô hình ngôn ngữ lớn hoàn toàn mới, nhằm tối ưu hóa việc xử lý các nhiệm vụ theo hướng dẫn."
121
139
  },
122
- "Qwen/Qwen2.5-72B-Instruct": {
123
- "description": "Qwen2.5 là một loạt mô hình ngôn ngữ lớn hoàn toàn mới, khả năng hiểu và tạo ra mạnh mẽ hơn."
140
+ "Qwen/Qwen2.5-72B-Instruct-128K": {
141
+ "description": "Qwen2.5 là một loạt mô hình ngôn ngữ lớn hoàn toàn mới, sở hữu khả năng hiểu và tạo ra mạnh mẽ hơn."
142
+ },
143
+ "Qwen/Qwen2.5-72B-Instruct-Turbo": {
144
+ "description": "Qwen2.5 là một loạt mô hình ngôn ngữ lớn hoàn toàn mới, được thiết kế để tối ưu hóa việc xử lý các tác vụ chỉ dẫn."
124
145
  },
125
146
  "Qwen/Qwen2.5-7B-Instruct": {
126
147
  "description": "Qwen2.5 là một loạt mô hình ngôn ngữ lớn hoàn toàn mới, nhằm tối ưu hóa việc xử lý các nhiệm vụ theo hướng dẫn."
127
148
  },
149
+ "Qwen/Qwen2.5-7B-Instruct-Turbo": {
150
+ "description": "Qwen2.5 là một loạt mô hình ngôn ngữ lớn hoàn toàn mới, được thiết kế để tối ưu hóa việc xử lý các tác vụ chỉ dẫn."
151
+ },
128
152
  "Qwen/Qwen2.5-Coder-7B-Instruct": {
129
153
  "description": "Qwen2.5-Coder tập trung vào việc viết mã."
130
154
  },
@@ -158,9 +182,6 @@
158
182
  "accounts/fireworks/models/firellava-13b": {
159
183
  "description": "fireworks-ai/FireLLaVA-13b là một mô hình ngôn ngữ hình ảnh, có thể nhận cả hình ảnh và văn bản đầu vào, được huấn luyện bằng dữ liệu chất lượng cao, phù hợp cho các nhiệm vụ đa mô hình."
160
184
  },
161
- "accounts/fireworks/models/gemma2-9b-it": {
162
- "description": "Mô hình chỉ dẫn Gemma 2 9B, dựa trên công nghệ trước đó của Google, phù hợp cho nhiều nhiệm vụ tạo văn bản như trả lời câu hỏi, tóm tắt và suy luận."
163
- },
164
185
  "accounts/fireworks/models/llama-v3-70b-instruct": {
165
186
  "description": "Mô hình chỉ dẫn Llama 3 70B, được tối ưu hóa cho đối thoại đa ngôn ngữ và hiểu ngôn ngữ tự nhiên, hiệu suất vượt trội hơn nhiều mô hình cạnh tranh."
166
187
  },
@@ -182,6 +203,18 @@
182
203
  "accounts/fireworks/models/llama-v3p1-8b-instruct": {
183
204
  "description": "Mô hình chỉ dẫn Llama 3.1 8B, được tối ưu hóa cho đối thoại đa ngôn ngữ, có thể vượt qua hầu hết các mô hình mã nguồn mở và đóng trong các tiêu chuẩn ngành phổ biến."
184
205
  },
206
+ "accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
207
+ "description": "Mô hình suy luận hình ảnh chỉ dẫn với 11B tham số của Meta. Mô hình này được tối ưu hóa cho nhận diện hình ảnh, suy luận hình ảnh, mô tả hình ảnh và trả lời các câu hỏi chung liên quan đến hình ảnh. Mô hình có khả năng hiểu dữ liệu hình ảnh như biểu đồ và đồ thị, và thu hẹp khoảng cách giữa hình ảnh và ngôn ngữ thông qua việc tạo mô tả văn bản về chi tiết hình ảnh."
208
+ },
209
+ "accounts/fireworks/models/llama-v3p2-1b-instruct": {
210
+ "description": "Mô hình chỉ dẫn Llama 3.2 1B là một mô hình đa ngôn ngữ nhẹ mà Meta phát hành. Mô hình này được thiết kế để tăng cường hiệu quả, mang lại cải tiến đáng kể về độ trễ và chi phí so với các mô hình lớn hơn. Các trường hợp sử dụng ví dụ của mô hình này bao gồm truy xuất và tóm tắt."
211
+ },
212
+ "accounts/fireworks/models/llama-v3p2-3b-instruct": {
213
+ "description": "Mô hình chỉ dẫn Llama 3.2 3B là một mô hình đa ngôn ngữ nhẹ mà Meta phát hành. Mô hình này được thiết kế để tăng cường hiệu quả, mang lại cải tiến đáng kể về độ trễ và chi phí so với các mô hình lớn hơn. Các trường hợp sử dụng ví dụ của mô hình này bao gồm truy vấn, viết lại thông báo và hỗ trợ viết."
214
+ },
215
+ "accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
216
+ "description": "Mô hình suy luận hình ảnh chỉ dẫn với 90B tham số của Meta. Mô hình này được tối ưu hóa cho nhận diện hình ảnh, suy luận hình ảnh, mô tả hình ảnh và trả lời các câu hỏi chung liên quan đến hình ảnh. Mô hình có khả năng hiểu dữ liệu hình ảnh như biểu đồ và đồ thị, và thu hẹp khoảng cách giữa hình ảnh và ngôn ngữ thông qua việc tạo mô tả văn bản về chi tiết hình ảnh."
217
+ },
185
218
  "accounts/fireworks/models/mixtral-8x22b-instruct": {
186
219
  "description": "Mô hình chỉ dẫn Mixtral MoE 8x22B, với số lượng tham số lớn và kiến trúc nhiều chuyên gia, hỗ trợ toàn diện cho việc xử lý hiệu quả các nhiệm vụ phức tạp."
187
220
  },
@@ -197,6 +230,9 @@
197
230
  "accounts/fireworks/models/phi-3-vision-128k-instruct": {
198
231
  "description": "Mô hình chỉ dẫn Phi 3 Vision, mô hình đa mô hình nhẹ, có khả năng xử lý thông tin hình ảnh và văn bản phức tạp, với khả năng suy luận mạnh mẽ."
199
232
  },
233
+ "accounts/fireworks/models/qwen2p5-72b-instruct": {
234
+ "description": "Qwen2.5 là một loạt mô hình ngôn ngữ chỉ chứa bộ giải mã do đội ngũ Qwen của Alibaba Cloud phát triển. Những mô hình này cung cấp các kích thước khác nhau, bao gồm 0.5B, 1.5B, 3B, 7B, 14B, 32B và 72B, và có hai biến thể: phiên bản cơ sở (base) và phiên bản chỉ dẫn (instruct)."
235
+ },
200
236
  "accounts/fireworks/models/starcoder-16b": {
201
237
  "description": "Mô hình StarCoder 15.5B, hỗ trợ các nhiệm vụ lập trình nâng cao, khả năng đa ngôn ngữ được cải thiện, phù hợp cho việc tạo và hiểu mã phức tạp."
202
238
  },
@@ -212,9 +248,6 @@
212
248
  "ai21-jamba-1.5-mini": {
213
249
  "description": "Mô hình đa ngôn ngữ với 52B tham số (12B hoạt động), cung cấp cửa sổ ngữ cảnh dài 256K, gọi hàm, đầu ra có cấu trúc và tạo ra nội dung có căn cứ."
214
250
  },
215
- "ai21-jamba-instruct": {
216
- "description": "Mô hình LLM dựa trên Mamba đạt hiệu suất, chất lượng và hiệu quả chi phí tốt nhất trong ngành."
217
- },
218
251
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
219
252
  "description": "Claude 3.5 Sonnet nâng cao tiêu chuẩn ngành, hiệu suất vượt trội hơn các mô hình cạnh tranh và Claude 3 Opus, thể hiện xuất sắc trong nhiều đánh giá, đồng thời có tốc độ và chi phí của mô hình tầm trung của chúng tôi."
220
253
  },
@@ -592,9 +625,15 @@
592
625
  "llama-3.1-sonar-small-128k-online": {
593
626
  "description": "Mô hình Llama 3.1 Sonar Small Online, có 8B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, được thiết kế cho trò chuyện trực tuyến, có khả năng xử lý hiệu quả các tương tác văn bản khác nhau."
594
627
  },
628
+ "llama-3.2-11b-vision-instruct": {
629
+ "description": "Khả năng suy luận hình ảnh xuất sắc trên hình ảnh độ phân giải cao, phù hợp cho các ứng dụng hiểu biết hình ảnh."
630
+ },
595
631
  "llama-3.2-11b-vision-preview": {
596
632
  "description": "Llama 3.2 được thiết kế để xử lý các nhiệm vụ kết hợp dữ liệu hình ảnh và văn bản. Nó thể hiện xuất sắc trong các nhiệm vụ mô tả hình ảnh và hỏi đáp hình ảnh, vượt qua rào cản giữa tạo ngôn ngữ và suy luận hình ảnh."
597
633
  },
634
+ "llama-3.2-90b-vision-instruct": {
635
+ "description": "Khả năng suy luận hình ảnh tiên tiến dành cho các ứng dụng đại lý hiểu biết hình ảnh."
636
+ },
598
637
  "llama-3.2-90b-vision-preview": {
599
638
  "description": "Llama 3.2 được thiết kế để xử lý các nhiệm vụ kết hợp dữ liệu hình ảnh và văn bản. Nó thể hiện xuất sắc trong các nhiệm vụ mô tả hình ảnh và hỏi đáp hình ảnh, vượt qua rào cản giữa tạo ngôn ngữ và suy luận hình ảnh."
600
639
  },
@@ -652,8 +691,8 @@
652
691
  "meta-llama/Llama-2-13b-chat-hf": {
653
692
  "description": "LLaMA-2 Chat (13B) cung cấp khả năng xử lý ngôn ngữ xuất sắc và trải nghiệm tương tác tuyệt vời."
654
693
  },
655
- "meta-llama/Llama-2-7b-chat-hf": {
656
- "description": "Một trong những hình đối thoại tốt nhất"
694
+ "meta-llama/Llama-2-70b-hf": {
695
+ "description": "LLaMA-2 cung cấp khả năng xử ngôn ngữ tuyệt vời và trải nghiệm tương tác xuất sắc."
657
696
  },
658
697
  "meta-llama/Llama-3-70b-chat-hf": {
659
698
  "description": "LLaMA-3 Chat (70B) là mô hình trò chuyện mạnh mẽ, hỗ trợ các nhu cầu đối thoại phức tạp."
@@ -661,6 +700,18 @@
661
700
  "meta-llama/Llama-3-8b-chat-hf": {
662
701
  "description": "LLaMA-3 Chat (8B) cung cấp hỗ trợ đa ngôn ngữ, bao gồm nhiều lĩnh vực kiến thức phong phú."
663
702
  },
703
+ "meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
704
+ "description": "LLaMA 3.2 được thiết kế để xử lý các tác vụ kết hợp dữ liệu hình ảnh và văn bản. Nó có khả năng xuất sắc trong các tác vụ mô tả hình ảnh và trả lời câu hỏi hình ảnh, vượt qua khoảng cách giữa tạo ngôn ngữ và suy luận hình ảnh."
705
+ },
706
+ "meta-llama/Llama-3.2-3B-Instruct-Turbo": {
707
+ "description": "LLaMA 3.2 được thiết kế để xử lý các tác vụ kết hợp dữ liệu hình ảnh và văn bản. Nó có khả năng xuất sắc trong các tác vụ mô tả hình ảnh và trả lời câu hỏi hình ảnh, vượt qua khoảng cách giữa tạo ngôn ngữ và suy luận hình ảnh."
708
+ },
709
+ "meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
710
+ "description": "LLaMA 3.2 được thiết kế để xử lý các tác vụ kết hợp dữ liệu hình ảnh và văn bản. Nó có khả năng xuất sắc trong các tác vụ mô tả hình ảnh và trả lời câu hỏi hình ảnh, vượt qua khoảng cách giữa tạo ngôn ngữ và suy luận hình ảnh."
711
+ },
712
+ "meta-llama/Llama-Vision-Free": {
713
+ "description": "LLaMA 3.2 được thiết kế để xử lý các tác vụ kết hợp dữ liệu hình ảnh và văn bản. Nó có khả năng xuất sắc trong các tác vụ mô tả hình ảnh và trả lời câu hỏi hình ảnh, vượt qua khoảng cách giữa tạo ngôn ngữ và suy luận hình ảnh."
714
+ },
664
715
  "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
665
716
  "description": "Llama 3 70B Instruct Lite phù hợp cho các môi trường cần hiệu suất cao và độ trễ thấp."
666
717
  },
@@ -739,15 +790,18 @@
739
790
  "minicpm-v": {
740
791
  "description": "MiniCPM-V là mô hình đa phương thức thế hệ mới do OpenBMB phát triển, có khả năng nhận diện OCR xuất sắc và hiểu biết đa phương thức, hỗ trợ nhiều ứng dụng khác nhau."
741
792
  },
793
+ "ministral-3b-latest": {
794
+ "description": "Ministral 3B là mô hình hàng đầu thế giới của Mistral về hiệu suất cạnh biên."
795
+ },
796
+ "ministral-8b-latest": {
797
+ "description": "Ministral 8B là mô hình cạnh biên cực kỳ tiết kiệm chi phí của Mistral."
798
+ },
742
799
  "mistral": {
743
800
  "description": "Mistral là mô hình 7B do Mistral AI phát hành, phù hợp cho các nhu cầu xử lý ngôn ngữ đa dạng."
744
801
  },
745
802
  "mistral-large": {
746
803
  "description": "Mixtral Large là mô hình hàng đầu của Mistral, kết hợp khả năng sinh mã, toán học và suy luận, hỗ trợ cửa sổ ngữ cảnh 128k."
747
804
  },
748
- "mistral-large-2407": {
749
- "description": "Mistral Large (2407) là một Mô hình Ngôn ngữ Lớn (LLM) tiên tiến với khả năng lý luận, kiến thức và lập trình hiện đại."
750
- },
751
805
  "mistral-large-latest": {
752
806
  "description": "Mistral Large là mô hình lớn hàng đầu, chuyên về các nhiệm vụ đa ngôn ngữ, suy luận phức tạp và sinh mã, là lựa chọn lý tưởng cho các ứng dụng cao cấp."
753
807
  },
@@ -769,12 +823,18 @@
769
823
  "mistralai/Mistral-7B-Instruct-v0.3": {
770
824
  "description": "Mistral (7B) Instruct v0.3 cung cấp khả năng tính toán hiệu quả và hiểu ngôn ngữ tự nhiên, phù hợp cho nhiều ứng dụng."
771
825
  },
826
+ "mistralai/Mistral-7B-v0.1": {
827
+ "description": "Mistral 7B là một mô hình nhỏ gọn nhưng hiệu suất cao, chuyên về xử lý hàng loạt và các tác vụ đơn giản như phân loại và sinh văn bản, với khả năng suy luận tốt."
828
+ },
772
829
  "mistralai/Mixtral-8x22B-Instruct-v0.1": {
773
830
  "description": "Mixtral-8x22B Instruct (141B) là một mô hình ngôn ngữ lớn siêu cấp, hỗ trợ nhu cầu xử lý cực cao."
774
831
  },
775
832
  "mistralai/Mixtral-8x7B-Instruct-v0.1": {
776
833
  "description": "Mixtral 8x7B là mô hình chuyên gia hỗn hợp thưa được tiền huấn luyện, dùng cho các nhiệm vụ văn bản tổng quát."
777
834
  },
835
+ "mistralai/Mixtral-8x7B-v0.1": {
836
+ "description": "Mixtral 8x7B là một mô hình chuyên gia thưa thớt, tận dụng nhiều tham số để tăng tốc độ suy luận, phù hợp để xử lý đa ngôn ngữ và tạo mã."
837
+ },
778
838
  "mistralai/mistral-7b-instruct": {
779
839
  "description": "Mistral 7B Instruct là mô hình tiêu chuẩn ngành với tốc độ tối ưu hóa và hỗ trợ ngữ cảnh dài."
780
840
  },
@@ -802,6 +862,9 @@
802
862
  "nousresearch/hermes-2-pro-llama-3-8b": {
803
863
  "description": "Hermes 2 Pro Llama 3 8B là phiên bản nâng cấp của Nous Hermes 2, bao gồm bộ dữ liệu phát triển nội bộ mới nhất."
804
864
  },
865
+ "nvidia/Llama-3.1-Nemotron-70B-Instruct": {
866
+ "description": "Llama 3.1 Nemotron 70B là mô hình ngôn ngữ lớn được tùy chỉnh bởi NVIDIA, được thiết kế để cải thiện mức độ hỗ trợ của phản hồi do LLM tạo ra đối với các truy vấn của người dùng."
867
+ },
805
868
  "o1-mini": {
806
869
  "description": "o1-mini là một mô hình suy diễn nhanh chóng và tiết kiệm chi phí, được thiết kế cho các ứng dụng lập trình, toán học và khoa học. Mô hình này có ngữ cảnh 128K và thời điểm cắt kiến thức vào tháng 10 năm 2023."
807
870
  },
@@ -988,6 +1051,12 @@
988
1051
  "yi-large-turbo": {
989
1052
  "description": "Hiệu suất vượt trội với chi phí hợp lý. Tối ưu hóa độ chính xác cao dựa trên hiệu suất, tốc độ suy luận và chi phí."
990
1053
  },
1054
+ "yi-lightning": {
1055
+ "description": "Mô hình hiệu suất cao mới nhất, đảm bảo đầu ra chất lượng cao trong khi tốc độ suy luận được cải thiện đáng kể."
1056
+ },
1057
+ "yi-lightning-lite": {
1058
+ "description": "Phiên bản nhẹ, được khuyến nghị sử dụng yi-lightning."
1059
+ },
991
1060
  "yi-medium": {
992
1061
  "description": "Mô hình kích thước trung bình được nâng cấp và tinh chỉnh, khả năng cân bằng, chi phí hiệu quả cao. Tối ưu hóa sâu khả năng tuân theo chỉ dẫn."
993
1062
  },
@@ -47,7 +47,7 @@
47
47
  "ERNIE-4.0-8K-Preview": {
48
48
  "description": "百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。"
49
49
  },
50
- "ERNIE-4.0-Turbo-8K": {
50
+ "ERNIE-4.0-Turbo-8K-Latest": {
51
51
  "description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
52
52
  },
53
53
  "ERNIE-4.0-Turbo-8K-Preview": {
@@ -80,30 +80,45 @@
80
80
  "NousResearch/Nous-Hermes-2-Yi-34B": {
81
81
  "description": "Nous Hermes-2 Yi (34B) 提供优化的语言输出和多样化的应用可能。"
82
82
  },
83
- "Phi-3-5-mini-instruct": {
84
- "description": "Refresh of Phi-3-mini model."
83
+ "OpenGVLab/InternVL2-26B": {
84
+ "description": "InternVL2在各种视觉语言任务上展现出了卓越的性能,包括文档和图表理解、场景文本理解、OCR、科学和数学问题解决等。"
85
+ },
86
+ "OpenGVLab/InternVL2-Llama3-76B": {
87
+ "description": "InternVL2在各种视觉语言任务上展现出了卓越的性能,包括文档和图表理解、场景文本理解、OCR、科学和数学问题解决等。"
85
88
  },
86
89
  "Phi-3-medium-128k-instruct": {
87
- "description": "Same Phi-3-medium model, but with a larger context size for RAG or few shot prompting."
90
+ "description": "相同的Phi-3-medium模型,但具有更大的上下文大小,适用于RAG或少量提示。"
88
91
  },
89
92
  "Phi-3-medium-4k-instruct": {
90
- "description": "A 14B parameters model, proves better quality than Phi-3-mini, with a focus on high-quality, reasoning-dense data."
93
+ "description": "一个140亿参数模型,质量优于Phi-3-mini,重点关注高质量、推理密集型数据。"
91
94
  },
92
95
  "Phi-3-mini-128k-instruct": {
93
- "description": "Same Phi-3-mini model, but with a larger context size for RAG or few shot prompting."
96
+ "description": "相同的Phi-3-mini模型,但具有更大的上下文大小,适用于RAG或少量提示。"
94
97
  },
95
98
  "Phi-3-mini-4k-instruct": {
96
- "description": "Tiniest member of the Phi-3 family. Optimized for both quality and low latency."
99
+ "description": "Phi-3家族中最小的成员,针对质量和低延迟进行了优化。"
97
100
  },
98
101
  "Phi-3-small-128k-instruct": {
99
- "description": "Same Phi-3-small model, but with a larger context size for RAG or few shot prompting."
102
+ "description": "相同的Phi-3-small模型,但具有更大的上下文大小,适用于RAG或少量提示。"
100
103
  },
101
104
  "Phi-3-small-8k-instruct": {
102
- "description": "A 7B parameters model, proves better quality than Phi-3-mini, with a focus on high-quality, reasoning-dense data."
105
+ "description": "一个70亿参数模型,质量优于Phi-3-mini,重点关注高质量、推理密集型数据。"
106
+ },
107
+ "Phi-3.5-mini-instruct": {
108
+ "description": "Phi-3-mini模型的更新版。"
109
+ },
110
+ "Phi-3.5-vision-instrust": {
111
+ "description": "Phi-3-vision模型的更新版。"
103
112
  },
104
113
  "Pro-128k": {
105
114
  "description": "Spark Pro 128K 配置了特大上下文处理能力,能够处理多达128K的上下文信息,特别适合需通篇分析和长期逻辑关联处理的长文内容,可在复杂文本沟通中提供流畅一致的逻辑与多样的引用支持。"
106
115
  },
116
+ "Pro/OpenGVLab/InternVL2-8B": {
117
+ "description": "InternVL2在各种视觉语言任务上展现出了卓越的性能,包括文档和图表理解、场景文本理解、OCR、科学和数学问题解决等。"
118
+ },
119
+ "Pro/Qwen/Qwen2-VL-7B-Instruct": {
120
+ "description": "Qwen2-VL 是 Qwen-VL 模型的最新迭代版本,在视觉理解基准测试中达到了最先进的性能。"
121
+ },
107
122
  "Qwen/Qwen1.5-110B-Chat": {
108
123
  "description": "Qwen 1.5 Chat (110B) 是一款高效能的对话模型,支持复杂对话场景。"
109
124
  },
@@ -113,18 +128,27 @@
113
128
  "Qwen/Qwen2-72B-Instruct": {
114
129
  "description": "Qwen 2 Instruct (72B) 为企业级应用提供精准的指令理解和响应。"
115
130
  },
131
+ "Qwen/Qwen2-VL-72B-Instruct": {
132
+ "description": "Qwen2-VL 是 Qwen-VL 模型的最新迭代版本,在视觉理解基准测试中达到了最先进的性能。"
133
+ },
116
134
  "Qwen/Qwen2.5-14B-Instruct": {
117
135
  "description": "Qwen2.5 是全新的大型语言模型系列,旨在优化指令式任务的处理。"
118
136
  },
119
137
  "Qwen/Qwen2.5-32B-Instruct": {
120
138
  "description": "Qwen2.5 是全新的大型语言模型系列,旨在优化指令式任务的处理。"
121
139
  },
122
- "Qwen/Qwen2.5-72B-Instruct": {
140
+ "Qwen/Qwen2.5-72B-Instruct-128K": {
123
141
  "description": "Qwen2.5 是全新的大型语言模型系列,具有更强的理解和生成能力。"
124
142
  },
143
+ "Qwen/Qwen2.5-72B-Instruct-Turbo": {
144
+ "description": "Qwen2.5 是全新的大型语言模型系列,旨在优化指令式任务的处理。"
145
+ },
125
146
  "Qwen/Qwen2.5-7B-Instruct": {
126
147
  "description": "Qwen2.5 是全新的大型语言模型系列,旨在优化指令式任务的处理。"
127
148
  },
149
+ "Qwen/Qwen2.5-7B-Instruct-Turbo": {
150
+ "description": "Qwen2.5 是全新的大型语言模型系列,旨在优化指令式任务的处理。"
151
+ },
128
152
  "Qwen/Qwen2.5-Coder-7B-Instruct": {
129
153
  "description": "Qwen2.5-Coder 专注于代码编写。"
130
154
  },
@@ -158,9 +182,6 @@
158
182
  "accounts/fireworks/models/firellava-13b": {
159
183
  "description": "fireworks-ai/FireLLaVA-13b 是一款视觉语言模型,可以同时接收图像和文本输入,经过高质量数据训练,适合多模态任务。"
160
184
  },
161
- "accounts/fireworks/models/gemma2-9b-it": {
162
- "description": "Gemma 2 9B 指令模型,基于之前的Google技术,适合回答问题、总结和推理等多种文本生成任务。"
163
- },
164
185
  "accounts/fireworks/models/llama-v3-70b-instruct": {
165
186
  "description": "Llama 3 70B 指令模型,专为多语言对话和自然语言理解优化,性能优于多数竞争模型。"
166
187
  },
@@ -182,6 +203,18 @@
182
203
  "accounts/fireworks/models/llama-v3p1-8b-instruct": {
183
204
  "description": "Llama 3.1 8B 指令模型,专为多语言对话优化,能够在常见行业基准上超越多数开源及闭源模型。"
184
205
  },
206
+ "accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
207
+ "description": "Meta的11B参数指令调整图像推理模型。该模型针对视觉识别、图像推理、图像描述和回答关于图像的一般性问题进行了优化。该模型能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节来弥合视觉与语言之间的差距。"
208
+ },
209
+ "accounts/fireworks/models/llama-v3p2-1b-instruct": {
210
+ "description": "Llama 3.2 1B 指令模型是Meta推出的一款轻量级多语言模型。该模型旨在提高效率,与更大型的模型相比,在延迟和成本方面提供了显著的改进。该模型的示例用例包括检索和摘要。"
211
+ },
212
+ "accounts/fireworks/models/llama-v3p2-3b-instruct": {
213
+ "description": "Llama 3.2 3B 指令模型是Meta推出的一款轻量级多语言模型。该模型旨在提高效率,与更大型的模型相比,在延迟和成本方面提供了显著的改进。该模型的示例用例包括查询和提示重写以及写作辅助。"
214
+ },
215
+ "accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
216
+ "description": "Meta的90B参数指令调整图像推理模型。该模型针对视觉识别、图像推理、图像描述和回答关于图像的一般性问题进行了优化。该模型能够理解视觉数据,如图表和图形,并通过生成文本描述图像细节来弥合视觉与语言之间的差距。"
217
+ },
185
218
  "accounts/fireworks/models/mixtral-8x22b-instruct": {
186
219
  "description": "Mixtral MoE 8x22B 指令模型,大规模参数和多专家架构,全方位支持复杂任务的高效处理。"
187
220
  },
@@ -195,7 +228,10 @@
195
228
  "description": "MythoMax L2 13B 模型,结合新颖的合并技术,擅长叙事和角色扮演。"
196
229
  },
197
230
  "accounts/fireworks/models/phi-3-vision-128k-instruct": {
198
- "description": "Phi 3 Vision 指令模型,轻量级多模态模型,能够处理复杂的视觉和文本信息,具备较强的推理能力。"
231
+ "description": "Phi-3-Vision-128K-Instruct 是一个轻量级的、最先进的开放多模态模型,它基于包括合成数据和经过筛选的公开网站在内的数据集构建,专注于非常高质量、推理密集型的数据,这些数据既包括文本也包括视觉。该模型属于 Phi-3 模型系列,其多模态版本支持 128K 的上下文长度(以标记为单位)。该模型经过严格的增强过程,结合了监督微调和直接偏好优化,以确保精确遵循指令和强大的安全措施。"
232
+ },
233
+ "accounts/fireworks/models/qwen2p5-72b-instruct": {
234
+ "description": "Qwen2.5 是由阿里云 Qwen 团队开发的一系列仅包含解码器的语言模型。这些模型提供不同的大小,包括 0.5B、1.5B、3B、7B、14B、32B 和 72B,并且有基础版(base)和指令版(instruct)两种变体。"
199
235
  },
200
236
  "accounts/fireworks/models/starcoder-16b": {
201
237
  "description": "StarCoder 15.5B 模型,支持高级编程任务,多语言能力增强,适合复杂代码生成和理解。"
@@ -207,13 +243,10 @@
207
243
  "description": "Yi-Large 模型,具备卓越的多语言处理能力,可用于各类语言生成和理解任务。"
208
244
  },
209
245
  "ai21-jamba-1.5-large": {
210
- "description": "A 398B parameters (94B active) multilingual model, offering a 256K long context window, function calling, structured output, and grounded generation."
246
+ "description": "一个398B参数(94B活跃)的多语言模型,提供256K长上下文窗口、函数调用、结构化输出和基于事实的生成。"
211
247
  },
212
248
  "ai21-jamba-1.5-mini": {
213
- "description": "A 52B parameters (12B active) multilingual model, offering a 256K long context window, function calling, structured output, and grounded generation."
214
- },
215
- "ai21-jamba-instruct": {
216
- "description": "A production-grade Mamba-based LLM model to achieve best-in-class performance, quality, and cost efficiency."
249
+ "description": "一个52B参数(12B活跃)的多语言模型,提供256K长上下文窗口、函数调用、结构化输出和基于事实的生成。"
217
250
  },
218
251
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
219
252
  "description": "Claude 3.5 Sonnet 提升了行业标准,性能超过竞争对手模型和 Claude 3 Opus,在广泛的评估中表现出色,同时具有我们中等层级模型的速度和成本。"
@@ -312,10 +345,10 @@
312
345
  "description": "Dolphin Mixtral 8x22B 是一款为指令遵循、对话和编程设计的模型。"
313
346
  },
314
347
  "cohere-command-r": {
315
- "description": "Command R is a scalable generative model targeting RAG and Tool Use to enable production-scale AI for enterprise."
348
+ "description": "Command R是一个可扩展的生成模型,旨在针对RAG和工具使用,使企业能够实现生产级AI"
316
349
  },
317
350
  "cohere-command-r-plus": {
318
- "description": "Command R+ is a state-of-the-art RAG-optimized model designed to tackle enterprise-grade workloads."
351
+ "description": "Command R+是一个最先进的RAG优化模型,旨在应对企业级工作负载。"
319
352
  },
320
353
  "command-r": {
321
354
  "description": "Command R 是优化用于对话和长上下文任务的LLM,特别适合动态交互与知识管理。"
@@ -516,7 +549,7 @@
516
549
  "description": "最新的 GPT-4 Turbo 模型具备视觉功能。现在,视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本,为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡,适合需要进行实时交互的应用程序场景。"
517
550
  },
518
551
  "gpt-4o": {
519
- "description": "OpenAI's most advanced multimodal model in the GPT-4 family. Can handle both text and image inputs."
552
+ "description": "OpenAI GPT-4系列中最先进的多模态模型,可以处理文本和图像输入。"
520
553
  },
521
554
  "gpt-4o-2024-05-13": {
522
555
  "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
@@ -525,7 +558,7 @@
525
558
  "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
526
559
  },
527
560
  "gpt-4o-mini": {
528
- "description": "An affordable, efficient AI solution for diverse text and image tasks."
561
+ "description": "一种经济高效的AI解决方案,适用于多种文本和图像任务。"
529
562
  },
530
563
  "gryphe/mythomax-l2-13b": {
531
564
  "description": "MythoMax l2 13B 是一款合并了多个顶尖模型的创意与智能相结合的语言模型。"
@@ -592,9 +625,15 @@
592
625
  "llama-3.1-sonar-small-128k-online": {
593
626
  "description": "Llama 3.1 Sonar Small Online 模型,具备8B参数,支持约127,000个标记的上下文长度,专为在线聊天设计,能高效处理各种文本交互。"
594
627
  },
628
+ "llama-3.2-11b-vision-instruct": {
629
+ "description": "在高分辨率图像上表现出色的图像推理能力,适用于视觉理解应用。"
630
+ },
595
631
  "llama-3.2-11b-vision-preview": {
596
632
  "description": "Llama 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
597
633
  },
634
+ "llama-3.2-90b-vision-instruct": {
635
+ "description": "适用于视觉理解代理应用的高级图像推理能力。"
636
+ },
598
637
  "llama-3.2-90b-vision-preview": {
599
638
  "description": "Llama 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
600
639
  },
@@ -635,31 +674,43 @@
635
674
  "description": "MathΣtral 专为科学研究和数学推理设计,提供有效的计算能力和结果解释。"
636
675
  },
637
676
  "meta-llama-3-70b-instruct": {
638
- "description": "A powerful 70-billion parameter model excelling in reasoning, coding, and broad language applications."
677
+ "description": "一个强大的700亿参数模型,在推理、编码和广泛的语言应用方面表现出色。"
639
678
  },
640
679
  "meta-llama-3-8b-instruct": {
641
- "description": "A versatile 8-billion parameter model optimized for dialogue and text generation tasks."
680
+ "description": "一个多功能的80亿参数模型,针对对话和文本生成任务进行了优化。"
642
681
  },
643
682
  "meta-llama-3.1-405b-instruct": {
644
- "description": "The Llama 3.1 instruction tuned text only models are optimized for multilingual dialogue use cases and outperform many of the available open source and closed chat models on common industry benchmarks."
683
+ "description": "Llama 3.1指令调优的文本模型,针对多语言对话用例进行了优化,在许多可用的开源和封闭聊天模型中,在常见行业基准上表现优异。"
645
684
  },
646
685
  "meta-llama-3.1-70b-instruct": {
647
- "description": "The Llama 3.1 instruction tuned text only models are optimized for multilingual dialogue use cases and outperform many of the available open source and closed chat models on common industry benchmarks."
686
+ "description": "Llama 3.1指令调优的文本模型,针对多语言对话用例进行了优化,在许多可用的开源和封闭聊天模型中,在常见行业基准上表现优异。"
648
687
  },
649
688
  "meta-llama-3.1-8b-instruct": {
650
- "description": "The Llama 3.1 instruction tuned text only models are optimized for multilingual dialogue use cases and outperform many of the available open source and closed chat models on common industry benchmarks."
689
+ "description": "Llama 3.1指令调优的文本模型,针对多语言对话用例进行了优化,在许多可用的开源和封闭聊天模型中,在常见行业基准上表现优异。"
651
690
  },
652
691
  "meta-llama/Llama-2-13b-chat-hf": {
653
692
  "description": "LLaMA-2 Chat (13B) 提供优秀的语言处理能力和出色的交互体验。"
654
693
  },
655
- "meta-llama/Llama-2-7b-chat-hf": {
656
- "description": "最佳对话模型之一"
694
+ "meta-llama/Llama-2-70b-hf": {
695
+ "description": "LLaMA-2 提供优秀的语言处理能力和出色的交互体验。"
657
696
  },
658
697
  "meta-llama/Llama-3-70b-chat-hf": {
659
- "description": "LLaMA-3 Chat (70B) 是功能强大的聊天模型,支持复杂的对话需求。"
698
+ "description": "Llama 3 70B Instruct Reference 是功能强大的聊天模型,支持复杂的对话需求。"
660
699
  },
661
700
  "meta-llama/Llama-3-8b-chat-hf": {
662
- "description": "LLaMA-3 Chat (8B) 提供多语言支持,涵盖丰富的领域知识。"
701
+ "description": "Llama 3 8B Instruct Reference 提供多语言支持,涵盖丰富的领域知识。"
702
+ },
703
+ "meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
704
+ "description": "LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
705
+ },
706
+ "meta-llama/Llama-3.2-3B-Instruct-Turbo": {
707
+ "description": "LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
708
+ },
709
+ "meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
710
+ "description": "LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
711
+ },
712
+ "meta-llama/Llama-Vision-Free": {
713
+ "description": "LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
663
714
  },
664
715
  "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
665
716
  "description": "Llama 3 70B Instruct Lite 适合需要高效能和低延迟的环境。"
@@ -739,15 +790,18 @@
739
790
  "minicpm-v": {
740
791
  "description": "MiniCPM-V 是 OpenBMB 推出的新一代多模态大模型,具备卓越的 OCR 识别和多模态理解能力,支持广泛的应用场景。"
741
792
  },
793
+ "ministral-3b-latest": {
794
+ "description": "Ministral 3B 是Mistral的世界顶级边缘模型。"
795
+ },
796
+ "ministral-8b-latest": {
797
+ "description": "Ministral 8B 是Mistral的性价比极高的边缘模型。"
798
+ },
742
799
  "mistral": {
743
800
  "description": "Mistral 是 Mistral AI 发布的 7B 模型,适合多变的语言处理需求。"
744
801
  },
745
802
  "mistral-large": {
746
803
  "description": "Mixtral Large 是 Mistral 的旗舰模型,结合代码生成、数学和推理的能力,支持 128k 上下文窗口。"
747
804
  },
748
- "mistral-large-2407": {
749
- "description": "Mistral Large (2407) is an advanced Large Language Model (LLM) with state-of-the-art reasoning, knowledge and coding capabilities."
750
- },
751
805
  "mistral-large-latest": {
752
806
  "description": "Mistral Large是旗舰大模型,擅长多语言任务、复杂推理和代码生成,是高端应用的理想选择。"
753
807
  },
@@ -755,7 +809,7 @@
755
809
  "description": "Mistral Nemo 由 Mistral AI 和 NVIDIA 合作推出,是高效性能的 12B 模型。"
756
810
  },
757
811
  "mistral-small": {
758
- "description": "Mistral Small can be used on any language-based task that requires high efficiency and low latency."
812
+ "description": "Mistral Small可用于任何需要高效率和低延迟的基于语言的任务。"
759
813
  },
760
814
  "mistral-small-latest": {
761
815
  "description": "Mistral Small是成本效益高、快速且可靠的选项,适用于翻译、摘要和情感分析等用例。"
@@ -769,12 +823,18 @@
769
823
  "mistralai/Mistral-7B-Instruct-v0.3": {
770
824
  "description": "Mistral (7B) Instruct v0.3 提供高效的计算能力和自然语言理解,适合广泛的应用。"
771
825
  },
826
+ "mistralai/Mistral-7B-v0.1": {
827
+ "description": "Mistral 7B是一款紧凑但高性能的模型,擅长批量处理和简单任务,如分类和文本生成,具有良好的推理能力。"
828
+ },
772
829
  "mistralai/Mixtral-8x22B-Instruct-v0.1": {
773
830
  "description": "Mixtral-8x22B Instruct (141B) 是一款超级大语言模型,支持极高的处理需求。"
774
831
  },
775
832
  "mistralai/Mixtral-8x7B-Instruct-v0.1": {
776
833
  "description": "Mixtral-8x7B Instruct (46.7B) 提供高容量的计算框架,适合大规模数据处理。"
777
834
  },
835
+ "mistralai/Mixtral-8x7B-v0.1": {
836
+ "description": "Mixtral 8x7B是一个稀疏专家模型,利用多个参数提高推理速度,适合处理多语言和代码生成任务。"
837
+ },
778
838
  "mistralai/mistral-7b-instruct": {
779
839
  "description": "Mistral 7B Instruct 是一款兼有速度优化和长上下文支持的高性能行业标准模型。"
780
840
  },
@@ -802,11 +862,14 @@
802
862
  "nousresearch/hermes-2-pro-llama-3-8b": {
803
863
  "description": "Hermes 2 Pro Llama 3 8B 是 Nous Hermes 2的升级版本,包含最新的内部开发的数据集。"
804
864
  },
865
+ "nvidia/Llama-3.1-Nemotron-70B-Instruct": {
866
+ "description": "Llama 3.1 Nemotron 70B 是由 NVIDIA 定制的大型语言模型,旨在提高 LLM 生成的响应对用户查询的帮助程度。"
867
+ },
805
868
  "o1-mini": {
806
- "description": "Smaller, faster, and 80% cheaper than o1-preview, performs well at code generation and small context operations."
869
+ "description": " o1-preview 更小、更快,成本低80%,在代码生成和小上下文操作方面表现良好。"
807
870
  },
808
871
  "o1-preview": {
809
- "description": "Focused on advanced reasoning and solving complex problems, including math and science tasks. Ideal for applications that require deep contextual understanding and agentic workflows."
872
+ "description": "专注于高级推理和解决复杂问题,包括数学和科学任务。非常适合需要深度上下文理解和自主工作流程的应用。"
810
873
  },
811
874
  "open-codestral-mamba": {
812
875
  "description": "Codestral Mamba是专注于代码生成的Mamba 2语言模型,为先进的代码和推理任务提供强力支持。"
@@ -980,7 +1043,7 @@
980
1043
  "description": "在 yi-large 模型的基础上支持并强化了工具调用的能力,适用于各种需要搭建 agent 或 workflow 的业务场景。"
981
1044
  },
982
1045
  "yi-large-preview": {
983
- "description": "初期版本,推荐使用 yi-large(新版本)"
1046
+ "description": "初期版本,推荐使用 yi-large(新版本)。"
984
1047
  },
985
1048
  "yi-large-rag": {
986
1049
  "description": "基于 yi-large 超强模型的高阶服务,结合检索与生成技术提供精准答案,实时全网检索信息服务。"
@@ -988,6 +1051,12 @@
988
1051
  "yi-large-turbo": {
989
1052
  "description": "超高性价比、卓越性能。根据性能和推理速度、成本,进行平衡性高精度调优。"
990
1053
  },
1054
+ "yi-lightning": {
1055
+ "description": "最新高性能模型,保证高质量输出同时,推理速度大幅提升。"
1056
+ },
1057
+ "yi-lightning-lite": {
1058
+ "description": "轻量化版本,推荐使用 yi-lightning。"
1059
+ },
991
1060
  "yi-medium": {
992
1061
  "description": "中型尺寸模型升级微调,能力均衡,性价比高。深度优化指令遵循能力。"
993
1062
  },
@@ -22,7 +22,7 @@
22
22
  "description": "Fireworks AI 是一家领先的高级语言模型服务商,专注于功能调用和多模态处理。其最新模型 Firefunction V2 基于 Llama-3,优化用于函数调用、对话及指令跟随。视觉语言模型 FireLLaVA-13B 支持图像和文本混合输入。其他 notable 模型包括 Llama 系列和 Mixtral 系列,提供高效的多语言指令跟随与生成支持。"
23
23
  },
24
24
  "github": {
25
- "description": "With GitHub Models, developers can become AI engineers and build with the industry's leading AI models."
25
+ "description": "通过GitHub模型,开发人员可以成为AI工程师,并使用行业领先的AI模型进行构建。"
26
26
  },
27
27
  "google": {
28
28
  "description": "Google 的 Gemini 系列是其最先进、通用的 AI模型,由 Google DeepMind 打造,专为多模态设计,支持文本、代码、图像、音频和视频的无缝理解与处理。适用于从数据中心到移动设备的多种环境,极大提升了AI模型的效率与应用广泛性。"
@@ -85,7 +85,7 @@
85
85
  "description": "企业级一站式大模型与AI原生应用开发及服务平台,提供最全面易用的生成式人工智能模型开发、应用开发全流程工具链"
86
86
  },
87
87
  "zeroone": {
88
- "description": "01.AI 专注于AI 2.0时代的人工智能技术,大力推动“人+人工智能”的创新和应用,采用超强大模型和先进AI技术以提升人类生产力,实现技术赋能。"
88
+ "description": "零一万物致力于推动以人为本的AI 2.0技术革命,旨在通过大语言模型创造巨大的经济和社会价值,并开创新的AI生态与商业模式。"
89
89
  },
90
90
  "zhipu": {
91
91
  "description": "智谱 AI 提供多模态与语言模型的开放平台,支持广泛的AI应用场景,包括文本处理、图像理解与编程辅助等。"