@lobehub/chat 1.51.8 → 1.51.10
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/common.json +1 -1
- package/locales/ar/modelProvider.json +0 -20
- package/locales/ar/models.json +108 -3
- package/locales/bg-BG/common.json +1 -1
- package/locales/bg-BG/modelProvider.json +0 -20
- package/locales/bg-BG/models.json +108 -3
- package/locales/de-DE/common.json +1 -1
- package/locales/de-DE/modelProvider.json +0 -20
- package/locales/de-DE/models.json +108 -3
- package/locales/en-US/common.json +1 -1
- package/locales/en-US/modelProvider.json +0 -20
- package/locales/en-US/models.json +108 -3
- package/locales/es-ES/common.json +1 -1
- package/locales/es-ES/modelProvider.json +0 -20
- package/locales/es-ES/models.json +108 -3
- package/locales/fa-IR/common.json +1 -1
- package/locales/fa-IR/modelProvider.json +0 -20
- package/locales/fa-IR/models.json +108 -3
- package/locales/fr-FR/common.json +1 -1
- package/locales/fr-FR/modelProvider.json +0 -20
- package/locales/fr-FR/models.json +108 -3
- package/locales/it-IT/common.json +1 -1
- package/locales/it-IT/modelProvider.json +0 -20
- package/locales/it-IT/models.json +108 -3
- package/locales/ja-JP/common.json +1 -1
- package/locales/ja-JP/modelProvider.json +0 -20
- package/locales/ja-JP/models.json +108 -3
- package/locales/ko-KR/common.json +1 -1
- package/locales/ko-KR/modelProvider.json +0 -20
- package/locales/ko-KR/models.json +108 -3
- package/locales/nl-NL/common.json +1 -1
- package/locales/nl-NL/modelProvider.json +0 -20
- package/locales/nl-NL/models.json +108 -3
- package/locales/pl-PL/common.json +1 -1
- package/locales/pl-PL/modelProvider.json +0 -20
- package/locales/pl-PL/models.json +108 -3
- package/locales/pt-BR/common.json +1 -1
- package/locales/pt-BR/modelProvider.json +0 -20
- package/locales/pt-BR/models.json +108 -3
- package/locales/ru-RU/common.json +1 -1
- package/locales/ru-RU/modelProvider.json +0 -20
- package/locales/ru-RU/models.json +108 -3
- package/locales/tr-TR/common.json +1 -1
- package/locales/tr-TR/modelProvider.json +0 -20
- package/locales/tr-TR/models.json +108 -3
- package/locales/vi-VN/common.json +1 -1
- package/locales/vi-VN/modelProvider.json +0 -20
- package/locales/vi-VN/models.json +108 -3
- package/locales/zh-CN/common.json +1 -1
- package/locales/zh-CN/modelProvider.json +0 -20
- package/locales/zh-CN/models.json +113 -8
- package/locales/zh-TW/common.json +1 -1
- package/locales/zh-TW/modelProvider.json +0 -20
- package/locales/zh-TW/models.json +108 -3
- package/package.json +1 -1
- package/src/app/[variants]/(main)/chat/_layout/Desktop/SessionPanel.tsx +2 -1
- package/src/app/[variants]/(main)/chat/_layout/Mobile.tsx +2 -1
- package/src/app/[variants]/(main)/chat/layout.ts +0 -2
- package/src/app/[variants]/(main)/settings/provider/(detail)/[id]/page.tsx +30 -28
- package/src/features/User/PlanTag.tsx +2 -2
- package/src/locales/default/common.ts +1 -1
@@ -23,6 +23,9 @@
|
|
23
23
|
"360gpt2-pro": {
|
24
24
|
"description": "360GPT2 Pro là mô hình xử lý ngôn ngữ tự nhiên cao cấp do công ty 360 phát hành, có khả năng tạo và hiểu văn bản xuất sắc, đặc biệt trong lĩnh vực tạo ra và sáng tạo, có thể xử lý các nhiệm vụ chuyển đổi ngôn ngữ phức tạp và diễn xuất vai trò."
|
25
25
|
},
|
26
|
+
"360zhinao2-o1": {
|
27
|
+
"description": "360zhinao2-o1 sử dụng tìm kiếm cây để xây dựng chuỗi tư duy, và giới thiệu cơ chế phản hồi, sử dụng học tăng cường để đào tạo, mô hình có khả năng tự phản hồi và sửa lỗi."
|
28
|
+
},
|
26
29
|
"4.0Ultra": {
|
27
30
|
"description": "Spark4.0 Ultra là phiên bản mạnh mẽ nhất trong dòng mô hình lớn Xinghuo, nâng cao khả năng hiểu và tóm tắt nội dung văn bản trong khi nâng cấp liên kết tìm kiếm trực tuyến. Đây là giải pháp toàn diện nhằm nâng cao năng suất văn phòng và đáp ứng chính xác nhu cầu, là sản phẩm thông minh dẫn đầu ngành."
|
28
31
|
},
|
@@ -44,6 +47,18 @@
|
|
44
47
|
"Baichuan4-Turbo": {
|
45
48
|
"description": "Mô hình có khả năng hàng đầu trong nước, vượt trội hơn các mô hình chính thống nước ngoài trong các nhiệm vụ tiếng Trung như bách khoa toàn thư, văn bản dài và sáng tạo nội dung. Cũng có khả năng đa phương tiện hàng đầu trong ngành, thể hiện xuất sắc trong nhiều tiêu chuẩn đánh giá uy tín."
|
46
49
|
},
|
50
|
+
"DeepSeek-R1-Distill-Qwen-1.5B": {
|
51
|
+
"description": "Mô hình chưng cất DeepSeek-R1 dựa trên Qwen2.5-Math-1.5B, tối ưu hóa hiệu suất suy luận thông qua học tăng cường và dữ liệu khởi động lạnh, mô hình mã nguồn mở làm mới tiêu chuẩn đa nhiệm."
|
52
|
+
},
|
53
|
+
"DeepSeek-R1-Distill-Qwen-14B": {
|
54
|
+
"description": "Mô hình chưng cất DeepSeek-R1 dựa trên Qwen2.5-14B, tối ưu hóa hiệu suất suy luận thông qua học tăng cường và dữ liệu khởi động lạnh, mô hình mã nguồn mở làm mới tiêu chuẩn đa nhiệm."
|
55
|
+
},
|
56
|
+
"DeepSeek-R1-Distill-Qwen-32B": {
|
57
|
+
"description": "Dòng DeepSeek-R1 tối ưu hóa hiệu suất suy luận thông qua học tăng cường và dữ liệu khởi động lạnh, mô hình mã nguồn mở làm mới tiêu chuẩn đa nhiệm, vượt qua mức OpenAI-o1-mini."
|
58
|
+
},
|
59
|
+
"DeepSeek-R1-Distill-Qwen-7B": {
|
60
|
+
"description": "Mô hình chưng cất DeepSeek-R1 dựa trên Qwen2.5-Math-7B, tối ưu hóa hiệu suất suy luận thông qua học tăng cường và dữ liệu khởi động lạnh, mô hình mã nguồn mở làm mới tiêu chuẩn đa nhiệm."
|
61
|
+
},
|
47
62
|
"Doubao-lite-128k": {
|
48
63
|
"description": "Doubao-lite có tốc độ phản hồi cực nhanh, giá trị tốt hơn, cung cấp sự lựa chọn linh hoạt cho khách hàng trong nhiều tình huống khác nhau. Hỗ trợ suy diễn và tinh chỉnh trong ngữ cảnh 128k."
|
49
64
|
},
|
@@ -77,9 +92,6 @@
|
|
77
92
|
"ERNIE-4.0-8K-Preview": {
|
78
93
|
"description": "Mô hình ngôn ngữ quy mô siêu lớn hàng đầu do Baidu tự phát triển, so với ERNIE 3.5 đã nâng cấp toàn diện khả năng của mô hình, phù hợp rộng rãi với các nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm Baidu, đảm bảo thông tin hỏi đáp luôn cập nhật."
|
79
94
|
},
|
80
|
-
"ERNIE-4.0-Turbo-128K": {
|
81
|
-
"description": "Mô hình ngôn ngữ lớn siêu cấp do Baidu tự phát triển, thể hiện hiệu suất xuất sắc, phù hợp rộng rãi với các tình huống nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm Baidu, đảm bảo thông tin hỏi đáp kịp thời. So với ERNIE 4.0, hiệu suất tốt hơn."
|
82
|
-
},
|
83
95
|
"ERNIE-4.0-Turbo-8K-Latest": {
|
84
96
|
"description": "Mô hình ngôn ngữ quy mô siêu lớn tự phát triển của Baidu, có hiệu suất tổng thể xuất sắc, phù hợp rộng rãi cho các tình huống tác vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo tính kịp thời của thông tin câu hỏi đáp. So với ERNIE 4.0, nó có hiệu suất tốt hơn."
|
85
97
|
},
|
@@ -176,6 +188,9 @@
|
|
176
188
|
"Pro/meta-llama/Meta-Llama-3.1-8B-Instruct": {
|
177
189
|
"description": "Meta Llama 3.1 là một phần của gia đình mô hình ngôn ngữ lớn đa ngôn ngữ do Meta phát triển, bao gồm các biến thể tiền huấn luyện và tinh chỉnh theo chỉ dẫn với quy mô tham số 8B, 70B và 405B. Mô hình 8B này được tối ưu hóa cho các tình huống đối thoại đa ngôn ngữ, thể hiện xuất sắc trong nhiều bài kiểm tra chuẩn ngành. Mô hình được đào tạo bằng hơn 15 triệu tỷ tokens từ dữ liệu công khai và sử dụng các kỹ thuật như tinh chỉnh giám sát và học tăng cường phản hồi của con người để nâng cao tính hữu ích và an toàn của mô hình. Llama 3.1 hỗ trợ sinh văn bản và sinh mã, với thời điểm cắt kiến thức là tháng 12 năm 2023."
|
178
190
|
},
|
191
|
+
"QwQ-32B-Preview": {
|
192
|
+
"description": "QwQ-32B-Preview là một mô hình xử lý ngôn ngữ tự nhiên độc đáo, có khả năng xử lý hiệu quả các nhiệm vụ tạo đối thoại phức tạp và hiểu ngữ cảnh."
|
193
|
+
},
|
179
194
|
"Qwen/QVQ-72B-Preview": {
|
180
195
|
"description": "QVQ-72B-Preview là một mô hình nghiên cứu do đội ngũ Qwen phát triển, tập trung vào khả năng suy diễn hình ảnh, có lợi thế độc đáo trong việc hiểu các cảnh phức tạp và giải quyết các vấn đề toán học liên quan đến hình ảnh."
|
181
196
|
},
|
@@ -527,6 +542,24 @@
|
|
527
542
|
"deepseek-ai/DeepSeek-R1": {
|
528
543
|
"description": "DeepSeek-R1 là một mô hình suy diễn được điều khiển bởi học tăng cường (RL), giải quyết các vấn đề về tính lặp lại và khả năng đọc hiểu trong mô hình. Trước khi áp dụng RL, DeepSeek-R1 đã giới thiệu dữ liệu khởi động lạnh, tối ưu hóa thêm hiệu suất suy diễn. Nó thể hiện hiệu suất tương đương với OpenAI-o1 trong các nhiệm vụ toán học, mã và suy diễn, và thông qua phương pháp đào tạo được thiết kế cẩn thận, nâng cao hiệu quả tổng thể."
|
529
544
|
},
|
545
|
+
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
|
546
|
+
"description": "Mô hình chưng cất DeepSeek-R1, tối ưu hóa hiệu suất suy luận thông qua học tăng cường và dữ liệu khởi động lạnh, mô hình mã nguồn mở làm mới tiêu chuẩn đa nhiệm."
|
547
|
+
},
|
548
|
+
"deepseek-ai/DeepSeek-R1-Distill-Llama-8B": {
|
549
|
+
"description": "DeepSeek-R1-Distill-Llama-8B là mô hình chưng cất phát triển từ Llama-3.1-8B. Mô hình này sử dụng các mẫu được tạo ra từ DeepSeek-R1 để tinh chỉnh, thể hiện khả năng suy luận xuất sắc. Trong nhiều bài kiểm tra chuẩn, nó đã thể hiện tốt, trong đó đạt 89.1% độ chính xác trên MATH-500, đạt 50.4% tỷ lệ vượt qua trên AIME 2024, và đạt điểm 1205 trên CodeForces, thể hiện khả năng toán học và lập trình mạnh mẽ cho mô hình quy mô 8B."
|
550
|
+
},
|
551
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
552
|
+
"description": "Mô hình chưng cất DeepSeek-R1, tối ưu hóa hiệu suất suy luận thông qua học tăng cường và dữ liệu khởi động lạnh, mô hình mã nguồn mở làm mới tiêu chuẩn đa nhiệm."
|
553
|
+
},
|
554
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
|
555
|
+
"description": "Mô hình chưng cất DeepSeek-R1, tối ưu hóa hiệu suất suy luận thông qua học tăng cường và dữ liệu khởi động lạnh, mô hình mã nguồn mở làm mới tiêu chuẩn đa nhiệm."
|
556
|
+
},
|
557
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
|
558
|
+
"description": "DeepSeek-R1-Distill-Qwen-32B là mô hình được tạo ra từ Qwen2.5-32B thông qua chưng cất kiến thức. Mô hình này sử dụng 800.000 mẫu được chọn lọc từ DeepSeek-R1 để tinh chỉnh, thể hiện hiệu suất xuất sắc trong nhiều lĩnh vực như toán học, lập trình và suy luận. Trong nhiều bài kiểm tra chuẩn như AIME 2024, MATH-500, GPQA Diamond, nó đã đạt được kết quả xuất sắc, trong đó đạt 94.3% độ chính xác trên MATH-500, thể hiện khả năng suy luận toán học mạnh mẽ."
|
559
|
+
},
|
560
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
561
|
+
"description": "DeepSeek-R1-Distill-Qwen-7B là mô hình được tạo ra từ Qwen2.5-Math-7B thông qua chưng cất kiến thức. Mô hình này sử dụng 800.000 mẫu được chọn lọc từ DeepSeek-R1 để tinh chỉnh, thể hiện khả năng suy luận xuất sắc. Trong nhiều bài kiểm tra chuẩn, nó đã thể hiện xuất sắc, trong đó đạt 92.8% độ chính xác trên MATH-500, đạt 55.5% tỷ lệ vượt qua trên AIME 2024, và đạt điểm 1189 trên CodeForces, thể hiện khả năng toán học và lập trình mạnh mẽ cho mô hình quy mô 7B."
|
562
|
+
},
|
530
563
|
"deepseek-ai/DeepSeek-V2.5": {
|
531
564
|
"description": "DeepSeek V2.5 kết hợp các đặc điểm xuất sắc của các phiên bản trước, tăng cường khả năng tổng quát và mã hóa."
|
532
565
|
},
|
@@ -554,6 +587,9 @@
|
|
554
587
|
"deepseek-r1": {
|
555
588
|
"description": "DeepSeek-R1 là một mô hình suy diễn được điều khiển bởi học tăng cường (RL), giải quyết các vấn đề về tính lặp lại và khả năng đọc hiểu trong mô hình. Trước khi áp dụng RL, DeepSeek-R1 đã giới thiệu dữ liệu khởi động lạnh, tối ưu hóa thêm hiệu suất suy diễn. Nó thể hiện hiệu suất tương đương với OpenAI-o1 trong các nhiệm vụ toán học, mã và suy diễn, và thông qua phương pháp đào tạo được thiết kế cẩn thận, nâng cao hiệu quả tổng thể."
|
556
589
|
},
|
590
|
+
"deepseek-r1-distill-llama-70b": {
|
591
|
+
"description": "DeepSeek R1 - mô hình lớn hơn và thông minh hơn trong bộ công cụ DeepSeek - đã được chưng cất vào kiến trúc Llama 70B. Dựa trên các bài kiểm tra chuẩn và đánh giá của con người, mô hình này thông minh hơn so với Llama 70B gốc, đặc biệt xuất sắc trong các nhiệm vụ yêu cầu độ chính xác về toán học và sự thật."
|
592
|
+
},
|
557
593
|
"deepseek-reasoner": {
|
558
594
|
"description": "Mô hình suy diễn do DeepSeek phát triển. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một đoạn nội dung chuỗi suy nghĩ để nâng cao độ chính xác của câu trả lời cuối."
|
559
595
|
},
|
@@ -563,12 +599,63 @@
|
|
563
599
|
"deepseek-v2:236b": {
|
564
600
|
"description": "DeepSeek V2 236B là mô hình mã thiết kế của DeepSeek, cung cấp khả năng sinh mã mạnh mẽ."
|
565
601
|
},
|
602
|
+
"deepseek-v3": {
|
603
|
+
"description": "DeepSeek-V3 là mô hình MoE tự phát triển của Công ty Nghiên cứu Công nghệ AI Độ Sâu Hàng Châu, có nhiều thành tích xuất sắc trong các bài kiểm tra, đứng đầu bảng xếp hạng mô hình mã nguồn mở. V3 so với mô hình V2.5 đã cải thiện tốc độ tạo ra gấp 3 lần, mang đến trải nghiệm sử dụng nhanh chóng và mượt mà hơn cho người dùng."
|
604
|
+
},
|
566
605
|
"deepseek/deepseek-chat": {
|
567
606
|
"description": "Mô hình mã nguồn mở mới kết hợp khả năng tổng quát và mã, không chỉ giữ lại khả năng đối thoại tổng quát của mô hình Chat ban đầu và khả năng xử lý mã mạnh mẽ của mô hình Coder, mà còn tốt hơn trong việc phù hợp với sở thích của con người. Hơn nữa, DeepSeek-V2.5 cũng đã đạt được sự cải thiện lớn trong nhiều lĩnh vực như nhiệm vụ viết, theo dõi chỉ dẫn."
|
568
607
|
},
|
569
608
|
"emohaa": {
|
570
609
|
"description": "Emohaa là mô hình tâm lý, có khả năng tư vấn chuyên nghiệp, giúp người dùng hiểu các vấn đề cảm xúc."
|
571
610
|
},
|
611
|
+
"ernie-3.5-128k": {
|
612
|
+
"description": "Mô hình ngôn ngữ lớn quy mô lớn tự phát triển của Baidu, bao phủ một lượng lớn tài liệu tiếng Trung và tiếng Anh, có khả năng tổng quát mạnh mẽ, đáp ứng hầu hết các yêu cầu về đối thoại hỏi đáp, tạo nội dung, và ứng dụng plugin; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp kịp thời."
|
613
|
+
},
|
614
|
+
"ernie-3.5-8k": {
|
615
|
+
"description": "Mô hình ngôn ngữ lớn quy mô lớn tự phát triển của Baidu, bao phủ một lượng lớn tài liệu tiếng Trung và tiếng Anh, có khả năng tổng quát mạnh mẽ, đáp ứng hầu hết các yêu cầu về đối thoại hỏi đáp, tạo nội dung, và ứng dụng plugin; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp kịp thời."
|
616
|
+
},
|
617
|
+
"ernie-3.5-8k-preview": {
|
618
|
+
"description": "Mô hình ngôn ngữ lớn quy mô lớn tự phát triển của Baidu, bao phủ một lượng lớn tài liệu tiếng Trung và tiếng Anh, có khả năng tổng quát mạnh mẽ, đáp ứng hầu hết các yêu cầu về đối thoại hỏi đáp, tạo nội dung, và ứng dụng plugin; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp kịp thời."
|
619
|
+
},
|
620
|
+
"ernie-4.0-8k-latest": {
|
621
|
+
"description": "Mô hình ngôn ngữ lớn siêu quy mô tự phát triển của Baidu, so với ERNIE 3.5 đã thực hiện nâng cấp toàn diện về khả năng mô hình, phù hợp rộng rãi với các tình huống nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp kịp thời."
|
622
|
+
},
|
623
|
+
"ernie-4.0-8k-preview": {
|
624
|
+
"description": "Mô hình ngôn ngữ lớn siêu quy mô tự phát triển của Baidu, so với ERNIE 3.5 đã thực hiện nâng cấp toàn diện về khả năng mô hình, phù hợp rộng rãi với các tình huống nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp kịp thời."
|
625
|
+
},
|
626
|
+
"ernie-4.0-turbo-128k": {
|
627
|
+
"description": "Mô hình ngôn ngữ lớn siêu quy mô tự phát triển của Baidu, có hiệu suất tổng thể xuất sắc, phù hợp rộng rãi với các tình huống nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp kịp thời. So với ERNIE 4.0, hiệu suất tốt hơn."
|
628
|
+
},
|
629
|
+
"ernie-4.0-turbo-8k-latest": {
|
630
|
+
"description": "Mô hình ngôn ngữ lớn siêu quy mô tự phát triển của Baidu, có hiệu suất tổng thể xuất sắc, phù hợp rộng rãi với các tình huống nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp kịp thời. So với ERNIE 4.0, hiệu suất tốt hơn."
|
631
|
+
},
|
632
|
+
"ernie-4.0-turbo-8k-preview": {
|
633
|
+
"description": "Mô hình ngôn ngữ lớn siêu quy mô tự phát triển của Baidu, có hiệu suất tổng thể xuất sắc, phù hợp rộng rãi với các tình huống nhiệm vụ phức tạp trong nhiều lĩnh vực; hỗ trợ tự động kết nối với plugin tìm kiếm của Baidu, đảm bảo thông tin hỏi đáp kịp thời. So với ERNIE 4.0, hiệu suất tốt hơn."
|
634
|
+
},
|
635
|
+
"ernie-char-8k": {
|
636
|
+
"description": "Mô hình ngôn ngữ lớn theo ngữ cảnh tự phát triển của Baidu, phù hợp cho các ứng dụng như NPC trong trò chơi, đối thoại dịch vụ khách hàng, và vai trò trong đối thoại, có phong cách nhân vật rõ ràng và nhất quán, khả năng tuân theo lệnh mạnh mẽ, hiệu suất suy luận tốt hơn."
|
637
|
+
},
|
638
|
+
"ernie-char-fiction-8k": {
|
639
|
+
"description": "Mô hình ngôn ngữ lớn theo ngữ cảnh tự phát triển của Baidu, phù hợp cho các ứng dụng như NPC trong trò chơi, đối thoại dịch vụ khách hàng, và vai trò trong đối thoại, có phong cách nhân vật rõ ràng và nhất quán, khả năng tuân theo lệnh mạnh mẽ, hiệu suất suy luận tốt hơn."
|
640
|
+
},
|
641
|
+
"ernie-lite-8k": {
|
642
|
+
"description": "ERNIE Lite là mô hình ngôn ngữ lớn nhẹ tự phát triển của Baidu, kết hợp hiệu suất mô hình xuất sắc với hiệu suất suy luận, phù hợp cho việc sử dụng trên thẻ tăng tốc AI với công suất thấp."
|
643
|
+
},
|
644
|
+
"ernie-lite-pro-128k": {
|
645
|
+
"description": "Mô hình ngôn ngữ lớn nhẹ tự phát triển của Baidu, kết hợp hiệu suất mô hình xuất sắc với hiệu suất suy luận, hiệu suất tốt hơn ERNIE Lite, phù hợp cho việc sử dụng trên thẻ tăng tốc AI với công suất thấp."
|
646
|
+
},
|
647
|
+
"ernie-novel-8k": {
|
648
|
+
"description": "Mô hình ngôn ngữ lớn tổng quát tự phát triển của Baidu, có lợi thế rõ rệt trong khả năng viết tiếp tiểu thuyết, cũng có thể được sử dụng trong các tình huống như kịch ngắn, phim ảnh."
|
649
|
+
},
|
650
|
+
"ernie-speed-128k": {
|
651
|
+
"description": "Mô hình ngôn ngữ lớn hiệu suất cao tự phát triển của Baidu, được phát hành vào năm 2024, có khả năng tổng quát xuất sắc, phù hợp làm mô hình nền để tinh chỉnh, xử lý tốt hơn các vấn đề trong tình huống cụ thể, đồng thời có hiệu suất suy luận xuất sắc."
|
652
|
+
},
|
653
|
+
"ernie-speed-pro-128k": {
|
654
|
+
"description": "Mô hình ngôn ngữ lớn hiệu suất cao tự phát triển của Baidu, được phát hành vào năm 2024, có khả năng tổng quát xuất sắc, hiệu suất tốt hơn ERNIE Speed, phù hợp làm mô hình nền để tinh chỉnh, xử lý tốt hơn các vấn đề trong tình huống cụ thể, đồng thời có hiệu suất suy luận xuất sắc."
|
655
|
+
},
|
656
|
+
"ernie-tiny-8k": {
|
657
|
+
"description": "ERNIE Tiny là mô hình ngôn ngữ lớn hiệu suất siêu cao tự phát triển của Baidu, có chi phí triển khai và tinh chỉnh thấp nhất trong dòng sản phẩm văn tâm."
|
658
|
+
},
|
572
659
|
"gemini-1.0-pro-001": {
|
573
660
|
"description": "Gemini 1.0 Pro 001 (Tuning) cung cấp hiệu suất ổn định và có thể điều chỉnh, là lựa chọn lý tưởng cho các giải pháp nhiệm vụ phức tạp."
|
574
661
|
},
|
@@ -872,6 +959,9 @@
|
|
872
959
|
"internlm2.5-latest": {
|
873
960
|
"description": "Dòng mô hình mới nhất của chúng tôi, có hiệu suất suy luận xuất sắc, hỗ trợ độ dài ngữ cảnh 1M và khả năng theo dõi chỉ dẫn và gọi công cụ mạnh mẽ hơn."
|
874
961
|
},
|
962
|
+
"internlm3-latest": {
|
963
|
+
"description": "Dòng mô hình mới nhất của chúng tôi, có hiệu suất suy luận xuất sắc, dẫn đầu trong số các mô hình mã nguồn mở cùng cấp. Mặc định chỉ đến mô hình InternLM3 mới nhất mà chúng tôi đã phát hành."
|
964
|
+
},
|
875
965
|
"learnlm-1.5-pro-experimental": {
|
876
966
|
"description": "LearnLM là một mô hình ngôn ngữ thử nghiệm, chuyên biệt cho các nhiệm vụ, được đào tạo để tuân theo các nguyên tắc khoa học học tập, có thể tuân theo các chỉ dẫn hệ thống trong các tình huống giảng dạy và học tập, đóng vai trò như một người hướng dẫn chuyên gia."
|
877
967
|
},
|
@@ -986,6 +1076,9 @@
|
|
986
1076
|
"meta-llama/Llama-3.3-70B-Instruct": {
|
987
1077
|
"description": "Llama 3.3 là mô hình ngôn ngữ lớn mã nguồn mở đa ngôn ngữ tiên tiến nhất trong dòng Llama, mang đến trải nghiệm hiệu suất tương đương mô hình 405B với chi phí cực thấp. Dựa trên cấu trúc Transformer, và được cải thiện tính hữu ích và an toàn thông qua tinh chỉnh giám sát (SFT) và học tăng cường phản hồi từ con người (RLHF). Phiên bản tinh chỉnh theo chỉ dẫn được tối ưu hóa cho đối thoại đa ngôn ngữ, thể hiện tốt hơn nhiều mô hình trò chuyện mã nguồn mở và đóng trong nhiều tiêu chuẩn ngành. Ngày cắt kiến thức là tháng 12 năm 2023."
|
988
1078
|
},
|
1079
|
+
"meta-llama/Llama-3.3-70B-Instruct-Turbo": {
|
1080
|
+
"description": "Mô hình ngôn ngữ lớn đa ngôn ngữ Meta Llama 3.3 (LLM) là mô hình sinh ra từ 70B (đầu vào văn bản/đầu ra văn bản) với việc điều chỉnh trước và điều chỉnh theo lệnh. Mô hình điều chỉnh theo lệnh Llama 3.3 được tối ưu hóa cho các trường hợp sử dụng đối thoại đa ngôn ngữ và vượt trội hơn nhiều mô hình trò chuyện mã nguồn mở và đóng khác trên các bài kiểm tra chuẩn ngành phổ biến."
|
1081
|
+
},
|
989
1082
|
"meta-llama/Llama-Vision-Free": {
|
990
1083
|
"description": "LLaMA 3.2 được thiết kế để xử lý các tác vụ kết hợp dữ liệu hình ảnh và văn bản. Nó có khả năng xuất sắc trong các tác vụ mô tả hình ảnh và trả lời câu hỏi hình ảnh, vượt qua khoảng cách giữa tạo ngôn ngữ và suy luận hình ảnh."
|
991
1084
|
},
|
@@ -1256,6 +1349,9 @@
|
|
1256
1349
|
"qwen-vl-max-latest": {
|
1257
1350
|
"description": "Mô hình ngôn ngữ hình ảnh quy mô siêu lớn của Tongyi Qianwen. So với phiên bản nâng cao, nó lại nâng cao khả năng suy luận hình ảnh và khả năng tuân thủ chỉ dẫn, cung cấp mức độ nhận thức và cảm nhận hình ảnh cao hơn."
|
1258
1351
|
},
|
1352
|
+
"qwen-vl-ocr-latest": {
|
1353
|
+
"description": "Công Nghệ Qianwen OCR là mô hình chuyên dụng cho việc trích xuất văn bản, tập trung vào khả năng trích xuất văn bản từ các loại hình ảnh như tài liệu, bảng biểu, đề thi, chữ viết tay, v.v. Nó có thể nhận diện nhiều loại văn bản, hiện hỗ trợ các ngôn ngữ: tiếng Trung, tiếng Anh, tiếng Pháp, tiếng Nhật, tiếng Hàn, tiếng Đức, tiếng Nga, tiếng Ý, tiếng Việt, tiếng Ả Rập."
|
1354
|
+
},
|
1259
1355
|
"qwen-vl-plus-latest": {
|
1260
1356
|
"description": "Mô hình ngôn ngữ hình ảnh quy mô lớn phiên bản nâng cao của Tongyi Qianwen. Nâng cao khả năng nhận diện chi tiết và nhận diện văn bản, hỗ trợ độ phân giải trên một triệu pixel và các tỷ lệ chiều dài và chiều rộng tùy ý."
|
1261
1357
|
},
|
@@ -1274,6 +1370,9 @@
|
|
1274
1370
|
"qwen2.5-14b-instruct": {
|
1275
1371
|
"description": "Mô hình 14B quy mô mở nguồn của Qwen 2.5."
|
1276
1372
|
},
|
1373
|
+
"qwen2.5-14b-instruct-1m": {
|
1374
|
+
"description": "Mô hình quy mô 72B được mở nguồn từ Qianwen 2.5."
|
1375
|
+
},
|
1277
1376
|
"qwen2.5-32b-instruct": {
|
1278
1377
|
"description": "Mô hình 32B quy mô mở nguồn của Qwen 2.5."
|
1279
1378
|
},
|
@@ -1301,6 +1400,12 @@
|
|
1301
1400
|
"qwen2.5-math-7b-instruct": {
|
1302
1401
|
"description": "Mô hình Qwen-Math có khả năng giải quyết bài toán toán học mạnh mẽ."
|
1303
1402
|
},
|
1403
|
+
"qwen2.5-vl-72b-instruct": {
|
1404
|
+
"description": "Nâng cao khả năng theo dõi lệnh, toán học, giải quyết vấn đề, mã hóa, nâng cao khả năng nhận diện mọi thứ, hỗ trợ định vị chính xác các yếu tố thị giác từ nhiều định dạng khác nhau, hỗ trợ hiểu và định vị thời gian sự kiện trong các tệp video dài (tối đa 10 phút), có khả năng hiểu thứ tự thời gian và tốc độ, hỗ trợ điều khiển Agent trên OS hoặc Mobile dựa trên khả năng phân tích và định vị, khả năng trích xuất thông tin quan trọng và xuất định dạng Json mạnh mẽ, phiên bản này là phiên bản 72B, phiên bản mạnh nhất trong dòng sản phẩm này."
|
1405
|
+
},
|
1406
|
+
"qwen2.5-vl-7b-instruct": {
|
1407
|
+
"description": "Nâng cao khả năng theo dõi lệnh, toán học, giải quyết vấn đề, mã hóa, nâng cao khả năng nhận diện mọi thứ, hỗ trợ định vị chính xác các yếu tố thị giác từ nhiều định dạng khác nhau, hỗ trợ hiểu và định vị thời gian sự kiện trong các tệp video dài (tối đa 10 phút), có khả năng hiểu thứ tự thời gian và tốc độ, hỗ trợ điều khiển Agent trên OS hoặc Mobile dựa trên khả năng phân tích và định vị, khả năng trích xuất thông tin quan trọng và xuất định dạng Json mạnh mẽ, phiên bản này là phiên bản 72B, phiên bản mạnh nhất trong dòng sản phẩm này."
|
1408
|
+
},
|
1304
1409
|
"qwen2.5:0.5b": {
|
1305
1410
|
"description": "Qwen2.5 là thế hệ mô hình ngôn ngữ quy mô lớn mới của Alibaba, hỗ trợ các nhu cầu ứng dụng đa dạng với hiệu suất xuất sắc."
|
1306
1411
|
},
|
@@ -286,6 +286,7 @@
|
|
286
286
|
"anonymousNickName": "匿名用户",
|
287
287
|
"billing": "账单管理",
|
288
288
|
"cloud": "体验 {{name}}",
|
289
|
+
"community": "社区版",
|
289
290
|
"data": "数据存储",
|
290
291
|
"defaultNickname": "社区版用户",
|
291
292
|
"discord": "社区支持",
|
@@ -295,7 +296,6 @@
|
|
295
296
|
"help": "帮助中心",
|
296
297
|
"moveGuide": "设置按钮搬到这里啦",
|
297
298
|
"plans": "订阅方案",
|
298
|
-
"preview": "预览版",
|
299
299
|
"profile": "账户管理",
|
300
300
|
"setting": "应用设置",
|
301
301
|
"usages": "用量统计"
|
@@ -294,26 +294,6 @@
|
|
294
294
|
"tooltip": "更新服务商基础配置",
|
295
295
|
"updateSuccess": "更新成功"
|
296
296
|
},
|
297
|
-
"wenxin": {
|
298
|
-
"accessKey": {
|
299
|
-
"desc": "填入百度千帆平台的 Access Key",
|
300
|
-
"placeholder": "Qianfan Access Key",
|
301
|
-
"title": "Access Key"
|
302
|
-
},
|
303
|
-
"checker": {
|
304
|
-
"desc": "测试 AccessKey / SecretAccess 是否填写正确"
|
305
|
-
},
|
306
|
-
"secretKey": {
|
307
|
-
"desc": "填入百度千帆平台 Secret Key",
|
308
|
-
"placeholder": "Qianfan Secret Key",
|
309
|
-
"title": "Secret Key"
|
310
|
-
},
|
311
|
-
"unlock": {
|
312
|
-
"customRegion": "自定义服务区域",
|
313
|
-
"description": "输入你的 AccessKey / SecretKey 即可开始会话。应用不会记录你的鉴权配置",
|
314
|
-
"title": "使用自定义文心一言鉴权信息"
|
315
|
-
}
|
316
|
-
},
|
317
297
|
"zeroone": {
|
318
298
|
"title": "01.AI 零一万物"
|
319
299
|
},
|
@@ -23,6 +23,9 @@
|
|
23
23
|
"360gpt2-pro": {
|
24
24
|
"description": "360GPT2 Pro 是 360 公司推出的高级自然语言处理模型,具备卓越的文本生成和理解能力,尤其在生成与创作领域表现出色,能够处理复杂的语言转换和角色演绎任务。"
|
25
25
|
},
|
26
|
+
"360zhinao2-o1": {
|
27
|
+
"description": "360zhinao2-o1 使用树搜索构建思维链,并引入了反思机制,使用强化学习训练,模型具备自我反思与纠错的能力。"
|
28
|
+
},
|
26
29
|
"4.0Ultra": {
|
27
30
|
"description": "Spark Ultra 是星火大模型系列中最为强大的版本,在升级联网搜索链路同时,提升对文本内容的理解和总结能力。它是用于提升办公生产力和准确响应需求的全方位解决方案,是引领行业的智能产品。"
|
28
31
|
},
|
@@ -44,6 +47,18 @@
|
|
44
47
|
"Baichuan4-Turbo": {
|
45
48
|
"description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。"
|
46
49
|
},
|
50
|
+
"DeepSeek-R1-Distill-Qwen-1.5B": {
|
51
|
+
"description": "基于 Qwen2.5-Math-1.5B 的 DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
|
52
|
+
},
|
53
|
+
"DeepSeek-R1-Distill-Qwen-14B": {
|
54
|
+
"description": "基于 Qwen2.5-14B 的 DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
|
55
|
+
},
|
56
|
+
"DeepSeek-R1-Distill-Qwen-32B": {
|
57
|
+
"description": "DeepSeek-R1 系列通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆,超越 OpenAI-o1-mini 水平。"
|
58
|
+
},
|
59
|
+
"DeepSeek-R1-Distill-Qwen-7B": {
|
60
|
+
"description": "基于 Qwen2.5-Math-7B 的 DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
|
61
|
+
},
|
47
62
|
"Doubao-lite-128k": {
|
48
63
|
"description": "Doubao-lite 拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持128k上下文窗口的推理和精调。"
|
49
64
|
},
|
@@ -77,9 +92,6 @@
|
|
77
92
|
"ERNIE-4.0-8K-Preview": {
|
78
93
|
"description": "百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。"
|
79
94
|
},
|
80
|
-
"ERNIE-4.0-Turbo-128K": {
|
81
|
-
"description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
|
82
|
-
},
|
83
95
|
"ERNIE-4.0-Turbo-8K-Latest": {
|
84
96
|
"description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
|
85
97
|
},
|
@@ -176,6 +188,9 @@
|
|
176
188
|
"Pro/meta-llama/Meta-Llama-3.1-8B-Instruct": {
|
177
189
|
"description": "Meta Llama 3.1 是由 Meta 开发的多语言大型语言模型家族,包括 8B、70B 和 405B 三种参数规模的预训练和指令微调变体。该 8B 指令微调模型针对多语言对话场景进行了优化,在多项行业基准测试中表现优异。模型训练使用了超过 15 万亿个 tokens 的公开数据,并采用了监督微调和人类反馈强化学习等技术来提升模型的有用性和安全性。Llama 3.1 支持文本生成和代码生成,知识截止日期为 2023 年 12 月"
|
178
190
|
},
|
191
|
+
"QwQ-32B-Preview": {
|
192
|
+
"description": "QwQ-32B-Preview 是一款独具创新的自然语言处理模型,能够高效处理复杂的对话生成与上下文理解任务。"
|
193
|
+
},
|
179
194
|
"Qwen/QVQ-72B-Preview": {
|
180
195
|
"description": "QVQ-72B-Preview 是由 Qwen 团队开发的专注于视觉推理能力的研究型模型,其在复杂场景理解和解决视觉相关的数学问题方面具有独特优势。"
|
181
196
|
},
|
@@ -525,13 +540,31 @@
|
|
525
540
|
"description": "DBRX Instruct 提供高可靠性的指令处理能力,支持多行业应用。"
|
526
541
|
},
|
527
542
|
"deepseek-ai/DeepSeek-R1": {
|
528
|
-
"description": "DeepSeek-R1
|
543
|
+
"description": "DeepSeek-R1 系列通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆,超越 OpenAI-o1-mini 水平。"
|
544
|
+
},
|
545
|
+
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
|
546
|
+
"description": "DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
|
547
|
+
},
|
548
|
+
"deepseek-ai/DeepSeek-R1-Distill-Llama-8B": {
|
549
|
+
"description": "DeepSeek-R1-Distill-Llama-8B 是基于 Llama-3.1-8B 开发的蒸馏模型。该模型使用 DeepSeek-R1 生成的样本进行微调,展现出优秀的推理能力。在多个基准测试中表现不俗,其中在 MATH-500 上达到了 89.1% 的准确率,在 AIME 2024 上达到了 50.4% 的通过率,在 CodeForces 上获得了 1205 的评分,作为 8B 规模的模型展示了较强的数学和编程能力。"
|
550
|
+
},
|
551
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
552
|
+
"description": "DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
|
553
|
+
},
|
554
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
|
555
|
+
"description": "DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
|
556
|
+
},
|
557
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
|
558
|
+
"description": "DeepSeek-R1-Distill-Qwen-32B 是基于 Qwen2.5-32B 通过知识蒸馏得到的模型。该模型使用 DeepSeek-R1 生成的 80 万个精选样本进行微调,在数学、编程和推理等多个领域展现出卓越的性能。在 AIME 2024、MATH-500、GPQA Diamond 等多个基准测试中都取得了优异成绩,其中在 MATH-500 上达到了 94.3% 的准确率,展现出强大的数学推理能力。"
|
559
|
+
},
|
560
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
561
|
+
"description": "DeepSeek-R1-Distill-Qwen-7B 是基于 Qwen2.5-Math-7B 通过知识蒸馏得到的模型。该模型使用 DeepSeek-R1 生成的 80 万个精选样本进行微调,展现出优秀的推理能力。在多个基准测试中表现出色,其中在 MATH-500 上达到了 92.8% 的准确率,在 AIME 2024 上达到了 55.5% 的通过率,在 CodeForces 上获得了 1189 的评分,作为 7B 规模的模型展示了较强的数学和编程能力。"
|
529
562
|
},
|
530
563
|
"deepseek-ai/DeepSeek-V2.5": {
|
531
564
|
"description": "DeepSeek-V2.5 是 DeepSeek-V2-Chat 和 DeepSeek-Coder-V2-Instruct 的升级版本,集成了两个先前版本的通用和编码能力。该模型在多个方面进行了优化,包括写作和指令跟随能力,更好地与人类偏好保持一致。DeepSeek-V2.5 在各种评估基准上都取得了显著的提升,如 AlpacaEval 2.0、ArenaHard、AlignBench 和 MT-Bench 等。"
|
532
565
|
},
|
533
566
|
"deepseek-ai/DeepSeek-V3": {
|
534
|
-
"description": "DeepSeek-V3
|
567
|
+
"description": "最新模型 DeepSeek-V3 多项评测成绩超越 Qwen2.5-72B 和 Llama-3.1-405B 等开源模型,性能对齐领军闭源模型 GPT-4o 与 Claude-3.5-Sonnet。"
|
535
568
|
},
|
536
569
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
537
570
|
"description": "DeepSeek LLM Chat (67B) 是创新的 AI 模型 提供深度语言理解和互动能力。"
|
@@ -552,7 +585,10 @@
|
|
552
585
|
"description": "DeepSeek Coder V2 是开源的混合专家代码模型,在代码任务方面表现优异,与 GPT4-Turbo 相媲美。"
|
553
586
|
},
|
554
587
|
"deepseek-r1": {
|
555
|
-
"description": "DeepSeek-R1
|
588
|
+
"description": "DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。"
|
589
|
+
},
|
590
|
+
"deepseek-r1-distill-llama-70b": {
|
591
|
+
"description": "DeepSeek R1——DeepSeek 套件中更大更智能的模型——被蒸馏到 Llama 70B 架构中。基于基准测试和人工评估,该模型比原始 Llama 70B 更智能,尤其在需要数学和事实精确性的任务上表现出色。"
|
556
592
|
},
|
557
593
|
"deepseek-reasoner": {
|
558
594
|
"description": "DeepSeek 推出的推理模型。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。"
|
@@ -563,12 +599,63 @@
|
|
563
599
|
"deepseek-v2:236b": {
|
564
600
|
"description": "DeepSeek V2 236B 是 DeepSeek 的设计代码模型,提供强大的代码生成能力。"
|
565
601
|
},
|
602
|
+
"deepseek-v3": {
|
603
|
+
"description": "DeepSeek-V3 为杭州深度求索人工智能基础技术研究有限公司自研的 MoE 模型,其多项评测成绩突出,在主流榜单中位列开源模型榜首。V3 相比 V2.5 模型生成速度实现 3 倍提升,为用户带来更加迅速流畅的使用体验。"
|
604
|
+
},
|
566
605
|
"deepseek/deepseek-chat": {
|
567
606
|
"description": "融合通用与代码能力的全新开源模型, 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。"
|
568
607
|
},
|
569
608
|
"emohaa": {
|
570
609
|
"description": "Emohaa 是心理模型,具备专业咨询能力,帮助用户理解情感问题。"
|
571
610
|
},
|
611
|
+
"ernie-3.5-128k": {
|
612
|
+
"description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
|
613
|
+
},
|
614
|
+
"ernie-3.5-8k": {
|
615
|
+
"description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
|
616
|
+
},
|
617
|
+
"ernie-3.5-8k-preview": {
|
618
|
+
"description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
|
619
|
+
},
|
620
|
+
"ernie-4.0-8k-latest": {
|
621
|
+
"description": "百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。"
|
622
|
+
},
|
623
|
+
"ernie-4.0-8k-preview": {
|
624
|
+
"description": "百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。"
|
625
|
+
},
|
626
|
+
"ernie-4.0-turbo-128k": {
|
627
|
+
"description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
|
628
|
+
},
|
629
|
+
"ernie-4.0-turbo-8k-latest": {
|
630
|
+
"description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
|
631
|
+
},
|
632
|
+
"ernie-4.0-turbo-8k-preview": {
|
633
|
+
"description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
|
634
|
+
},
|
635
|
+
"ernie-char-8k": {
|
636
|
+
"description": "百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。"
|
637
|
+
},
|
638
|
+
"ernie-char-fiction-8k": {
|
639
|
+
"description": "百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。"
|
640
|
+
},
|
641
|
+
"ernie-lite-8k": {
|
642
|
+
"description": "ERNIE Lite是百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。"
|
643
|
+
},
|
644
|
+
"ernie-lite-pro-128k": {
|
645
|
+
"description": "百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,效果比ERNIE Lite更优,适合低算力AI加速卡推理使用。"
|
646
|
+
},
|
647
|
+
"ernie-novel-8k": {
|
648
|
+
"description": "百度自研通用大语言模型,在小说续写能力上有明显优势,也可用在短剧、电影等场景。"
|
649
|
+
},
|
650
|
+
"ernie-speed-128k": {
|
651
|
+
"description": "百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。"
|
652
|
+
},
|
653
|
+
"ernie-speed-pro-128k": {
|
654
|
+
"description": "百度2024年最新发布的自研高性能大语言模型,通用能力优异,效果比ERNIE Speed更优,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。"
|
655
|
+
},
|
656
|
+
"ernie-tiny-8k": {
|
657
|
+
"description": "ERNIE Tiny是百度自研的超高性能大语言模型,部署与精调成本在文心系列模型中最低。"
|
658
|
+
},
|
572
659
|
"gemini-1.0-pro-001": {
|
573
660
|
"description": "Gemini 1.0 Pro 001 (Tuning) 提供稳定并可调优的性能,是复杂任务解决方案的理想选择。"
|
574
661
|
},
|
@@ -867,10 +954,13 @@
|
|
867
954
|
"description": "InternLM2.5-7B-Chat 是一个开源的对话模型,基于 InternLM2 架构开发。该 7B 参数规模的模型专注于对话生成任务,支持中英双语交互。模型采用了最新的训练技术,旨在提供流畅、智能的对话体验。InternLM2.5-7B-Chat 适用于各种对话应用场景,包括但不限于智能客服、个人助手等领域"
|
868
955
|
},
|
869
956
|
"internlm2-pro-chat": {
|
870
|
-
"description": "
|
957
|
+
"description": "InternLM2 版本最大的模型,专注于高度复杂的任务"
|
871
958
|
},
|
872
959
|
"internlm2.5-latest": {
|
873
|
-
"description": "
|
960
|
+
"description": "我们仍在维护的老版本模型,经过多轮迭代有着极其优异且稳定的性能,包含 7B、20B 多种模型参数量可选,支持 1M 的上下文长度以及更强的指令跟随和工具调用能力。默认指向我们最新发布的 InternLM2.5 系列模型"
|
961
|
+
},
|
962
|
+
"internlm3-latest": {
|
963
|
+
"description": "我们最新的模型系列,有着卓越的推理性能,领跑同量级开源模型。默认指向我们最新发布的 InternLM3 系列模型"
|
874
964
|
},
|
875
965
|
"learnlm-1.5-pro-experimental": {
|
876
966
|
"description": "LearnLM 是一个实验性的、特定于任务的语言模型,经过训练以符合学习科学原则,可在教学和学习场景中遵循系统指令,充当专家导师等。"
|
@@ -986,6 +1076,9 @@
|
|
986
1076
|
"meta-llama/Llama-3.3-70B-Instruct": {
|
987
1077
|
"description": "Llama 3.3 是 Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 年 12 月"
|
988
1078
|
},
|
1079
|
+
"meta-llama/Llama-3.3-70B-Instruct-Turbo": {
|
1080
|
+
"description": "Meta Llama 3.3 多语言大语言模型 ( LLM ) 是 70B(文本输入/文本输出)中的预训练和指令调整生成模型。 Llama 3.3 指令调整的纯文本模型针对多语言对话用例进行了优化,并且在常见行业基准上优于许多可用的开源和封闭式聊天模型。"
|
1081
|
+
},
|
989
1082
|
"meta-llama/Llama-Vision-Free": {
|
990
1083
|
"description": "LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
|
991
1084
|
},
|
@@ -1256,6 +1349,9 @@
|
|
1256
1349
|
"qwen-vl-max-latest": {
|
1257
1350
|
"description": "通义千问超大规模视觉语言模型。相比增强版,再次提升视觉推理能力和指令遵循能力,提供更高的视觉感知和认知水平。"
|
1258
1351
|
},
|
1352
|
+
"qwen-vl-ocr-latest": {
|
1353
|
+
"description": "通义千问OCR是文字提取专有模型,专注于文档、表格、试题、手写体文字等类型图像的文字提取能力。它能够识别多种文字,目前支持的语言有:汉语、英语、法语、日语、韩语、德语、俄语、意大利语、越南语、阿拉伯语。"
|
1354
|
+
},
|
1259
1355
|
"qwen-vl-plus-latest": {
|
1260
1356
|
"description": "通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力,支持超百万像素分辨率和任意长宽比规格的图像。"
|
1261
1357
|
},
|
@@ -1274,6 +1370,9 @@
|
|
1274
1370
|
"qwen2.5-14b-instruct": {
|
1275
1371
|
"description": "通义千问2.5对外开源的14B规模的模型。"
|
1276
1372
|
},
|
1373
|
+
"qwen2.5-14b-instruct-1m": {
|
1374
|
+
"description": "通义千问2.5对外开源的72B规模的模型。"
|
1375
|
+
},
|
1277
1376
|
"qwen2.5-32b-instruct": {
|
1278
1377
|
"description": "通义千问2.5对外开源的32B规模的模型。"
|
1279
1378
|
},
|
@@ -1301,6 +1400,12 @@
|
|
1301
1400
|
"qwen2.5-math-7b-instruct": {
|
1302
1401
|
"description": "Qwen-Math 模型具有强大的数学解题能力。"
|
1303
1402
|
},
|
1403
|
+
"qwen2.5-vl-72b-instruct": {
|
1404
|
+
"description": "指令跟随、数学、解题、代码整体提升,万物识别能力提升,支持多样格式直接精准定位视觉元素,支持对长视频文件(最长10分钟)进行理解和秒级别的事件时刻定位,能理解时间先后和快慢,基于解析和定位能力支持操控OS或Mobile的Agent,关键信息抽取能力和Json格式输出能力强,此版本为72B版本,本系列能力最强的版本。"
|
1405
|
+
},
|
1406
|
+
"qwen2.5-vl-7b-instruct": {
|
1407
|
+
"description": "指令跟随、数学、解题、代码整体提升,万物识别能力提升,支持多样格式直接精准定位视觉元素,支持对长视频文件(最长10分钟)进行理解和秒级别的事件时刻定位,能理解时间先后和快慢,基于解析和定位能力支持操控OS或Mobile的Agent,关键信息抽取能力和Json格式输出能力强,此版本为72B版本,本系列能力最强的版本。"
|
1408
|
+
},
|
1304
1409
|
"qwen2.5:0.5b": {
|
1305
1410
|
"description": "Qwen2.5 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
|
1306
1411
|
},
|
@@ -286,6 +286,7 @@
|
|
286
286
|
"anonymousNickName": "匿名使用者",
|
287
287
|
"billing": "帳單管理",
|
288
288
|
"cloud": "體驗 {{name}}",
|
289
|
+
"community": "社區版",
|
289
290
|
"data": "資料儲存",
|
290
291
|
"defaultNickname": "社群版使用者",
|
291
292
|
"discord": "社區支援",
|
@@ -295,7 +296,6 @@
|
|
295
296
|
"help": "幫助中心",
|
296
297
|
"moveGuide": "設置按鈕搬到這裡啦",
|
297
298
|
"plans": "訂閱方案",
|
298
|
-
"preview": "預覽",
|
299
299
|
"profile": "帳戶管理",
|
300
300
|
"setting": "應用設定",
|
301
301
|
"usages": "用量統計"
|
@@ -294,26 +294,6 @@
|
|
294
294
|
"tooltip": "更新服務商基礎配置",
|
295
295
|
"updateSuccess": "更新成功"
|
296
296
|
},
|
297
|
-
"wenxin": {
|
298
|
-
"accessKey": {
|
299
|
-
"desc": "填入百度千帆平台的 Access Key",
|
300
|
-
"placeholder": "千帆 Access Key",
|
301
|
-
"title": "Access Key"
|
302
|
-
},
|
303
|
-
"checker": {
|
304
|
-
"desc": "測試 AccessKey / SecretAccess 是否填寫正確"
|
305
|
-
},
|
306
|
-
"secretKey": {
|
307
|
-
"desc": "填入百度千帆平台 Secret Key",
|
308
|
-
"placeholder": "千帆 Secret Key",
|
309
|
-
"title": "Secret Key"
|
310
|
-
},
|
311
|
-
"unlock": {
|
312
|
-
"customRegion": "自訂服務區域",
|
313
|
-
"description": "輸入你的 AccessKey / SecretKey 即可開始會話。應用不會記錄你的鑑權配置",
|
314
|
-
"title": "使用自訂文心一言鑑權資訊"
|
315
|
-
}
|
316
|
-
},
|
317
297
|
"zeroone": {
|
318
298
|
"title": "01.AI 零一萬物"
|
319
299
|
},
|