@lobehub/chat 1.60.5 → 1.60.7

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (48) hide show
  1. package/CHANGELOG.md +51 -0
  2. package/README.md +2 -2
  3. package/README.zh-CN.md +2 -2
  4. package/changelog/v1.json +18 -0
  5. package/docs/usage/start.mdx +45 -16
  6. package/docs/usage/start.zh-CN.mdx +42 -4
  7. package/locales/ar/models.json +30 -3
  8. package/locales/ar/providers.json +3 -0
  9. package/locales/bg-BG/models.json +30 -3
  10. package/locales/bg-BG/providers.json +3 -0
  11. package/locales/de-DE/models.json +30 -3
  12. package/locales/de-DE/providers.json +3 -0
  13. package/locales/en-US/models.json +30 -3
  14. package/locales/en-US/providers.json +3 -0
  15. package/locales/es-ES/models.json +30 -3
  16. package/locales/es-ES/providers.json +3 -0
  17. package/locales/fa-IR/models.json +30 -3
  18. package/locales/fa-IR/providers.json +3 -0
  19. package/locales/fr-FR/models.json +30 -3
  20. package/locales/fr-FR/providers.json +3 -0
  21. package/locales/it-IT/models.json +30 -3
  22. package/locales/it-IT/providers.json +3 -0
  23. package/locales/ja-JP/models.json +30 -3
  24. package/locales/ja-JP/providers.json +3 -0
  25. package/locales/ko-KR/models.json +30 -3
  26. package/locales/ko-KR/providers.json +3 -0
  27. package/locales/nl-NL/models.json +30 -3
  28. package/locales/nl-NL/providers.json +3 -0
  29. package/locales/pl-PL/models.json +30 -3
  30. package/locales/pl-PL/providers.json +3 -0
  31. package/locales/pt-BR/models.json +30 -3
  32. package/locales/pt-BR/providers.json +3 -0
  33. package/locales/ru-RU/models.json +30 -3
  34. package/locales/ru-RU/providers.json +3 -0
  35. package/locales/tr-TR/models.json +30 -3
  36. package/locales/tr-TR/providers.json +3 -0
  37. package/locales/vi-VN/models.json +30 -3
  38. package/locales/vi-VN/providers.json +3 -0
  39. package/locales/zh-CN/models.json +33 -6
  40. package/locales/zh-CN/providers.json +3 -0
  41. package/locales/zh-TW/models.json +30 -3
  42. package/locales/zh-TW/providers.json +3 -0
  43. package/next.config.ts +6 -5
  44. package/package.json +1 -1
  45. package/src/config/aiModels/google.ts +1 -108
  46. package/src/config/aiModels/minimax.ts +10 -73
  47. package/src/config/aiModels/openai.ts +1 -0
  48. package/src/config/modelProviders/google.ts +72 -151
@@ -47,6 +47,12 @@
47
47
  "Baichuan4-Turbo": {
48
48
  "description": "Модель обладает лучшими в стране возможностями, превосходя зарубежные модели в задачах на китайском языке, таких как энциклопедические знания, длинные тексты и генерация контента. Также обладает передовыми мультимодальными возможностями и демонстрирует отличные результаты в нескольких авторитетных оценочных тестах."
49
49
  },
50
+ "DeepSeek-R1": {
51
+ "description": "Современная эффективная LLM, специализирующаяся на логическом выводе, математике и программировании."
52
+ },
53
+ "DeepSeek-R1-Distill-Llama-70B": {
54
+ "description": "DeepSeek R1 — более крупная и умная модель в наборе DeepSeek, была дистиллирована в архитектуру Llama 70B. На основе бенчмарков и человеческой оценки эта модель более умная, чем оригинальная Llama 70B, особенно в задачах, требующих математической и фактической точности."
55
+ },
50
56
  "DeepSeek-R1-Distill-Qwen-1.5B": {
51
57
  "description": "Модель DeepSeek-R1, основанная на Qwen2.5-Math-1.5B, оптимизирует производительность вывода с помощью усиленного обучения и данных холодного старта, обновляя стандарт многозадачности в открытых моделях."
52
58
  },
@@ -119,12 +125,36 @@
119
125
  "InternVL2.5-26B": {
120
126
  "description": "InternVL2.5-26B — это мощная визуально-языковая модель, поддерживающая многомодальную обработку изображений и текста, способная точно распознавать содержимое изображений и генерировать соответствующие описания или ответы."
121
127
  },
128
+ "Llama-3.2-11B-Vision-Instruct": {
129
+ "description": "Отличные способности к визуальному выводу на изображениях высокого разрешения, подходящие для приложений визуального понимания."
130
+ },
131
+ "Llama-3.2-90B-Vision-Instruct\t": {
132
+ "description": "Передовые способности к визуальному выводу, подходящие для приложений визуального понимания."
133
+ },
122
134
  "LoRA/Qwen/Qwen2.5-72B-Instruct": {
123
135
  "description": "Qwen2.5-72B-Instruct — это одна из последних языковых моделей, выпущенных Alibaba Cloud. Эта 72B модель значительно улучшила способности в области кодирования и математики. Модель также поддерживает множество языков, охватывающих более 29 языков, включая китайский и английский. Она значительно улучшила выполнение инструкций, понимание структурированных данных и генерацию структурированных выходных данных (особенно JSON)."
124
136
  },
125
137
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
126
138
  "description": "Qwen2.5-7B-Instruct — это одна из последних языковых моделей, выпущенных Alibaba Cloud. Эта 7B модель значительно улучшила способности в области кодирования и математики. Модель также поддерживает множество языков, охватывающих более 29 языков, включая китайский и английский. Она значительно улучшила выполнение инструкций, понимание структурированных данных и генерацию структурированных выходных данных (особенно JSON)."
127
139
  },
140
+ "Meta-Llama-3.1-405B-Instruct": {
141
+ "description": "Текстовая модель Llama 3.1 с оптимизацией под инструкции, разработанная для многоязычных диалоговых случаев, показывает отличные результаты по сравнению с многими доступными открытыми и закрытыми чат-моделями на общепринятых отраслевых бенчмарках."
142
+ },
143
+ "Meta-Llama-3.1-70B-Instruct": {
144
+ "description": "Текстовая модель Llama 3.1 с оптимизацией под инструкции, разработанная для многоязычных диалоговых случаев, показывает отличные результаты по сравнению с многими доступными открытыми и закрытыми чат-моделями на общепринятых отраслевых бенчмарках."
145
+ },
146
+ "Meta-Llama-3.1-8B-Instruct": {
147
+ "description": "Текстовая модель Llama 3.1 с оптимизацией под инструкции, разработанная для многоязычных диалоговых случаев, показывает отличные результаты по сравнению с многими доступными открытыми и закрытыми чат-моделями на общепринятых отраслевых бенчмарках."
148
+ },
149
+ "Meta-Llama-3.2-1B-Instruct": {
150
+ "description": "Современная передовая компактная языковая модель с выдающимися способностями к пониманию языка, логическому выводу и генерации текста."
151
+ },
152
+ "Meta-Llama-3.2-3B-Instruct": {
153
+ "description": "Современная передовая компактная языковая модель с выдающимися способностями к пониманию языка, логическому выводу и генерации текста."
154
+ },
155
+ "Meta-Llama-3.3-70B-Instruct": {
156
+ "description": "Llama 3.3 — это самая современная многоязычная открытая языковая модель из серии Llama, которая позволяет получить производительность, сопоставимую с 405B моделями, по крайне низкой цене. Основана на структуре Transformer и улучшена с помощью контролируемой донастройки (SFT) и обучения с подкреплением на основе человеческой обратной связи (RLHF) для повышения полезности и безопасности. Ее версия с оптимизацией под инструкции специально разработана для многоязычных диалогов и показывает лучшие результаты по сравнению с многими открытыми и закрытыми чат-моделями на нескольких отраслевых бенчмарках. Дата окончания знаний — декабрь 2023 года."
157
+ },
128
158
  "MiniMax-Text-01": {
129
159
  "description": "В серии моделей MiniMax-01 мы сделали смелые инновации: впервые в крупномасштабном масштабе реализован линейный механизм внимания, традиционная архитектура Transformer больше не является единственным выбором. Объем параметров этой модели достигает 456 миллиардов, из которых 45,9 миллиарда активируются за один раз. Комплексная производительность модели сопоставима с ведущими зарубежными моделями, при этом она может эффективно обрабатывать контекст длиной до 4 миллионов токенов, что в 32 раза больше, чем у GPT-4o, и в 20 раз больше, чем у Claude-3.5-Sonnet."
130
160
  },
@@ -860,9 +890,6 @@
860
890
  "gpt-3.5-turbo-1106": {
861
891
  "description": "GPT 3.5 Turbo подходит для различных задач генерации и понимания текста, в настоящее время ссылается на gpt-3.5-turbo-0125."
862
892
  },
863
- "gpt-3.5-turbo-16k": {
864
- "description": "GPT 3.5 Turbo 16k, высокоемкий текстовый генеративный модель, подходящая для сложных задач."
865
- },
866
893
  "gpt-3.5-turbo-instruct": {
867
894
  "description": "GPT 3.5 Turbo подходит для различных задач генерации и понимания текста, в настоящее время ссылается на gpt-3.5-turbo-0125."
868
895
  },
@@ -92,6 +92,9 @@
92
92
  "qwen": {
93
93
  "description": "Qwen — это сверхбольшая языковая модель, разработанная Alibaba Cloud, обладающая мощными возможностями понимания и генерации естественного языка. Она может отвечать на различные вопросы, создавать текстовый контент, выражать мнения и писать код, играя важную роль в различных областях."
94
94
  },
95
+ "sambanova": {
96
+ "description": "SambaNova Cloud позволяет разработчикам легко использовать лучшие открытые модели и наслаждаться самой быстрой скоростью вывода."
97
+ },
95
98
  "sensenova": {
96
99
  "description": "SenseNova, опираясь на мощную инфраструктуру SenseTime, предлагает эффективные и удобные услуги полного стека больших моделей."
97
100
  },
@@ -47,6 +47,12 @@
47
47
  "Baichuan4-Turbo": {
48
48
  "description": "Model yetenekleri ülke içinde birinci, bilgi ansiklopedisi, uzun metinler, yaratıcı üretim gibi Çince görevlerde uluslararası ana akım modelleri aşmaktadır. Ayrıca, sektörde lider çok modlu yeteneklere sahip olup, birçok yetkili değerlendirme ölçütünde mükemmel performans sergilemektedir."
49
49
  },
50
+ "DeepSeek-R1": {
51
+ "description": "En gelişmiş verimli LLM, akıl yürütme, matematik ve programlama konularında uzmandır."
52
+ },
53
+ "DeepSeek-R1-Distill-Llama-70B": {
54
+ "description": "DeepSeek R1 - DeepSeek setindeki daha büyük ve daha akıllı model - Llama 70B mimarisine damıtılmıştır. Kıyaslamalar ve insan değerlendirmelerine dayanarak, bu model orijinal Llama 70B'den daha akıllıdır, özellikle matematik ve gerçeklik doğruluğu gerektiren görevlerde mükemmel performans göstermektedir."
55
+ },
50
56
  "DeepSeek-R1-Distill-Qwen-1.5B": {
51
57
  "description": "Qwen2.5-Math-1.5B temel alınarak oluşturulmuş DeepSeek-R1 damıtma modeli, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler."
52
58
  },
@@ -119,12 +125,36 @@
119
125
  "InternVL2.5-26B": {
120
126
  "description": "InternVL2.5-26B, güçlü bir görsel dil modelidir. Görüntü ve metinlerin çok modlu işlenmesini destekler, görüntü içeriğini hassas bir şekilde tanıyabilir ve ilgili açıklamalar veya yanıtlar üretebilir."
121
127
  },
128
+ "Llama-3.2-11B-Vision-Instruct": {
129
+ "description": "Yüksek çözünürlüklü görüntülerde mükemmel görüntü akıl yürütme yeteneği, görsel anlama uygulamaları için uygundur."
130
+ },
131
+ "Llama-3.2-90B-Vision-Instruct\t": {
132
+ "description": "Görsel anlama ajan uygulamaları için gelişmiş görüntü akıl yürütme yeteneği."
133
+ },
122
134
  "LoRA/Qwen/Qwen2.5-72B-Instruct": {
123
135
  "description": "Qwen2.5-72B-Instruct, Alibaba Cloud tarafından yayınlanan en son büyük dil modeli serilerinden biridir. Bu 72B modeli, kodlama ve matematik gibi alanlarda önemli ölçüde geliştirilmiş yeteneklere sahiptir. Model ayrıca, Çince, İngilizce gibi 29'dan fazla dili kapsayan çok dilli destek sunmaktadır. Model, talimat takibi, yapılandırılmış verileri anlama ve yapılandırılmış çıktı (özellikle JSON) üretme konularında önemli iyileştirmeler göstermektedir."
124
136
  },
125
137
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
126
138
  "description": "Qwen2.5-7B-Instruct, Alibaba Cloud tarafından yayınlanan en son büyük dil modeli serilerinden biridir. Bu 7B modeli, kodlama ve matematik gibi alanlarda önemli ölçüde geliştirilmiş yeteneklere sahiptir. Model ayrıca, Çince, İngilizce gibi 29'dan fazla dili kapsayan çok dilli destek sunmaktadır. Model, talimat takibi, yapılandırılmış verileri anlama ve yapılandırılmış çıktı (özellikle JSON) üretme konularında önemli iyileştirmeler göstermektedir."
127
139
  },
140
+ "Meta-Llama-3.1-405B-Instruct": {
141
+ "description": "Llama 3.1 talimat ayarlı metin modeli, çok dilli diyalog kullanım durumları için optimize edilmiştir ve birçok mevcut açık kaynak ve kapalı sohbet modelinde yaygın endüstri kıyaslamalarında mükemmel performans göstermektedir."
142
+ },
143
+ "Meta-Llama-3.1-70B-Instruct": {
144
+ "description": "Llama 3.1 talimat ayarlı metin modeli, çok dilli diyalog kullanım durumları için optimize edilmiştir ve birçok mevcut açık kaynak ve kapalı sohbet modelinde yaygın endüstri kıyaslamalarında mükemmel performans göstermektedir."
145
+ },
146
+ "Meta-Llama-3.1-8B-Instruct": {
147
+ "description": "Llama 3.1 talimat ayarlı metin modeli, çok dilli diyalog kullanım durumları için optimize edilmiştir ve birçok mevcut açık kaynak ve kapalı sohbet modelinde yaygın endüstri kıyaslamalarında mükemmel performans göstermektedir."
148
+ },
149
+ "Meta-Llama-3.2-1B-Instruct": {
150
+ "description": "Gelişmiş, en son teknolojiye sahip küçük dil modeli, dil anlama, mükemmel akıl yürütme yeteneği ve metin oluşturma yeteneğine sahiptir."
151
+ },
152
+ "Meta-Llama-3.2-3B-Instruct": {
153
+ "description": "Gelişmiş, en son teknolojiye sahip küçük dil modeli, dil anlama, mükemmel akıl yürütme yeteneği ve metin oluşturma yeteneğine sahiptir."
154
+ },
155
+ "Meta-Llama-3.3-70B-Instruct": {
156
+ "description": "Llama 3.3, Llama serisinin en gelişmiş çok dilli açık kaynak büyük dil modelidir ve 405B modelinin performansını çok düşük maliyetle deneyimlemenizi sağlar. Transformer yapısına dayanmaktadır ve yararlılığını ve güvenliğini artırmak için denetimli ince ayar (SFT) ve insan geri bildirimi ile güçlendirilmiş öğrenme (RLHF) kullanılmıştır. Talimat ayarlı versiyonu çok dilli diyaloglar için optimize edilmiştir ve birçok endüstri kıyaslamasında birçok açık kaynak ve kapalı sohbet modelinden daha iyi performans göstermektedir. Bilgi kesim tarihi 2023 yılı Aralık ayıdır."
157
+ },
128
158
  "MiniMax-Text-01": {
129
159
  "description": "MiniMax-01 serisi modellerinde cesur yenilikler yaptık: ilk kez büyük ölçekli lineer dikkat mekanizmasını gerçekleştirdik, geleneksel Transformer mimarisi artık tek seçenek değil. Bu modelin parametre sayısı 456 milyara kadar çıkmakta, tek bir aktivasyonda 45.9 milyar. Modelin genel performansı, yurtdışındaki en iyi modellerle karşılaştırılabilirken, dünya genelinde 4 milyon token uzunluğundaki bağlamı verimli bir şekilde işleyebilir, bu da GPT-4o'nun 32 katı, Claude-3.5-Sonnet'in 20 katıdır."
130
160
  },
@@ -860,9 +890,6 @@
860
890
  "gpt-3.5-turbo-1106": {
861
891
  "description": "GPT 3.5 Turbo, çeşitli metin üretimi ve anlama görevleri için uygundur, şu anda gpt-3.5-turbo-0125'e işaret ediyor."
862
892
  },
863
- "gpt-3.5-turbo-16k": {
864
- "description": "GPT 3.5 Turbo 16k, yüksek kapasiteli metin üretim modeli, karmaşık görevler için uygundur."
865
- },
866
893
  "gpt-3.5-turbo-instruct": {
867
894
  "description": "GPT 3.5 Turbo, çeşitli metin üretimi ve anlama görevleri için uygundur, şu anda gpt-3.5-turbo-0125'e işaret ediyor."
868
895
  },
@@ -92,6 +92,9 @@
92
92
  "qwen": {
93
93
  "description": "Tongyi Qianwen, Alibaba Cloud tarafından geliştirilen büyük ölçekli bir dil modelidir ve güçlü doğal dil anlama ve üretme yeteneklerine sahiptir. Çeşitli soruları yanıtlayabilir, metin içeriği oluşturabilir, görüşlerini ifade edebilir ve kod yazabilir. Birçok alanda etkili bir şekilde kullanılmaktadır."
94
94
  },
95
+ "sambanova": {
96
+ "description": "SambaNova Cloud, geliştiricilerin en iyi açık kaynak modellerini kolayca kullanmalarını ve en hızlı çıkarım hızından yararlanmalarını sağlar."
97
+ },
95
98
  "sensenova": {
96
99
  "description": "SenseTime, güçlü altyapısına dayanarak, verimli ve kullanımı kolay tam yığın büyük model hizmetleri sunar."
97
100
  },
@@ -47,6 +47,12 @@
47
47
  "Baichuan4-Turbo": {
48
48
  "description": "Mô hình có khả năng hàng đầu trong nước, vượt trội hơn các mô hình chính thống nước ngoài trong các nhiệm vụ tiếng Trung như bách khoa toàn thư, văn bản dài và sáng tạo nội dung. Cũng có khả năng đa phương tiện hàng đầu trong ngành, thể hiện xuất sắc trong nhiều tiêu chuẩn đánh giá uy tín."
49
49
  },
50
+ "DeepSeek-R1": {
51
+ "description": "Mô hình LLM hiệu quả tiên tiến nhất, xuất sắc trong suy luận, toán học và lập trình."
52
+ },
53
+ "DeepSeek-R1-Distill-Llama-70B": {
54
+ "description": "DeepSeek R1 - mô hình lớn hơn và thông minh hơn trong bộ công cụ DeepSeek - đã được chưng cất vào kiến trúc Llama 70B. Dựa trên các bài kiểm tra và đánh giá của con người, mô hình này thông minh hơn so với Llama 70B gốc, đặc biệt thể hiện xuất sắc trong các nhiệm vụ yêu cầu độ chính xác về toán học và sự thật."
55
+ },
50
56
  "DeepSeek-R1-Distill-Qwen-1.5B": {
51
57
  "description": "Mô hình chưng cất DeepSeek-R1 dựa trên Qwen2.5-Math-1.5B, tối ưu hóa hiệu suất suy luận thông qua học tăng cường và dữ liệu khởi động lạnh, mô hình mã nguồn mở làm mới tiêu chuẩn đa nhiệm."
52
58
  },
@@ -119,12 +125,36 @@
119
125
  "InternVL2.5-26B": {
120
126
  "description": "InternVL2.5-26B là một mô hình ngôn ngữ hình ảnh mạnh mẽ, hỗ trợ xử lý đa phương tiện giữa hình ảnh và văn bản, có khả năng nhận diện chính xác nội dung hình ảnh và tạo ra mô tả hoặc câu trả lời liên quan."
121
127
  },
128
+ "Llama-3.2-11B-Vision-Instruct": {
129
+ "description": "Khả năng suy luận hình ảnh xuất sắc trên hình ảnh độ phân giải cao, phù hợp cho các ứng dụng hiểu biết thị giác."
130
+ },
131
+ "Llama-3.2-90B-Vision-Instruct\t": {
132
+ "description": "Khả năng suy luận hình ảnh cao cấp cho các ứng dụng đại lý hiểu biết thị giác."
133
+ },
122
134
  "LoRA/Qwen/Qwen2.5-72B-Instruct": {
123
135
  "description": "Qwen2.5-72B-Instruct là một trong những mô hình ngôn ngữ lớn mới nhất do Alibaba Cloud phát hành. Mô hình 72B này có khả năng cải thiện đáng kể trong các lĩnh vực mã hóa và toán học. Mô hình cũng cung cấp hỗ trợ đa ngôn ngữ, bao gồm hơn 29 ngôn ngữ, bao gồm tiếng Trung, tiếng Anh, v.v. Mô hình đã có sự cải thiện đáng kể trong việc tuân theo chỉ dẫn, hiểu dữ liệu có cấu trúc và tạo ra đầu ra có cấu trúc (đặc biệt là JSON)."
124
136
  },
125
137
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
126
138
  "description": "Qwen2.5-7B-Instruct là một trong những mô hình ngôn ngữ lớn mới nhất do Alibaba Cloud phát hành. Mô hình 7B này có khả năng cải thiện đáng kể trong các lĩnh vực mã hóa và toán học. Mô hình cũng cung cấp hỗ trợ đa ngôn ngữ, bao gồm hơn 29 ngôn ngữ, bao gồm tiếng Trung, tiếng Anh, v.v. Mô hình đã có sự cải thiện đáng kể trong việc tuân theo chỉ dẫn, hiểu dữ liệu có cấu trúc và tạo ra đầu ra có cấu trúc (đặc biệt là JSON)."
127
139
  },
140
+ "Meta-Llama-3.1-405B-Instruct": {
141
+ "description": "Mô hình văn bản được tinh chỉnh theo chỉ dẫn Llama 3.1, được tối ưu hóa cho các trường hợp sử dụng đối thoại đa ngôn ngữ, thể hiện xuất sắc trong nhiều mô hình trò chuyện mã nguồn mở và đóng có sẵn trên nhiều tiêu chuẩn ngành."
142
+ },
143
+ "Meta-Llama-3.1-70B-Instruct": {
144
+ "description": "Mô hình văn bản được tinh chỉnh theo chỉ dẫn Llama 3.1, được tối ưu hóa cho các trường hợp sử dụng đối thoại đa ngôn ngữ, thể hiện xuất sắc trong nhiều mô hình trò chuyện mã nguồn mở và đóng có sẵn trên nhiều tiêu chuẩn ngành."
145
+ },
146
+ "Meta-Llama-3.1-8B-Instruct": {
147
+ "description": "Mô hình văn bản được tinh chỉnh theo chỉ dẫn Llama 3.1, được tối ưu hóa cho các trường hợp sử dụng đối thoại đa ngôn ngữ, thể hiện xuất sắc trong nhiều mô hình trò chuyện mã nguồn mở và đóng có sẵn trên nhiều tiêu chuẩn ngành."
148
+ },
149
+ "Meta-Llama-3.2-1B-Instruct": {
150
+ "description": "Mô hình ngôn ngữ nhỏ tiên tiến nhất, có khả năng hiểu ngôn ngữ, khả năng suy luận xuất sắc và khả năng sinh văn bản."
151
+ },
152
+ "Meta-Llama-3.2-3B-Instruct": {
153
+ "description": "Mô hình ngôn ngữ nhỏ tiên tiến nhất, có khả năng hiểu ngôn ngữ, khả năng suy luận xuất sắc và khả năng sinh văn bản."
154
+ },
155
+ "Meta-Llama-3.3-70B-Instruct": {
156
+ "description": "Llama 3.3 là mô hình ngôn ngữ lớn mã nguồn mở đa ngôn ngữ tiên tiến nhất trong dòng Llama, mang đến trải nghiệm hiệu suất tương đương mô hình 405B với chi phí cực thấp. Dựa trên cấu trúc Transformer, và được cải thiện tính hữu ích và an toàn thông qua tinh chỉnh giám sát (SFT) và học tăng cường từ phản hồi của con người (RLHF). Phiên bản tinh chỉnh theo chỉ dẫn của nó được tối ưu hóa cho các cuộc đối thoại đa ngôn ngữ, thể hiện tốt hơn nhiều mô hình trò chuyện mã nguồn mở và đóng trong nhiều tiêu chuẩn ngành. Ngày cắt đứt kiến thức là tháng 12 năm 2023."
157
+ },
128
158
  "MiniMax-Text-01": {
129
159
  "description": "Trong dòng mô hình MiniMax-01, chúng tôi đã thực hiện những đổi mới táo bạo: lần đầu tiên hiện thực hóa quy mô lớn cơ chế chú ý tuyến tính, kiến trúc Transformer truyền thống không còn là lựa chọn duy nhất. Mô hình này có số lượng tham số lên tới 4560 tỷ, trong đó kích hoạt một lần là 45,9 tỷ. Hiệu suất tổng hợp của mô hình tương đương với các mô hình hàng đầu quốc tế, đồng thời có khả năng xử lý hiệu quả ngữ cảnh dài nhất toàn cầu lên tới 4 triệu token, gấp 32 lần GPT-4o và 20 lần Claude-3.5-Sonnet."
130
160
  },
@@ -860,9 +890,6 @@
860
890
  "gpt-3.5-turbo-1106": {
861
891
  "description": "GPT 3.5 Turbo, phù hợp cho nhiều nhiệm vụ sinh và hiểu văn bản, hiện tại trỏ đến gpt-3.5-turbo-0125."
862
892
  },
863
- "gpt-3.5-turbo-16k": {
864
- "description": "GPT 3.5 Turbo 16k, mô hình sinh văn bản dung lượng lớn, phù hợp cho các nhiệm vụ phức tạp."
865
- },
866
893
  "gpt-3.5-turbo-instruct": {
867
894
  "description": "GPT 3.5 Turbo, phù hợp cho nhiều nhiệm vụ sinh và hiểu văn bản, hiện tại trỏ đến gpt-3.5-turbo-0125."
868
895
  },
@@ -92,6 +92,9 @@
92
92
  "qwen": {
93
93
  "description": "Qwen là mô hình ngôn ngữ quy mô lớn tự phát triển của Alibaba Cloud, có khả năng hiểu và tạo ngôn ngữ tự nhiên mạnh mẽ. Nó có thể trả lời nhiều câu hỏi, sáng tác nội dung văn bản, bày tỏ quan điểm, viết mã, v.v., hoạt động trong nhiều lĩnh vực."
94
94
  },
95
+ "sambanova": {
96
+ "description": "SambaNova Cloud cho phép các nhà phát triển dễ dàng sử dụng các mô hình mã nguồn mở tốt nhất và tận hưởng tốc độ suy diễn nhanh nhất."
97
+ },
95
98
  "sensenova": {
96
99
  "description": "SenseTime luôn đổi mới, dựa vào nền tảng mạnh mẽ của SenseTime để cung cấp dịch vụ mô hình lớn toàn diện, hiệu quả và dễ sử dụng."
97
100
  },
@@ -47,6 +47,12 @@
47
47
  "Baichuan4-Turbo": {
48
48
  "description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。"
49
49
  },
50
+ "DeepSeek-R1": {
51
+ "description": "最先进的高效 LLM,擅长推理、数学和编程。"
52
+ },
53
+ "DeepSeek-R1-Distill-Llama-70B": {
54
+ "description": "DeepSeek R1——DeepSeek 套件中更大更智能的模型——被蒸馏到 Llama 70B 架构中。基于基准测试和人工评估,该模型比原始 Llama 70B 更智能,尤其在需要数学和事实精确性的任务上表现出色。"
55
+ },
50
56
  "DeepSeek-R1-Distill-Qwen-1.5B": {
51
57
  "description": "基于 Qwen2.5-Math-1.5B 的 DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
52
58
  },
@@ -119,12 +125,36 @@
119
125
  "InternVL2.5-26B": {
120
126
  "description": "InternVL2.5-26B 是一款强大的视觉语言模型,支持图像与文本的多模态处理,能够精确识别图像内容并生成相关描述或回答。"
121
127
  },
128
+ "Llama-3.2-11B-Vision-Instruct": {
129
+ "description": "在高分辨率图像上表现出色的图像推理能力,适用于视觉理解应用。"
130
+ },
131
+ "Llama-3.2-90B-Vision-Instruct\t": {
132
+ "description": "适用于视觉理解代理应用的高级图像推理能力。"
133
+ },
122
134
  "LoRA/Qwen/Qwen2.5-72B-Instruct": {
123
135
  "description": "Qwen2.5-72B-Instruct 是阿里云发布的最新大语言模型系列之一。该 72B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
124
136
  },
125
137
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
126
138
  "description": "Qwen2.5-7B-Instruct 是阿里云发布的最新大语言模型系列之一。该 7B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
127
139
  },
140
+ "Meta-Llama-3.1-405B-Instruct": {
141
+ "description": "Llama 3.1指令调优的文本模型,针对多语言对话用例进行了优化,在许多可用的开源和封闭聊天模型中,在常见行业基准上表现优异。"
142
+ },
143
+ "Meta-Llama-3.1-70B-Instruct": {
144
+ "description": "Llama 3.1指令调优的文本模型,针对多语言对话用例进行了优化,在许多可用的开源和封闭聊天模型中,在常见行业基准上表现优异。"
145
+ },
146
+ "Meta-Llama-3.1-8B-Instruct": {
147
+ "description": "Llama 3.1指令调优的文本模型,针对多语言对话用例进行了优化,在许多可用的开源和封闭聊天模型中,在常见行业基准上表现优异。"
148
+ },
149
+ "Meta-Llama-3.2-1B-Instruct": {
150
+ "description": "先进的最尖端小型语言模型,具备语言理解、卓越的推理能力和文本生成能力。"
151
+ },
152
+ "Meta-Llama-3.2-3B-Instruct": {
153
+ "description": "先进的最尖端小型语言模型,具备语言理解、卓越的推理能力和文本生成能力。"
154
+ },
155
+ "Meta-Llama-3.3-70B-Instruct": {
156
+ "description": "Llama 3.3 是 Llama 系列最先进的多语言开源大型语言模型,以极低成本体验媲美 405B 模型的性能。基于 Transformer 结构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)提升有用性和安全性。其指令调优版本专为多语言对话优化,在多项行业基准上表现优于众多开源和封闭聊天模型。知识截止日期为 2023 年 12 月"
157
+ },
128
158
  "MiniMax-Text-01": {
129
159
  "description": "在 MiniMax-01系列模型中,我们做了大胆创新:首次大规模实现线性注意力机制,传统 Transformer架构不再是唯一的选择。这个模型的参数量高达4560亿,其中单次激活459亿。模型综合性能比肩海外顶尖模型,同时能够高效处理全球最长400万token的上下文,是GPT-4o的32倍,Claude-3.5-Sonnet的20倍。"
130
160
  },
@@ -195,7 +225,7 @@
195
225
  "description": "Meta Llama 3.1 是由 Meta 开发的多语言大型语言模型家族,包括 8B、70B 和 405B 三种参数规模的预训练和指令微调变体。该 8B 指令微调模型针对多语言对话场景进行了优化,在多项行业基准测试中表现优异。模型训练使用了超过 15 万亿个 tokens 的公开数据,并采用了监督微调和人类反馈强化学习等技术来提升模型的有用性和安全性。Llama 3.1 支持文本生成和代码生成,知识截止日期为 2023 年 12 月"
196
226
  },
197
227
  "QwQ-32B-Preview": {
198
- "description": "QwQ-32B-Preview 是一款独具创新的自然语言处理模型,能够高效处理复杂的对话生成与上下文理解任务。"
228
+ "description": "Qwen QwQ 是由 Qwen 团队开发的实验研究模型,专注于提升AI推理能力。"
199
229
  },
200
230
  "Qwen/QVQ-72B-Preview": {
201
231
  "description": "QVQ-72B-Preview 是由 Qwen 团队开发的专注于视觉推理能力的研究型模型,其在复杂场景理解和解决视觉相关的数学问题方面具有独特优势。"
@@ -258,7 +288,7 @@
258
288
  "description": "Qwen2.5-32B-Instruct 是一款 320 亿参数的大语言模型,性能表现均衡,优化中文和多语言场景,支持智能问答、内容生成等应用。"
259
289
  },
260
290
  "Qwen2.5-72B-Instruct": {
261
- "description": "Qwen2.5-72B-Instruct 支持 16k 上下文, 生成长文本超过 8K 。支持 function call 与外部系统无缝交互,极大提升了灵活性和扩展性。模型知识明显增加,并且大大提高了编码和数学能力, 多语言支持超过 29 种"
291
+ "description": "面向中文和英文的 LLM,针对语言、编程、数学、推理等领域。"
262
292
  },
263
293
  "Qwen2.5-7B-Instruct": {
264
294
  "description": "Qwen2.5-7B-Instruct 是一款 70 亿参数的大语言模型,支持 function call 与外部系统无缝交互,极大提升了灵活性和扩展性。优化中文和多语言场景,支持智能问答、内容生成等应用。"
@@ -267,7 +297,7 @@
267
297
  "description": "Qwen2.5-Coder-14B-Instruct 是一款基于大规模预训练的编程指令模型,具备强大的代码理解和生成能力,能够高效地处理各种编程任务,特别适合智能代码编写、自动化脚本生成和编程问题解答。"
268
298
  },
269
299
  "Qwen2.5-Coder-32B-Instruct": {
270
- "description": "Qwen2.5-Coder-32B-Instruct 是一款专为代码生成、代码理解和高效开发场景设计的大型语言模型,采用了业界领先的32B参数规模,能够满足多样化的编程需求。"
300
+ "description": "高级 LLM,支持代码生成、推理和修复,涵盖主流编程语言。"
271
301
  },
272
302
  "SenseChat": {
273
303
  "description": "基础版本模型 (V4),4K上下文长度,通用能力强大"
@@ -860,9 +890,6 @@
860
890
  "gpt-3.5-turbo-1106": {
861
891
  "description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125"
862
892
  },
863
- "gpt-3.5-turbo-16k": {
864
- "description": "GPT 3.5 Turbo 16k,高容量文本生成模型,适合复杂任务。"
865
- },
866
893
  "gpt-3.5-turbo-instruct": {
867
894
  "description": "GPT 3.5 Turbo,适用于各种文本生成和理解任务,Currently points to gpt-3.5-turbo-0125"
868
895
  },
@@ -92,6 +92,9 @@
92
92
  "qwen": {
93
93
  "description": "通义千问是阿里云自主研发的超大规模语言模型,具有强大的自然语言理解和生成能力。它可以回答各种问题、创作文字内容、表达观点看法、撰写代码等,在多个领域发挥作用。"
94
94
  },
95
+ "sambanova": {
96
+ "description": "SambaNova Cloud 可让开发者轻松使用最佳的开源模型,并享受最快的推理速度。"
97
+ },
95
98
  "sensenova": {
96
99
  "description": "商汤日日新,依托商汤大装置的强大的基础支撑,提供高效易用的全栈大模型服务。"
97
100
  },
@@ -47,6 +47,12 @@
47
47
  "Baichuan4-Turbo": {
48
48
  "description": "模型能力國內第一,在知識百科、長文本、生成創作等中文任務上超越國外主流模型。還具備行業領先的多模態能力,多項權威評測基準表現優異。"
49
49
  },
50
+ "DeepSeek-R1": {
51
+ "description": "最先進的高效 LLM,擅長推理、數學和程式設計。"
52
+ },
53
+ "DeepSeek-R1-Distill-Llama-70B": {
54
+ "description": "DeepSeek R1——DeepSeek 套件中更大更智能的模型——被蒸餾到 Llama 70B 架構中。基於基準測試和人工評估,該模型比原始 Llama 70B 更智能,尤其在需要數學和事實精確性的任務上表現出色。"
55
+ },
50
56
  "DeepSeek-R1-Distill-Qwen-1.5B": {
51
57
  "description": "基於 Qwen2.5-Math-1.5B 的 DeepSeek-R1 蒸餾模型,通過強化學習與冷啟動數據優化推理性能,開源模型刷新多任務標杆。"
52
58
  },
@@ -119,12 +125,36 @@
119
125
  "InternVL2.5-26B": {
120
126
  "description": "InternVL2.5-26B 是一款強大的視覺語言模型,支持圖像與文本的多模態處理,能夠精確識別圖像內容並生成相關描述或回答。"
121
127
  },
128
+ "Llama-3.2-11B-Vision-Instruct": {
129
+ "description": "在高解析度圖像上表現出色的圖像推理能力,適用於視覺理解應用。"
130
+ },
131
+ "Llama-3.2-90B-Vision-Instruct\t": {
132
+ "description": "適用於視覺理解代理應用的高級圖像推理能力。"
133
+ },
122
134
  "LoRA/Qwen/Qwen2.5-72B-Instruct": {
123
135
  "description": "Qwen2.5-72B-Instruct 是阿里雲發布的最新大語言模型系列之一。該 72B 模型在編碼和數學等領域具有顯著改進的能力。該模型還提供了多語言支持,覆蓋超過 29 種語言,包括中文、英文等。模型在指令跟隨、理解結構化數據以及生成結構化輸出(尤其是 JSON)方面都有顯著提升"
124
136
  },
125
137
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
126
138
  "description": "Qwen2.5-7B-Instruct 是阿里雲發布的最新大語言模型系列之一。該 7B 模型在編碼和數學等領域具有顯著改進的能力。該模型還提供了多語言支持,覆蓋超過 29 種語言,包括中文、英文等。模型在指令跟隨、理解結構化數據以及生成結構化輸出(尤其是 JSON)方面都有顯著提升"
127
139
  },
140
+ "Meta-Llama-3.1-405B-Instruct": {
141
+ "description": "Llama 3.1指令調優的文本模型,針對多語言對話用例進行了優化,在許多可用的開源和封閉聊天模型中,在常見行業基準上表現優異。"
142
+ },
143
+ "Meta-Llama-3.1-70B-Instruct": {
144
+ "description": "Llama 3.1指令調優的文本模型,針對多語言對話用例進行了優化,在許多可用的開源和封閉聊天模型中,在常見行業基準上表現優異。"
145
+ },
146
+ "Meta-Llama-3.1-8B-Instruct": {
147
+ "description": "Llama 3.1指令調優的文本模型,針對多語言對話用例進行了優化,在許多可用的開源和封閉聊天模型中,在常見行業基準上表現優異。"
148
+ },
149
+ "Meta-Llama-3.2-1B-Instruct": {
150
+ "description": "先進的最尖端小型語言模型,具備語言理解、卓越的推理能力和文本生成能力。"
151
+ },
152
+ "Meta-Llama-3.2-3B-Instruct": {
153
+ "description": "先進的最尖端小型語言模型,具備語言理解、卓越的推理能力和文本生成能力。"
154
+ },
155
+ "Meta-Llama-3.3-70B-Instruct": {
156
+ "description": "Llama 3.3 是 Llama 系列最先進的多語言開源大型語言模型,以極低成本體驗媲美 405B 模型的性能。基於 Transformer 結構,並透過監督微調(SFT)和人類反饋強化學習(RLHF)提升有用性和安全性。其指令調優版本專為多語言對話優化,在多項行業基準上表現優於眾多開源和封閉聊天模型。知識截止日期為 2023 年 12 月"
157
+ },
128
158
  "MiniMax-Text-01": {
129
159
  "description": "在 MiniMax-01系列模型中,我們做了大膽創新:首次大規模實現線性注意力機制,傳統 Transformer架構不再是唯一的選擇。這個模型的參數量高達4560億,其中單次激活459億。模型綜合性能比肩海外頂尖模型,同時能夠高效處理全球最長400萬token的上下文,是GPT-4o的32倍,Claude-3.5-Sonnet的20倍。"
130
160
  },
@@ -860,9 +890,6 @@
860
890
  "gpt-3.5-turbo-1106": {
861
891
  "description": "GPT 3.5 Turbo,適用於各種文本生成和理解任務,Currently points to gpt-3.5-turbo-0125"
862
892
  },
863
- "gpt-3.5-turbo-16k": {
864
- "description": "GPT 3.5 Turbo 16k,高容量文本生成模型,適合複雜任務。"
865
- },
866
893
  "gpt-3.5-turbo-instruct": {
867
894
  "description": "GPT 3.5 Turbo,適用於各種文本生成和理解任務,Currently points to gpt-3.5-turbo-0125"
868
895
  },
@@ -92,6 +92,9 @@
92
92
  "qwen": {
93
93
  "description": "通義千問是阿里雲自主研發的超大規模語言模型,具有強大的自然語言理解和生成能力。它可以回答各種問題、創作文字內容、表達觀點看法、撰寫代碼等,在多個領域發揮作用。"
94
94
  },
95
+ "sambanova": {
96
+ "description": "SambaNova Cloud 讓開發者輕鬆使用最佳的開源模型,並享受最快的推理速度。"
97
+ },
95
98
  "sensenova": {
96
99
  "description": "商湯日日新,依托商湯大裝置的強大基礎支撐,提供高效易用的全棧大模型服務。"
97
100
  },
package/next.config.ts CHANGED
@@ -170,11 +170,12 @@ const nextConfig: NextConfig = {
170
170
  permanent: true,
171
171
  source: '/welcome',
172
172
  },
173
- {
174
- destination: '/settings/provider/volcengine',
175
- permanent: true,
176
- source: '/settings/provider/doubao',
177
- },
173
+ // TODO: 等 V2 做强制跳转吧
174
+ // {
175
+ // destination: '/settings/provider/volcengine',
176
+ // permanent: true,
177
+ // source: '/settings/provider/doubao',
178
+ // },
178
179
  // we need back /repos url in the further
179
180
  {
180
181
  destination: '/files',
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/chat",
3
- "version": "1.60.5",
3
+ "version": "1.60.7",
4
4
  "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",
@@ -65,8 +65,7 @@ const googleChatModels: AIChatModelCard[] = [
65
65
  vision: true,
66
66
  },
67
67
  contextWindowTokens: 1_048_576 + 8192,
68
- description:
69
- '一个 Gemini 2.0 Flash 模型,针对成本效益和低延迟等目标进行了优化。',
68
+ description: '一个 Gemini 2.0 Flash 模型,针对成本效益和低延迟等目标进行了优化。',
70
69
  displayName: 'Gemini 2.0 Flash-Lite Preview 02-05',
71
70
  id: 'gemini-2.0-flash-lite-preview-02-05',
72
71
  maxOutput: 8192,
@@ -78,25 +77,6 @@ const googleChatModels: AIChatModelCard[] = [
78
77
  releasedAt: '2025-02-05',
79
78
  type: 'chat',
80
79
  },
81
- {
82
- abilities: {
83
- functionCall: true,
84
- vision: true,
85
- },
86
- contextWindowTokens: 2_097_152 + 8192,
87
- description:
88
- 'Gemini Exp 1206 是 Google 的实验性多模态AI模型,与历史版本相比有一定的质量提升。',
89
- displayName: 'Gemini Experimental 1206',
90
- id: 'gemini-exp-1206',
91
- maxOutput: 8192,
92
- pricing: {
93
- cachedInput: 0,
94
- input: 0,
95
- output: 0,
96
- },
97
- releasedAt: '2024-12-06',
98
- type: 'chat',
99
- },
100
80
  {
101
81
  abilities: {
102
82
  reasoning: true,
@@ -117,44 +97,6 @@ const googleChatModels: AIChatModelCard[] = [
117
97
  releasedAt: '2025-01-21',
118
98
  type: 'chat',
119
99
  },
120
- {
121
- abilities: {
122
- reasoning: true,
123
- vision: true,
124
- },
125
- contextWindowTokens: 40_959,
126
- description:
127
- 'Gemini 2.0 Flash Thinking Exp 是 Google 的实验性多模态推理AI模型,能对复杂问题进行推理,拥有新的思维能力。',
128
- displayName: 'Gemini 2.0 Flash Thinking Experimental 12-19',
129
- id: 'gemini-2.0-flash-thinking-exp-1219', // be replaced
130
- maxOutput: 8192,
131
- pricing: {
132
- cachedInput: 0,
133
- input: 0,
134
- output: 0,
135
- },
136
- releasedAt: '2024-12-19',
137
- type: 'chat',
138
- },
139
- {
140
- abilities: {
141
- functionCall: true,
142
- vision: true,
143
- },
144
- contextWindowTokens: 1_056_768,
145
- description:
146
- 'Gemini 2.0 Flash Exp 是 Google 的实验性多模态AI模型,拥有下一代特性,卓越的速度,原生工具调用以及多模态生成。',
147
- displayName: 'Gemini 2.0 Flash Experimental',
148
- id: 'gemini-2.0-flash-exp',
149
- maxOutput: 8192,
150
- pricing: {
151
- cachedInput: 0,
152
- input: 0,
153
- output: 0,
154
- },
155
- releasedAt: '2024-12-11',
156
- type: 'chat',
157
- },
158
100
  {
159
101
  abilities: {
160
102
  functionCall: true,
@@ -264,55 +206,6 @@ const googleChatModels: AIChatModelCard[] = [
264
206
  releasedAt: '2024-10-03',
265
207
  type: 'chat',
266
208
  },
267
- {
268
- abilities: {
269
- functionCall: true,
270
- vision: true,
271
- },
272
- contextWindowTokens: 1_008_192,
273
- description:
274
- 'Gemini 1.5 Flash 8B 0924 是最新的实验性模型,在文本和多模态用例中都有显著的性能提升。',
275
- displayName: 'Gemini 1.5 Flash 8B 0924',
276
- id: 'gemini-1.5-flash-8b-exp-0924',
277
- maxOutput: 8192,
278
- pricing: {
279
- cachedInput: 0.018_75,
280
- input: 0.075,
281
- output: 0.3,
282
- },
283
- releasedAt: '2024-09-24',
284
- type: 'chat',
285
- },
286
- {
287
- abilities: {
288
- functionCall: true,
289
- },
290
- contextWindowTokens: 32_768,
291
- description:
292
- 'Gemini 1.0 Pro 001 (Tuning) 提供稳定并可调优的性能,是复杂任务解决方案的理想选择。',
293
- displayName: 'Gemini 1.0 Pro 001 (Tuning)',
294
- id: 'gemini-1.0-pro-001', // Deprecated on 2/15/2025
295
- maxOutput: 2048,
296
- pricing: {
297
- input: 0.5,
298
- output: 1.5,
299
- },
300
- releasedAt: '2023-12-06',
301
- type: 'chat',
302
- },
303
- {
304
- contextWindowTokens: 32_768,
305
- description: 'Gemini 1.0 Pro 002 (Tuning) 提供出色的多模态支持,专注于复杂任务的有效解决。',
306
- displayName: 'Gemini 1.0 Pro 002 (Tuning)',
307
- id: 'gemini-1.0-pro-002', // Deprecated on 2/15/2025
308
- maxOutput: 2048,
309
- pricing: {
310
- input: 0.5,
311
- output: 1.5,
312
- },
313
- releasedAt: '2023-12-06',
314
- type: 'chat',
315
- },
316
209
  ];
317
210
 
318
211
  export const allModels = [...googleChatModels];