@lobehub/chat 1.68.9 → 1.68.11

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (68) hide show
  1. package/CHANGELOG.md +51 -0
  2. package/changelog/v1.json +18 -0
  3. package/docs/usage/providers/ppio.mdx +5 -5
  4. package/docs/usage/providers/ppio.zh-CN.mdx +7 -7
  5. package/locales/ar/chat.json +5 -1
  6. package/locales/ar/models.json +12 -9
  7. package/locales/bg-BG/chat.json +5 -1
  8. package/locales/bg-BG/models.json +12 -9
  9. package/locales/de-DE/chat.json +5 -1
  10. package/locales/de-DE/models.json +12 -9
  11. package/locales/en-US/chat.json +5 -1
  12. package/locales/en-US/models.json +12 -9
  13. package/locales/es-ES/chat.json +5 -1
  14. package/locales/es-ES/models.json +12 -9
  15. package/locales/fa-IR/chat.json +5 -1
  16. package/locales/fa-IR/models.json +12 -9
  17. package/locales/fr-FR/chat.json +5 -1
  18. package/locales/fr-FR/models.json +12 -9
  19. package/locales/it-IT/chat.json +5 -1
  20. package/locales/it-IT/models.json +12 -9
  21. package/locales/ja-JP/chat.json +5 -1
  22. package/locales/ja-JP/models.json +12 -9
  23. package/locales/ko-KR/chat.json +5 -1
  24. package/locales/ko-KR/models.json +12 -9
  25. package/locales/nl-NL/chat.json +5 -1
  26. package/locales/nl-NL/models.json +12 -9
  27. package/locales/pl-PL/chat.json +5 -1
  28. package/locales/pl-PL/models.json +12 -9
  29. package/locales/pt-BR/chat.json +5 -1
  30. package/locales/pt-BR/models.json +12 -9
  31. package/locales/ru-RU/chat.json +5 -1
  32. package/locales/ru-RU/models.json +12 -9
  33. package/locales/tr-TR/chat.json +5 -1
  34. package/locales/tr-TR/models.json +12 -9
  35. package/locales/vi-VN/chat.json +5 -1
  36. package/locales/vi-VN/models.json +12 -9
  37. package/locales/zh-CN/chat.json +5 -1
  38. package/locales/zh-CN/models.json +12 -9
  39. package/locales/zh-TW/chat.json +5 -1
  40. package/locales/zh-TW/models.json +12 -9
  41. package/package.json +1 -1
  42. package/src/config/aiModels/google.ts +37 -0
  43. package/src/config/aiModels/perplexity.ts +36 -20
  44. package/src/config/aiModels/qwen.ts +64 -25
  45. package/src/config/modelProviders/ppio.ts +1 -1
  46. package/src/features/Conversation/Extras/Usage/UsageDetail/ModelCard.tsx +27 -9
  47. package/src/features/Conversation/Extras/Usage/UsageDetail/index.tsx +77 -35
  48. package/src/features/Conversation/Extras/Usage/UsageDetail/tokens.test.ts +253 -0
  49. package/src/features/Conversation/Extras/Usage/UsageDetail/tokens.ts +65 -46
  50. package/src/libs/agent-runtime/baichuan/index.test.ts +58 -1
  51. package/src/libs/agent-runtime/groq/index.test.ts +36 -284
  52. package/src/libs/agent-runtime/mistral/index.test.ts +39 -300
  53. package/src/libs/agent-runtime/perplexity/index.test.ts +12 -10
  54. package/src/libs/agent-runtime/providerTestUtils.ts +58 -0
  55. package/src/libs/agent-runtime/togetherai/index.test.ts +7 -295
  56. package/src/libs/agent-runtime/utils/openaiCompatibleFactory/index.test.ts +3 -0
  57. package/src/libs/agent-runtime/utils/openaiCompatibleFactory/index.ts +5 -2
  58. package/src/libs/agent-runtime/utils/streams/anthropic.test.ts +89 -5
  59. package/src/libs/agent-runtime/utils/streams/anthropic.ts +25 -8
  60. package/src/libs/agent-runtime/utils/streams/openai.test.ts +188 -84
  61. package/src/libs/agent-runtime/utils/streams/openai.ts +8 -17
  62. package/src/libs/agent-runtime/utils/usageConverter.test.ts +249 -0
  63. package/src/libs/agent-runtime/utils/usageConverter.ts +50 -0
  64. package/src/libs/agent-runtime/zeroone/index.test.ts +7 -294
  65. package/src/locales/default/chat.ts +4 -0
  66. package/src/types/message/base.ts +14 -4
  67. package/src/utils/filter.test.ts +0 -122
  68. package/src/utils/filter.ts +0 -29
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M karakter",
90
90
  "inputMinutes": "${{amount}}/dakika",
91
91
  "inputTokens": "Giriş {{amount}}/kredi · ${{amount}}/M",
92
- "outputTokens": "Çıkış {{amount}}/kredi · ${{amount}}/M"
92
+ "outputTokens": "Çıkış {{amount}}/kredi · ${{amount}}/M",
93
+ "writeCacheInputTokens": "Giriş yazma önbelleği {{amount}}/puan · ${{amount}}/M"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "Ortalama birim fiyat",
96
98
  "input": "Giriş",
97
99
  "inputAudio": "Ses girişi",
98
100
  "inputCached": "Önceden yüklenmiş giriş",
101
+ "inputCitation": "Giriş alıntısı",
99
102
  "inputText": "Metin girişi",
100
103
  "inputTitle": "Giriş detayları",
101
104
  "inputUncached": "Önceden yüklenmemiş giriş",
105
+ "inputWriteCached": "Giriş önbelleği yazma",
102
106
  "output": "Çıkış",
103
107
  "outputAudio": "Ses çıkışı",
104
108
  "outputText": "Metin çıkışı",
@@ -827,12 +827,18 @@
827
827
  "gemini-2.0-flash-001": {
828
828
  "description": "Gemini 2.0 Flash, mükemmel hız, yerel araç kullanımı, çok modlu üretim ve 1M token bağlam penceresi dahil olmak üzere bir sonraki nesil özellikler ve iyileştirmeler sunar."
829
829
  },
830
+ "gemini-2.0-flash-lite": {
831
+ "description": "Gemini 2.0 Flash model varyantı, maliyet etkinliği ve düşük gecikme gibi hedefler için optimize edilmiştir."
832
+ },
830
833
  "gemini-2.0-flash-lite-001": {
831
834
  "description": "Gemini 2.0 Flash model varyantı, maliyet etkinliği ve düşük gecikme gibi hedefler için optimize edilmiştir."
832
835
  },
833
836
  "gemini-2.0-flash-lite-preview-02-05": {
834
837
  "description": "Maliyet etkinliği ve düşük gecikme gibi hedefler için optimize edilmiş bir Gemini 2.0 Flash modelidir."
835
838
  },
839
+ "gemini-2.0-flash-thinking-exp": {
840
+ "description": "Gemini 2.0 Flash Exp, Google'ın en son deneysel çok modlu AI modelidir, bir sonraki nesil özelliklere, olağanüstü hıza, yerel araç çağrısına ve çok modlu üretime sahiptir."
841
+ },
836
842
  "gemini-2.0-flash-thinking-exp-01-21": {
837
843
  "description": "Gemini 2.0 Flash Exp, Google'ın en son deneysel çok modlu AI modelidir, bir sonraki nesil özelliklere, olağanüstü hıza, yerel araç çağrısına ve çok modlu üretime sahiptir."
838
844
  },
@@ -1121,15 +1127,6 @@
1121
1127
  "llama-3.1-8b-instant": {
1122
1128
  "description": "Llama 3.1 8B, hızlı metin üretim yeteneği sunan yüksek performanslı bir modeldir ve büyük ölçekli verimlilik ve maliyet etkinliği gerektiren uygulama senaryoları için son derece uygundur."
1123
1129
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "Llama 3.1 Sonar Huge Online modeli, 405B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, karmaşık çevrimiçi sohbet uygulamaları için tasarlanmıştır."
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "Llama 3.1 Sonar Large Online modeli, 70B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, yüksek kapasiteli ve çeşitli sohbet görevleri için uygundur."
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "Llama 3.1 Sonar Small Online modeli, 8B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, çevrimiçi sohbet için tasarlanmıştır ve çeşitli metin etkileşimlerini etkili bir şekilde işler."
1132
- },
1133
1130
  "llama-3.2-11b-vision-instruct": {
1134
1131
  "description": "Yüksek çözünürlüklü görüntülerde mükemmel görüntü akıl yürütme yeteneği, görsel anlama uygulamaları için uygundur."
1135
1132
  },
@@ -1643,6 +1640,9 @@
1643
1640
  "qwq-32b-preview": {
1644
1641
  "description": "QwQ modeli, Qwen ekibi tarafından geliştirilen deneysel bir araştırma modelidir ve AI akıl yürütme yeteneklerini artırmaya odaklanmaktadır."
1645
1642
  },
1643
+ "r1-1776": {
1644
+ "description": "R1-1776, DeepSeek R1 modelinin bir versiyonudur ve son eğitimle, sansürsüz, tarafsız gerçek bilgileri sunar."
1645
+ },
1646
1646
  "solar-mini": {
1647
1647
  "description": "Solar Mini, GPT-3.5'ten daha iyi performansa sahip kompakt bir LLM'dir, güçlü çok dilli yeteneklere sahiptir, İngilizce ve Korece'yi destekler ve etkili, kompakt çözümler sunar."
1648
1648
  },
@@ -1655,6 +1655,9 @@
1655
1655
  "sonar": {
1656
1656
  "description": "Arama bağlamına dayalı hafif bir arama ürünüdür, Sonar Pro'dan daha hızlı ve daha ucuzdur."
1657
1657
  },
1658
+ "sonar-deep-research": {
1659
+ "description": "Deep Research, kapsamlı uzman düzeyinde araştırmalar yapar ve bunları erişilebilir, uygulanabilir raporlar haline getirir."
1660
+ },
1658
1661
  "sonar-pro": {
1659
1662
  "description": "Gelişmiş sorgular ve takip desteği sunan, arama bağlamını destekleyen bir üst düzey arama ürünüdür."
1660
1663
  },
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M ký tự",
90
90
  "inputMinutes": "${{amount}}/phút",
91
91
  "inputTokens": "Nhập {{amount}}/điểm · ${{amount}}/M",
92
- "outputTokens": "Xuất {{amount}}/điểm · ${{amount}}/M"
92
+ "outputTokens": "Xuất {{amount}}/điểm · ${{amount}}/M",
93
+ "writeCacheInputTokens": "Ghi vào bộ nhớ đệm đầu vào {{amount}}/điểm · ${{amount}}/M"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "Giá trung bình",
96
98
  "input": "Nhập",
97
99
  "inputAudio": "Âm thanh nhập",
98
100
  "inputCached": "Nhập cached",
101
+ "inputCitation": "Trích dẫn đầu vào",
99
102
  "inputText": "Văn bản nhập",
100
103
  "inputTitle": "Chi tiết nhập",
101
104
  "inputUncached": "Nhập chưa cached",
105
+ "inputWriteCached": "Ghi vào bộ nhớ đệm đầu vào",
102
106
  "output": "Xuất",
103
107
  "outputAudio": "Âm thanh xuất",
104
108
  "outputText": "Văn bản xuất",
@@ -827,12 +827,18 @@
827
827
  "gemini-2.0-flash-001": {
828
828
  "description": "Gemini 2.0 Flash cung cấp các tính năng và cải tiến thế hệ tiếp theo, bao gồm tốc độ vượt trội, sử dụng công cụ bản địa, tạo đa phương tiện và cửa sổ ngữ cảnh 1M token."
829
829
  },
830
+ "gemini-2.0-flash-lite": {
831
+ "description": "Biến thể mô hình Gemini 2.0 Flash được tối ưu hóa cho hiệu quả chi phí và độ trễ thấp."
832
+ },
830
833
  "gemini-2.0-flash-lite-001": {
831
834
  "description": "Biến thể mô hình Gemini 2.0 Flash được tối ưu hóa cho hiệu quả chi phí và độ trễ thấp."
832
835
  },
833
836
  "gemini-2.0-flash-lite-preview-02-05": {
834
837
  "description": "Một mô hình Gemini 2.0 Flash được tối ưu hóa cho hiệu quả chi phí và độ trễ thấp."
835
838
  },
839
+ "gemini-2.0-flash-thinking-exp": {
840
+ "description": "Gemini 2.0 Flash Exp là mô hình AI đa phương thức thử nghiệm mới nhất của Google, sở hữu các tính năng thế hệ tiếp theo, tốc độ vượt trội, gọi công cụ bản địa và sinh ra đa phương thức."
841
+ },
836
842
  "gemini-2.0-flash-thinking-exp-01-21": {
837
843
  "description": "Gemini 2.0 Flash Exp là mô hình AI đa phương thức thử nghiệm mới nhất của Google, sở hữu các tính năng thế hệ tiếp theo, tốc độ vượt trội, gọi công cụ bản địa và sinh ra đa phương thức."
838
844
  },
@@ -1121,15 +1127,6 @@
1121
1127
  "llama-3.1-8b-instant": {
1122
1128
  "description": "Llama 3.1 8B là một mô hình hiệu suất cao, cung cấp khả năng sinh văn bản nhanh chóng, rất phù hợp cho các tình huống ứng dụng cần hiệu quả quy mô lớn và tiết kiệm chi phí."
1123
1129
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "Mô hình Llama 3.1 Sonar Huge Online, có 405B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, được thiết kế cho các ứng dụng trò chuyện trực tuyến phức tạp."
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "Mô hình Llama 3.1 Sonar Large Online, có 70B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, phù hợp cho các nhiệm vụ trò chuyện có dung lượng lớn và đa dạng."
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "Mô hình Llama 3.1 Sonar Small Online, có 8B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, được thiết kế cho trò chuyện trực tuyến, có khả năng xử lý hiệu quả các tương tác văn bản khác nhau."
1132
- },
1133
1130
  "llama-3.2-11b-vision-instruct": {
1134
1131
  "description": "Khả năng suy luận hình ảnh xuất sắc trên hình ảnh độ phân giải cao, phù hợp cho các ứng dụng hiểu biết hình ảnh."
1135
1132
  },
@@ -1643,6 +1640,9 @@
1643
1640
  "qwq-32b-preview": {
1644
1641
  "description": "Mô hình QwQ là một mô hình nghiên cứu thử nghiệm được phát triển bởi đội ngũ Qwen, tập trung vào việc nâng cao khả năng suy luận của AI."
1645
1642
  },
1643
+ "r1-1776": {
1644
+ "description": "R1-1776 là một phiên bản của mô hình DeepSeek R1, đã được huấn luyện lại, cung cấp thông tin sự thật chưa được kiểm duyệt và không thiên lệch."
1645
+ },
1646
1646
  "solar-mini": {
1647
1647
  "description": "Solar Mini là một LLM dạng nhỏ gọn, hiệu suất vượt trội hơn GPT-3.5, có khả năng đa ngôn ngữ mạnh mẽ, hỗ trợ tiếng Anh và tiếng Hàn, cung cấp giải pháp hiệu quả và nhỏ gọn."
1648
1648
  },
@@ -1655,6 +1655,9 @@
1655
1655
  "sonar": {
1656
1656
  "description": "Sản phẩm tìm kiếm nhẹ dựa trên ngữ cảnh tìm kiếm, nhanh hơn và rẻ hơn so với Sonar Pro."
1657
1657
  },
1658
+ "sonar-deep-research": {
1659
+ "description": "Nghiên cứu sâu tiến hành nghiên cứu chuyên gia toàn diện và tổng hợp thành các báo cáo có thể truy cập và có thể hành động."
1660
+ },
1658
1661
  "sonar-pro": {
1659
1662
  "description": "Sản phẩm tìm kiếm nâng cao hỗ trợ ngữ cảnh tìm kiếm, cho phép truy vấn và theo dõi nâng cao."
1660
1663
  },
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M 字符",
90
90
  "inputMinutes": "${{amount}}/分钟",
91
91
  "inputTokens": "输入 {{amount}}/积分 · ${{amount}}/M",
92
- "outputTokens": "输出 {{amount}}/积分 · ${{amount}}/M"
92
+ "outputTokens": "输出 {{amount}}/积分 · ${{amount}}/M",
93
+ "writeCacheInputTokens": "缓存输入写入 {{amount}}/积分 · ${{amount}}/M"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "平均单价",
96
98
  "input": "输入",
97
99
  "inputAudio": "音频输入",
98
100
  "inputCached": "输入缓存",
101
+ "inputCitation": "引用输入",
99
102
  "inputText": "文本输入",
100
103
  "inputTitle": "输入明细",
101
104
  "inputUncached": "输入未缓存",
105
+ "inputWriteCached": "输入缓存写入",
102
106
  "output": "输出",
103
107
  "outputAudio": "音频输出",
104
108
  "outputText": "文本输出",
@@ -827,12 +827,18 @@
827
827
  "gemini-2.0-flash-001": {
828
828
  "description": "Gemini 2.0 Flash 提供下一代功能和改进,包括卓越的速度、原生工具使用、多模态生成和1M令牌上下文窗口。"
829
829
  },
830
+ "gemini-2.0-flash-lite": {
831
+ "description": "Gemini 2.0 Flash 模型变体,针对成本效益和低延迟等目标进行了优化。"
832
+ },
830
833
  "gemini-2.0-flash-lite-001": {
831
834
  "description": "Gemini 2.0 Flash 模型变体,针对成本效益和低延迟等目标进行了优化。"
832
835
  },
833
836
  "gemini-2.0-flash-lite-preview-02-05": {
834
837
  "description": "一个 Gemini 2.0 Flash 模型,针对成本效益和低延迟等目标进行了优化。"
835
838
  },
839
+ "gemini-2.0-flash-thinking-exp": {
840
+ "description": "Gemini 2.0 Flash Thinking Exp 是 Google 的实验性多模态推理AI模型,能对复杂问题进行推理,拥有新的思维能力。"
841
+ },
836
842
  "gemini-2.0-flash-thinking-exp-01-21": {
837
843
  "description": "Gemini 2.0 Flash Thinking Exp 是 Google 的实验性多模态推理AI模型,能对复杂问题进行推理,拥有新的思维能力。"
838
844
  },
@@ -1121,15 +1127,6 @@
1121
1127
  "llama-3.1-8b-instant": {
1122
1128
  "description": "Llama 3.1 8B 是一款高效能模型,提供了快速的文本生成能力,非常适合需要大规模效率和成本效益的应用场景。"
1123
1129
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "Llama 3.1 Sonar Huge Online 模型,具备405B参数,支持约127,000个标记的上下文长度,设计用于复杂的在线聊天应用。"
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "Llama 3.1 Sonar Large Online 模型,具备70B参数,支持约127,000个标记的上下文长度,适用于高容量和多样化聊天任务。"
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "Llama 3.1 Sonar Small Online 模型,具备8B参数,支持约127,000个标记的上下文长度,专为在线聊天设计,能高效处理各种文本交互。"
1132
- },
1133
1130
  "llama-3.2-11b-vision-instruct": {
1134
1131
  "description": "在高分辨率图像上表现出色的图像推理能力,适用于视觉理解应用。"
1135
1132
  },
@@ -1643,6 +1640,9 @@
1643
1640
  "qwq-32b-preview": {
1644
1641
  "description": "QwQ模型是由 Qwen 团队开发的实验性研究模型,专注于增强 AI 推理能力。"
1645
1642
  },
1643
+ "r1-1776": {
1644
+ "description": "R1-1776 是 DeepSeek R1 模型的一个版本,经过后训练,可提供未经审查、无偏见的事实信息。"
1645
+ },
1646
1646
  "solar-mini": {
1647
1647
  "description": "Solar Mini 是一种紧凑型 LLM,性能优于 GPT-3.5,具备强大的多语言能力,支持英语和韩语,提供高效小巧的解决方案。"
1648
1648
  },
@@ -1655,6 +1655,9 @@
1655
1655
  "sonar": {
1656
1656
  "description": "基于搜索上下文的轻量级搜索产品,比 Sonar Pro 更快、更便宜。"
1657
1657
  },
1658
+ "sonar-deep-research": {
1659
+ "description": "Deep Research 进行全面的专家级研究,并将其综合成可访问、可作的报告。"
1660
+ },
1658
1661
  "sonar-pro": {
1659
1662
  "description": "支持搜索上下文的高级搜索产品,支持高级查询和跟进。"
1660
1663
  },
@@ -89,16 +89,20 @@
89
89
  "inputCharts": "${{amount}}/M 字元",
90
90
  "inputMinutes": "${{amount}}/分鐘",
91
91
  "inputTokens": "輸入 {{amount}}/積分 · ${{amount}}/M",
92
- "outputTokens": "輸出 {{amount}}/積分 · ${{amount}}/M"
92
+ "outputTokens": "輸出 {{amount}}/積分 · ${{amount}}/M",
93
+ "writeCacheInputTokens": "快取輸入寫入 {{amount}}/積分 · ${{amount}}/M"
93
94
  }
94
95
  },
95
96
  "tokenDetails": {
97
+ "average": "平均單價",
96
98
  "input": "輸入",
97
99
  "inputAudio": "音頻輸入",
98
100
  "inputCached": "輸入快取",
101
+ "inputCitation": "引用輸入",
99
102
  "inputText": "文本輸入",
100
103
  "inputTitle": "輸入明細",
101
104
  "inputUncached": "輸入未快取",
105
+ "inputWriteCached": "輸入快取寫入",
102
106
  "output": "輸出",
103
107
  "outputAudio": "音頻輸出",
104
108
  "outputText": "文本輸出",
@@ -827,12 +827,18 @@
827
827
  "gemini-2.0-flash-001": {
828
828
  "description": "Gemini 2.0 Flash 提供下一代功能和改進,包括卓越的速度、原生工具使用、多模態生成和1M令牌上下文窗口。"
829
829
  },
830
+ "gemini-2.0-flash-lite": {
831
+ "description": "Gemini 2.0 Flash 模型變體,針對成本效益和低延遲等目標進行了優化。"
832
+ },
830
833
  "gemini-2.0-flash-lite-001": {
831
834
  "description": "Gemini 2.0 Flash 模型變體,針對成本效益和低延遲等目標進行了優化。"
832
835
  },
833
836
  "gemini-2.0-flash-lite-preview-02-05": {
834
837
  "description": "一個 Gemini 2.0 Flash 模型,針對成本效益和低延遲等目標進行了優化。"
835
838
  },
839
+ "gemini-2.0-flash-thinking-exp": {
840
+ "description": "Gemini 2.0 Flash Exp 是 Google 最新的實驗性多模態AI模型,擁有下一代特性,卓越的速度,原生工具調用以及多模態生成。"
841
+ },
836
842
  "gemini-2.0-flash-thinking-exp-01-21": {
837
843
  "description": "Gemini 2.0 Flash Exp 是 Google 最新的實驗性多模態AI模型,擁有下一代特性,卓越的速度,原生工具調用以及多模態生成。"
838
844
  },
@@ -1121,15 +1127,6 @@
1121
1127
  "llama-3.1-8b-instant": {
1122
1128
  "description": "Llama 3.1 8B 是一款高效能模型,提供了快速的文本生成能力,非常適合需要大規模效率和成本效益的應用場景。"
1123
1129
  },
1124
- "llama-3.1-sonar-huge-128k-online": {
1125
- "description": "Llama 3.1 Sonar Huge Online 模型,具備 405B 參數,支持約 127,000 個標記的上下文長度,設計用於複雜的在線聊天應用。"
1126
- },
1127
- "llama-3.1-sonar-large-128k-online": {
1128
- "description": "Llama 3.1 Sonar Large Online 模型,具備 70B 參數,支持約 127,000 個標記的上下文長度,適用於高容量和多樣化聊天任務。"
1129
- },
1130
- "llama-3.1-sonar-small-128k-online": {
1131
- "description": "Llama 3.1 Sonar Small Online 模型,具備 8B 參數,支持約 127,000 個標記的上下文長度,專為在線聊天設計,能高效處理各種文本交互。"
1132
- },
1133
1130
  "llama-3.2-11b-vision-instruct": {
1134
1131
  "description": "在高解析度圖像上表現優異的圖像推理能力,適用於視覺理解應用。"
1135
1132
  },
@@ -1643,6 +1640,9 @@
1643
1640
  "qwq-32b-preview": {
1644
1641
  "description": "QwQ模型是由 Qwen 團隊開發的實驗性研究模型,專注於增強 AI 推理能力。"
1645
1642
  },
1643
+ "r1-1776": {
1644
+ "description": "R1-1776 是 DeepSeek R1 模型的一個版本,經過後訓練,可提供未經審查、無偏見的事實資訊。"
1645
+ },
1646
1646
  "solar-mini": {
1647
1647
  "description": "Solar Mini 是一種緊湊型 LLM,性能優於 GPT-3.5,具備強大的多語言能力,支持英語和韓語,提供高效小巧的解決方案。"
1648
1648
  },
@@ -1655,6 +1655,9 @@
1655
1655
  "sonar": {
1656
1656
  "description": "基於搜索上下文的輕量級搜索產品,比 Sonar Pro 更快、更便宜。"
1657
1657
  },
1658
+ "sonar-deep-research": {
1659
+ "description": "Deep Research 進行全面的專家級研究,並將其綜合成可訪問、可行的報告。"
1660
+ },
1658
1661
  "sonar-pro": {
1659
1662
  "description": "支持搜索上下文的高級搜索產品,支持高級查詢和跟進。"
1660
1663
  },
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/chat",
3
- "version": "1.68.9",
3
+ "version": "1.68.11",
4
4
  "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",
@@ -75,6 +75,23 @@ const googleChatModels: AIChatModelCard[] = [
75
75
  },
76
76
  type: 'chat',
77
77
  },
78
+ {
79
+ abilities: {
80
+ vision: true,
81
+ },
82
+ contextWindowTokens: 1_048_576 + 8192,
83
+ description: 'Gemini 2.0 Flash 模型变体,针对成本效益和低延迟等目标进行了优化。',
84
+ displayName: 'Gemini 2.0 Flash-Lite',
85
+ id: 'gemini-2.0-flash-lite',
86
+ maxOutput: 8192,
87
+ pricing: {
88
+ cachedInput: 0.018_75,
89
+ input: 0.075,
90
+ output: 0.3,
91
+ },
92
+ releasedAt: '2025-02-05',
93
+ type: 'chat',
94
+ },
78
95
  {
79
96
  abilities: {
80
97
  vision: true,
@@ -92,6 +109,26 @@ const googleChatModels: AIChatModelCard[] = [
92
109
  releasedAt: '2025-02-05',
93
110
  type: 'chat',
94
111
  },
112
+ {
113
+ abilities: {
114
+ reasoning: true,
115
+ vision: true,
116
+ },
117
+ contextWindowTokens: 1_048_576 + 65_536,
118
+ description:
119
+ 'Gemini 2.0 Flash Thinking Exp 是 Google 的实验性多模态推理AI模型,能对复杂问题进行推理,拥有新的思维能力。',
120
+ displayName: 'Gemini 2.0 Flash Thinking Experimental',
121
+ enabled: true,
122
+ id: 'gemini-2.0-flash-thinking-exp',
123
+ maxOutput: 65_536,
124
+ pricing: {
125
+ cachedInput: 0,
126
+ input: 0,
127
+ output: 0,
128
+ },
129
+ releasedAt: '2025-01-21',
130
+ type: 'chat',
131
+ },
95
132
  {
96
133
  abilities: {
97
134
  reasoning: true,
@@ -1,6 +1,25 @@
1
1
  import { AIChatModelCard } from '@/types/aiModel';
2
2
 
3
3
  const perplexityChatModels: AIChatModelCard[] = [
4
+ {
5
+ abilities: {
6
+ reasoning: true,
7
+ search: true,
8
+ },
9
+ contextWindowTokens: 127_072,
10
+ description:
11
+ 'Deep Research 进行全面的专家级研究,并将其综合成可访问、可作的报告。',
12
+ displayName: 'Sonar Deep Research',
13
+ enabled: true,
14
+ id: 'sonar-deep-research',
15
+ maxOutput: 8192,
16
+ pricing: { input: 2, output: 8 },
17
+ releasedAt: '2025-02-14',
18
+ settings: {
19
+ searchImpl: 'internal',
20
+ },
21
+ type: 'chat',
22
+ },
4
23
  {
5
24
  abilities: {
6
25
  reasoning: true,
@@ -12,6 +31,8 @@ const perplexityChatModels: AIChatModelCard[] = [
12
31
  enabled: true,
13
32
  id: 'sonar-reasoning-pro',
14
33
  maxOutput: 8192,
34
+ pricing: { input: 2, output: 8 },
35
+ releasedAt: '2025-01-21',
15
36
  settings: {
16
37
  searchImpl: 'internal',
17
38
  },
@@ -28,6 +49,8 @@ const perplexityChatModels: AIChatModelCard[] = [
28
49
  enabled: true,
29
50
  id: 'sonar-reasoning',
30
51
  maxOutput: 8192,
52
+ pricing: { input: 1, output: 5 },
53
+ releasedAt: '2025-01-21',
31
54
  settings: {
32
55
  searchImpl: 'internal',
33
56
  },
@@ -42,6 +65,8 @@ const perplexityChatModels: AIChatModelCard[] = [
42
65
  displayName: 'Sonar Pro',
43
66
  enabled: true,
44
67
  id: 'sonar-pro',
68
+ pricing: { input: 3, output: 15 },
69
+ releasedAt: '2025-01-21',
45
70
  settings: {
46
71
  searchImpl: 'internal',
47
72
  },
@@ -56,34 +81,25 @@ const perplexityChatModels: AIChatModelCard[] = [
56
81
  displayName: 'Sonar',
57
82
  enabled: true,
58
83
  id: 'sonar',
84
+ pricing: { input: 1, output: 1 },
85
+ releasedAt: '2025-01-21',
59
86
  settings: {
60
87
  searchImpl: 'internal',
61
88
  },
62
- type: 'chat',
63
- },
64
- // The following will be deprecated on 02-22
65
- {
66
- contextWindowTokens: 127_072,
67
- description:
68
- 'Llama 3.1 Sonar Small Online 模型,具备8B参数,支持约127,000个标记的上下文长度,专为在线聊天设计,能高效处理各种文本交互。',
69
- displayName: 'Llama 3.1 Sonar Small Online',
70
- id: 'llama-3.1-sonar-small-128k-online',
71
- type: 'chat',
72
- },
73
- {
74
- contextWindowTokens: 127_072,
75
- description:
76
- 'Llama 3.1 Sonar Large Online 模型,具备70B参数,支持约127,000个标记的上下文长度,适用于高容量和多样化聊天任务。',
77
- displayName: 'Llama 3.1 Sonar Large Online',
78
- id: 'llama-3.1-sonar-large-128k-online',
89
+
79
90
  type: 'chat',
80
91
  },
81
92
  {
93
+ abilities: {
94
+ reasoning: true,
95
+ },
82
96
  contextWindowTokens: 127_072,
83
97
  description:
84
- 'Llama 3.1 Sonar Huge Online 模型,具备405B参数,支持约127,000个标记的上下文长度,设计用于复杂的在线聊天应用。',
85
- displayName: 'Llama 3.1 Sonar Huge Online',
86
- id: 'llama-3.1-sonar-huge-128k-online',
98
+ 'R1-1776 DeepSeek R1 模型的一个版本,经过后训练,可提供未经审查、无偏见的事实信息。',
99
+ displayName: 'R1 1776',
100
+ id: 'r1-1776',
101
+ pricing: { input: 2, output: 8 },
102
+ releasedAt: '2025-02-18',
87
103
  type: 'chat',
88
104
  },
89
105
  ];
@@ -3,6 +3,28 @@ import { AIChatModelCard } from '@/types/aiModel';
3
3
  // https://help.aliyun.com/zh/model-studio/developer-reference/use-qwen-by-calling-api#e1fada1a719u7
4
4
 
5
5
  const qwenChatModels: AIChatModelCard[] = [
6
+ {
7
+ abilities: {
8
+ reasoning: true,
9
+ },
10
+ contextWindowTokens: 131_072,
11
+ description: '基于 Qwen2.5 模型训练的 QwQ 推理模型,通过强化学习大幅度提升了模型推理能力。模型数学代码等核心指标(AIME 24/25、LiveCodeBench)以及部分通用指标(IFEval、LiveBench等)达到DeepSeek-R1 满血版水平。',
12
+ displayName: 'QwQ Plus',
13
+ enabled: true,
14
+ id: 'qwq-plus-latest',
15
+ maxOutput: 8192,
16
+ organization: 'Qwen',
17
+ pricing: {
18
+ currency: 'CNY',
19
+ input: 0,
20
+ output: 0,
21
+ },
22
+ releasedAt: '2025-03-06',
23
+ settings: {
24
+ searchImpl: 'params',
25
+ },
26
+ type: 'chat',
27
+ },
6
28
  {
7
29
  abilities: {
8
30
  functionCall: true,
@@ -71,10 +93,14 @@ const qwenChatModels: AIChatModelCard[] = [
71
93
  type: 'chat',
72
94
  },
73
95
  {
96
+ abilities: {
97
+ functionCall: true,
98
+ },
74
99
  contextWindowTokens: 1_000_000,
75
100
  description:
76
101
  '通义千问超大规模语言模型,支持长文本上下文,以及基于长文档、多文档等多个场景的对话功能。',
77
102
  displayName: 'Qwen Long',
103
+ enabled: true,
78
104
  id: 'qwen-long',
79
105
  maxOutput: 6000,
80
106
  organization: 'Qwen',
@@ -85,6 +111,24 @@ const qwenChatModels: AIChatModelCard[] = [
85
111
  },
86
112
  type: 'chat',
87
113
  },
114
+ {
115
+ abilities: {
116
+ vision: true,
117
+ },
118
+ contextWindowTokens: 32_768,
119
+ description: 'Qwen-Omni 系列模型支持输入多种模态的数据,包括视频、音频、图片、文本,并输出音频与文本。',
120
+ displayName: 'Qwen Omni Turbo',
121
+ enabled: true,
122
+ id: 'qwen-omni-turbo-latest',
123
+ maxOutput: 2048,
124
+ organization: 'Qwen',
125
+ pricing: {
126
+ currency: 'CNY',
127
+ input: 1.5, // use image input price
128
+ output: 4.5,
129
+ },
130
+ type: 'chat',
131
+ },
88
132
  {
89
133
  abilities: {
90
134
  vision: true,
@@ -199,7 +243,24 @@ const qwenChatModels: AIChatModelCard[] = [
199
243
  },
200
244
  {
201
245
  abilities: {
202
- functionCall: true,
246
+ reasoning: true,
247
+ },
248
+ contextWindowTokens: 131_072,
249
+ description: '基于 Qwen2.5-32B 模型训练的 QwQ 推理模型,通过强化学习大幅度提升了模型推理能力。模型数学代码等核心指标(AIME 24/25、LiveCodeBench)以及部分通用指标(IFEval、LiveBench等)达到DeepSeek-R1 满血版水平,各指标均显著超过同样基于 Qwen2.5-32B 的 DeepSeek-R1-Distill-Qwen-32B。',
250
+ displayName: 'QwQ 32B',
251
+ id: 'qwq-32b',
252
+ maxOutput: 8192,
253
+ organization: 'Qwen',
254
+ pricing: {
255
+ currency: 'CNY',
256
+ input: 0,
257
+ output: 0,
258
+ },
259
+ releasedAt: '2025-03-06',
260
+ type: 'chat',
261
+ },
262
+ {
263
+ abilities: {
203
264
  reasoning: true,
204
265
  },
205
266
  contextWindowTokens: 32_768,
@@ -210,8 +271,8 @@ const qwenChatModels: AIChatModelCard[] = [
210
271
  organization: 'Qwen',
211
272
  pricing: {
212
273
  currency: 'CNY',
213
- input: 3.5,
214
- output: 7,
274
+ input: 2,
275
+ output: 6,
215
276
  },
216
277
  releasedAt: '2024-11-28',
217
278
  type: 'chat',
@@ -410,23 +471,6 @@ const qwenChatModels: AIChatModelCard[] = [
410
471
  },
411
472
  type: 'chat',
412
473
  },
413
- {
414
- abilities: {
415
- vision: true,
416
- },
417
- contextWindowTokens: 32_768,
418
- description: 'Qwen-Omni 系列模型支持输入多种模态的数据,包括视频、音频、图片、文本,并输出音频与文本。',
419
- displayName: 'Qwen Omni Turbo',
420
- id: 'qwen-omni-turbo-latest',
421
- maxOutput: 2048,
422
- organization: 'Qwen',
423
- pricing: {
424
- currency: 'CNY',
425
- input: 0,
426
- output: 0,
427
- },
428
- type: 'chat',
429
- },
430
474
  {
431
475
  abilities: {
432
476
  vision: true,
@@ -473,7 +517,6 @@ const qwenChatModels: AIChatModelCard[] = [
473
517
  description:
474
518
  'DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能较高,能力较强。',
475
519
  displayName: 'DeepSeek R1',
476
- enabled: true,
477
520
  id: 'deepseek-r1',
478
521
  maxOutput: 8192,
479
522
  organization: 'DeepSeek',
@@ -486,14 +529,10 @@ const qwenChatModels: AIChatModelCard[] = [
486
529
  type: 'chat',
487
530
  },
488
531
  {
489
- abilities: {
490
- functionCall: true,
491
- },
492
532
  contextWindowTokens: 65_792,
493
533
  description:
494
534
  'DeepSeek-V3 为自研 MoE 模型,671B 参数,激活 37B,在 14.8T token 上进行了预训练,在长文本、代码、数学、百科、中文能力上表现优秀。',
495
535
  displayName: 'DeepSeek V3',
496
- enabled: true,
497
536
  id: 'deepseek-v3',
498
537
  maxOutput: 8192,
499
538
  organization: 'DeepSeek',
@@ -243,7 +243,7 @@ const PPIO: ModelProviderCard = {
243
243
  sdkType: 'openai',
244
244
  showModelFetcher: true,
245
245
  },
246
- url: 'https://ppinfra.com/user/register?invited_by=RQIMOC',
246
+ url: 'https://ppinfra.com/user/register?invited_by=RQIMOC&utm_source=github_lobechat',
247
247
  };
248
248
 
249
249
  export default PPIO;