@lobehub/chat 1.36.7 → 1.36.9

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (47) hide show
  1. package/CHANGELOG.md +58 -0
  2. package/changelog/v1.json +21 -0
  3. package/locales/ar/models.json +78 -0
  4. package/locales/ar/providers.json +3 -0
  5. package/locales/bg-BG/models.json +78 -0
  6. package/locales/bg-BG/providers.json +3 -0
  7. package/locales/de-DE/models.json +78 -0
  8. package/locales/de-DE/providers.json +3 -0
  9. package/locales/en-US/models.json +78 -0
  10. package/locales/en-US/providers.json +3 -0
  11. package/locales/es-ES/models.json +78 -0
  12. package/locales/es-ES/providers.json +3 -0
  13. package/locales/fa-IR/models.json +78 -0
  14. package/locales/fa-IR/providers.json +3 -0
  15. package/locales/fr-FR/models.json +78 -0
  16. package/locales/fr-FR/providers.json +3 -0
  17. package/locales/it-IT/models.json +78 -0
  18. package/locales/it-IT/providers.json +3 -0
  19. package/locales/ja-JP/models.json +78 -0
  20. package/locales/ja-JP/providers.json +3 -0
  21. package/locales/ko-KR/models.json +78 -0
  22. package/locales/ko-KR/providers.json +3 -0
  23. package/locales/nl-NL/models.json +78 -0
  24. package/locales/nl-NL/providers.json +3 -0
  25. package/locales/pl-PL/modelProvider.json +9 -9
  26. package/locales/pl-PL/models.json +78 -0
  27. package/locales/pl-PL/providers.json +3 -0
  28. package/locales/pt-BR/models.json +78 -0
  29. package/locales/pt-BR/providers.json +3 -0
  30. package/locales/ru-RU/models.json +78 -0
  31. package/locales/ru-RU/providers.json +3 -0
  32. package/locales/tr-TR/models.json +78 -0
  33. package/locales/tr-TR/providers.json +3 -0
  34. package/locales/vi-VN/models.json +78 -0
  35. package/locales/vi-VN/providers.json +3 -0
  36. package/locales/zh-CN/models.json +88 -10
  37. package/locales/zh-CN/providers.json +3 -0
  38. package/locales/zh-TW/models.json +78 -0
  39. package/locales/zh-TW/providers.json +3 -0
  40. package/package.json +1 -1
  41. package/src/app/(backend)/api/webhooks/clerk/route.ts +18 -3
  42. package/src/config/modelProviders/zhipu.ts +14 -0
  43. package/src/database/server/models/__tests__/nextauth.test.ts +33 -0
  44. package/src/libs/next-auth/adapter/index.ts +8 -2
  45. package/src/server/services/user/index.test.ts +200 -0
  46. package/src/server/services/user/index.ts +24 -32
  47. package/vitest.config.ts +1 -1
package/CHANGELOG.md CHANGED
@@ -2,6 +2,64 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ### [Version 1.36.9](https://github.com/lobehub/lobe-chat/compare/v1.36.8...v1.36.9)
6
+
7
+ <sup>Released on **2024-12-10**</sup>
8
+
9
+ #### ♻ Code Refactoring
10
+
11
+ - **misc**: Refactor the clerk user service implement.
12
+
13
+ #### 🐛 Bug Fixes
14
+
15
+ - **misc**: Nullptr errors in NextAuth adapter.
16
+
17
+ <br/>
18
+
19
+ <details>
20
+ <summary><kbd>Improvements and Fixes</kbd></summary>
21
+
22
+ #### Code refactoring
23
+
24
+ - **misc**: Refactor the clerk user service implement, closes [#4965](https://github.com/lobehub/lobe-chat/issues/4965) ([059810b](https://github.com/lobehub/lobe-chat/commit/059810b))
25
+
26
+ #### What's fixed
27
+
28
+ - **misc**: Nullptr errors in NextAuth adapter, closes [#4960](https://github.com/lobehub/lobe-chat/issues/4960) ([d242ee0](https://github.com/lobehub/lobe-chat/commit/d242ee0))
29
+
30
+ </details>
31
+
32
+ <div align="right">
33
+
34
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
35
+
36
+ </div>
37
+
38
+ ### [Version 1.36.8](https://github.com/lobehub/lobe-chat/compare/v1.36.7...v1.36.8)
39
+
40
+ <sup>Released on **2024-12-10**</sup>
41
+
42
+ #### 💄 Styles
43
+
44
+ - **misc**: Add `GLM-4V-Flash` from Zhipu.
45
+
46
+ <br/>
47
+
48
+ <details>
49
+ <summary><kbd>Improvements and Fixes</kbd></summary>
50
+
51
+ #### Styles
52
+
53
+ - **misc**: Add `GLM-4V-Flash` from Zhipu, closes [#4958](https://github.com/lobehub/lobe-chat/issues/4958) ([17ea86c](https://github.com/lobehub/lobe-chat/commit/17ea86c))
54
+
55
+ </details>
56
+
57
+ <div align="right">
58
+
59
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
60
+
61
+ </div>
62
+
5
63
  ### [Version 1.36.7](https://github.com/lobehub/lobe-chat/compare/v1.36.6...v1.36.7)
6
64
 
7
65
  <sup>Released on **2024-12-10**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,25 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "improvements": [
5
+ "Refactor the clerk user service implement."
6
+ ],
7
+ "fixes": [
8
+ "Nullptr errors in NextAuth adapter."
9
+ ]
10
+ },
11
+ "date": "2024-12-10",
12
+ "version": "1.36.9"
13
+ },
14
+ {
15
+ "children": {
16
+ "improvements": [
17
+ "Add GLM-4V-Flash from Zhipu."
18
+ ]
19
+ },
20
+ "date": "2024-12-10",
21
+ "version": "1.36.8"
22
+ },
2
23
  {
3
24
  "children": {
4
25
  "fixes": [
@@ -55,6 +55,24 @@
55
55
  "Baichuan4-Turbo": {
56
56
  "description": "النموذج الأول محليًا، يتفوق على النماذج الرئيسية الأجنبية في المهام الصينية مثل المعرفة الموسوعية، النصوص الطويلة، والإبداع. كما يتمتع بقدرات متعددة الوسائط الرائدة في الصناعة، ويظهر أداءً ممتازًا في العديد من معايير التقييم الموثوقة."
57
57
  },
58
+ "Doubao-lite-128k": {
59
+ "description": "دو باو-لايت يوفر سرعة استجابة فائقة وقيمة جيدة للكلفة، ويقدم خيارات أكثر مرونة للعملاء في سيناريوهات مختلفة. يدعم الاستدلال والتنقيح بسعة سياق 128k."
60
+ },
61
+ "Doubao-lite-32k": {
62
+ "description": "دو باو-لايت يوفر سرعة استجابة فائقة وقيمة جيدة للكلفة، ويقدم خيارات أكثر مرونة للعملاء في سيناريوهات مختلفة. يدعم الاستدلال والتنقيح بسعة سياق 32k."
63
+ },
64
+ "Doubao-lite-4k": {
65
+ "description": "دو باو-لايت يوفر سرعة استجابة فائقة وقيمة جيدة للكلفة، ويقدم خيارات أكثر مرونة للعملاء في سيناريوهات مختلفة. يدعم الاستدلال والتنقيح بسعة سياق 4k."
66
+ },
67
+ "Doubao-pro-128k": {
68
+ "description": "النموذج الرئيسي الأفضل أداءً، مناسب لمعالجة المهام المعقدة، يقدم أداءً جيدًا في السيناريوهات مثل الاستجابة المرجعية، والتلخيص، والإبداع، وتصنيف النصوص، وألعاب الأدوار. يدعم الاستدلال والتنقيح بسعة سياق 128k."
69
+ },
70
+ "Doubao-pro-32k": {
71
+ "description": "النموذج الرئيسي الأفضل أداءً، مناسب لمعالجة المهام المعقدة، يقدم أداءً جيدًا في السيناريوهات مثل الاستجابة المرجعية، والتلخيص، والإبداع، وتصنيف النصوص، وألعاب الأدوار. يدعم الاستدلال والتنقيح بسعة سياق 32k."
72
+ },
73
+ "Doubao-pro-4k": {
74
+ "description": "النموذج الرئيسي الأفضل أداءً، مناسب لمعالجة المهام المعقدة، يقدم أداءً جيدًا في السيناريوهات مثل الاستجابة المرجعية، والتلخيص، والإبداع، وتصنيف النصوص، وألعاب الأدوار. يدعم الاستدلال والتنقيح بسعة سياق 4k."
75
+ },
58
76
  "ERNIE-3.5-128K": {
59
77
  "description": "نموذج اللغة الكبير الرائد الذي طورته بايدو، يغطي كمية هائلة من البيانات باللغة الصينية والإنجليزية، ويتميز بقدرات عامة قوية، يمكنه تلبية معظم متطلبات الحوار، والإجابة على الأسئلة، وإنشاء المحتوى، وتطبيقات الإضافات؛ يدعم الاتصال التلقائي بإضافات بحث بايدو، مما يضمن تحديث معلومات الإجابة."
60
78
  },
@@ -242,6 +260,21 @@
242
260
  "SenseChat-Turbo": {
243
261
  "description": "مناسب للأسئلة السريعة، وسيناريوهات ضبط النموذج."
244
262
  },
263
+ "Skylark2-lite-8k": {
264
+ "description": "نموذج سكايلارك (Skylark) من الجيل الثاني، نموذج سكايلارك2-لايت يتميز بسرعات استجابة عالية، مناسب للسيناريوهات التي تتطلب استجابة في الوقت الحقيقي، وحساسة للتكاليف، وغير متطلبة لدقة نموذج عالية، بسعة سياق تبلغ 8k."
265
+ },
266
+ "Skylark2-pro-32k": {
267
+ "description": "نموذج سكايلارك (Skylark) من الجيل الثاني، النسخة سكايلارك2-برو تتميز بدقة نموذج عالية، مناسبة لمهام توليد النصوص المعقدة، مثل إنشاء نصوص في مجالات احترافية، وكتابة الروايات، والترجمة عالية الجودة، بسعة سياق تبلغ 32k."
268
+ },
269
+ "Skylark2-pro-4k": {
270
+ "description": "نموذج سكايلارك (Skylark) من الجيل الثاني، النسخة سكايلارك2-برو تتميز بدقة نموذج عالية، مناسبة لمهام توليد النصوص المعقدة، مثل إنشاء نصوص في مجالات احترافية، وكتابة الروايات، والترجمة عالية الجودة، بسعة سياق تبلغ 4k."
271
+ },
272
+ "Skylark2-pro-character-4k": {
273
+ "description": "نموذج سكايلارك (Skylark) من الجيل الثاني، نموذج سكايلارك2-برو-شخصية يتميز بقدرات ممتازة في لعب الأدوار والدردشة، يجيد تجسيد شخصيات مختلفة بناءً على طلب المستخدم والتفاعل بشكل طبيعي، مناسب لبناء روبوتات الدردشة، والمساعدين الافتراضيين، وخدمة العملاء عبر الإنترنت، ويتميز بسرعة استجابة عالية."
274
+ },
275
+ "Skylark2-pro-turbo-8k": {
276
+ "description": "نموذج سكايلارك (Skylark) من الجيل الثاني، سكايلارك2-برو-توربو-8k يقدم استدلالًا أسرع وتكاليف أقل، بسعة سياق تبلغ 8k."
277
+ },
245
278
  "THUDM/chatglm3-6b": {
246
279
  "description": "ChatGLM3-6B هو نموذج مفتوح المصدر من سلسلة ChatGLM، تم تطويره بواسطة Zhizhu AI. يحتفظ هذا النموذج بخصائص الجيل السابق الممتازة، مثل سلاسة المحادثة وانخفاض عتبة النشر، بينما يقدم ميزات جديدة. تم تدريبه على بيانات تدريب أكثر تنوعًا، وعدد أكبر من خطوات التدريب، واستراتيجيات تدريب أكثر منطقية، مما يجعله نموذجًا ممتازًا بين النماذج المدربة مسبقًا التي تقل عن 10B. يدعم ChatGLM3-6B المحادثات متعددة الجولات، واستدعاء الأدوات، وتنفيذ الشيفرة، ومهام الوكلاء في سيناريوهات معقدة. بالإضافة إلى نموذج المحادثة، تم إصدار النموذج الأساسي ChatGLM-6B-Base ونموذج المحادثة الطويلة ChatGLM3-6B-32K. النموذج مفتوح بالكامل للأبحاث الأكاديمية، ويسمح بالاستخدام التجاري المجاني بعد التسجيل."
247
280
  },
@@ -476,6 +509,9 @@
476
509
  "cohere-command-r-plus": {
477
510
  "description": "نموذج RAG محسّن من الطراز الأول مصمم للتعامل مع أحمال العمل على مستوى المؤسسات."
478
511
  },
512
+ "command-light": {
513
+ "description": ""
514
+ },
479
515
  "command-r": {
480
516
  "description": "Command R هو نموذج LLM محسن لمهام الحوار والسياقات الطويلة، مناسب بشكل خاص للتفاعل الديناميكي وإدارة المعرفة."
481
517
  },
@@ -539,6 +575,9 @@
539
575
  "gemini-1.5-flash-8b-exp-0924": {
540
576
  "description": "جمني 1.5 فلاش 8B 0924 هو النموذج التجريبي الأحدث، حيث حقق تحسينات ملحوظة في الأداء في حالات الاستخدام النصية ومتعددة الوسائط."
541
577
  },
578
+ "gemini-1.5-flash-exp-0827": {
579
+ "description": "جيميني 1.5 فلاش 0827 يقدم قدرة معالجة متعددة الوسائط محسنة، مناسب لمجموعة متنوعة من سيناريوهات المهام المعقدة."
580
+ },
542
581
  "gemini-1.5-flash-latest": {
543
582
  "description": "Gemini 1.5 Flash هو أحدث نموذج ذكاء اصطناعي متعدد الوسائط من Google، يتمتع بقدرات معالجة سريعة، ويدعم إدخال النصوص والصور والفيديو، مما يجعله مناسبًا للتوسع الفعال في مجموعة متنوعة من المهام."
544
583
  },
@@ -548,6 +587,12 @@
548
587
  "gemini-1.5-pro-002": {
549
588
  "description": "جمني 1.5 برو 002 هو النموذج الأحدث الجاهز للإنتاج، حيث يقدم مخرجات ذات جودة أعلى، مع تحسينات ملحوظة خاصة في الرياضيات والسياقات الطويلة والمهام البصرية."
550
589
  },
590
+ "gemini-1.5-pro-exp-0801": {
591
+ "description": "جيميني 1.5 برو 0801 يوفر قدرة معالجة متعددة الوسائط ممتازة، مما يوفر مرونة أكبر لتطوير التطبيقات."
592
+ },
593
+ "gemini-1.5-pro-exp-0827": {
594
+ "description": "جيميني 1.5 برو 0827 يدمج أحدث تقنيات التحسين، مما يوفر قدرة معالجة بيانات متعددة الوسائط أكثر كفاءة."
595
+ },
551
596
  "gemini-1.5-pro-latest": {
552
597
  "description": "Gemini 1.5 Pro يدعم ما يصل إلى 2 مليون توكن، وهو الخيار المثالي للنماذج المتوسطة الحجم متعددة الوسائط، مناسب لدعم المهام المعقدة من جوانب متعددة."
553
598
  },
@@ -557,6 +602,9 @@
557
602
  "gemini-exp-1121": {
558
603
  "description": "جمني إكسب 1121 هو أحدث نموذج تجريبي متعدد الوسائط من جوجل، يتمتع بقدرة معالجة سريعة، ويدعم إدخال النصوص والصور والفيديو، مما يجعله مناسبًا للتوسع الفعال في مجموعة متنوعة من المهام."
559
604
  },
605
+ "gemini-exp-1206": {
606
+ "description": "جيميني إكسب 1206 هو أحدث نموذج ذكاء اصطناعي متعدد الوسائط من جوجل، مع تحسينات في الجودة مقارنةً بالإصدارات السابقة."
607
+ },
560
608
  "gemma-7b-it": {
561
609
  "description": "Gemma 7B مناسب لمعالجة المهام المتوسطة والصغيرة، ويجمع بين الكفاءة من حيث التكلفة."
562
610
  },
@@ -647,6 +695,12 @@
647
695
  "gpt-3.5-turbo-instruct": {
648
696
  "description": "نموذج GPT 3.5 Turbo، مناسب لمجموعة متنوعة من مهام توليد وفهم النصوص، يشير حاليًا إلى gpt-3.5-turbo-0125."
649
697
  },
698
+ "gpt-35-turbo": {
699
+ "description": "جي بي تي 3.5 توربو، نموذج فعال مقدم من OpenAI، مناسب للدردشة ومهام توليد النصوص، يدعم استدعاءات الوظائف المتوازية."
700
+ },
701
+ "gpt-35-turbo-16k": {
702
+ "description": "جي بي تي 3.5 توربو 16k، نموذج توليد نصوص عالي السعة، مناسب للمهام المعقدة."
703
+ },
650
704
  "gpt-4": {
651
705
  "description": "يوفر GPT-4 نافذة سياقية أكبر، مما يمكنه من معالجة إدخالات نصية أطول، مما يجعله مناسبًا للمواقف التي تتطلب دمج معلومات واسعة وتحليل البيانات."
652
706
  },
@@ -689,6 +743,9 @@
689
743
  "gpt-4o-2024-08-06": {
690
744
  "description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي للحفاظ على أحدث إصدار. يجمع بين فهم اللغة القوي وقدرات التوليد، مما يجعله مناسبًا لمجموعة واسعة من التطبيقات، بما في ذلك خدمة العملاء والتعليم والدعم الفني."
691
745
  },
746
+ "gpt-4o-2024-11-20": {
747
+ "description": "تشات جي بي تي-4o هو نموذج ديناميكي يتم تحديثه في الوقت الفعلي للحفاظ على أحدث إصدار. يجمع بين الفهم اللغوي القوي وقدرة التوليد، مما يجعله مناسبًا لتطبيقات واسعة النطاق، بما في ذلك خدمة العملاء والتعليم والدعم الفني."
748
+ },
692
749
  "gpt-4o-mini": {
693
750
  "description": "نموذج GPT-4o mini هو أحدث نموذج أطلقته OpenAI بعد GPT-4 Omni، ويدعم إدخال الصور والنصوص وإخراج النصوص. كأحد نماذجهم المتقدمة الصغيرة، فهو أرخص بكثير من النماذج الرائدة الأخرى في الآونة الأخيرة، وأرخص بأكثر من 60% من GPT-3.5 Turbo. يحتفظ بذكاء متقدم مع قيمة ممتازة. حصل GPT-4o mini على 82% في اختبار MMLU، وهو حاليًا يتفوق على GPT-4 في تفضيلات الدردشة."
694
751
  },
@@ -707,6 +764,9 @@
707
764
  "hunyuan-functioncall": {
708
765
  "description": "نموذج Hunyuan الأحدث من نوع MOE FunctionCall، تم تدريبه على بيانات FunctionCall عالية الجودة، مع نافذة سياق تصل إلى 32K، ويحتل مرتبة متقدمة في مؤشرات التقييم عبر عدة أبعاد."
709
766
  },
767
+ "hunyuan-large": {
768
+ "description": ""
769
+ },
710
770
  "hunyuan-lite": {
711
771
  "description": "تم الترقية إلى هيكل MOE، مع نافذة سياق تصل إلى 256k، متفوقًا على العديد من النماذج مفتوحة المصدر في تقييمات NLP، البرمجة، الرياضيات، والصناعات."
712
772
  },
@@ -787,6 +847,9 @@
787
847
  "llama-3.2-90b-vision-preview": {
788
848
  "description": "Llama 3.2 مصمم للتعامل مع المهام التي تجمع بين البيانات البصرية والنصية. يظهر أداءً ممتازًا في مهام وصف الصور والأسئلة البصرية، متجاوزًا الفجوة بين توليد اللغة والاستدلال البصري."
789
849
  },
850
+ "llama-3.3-70b-versatile": {
851
+ "description": "ميتّا لاما 3.3 هو نموذج لغة كبير متعدد اللغات (LLM) يضم 70 مليار (إدخال نص/إخراج نص) من النموذج المدرب مسبقًا والمعدل وفقًا للتعليمات. تم تحسين نموذج لاما 3.3 المعدل وفقًا للتعليمات للاستخدامات الحوارية متعددة اللغات ويتفوق على العديد من النماذج المتاحة مفتوحة المصدر والمغلقة في المعايير الصناعية الشائعة."
852
+ },
790
853
  "llama3-70b-8192": {
791
854
  "description": "Meta Llama 3 70B يوفر قدرة معالجة معقدة لا مثيل لها، مصمم خصيصًا للمشاريع ذات المتطلبات العالية."
792
855
  },
@@ -1094,12 +1157,21 @@
1094
1157
  "qwen-math-turbo-latest": {
1095
1158
  "description": "نموذج Qwen الرياضي مصمم خصيصًا لحل المسائل الرياضية."
1096
1159
  },
1160
+ "qwen-max": {
1161
+ "description": "نموذج لغة ضخم من توغي بمستوى مئات المليارات، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية. هو النموذج الذي يقف خلف إصدار توغي 2.5."
1162
+ },
1097
1163
  "qwen-max-latest": {
1098
1164
  "description": "نموذج لغة ضخم من Qwen بمستوى تريليونات، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية، وهو النموذج API وراء إصدار Qwen 2.5."
1099
1165
  },
1166
+ "qwen-plus": {
1167
+ "description": "نموذج لغة ضخم من توغي، نسخة معززة، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية."
1168
+ },
1100
1169
  "qwen-plus-latest": {
1101
1170
  "description": "نسخة محسنة من نموذج لغة Qwen الضخم، تدعم إدخال لغات مختلفة مثل الصينية والإنجليزية."
1102
1171
  },
1172
+ "qwen-turbo": {
1173
+ "description": "نموذج لغة ضخم من توغي، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية."
1174
+ },
1103
1175
  "qwen-turbo-latest": {
1104
1176
  "description": "نموذج لغة ضخم من Qwen، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية."
1105
1177
  },
@@ -1136,12 +1208,18 @@
1136
1208
  "qwen2.5-7b-instruct": {
1137
1209
  "description": "نموذج Qwen 2.5 مفتوح المصدر بحجم 7B."
1138
1210
  },
1211
+ "qwen2.5-coder-1.5b-instruct": {
1212
+ "description": "نموذج كود تونغي، النسخة مفتوحة المصدر."
1213
+ },
1139
1214
  "qwen2.5-coder-32b-instruct": {
1140
1215
  "description": "الإصدار المفتوح من نموذج كود Qwen الشامل."
1141
1216
  },
1142
1217
  "qwen2.5-coder-7b-instruct": {
1143
1218
  "description": "نسخة مفتوحة المصدر من نموذج Qwen للبرمجة."
1144
1219
  },
1220
+ "qwen2.5-math-1.5b-instruct": {
1221
+ "description": "نموذج Qwen-Math لديه قدرة قوية على حل المسائل الرياضية."
1222
+ },
1145
1223
  "qwen2.5-math-72b-instruct": {
1146
1224
  "description": "نموذج Qwen-Math يتمتع بقدرات قوية في حل المسائل الرياضية."
1147
1225
  },
@@ -34,6 +34,9 @@
34
34
  "groq": {
35
35
  "description": "يتميز محرك الاستدلال LPU من Groq بأداء ممتاز في أحدث اختبارات المعايير لنماذج اللغة الكبيرة المستقلة (LLM)، حيث أعاد تعريف معايير حلول الذكاء الاصطناعي بسرعته وكفاءته المذهلة. Groq يمثل سرعة استدلال فورية، ويظهر أداءً جيدًا في النشر القائم على السحابة."
36
36
  },
37
+ "higress": {
38
+ "description": ""
39
+ },
37
40
  "huggingface": {
38
41
  "description": "تقدم واجهة برمجة التطبيقات الخاصة بـ HuggingFace طريقة سريعة ومجانية لاستكشاف الآلاف من النماذج لمجموعة متنوعة من المهام. سواء كنت تقوم بتصميم نموذج أولي لتطبيق جديد أو تحاول استكشاف إمكانيات التعلم الآلي، فإن هذه الواجهة تتيح لك الوصول الفوري إلى نماذج عالية الأداء في مجالات متعددة."
39
42
  },
@@ -55,6 +55,24 @@
55
55
  "Baichuan4-Turbo": {
56
56
  "description": "Моделът е лидер в страната по способности, надминавайки чуждестранните основни модели в задачи на китайски език, като знания, дълги текстове и генериране на творби. Също така притежава водещи в индустрията мултимодални способности и отлични резултати в множество авторитетни оценки."
57
57
  },
58
+ "Doubao-lite-128k": {
59
+ "description": "Doubao-lite предлага изключителна скорост на отговор и по-добра цена, предоставяйки на клиентите гъвкави опции за различни сценарии. Поддържа извеждане и фин настройка на контекстов прозорец от 128k."
60
+ },
61
+ "Doubao-lite-32k": {
62
+ "description": "Doubao-lite предлага изключителна скорост на отговор и по-добра цена, предоставяйки на клиентите гъвкави опции за различни сценарии. Поддържа извеждане и фин настройка на контекстов прозорец от 32k."
63
+ },
64
+ "Doubao-lite-4k": {
65
+ "description": "Doubao-lite предлага изключителна скорост на отговор и по-добра цена, предоставяйки на клиентите гъвкави опции за различни сценарии. Поддържа извеждане и фин настройка на контекстов прозорец от 4k."
66
+ },
67
+ "Doubao-pro-128k": {
68
+ "description": "Най-добрият модел за основни задачи, подходящ за работа с комплексни задачи, с много добри резултати в справочния отговор, обобщение, творчество, текстова класификация и ролеви игри. Поддържа извеждане и фин настройка на контекстов прозорец от 128k."
69
+ },
70
+ "Doubao-pro-32k": {
71
+ "description": "Най-добрият модел за основни задачи, подходящ за работа с комплексни задачи, с много добри резултати в справочния отговор, обобщение, творчество, текстова класификация и ролеви игри. Поддържа извеждане и фин настройка на контекстов прозорец от 32k."
72
+ },
73
+ "Doubao-pro-4k": {
74
+ "description": "Най-добрият модел за основни задачи, подходящ за работа с комплексни задачи, с много добри резултати в справочния отговор, обобщение, творчество, текстова класификация и ролеви игри. Поддържа извеждане и фин настройка на контекстов прозорец от 4k."
75
+ },
58
76
  "ERNIE-3.5-128K": {
59
77
  "description": "Флагманският модел на Baidu, разработен самостоятелно, е мащабен езиков модел, който обхваща огромно количество китайски и английски текстове. Той притежава мощни общи способности и може да отговори на почти всички изисквания за диалогови въпроси и отговори, генериране на съдържание и приложения с плъгини; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията за отговорите."
60
78
  },
@@ -242,6 +260,21 @@
242
260
  "SenseChat-Turbo": {
243
261
  "description": "Подходящ за бързи въпроси и отговори, сцени на фино настройване на модела."
244
262
  },
263
+ "Skylark2-lite-8k": {
264
+ "description": "Cloud Lark (Skylark) второ поколение модел, Skylark2-lite предлага висока скорост на отговор, подходяща за сценарии с високи изисквания за реално време, чувствителни към разходите и с по-ниски изисквания за прецизност, с дължина на контекстовия прозорец 8k."
265
+ },
266
+ "Skylark2-pro-32k": {
267
+ "description": "Cloud Lark (Skylark) второ поколение модел, версията Skylark2-pro предлага висока прецизност на модела, подходяща за по-сложни текстови генерации, като например генериране на текстове за специализирани области, писане на романи и висококачествени преводи, с дължина на контекстовия прозорец 32k."
268
+ },
269
+ "Skylark2-pro-4k": {
270
+ "description": "Cloud Lark (Skylark) второ поколение модел, версията Skylark2-pro предлага висока прецизност на модела, подходяща за по-сложни текстови генерации, като например генериране на текстове за специализирани области, писане на романи и висококачествени преводи, с дължина на контекстовия прозорец 4k."
271
+ },
272
+ "Skylark2-pro-character-4k": {
273
+ "description": "Cloud Lark (Skylark) второ поколение модел, Skylark2-pro-character предоставя отлични способности за ролеви игри и чат, специализирани в адаптиране на стилове на персонажи, които естествено взаимодействат с потребителите, идеален за изграждане на чат-ботове, виртуални асистенти и онлайн обслужване с висока скорост на отговор."
274
+ },
275
+ "Skylark2-pro-turbo-8k": {
276
+ "description": "Cloud Lark (Skylark) второ поколение модел, Skylark2-pro-turbo-8k предлага по-бърза обработка и по-ниски разходи, с дължина на контекстовия прозорец 8k."
277
+ },
245
278
  "THUDM/chatglm3-6b": {
246
279
  "description": "ChatGLM3-6B е отворен модел от серията ChatGLM, разработен от Zhizhu AI. Моделът запазва отличителните характеристики на предшествениците си, като плавност на разговора и ниски изисквания за внедряване, докато въвежда нови функции. Той използва по-разнообразни тренировъчни данни, по-пълноценни тренировъчни стъпки и по-разумни тренировъчни стратегии, показвайки отлични резултати сред предварително обучените модели под 10B. ChatGLM3-6B поддържа многократни разговори, извикване на инструменти, изпълнение на код и сложни сценарии на задачи на агенти. Освен модела за разговори, са отворени и основният модел ChatGLM-6B-Base и моделът за дълги текстови разговори ChatGLM3-6B-32K. Моделът е напълно отворен за академични изследвания и позволява безплатна търговска употреба след регистрация."
247
280
  },
@@ -476,6 +509,9 @@
476
509
  "cohere-command-r-plus": {
477
510
  "description": "Command R+ е модел, оптимизиран за RAG, проектиран да се справя с натоварвания на ниво предприятие."
478
511
  },
512
+ "command-light": {
513
+ "description": ""
514
+ },
479
515
  "command-r": {
480
516
  "description": "Command R е LLM, оптимизиран за диалогови и дълги контекстуални задачи, особено подходящ за динамично взаимодействие и управление на знания."
481
517
  },
@@ -539,6 +575,9 @@
539
575
  "gemini-1.5-flash-8b-exp-0924": {
540
576
  "description": "Gemini 1.5 Flash 8B 0924 е най-новият експериментален модел, който показва значителни подобрения в производителността както в текстови, така и в мултимодални приложения."
541
577
  },
578
+ "gemini-1.5-flash-exp-0827": {
579
+ "description": "Gemini 1.5 Flash 0827 предлага оптимизирани мултимодални способности, подходящи за различни сложни задачи."
580
+ },
542
581
  "gemini-1.5-flash-latest": {
543
582
  "description": "Gemini 1.5 Flash е най-новият многомодален AI модел на Google, който предлага бърза обработка и поддържа текстови, изображенчески и видео входове, подходящ за ефективно разширяване на множество задачи."
544
583
  },
@@ -548,6 +587,12 @@
548
587
  "gemini-1.5-pro-002": {
549
588
  "description": "Gemini 1.5 Pro 002 е най-новият модел, готов за производство, който предлага по-високо качество на изхода, особено в математически, дълги контексти и визуални задачи."
550
589
  },
590
+ "gemini-1.5-pro-exp-0801": {
591
+ "description": "Gemini 1.5 Pro 0801 предоставя отлична мултимодална обработка, давайки по-голяма гъвкавост при разработката на приложения."
592
+ },
593
+ "gemini-1.5-pro-exp-0827": {
594
+ "description": "Gemini 1.5 Pro 0827 комбинира най-новите оптимизационни технологии, предоставяйки по-ефективни мултимодални способности за обработка на данни."
595
+ },
551
596
  "gemini-1.5-pro-latest": {
552
597
  "description": "Gemini 1.5 Pro поддържа до 2 милиона токена и е идеален избор за среден многомодален модел, подходящ за многостранна поддръжка на сложни задачи."
553
598
  },
@@ -557,6 +602,9 @@
557
602
  "gemini-exp-1121": {
558
603
  "description": "Gemini Exp 1121 е най-новият експериментален мултимодален AI модел на Google, който предлага бърза обработка и поддържа текстови, изображенчески и видео входове, подходящ за ефективно разширяване на множество задачи."
559
604
  },
605
+ "gemini-exp-1206": {
606
+ "description": "Gemini Exp 1206 е най-новият експериментален мултимодален AI модел на Google, който предлага значително подобрение в качеството в сравнение с предишни версии."
607
+ },
560
608
  "gemma-7b-it": {
561
609
  "description": "Gemma 7B е подходяща за обработка на средни и малки задачи, съчетаваща икономичност."
562
610
  },
@@ -647,6 +695,12 @@
647
695
  "gpt-3.5-turbo-instruct": {
648
696
  "description": "GPT 3.5 Turbo, подходящ за различни задачи по генериране и разбиране на текст, в момента сочи към gpt-3.5-turbo-0125."
649
697
  },
698
+ "gpt-35-turbo": {
699
+ "description": "GPT 3.5 Turbo е ефективен модел, предоставен от OpenAI, подходящ за чат и генериране на текст, поддържащ паралелни извиквания на функции."
700
+ },
701
+ "gpt-35-turbo-16k": {
702
+ "description": "GPT 3.5 Turbo 16k е модел с висока капацитет за генериране на текст, подходящ за сложни задачи."
703
+ },
650
704
  "gpt-4": {
651
705
  "description": "GPT-4 предлага по-голям контекстуален прозорец, способен да обработва по-дълги текстови входове, подходящ за сценарии, изискващи интеграция на обширна информация и анализ на данни."
652
706
  },
@@ -689,6 +743,9 @@
689
743
  "gpt-4o-2024-08-06": {
690
744
  "description": "ChatGPT-4o е динамичен модел, който се актуализира в реално време, за да поддържа най-новата версия. Той комбинира мощно разбиране на езика и генериране на текст, подходящ за мащабни приложения, включително обслужване на клиенти, образование и техническа поддръжка."
691
745
  },
746
+ "gpt-4o-2024-11-20": {
747
+ "description": "ChatGPT-4o е динамичен модел, който се актуализира в реално време, за да поддържа най-новата версия. Той съчетава мощно разбиране и генериране на език и е подходящ за мащабни приложения, включително обслужване на клиенти, образование и техническа поддръжка."
748
+ },
692
749
  "gpt-4o-mini": {
693
750
  "description": "GPT-4o mini е най-новият модел на OpenAI, след GPT-4 Omni, който поддържа текстово и визуално въвеждане и генерира текст. Като най-напредналият им малък модел, той е значително по-евтин от другите нови модели и е с над 60% по-евтин от GPT-3.5 Turbo. Запазва най-съвременната интелигентност, като същевременно предлага значителна стойност за парите. GPT-4o mini получи 82% на теста MMLU и в момента е с по-висок рейтинг от GPT-4 по предпочитания за чат."
694
751
  },
@@ -707,6 +764,9 @@
707
764
  "hunyuan-functioncall": {
708
765
  "description": "Най-новият модел на HunYuan с MOE архитектура за извикване на функции, обучен с висококачествени данни за извикване на функции, с контекстен прозорец от 32K, водещ в множество измерения на оценъчните показатели."
709
766
  },
767
+ "hunyuan-large": {
768
+ "description": ""
769
+ },
710
770
  "hunyuan-lite": {
711
771
  "description": "Актуализиран до MOE структура, контекстният прозорец е 256k, водещ в множество оценъчни набори в NLP, код, математика и индустрия, пред много от отворените модели."
712
772
  },
@@ -787,6 +847,9 @@
787
847
  "llama-3.2-90b-vision-preview": {
788
848
  "description": "Llama 3.2 е проектиран да обработва задачи, свързващи визуални и текстови данни. Той показва отлични резултати в задачи като описание на изображения и визуални въпроси и отговори, преодолявайки пропастта между генерирането на език и визуалното разсъждение."
789
849
  },
850
+ "llama-3.3-70b-versatile": {
851
+ "description": "Meta Llama 3.3 е многоезичен модел за генерация на език (LLM) с 70B (вход/изход на текст), който е предварително обучен и е пригоден за указания. Чистият текстов модел на Llama 3.3 е оптимизиран за многоезични диалогови случаи и надминава много налични отворени и затворени чат модели на стандартни индустриални тестове."
852
+ },
790
853
  "llama3-70b-8192": {
791
854
  "description": "Meta Llama 3 70B предлага ненадмината способност за обработка на сложност, проектирана за високи изисквания."
792
855
  },
@@ -1094,12 +1157,21 @@
1094
1157
  "qwen-math-turbo-latest": {
1095
1158
  "description": "Математическият модел Qwen е специално проектиран за решаване на математически задачи."
1096
1159
  },
1160
+ "qwen-max": {
1161
+ "description": "通义千问(Qwen) е моделиран на база багатограмния езиков модел с хипотетично ниво на милярд, поддържащ различни езици, включително китайски и английски, и в момента служи като API на продукта версия 2.5 на 通义千问."
1162
+ },
1097
1163
  "qwen-max-latest": {
1098
1164
  "description": "Qwen Max е езиков модел с мащаб от стотици милиарди параметри, който поддържа вход на различни езици, включително китайски и английски. В момента е основният API модел зад версията на продукта Qwen 2.5."
1099
1165
  },
1166
+ "qwen-plus": {
1167
+ "description": "通义千问(Qwen) е подобрена версия на мащабен езиков модел, който поддържа вход на различни езици, включително китайски и английски."
1168
+ },
1100
1169
  "qwen-plus-latest": {
1101
1170
  "description": "Разширената версия на Qwen Turbo е мащабен езиков модел, който поддържа вход на различни езици, включително китайски и английски."
1102
1171
  },
1172
+ "qwen-turbo": {
1173
+ "description": "通义千问(Qwen) е мащабен езиков модел, който поддържа вход на различни езици, включително китайски и английски."
1174
+ },
1103
1175
  "qwen-turbo-latest": {
1104
1176
  "description": "Моделът на езика Qwen Turbo е мащабен езиков модел, който поддържа вход на различни езици, включително китайски и английски."
1105
1177
  },
@@ -1136,12 +1208,18 @@
1136
1208
  "qwen2.5-7b-instruct": {
1137
1209
  "description": "Модел с мащаб 7B, отворен за обществеността от Qwen 2.5."
1138
1210
  },
1211
+ "qwen2.5-coder-1.5b-instruct": {
1212
+ "description": "通义千问(Qwen) е отворен код модел за програмиране."
1213
+ },
1139
1214
  "qwen2.5-coder-32b-instruct": {
1140
1215
  "description": "Отворена версия на модела за кодиране Qwen с общо предназначение."
1141
1216
  },
1142
1217
  "qwen2.5-coder-7b-instruct": {
1143
1218
  "description": "Отворената версия на модела на кода Qwen."
1144
1219
  },
1220
+ "qwen2.5-math-1.5b-instruct": {
1221
+ "description": "Qwen-Math моделът разполага със силни умения за решаване на математически задачи."
1222
+ },
1145
1223
  "qwen2.5-math-72b-instruct": {
1146
1224
  "description": "Моделът Qwen-Math притежава силни способности за решаване на математически задачи."
1147
1225
  },
@@ -34,6 +34,9 @@
34
34
  "groq": {
35
35
  "description": "Инженерният двигател LPU на Groq показва изключителни резултати в последните независими тестове на големи езикови модели (LLM), преосмисляйки стандартите за AI решения с невероятната си скорост и ефективност. Groq е представител на мигновен скорост на изводите, демонстрирайки добро представяне в облачни внедрения."
36
36
  },
37
+ "higress": {
38
+ "description": ""
39
+ },
37
40
  "huggingface": {
38
41
  "description": "HuggingFace Inference API предлагава бърз и безплатен начин да изследвате хиляди модели, подходящи за различни задачи. Независимо дали проектирате прототип за ново приложение, или опитвате функционалността на машинното обучение, този API ви предоставя незабавен достъп до високопроизводителни модели в множество области."
39
42
  },