@lobehub/chat 1.32.3 → 1.32.5

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (79) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/README.md +8 -8
  3. package/README.zh-CN.md +8 -8
  4. package/locales/ar/models.json +12 -0
  5. package/locales/ar/providers.json +3 -0
  6. package/locales/bg-BG/models.json +12 -0
  7. package/locales/bg-BG/providers.json +3 -0
  8. package/locales/de-DE/models.json +12 -0
  9. package/locales/de-DE/providers.json +3 -0
  10. package/locales/en-US/models.json +12 -0
  11. package/locales/en-US/providers.json +3 -0
  12. package/locales/es-ES/models.json +12 -0
  13. package/locales/es-ES/providers.json +3 -0
  14. package/locales/fa-IR/models.json +12 -0
  15. package/locales/fa-IR/providers.json +3 -0
  16. package/locales/fr-FR/models.json +12 -0
  17. package/locales/fr-FR/providers.json +3 -0
  18. package/locales/it-IT/models.json +12 -0
  19. package/locales/it-IT/providers.json +3 -0
  20. package/locales/ja-JP/models.json +12 -0
  21. package/locales/ja-JP/providers.json +3 -0
  22. package/locales/ko-KR/models.json +12 -0
  23. package/locales/ko-KR/providers.json +3 -0
  24. package/locales/nl-NL/models.json +12 -0
  25. package/locales/nl-NL/providers.json +3 -0
  26. package/locales/pl-PL/models.json +12 -0
  27. package/locales/pl-PL/providers.json +3 -0
  28. package/locales/pt-BR/models.json +12 -0
  29. package/locales/pt-BR/providers.json +3 -0
  30. package/locales/ru-RU/models.json +12 -0
  31. package/locales/ru-RU/providers.json +3 -0
  32. package/locales/tr-TR/models.json +12 -0
  33. package/locales/tr-TR/providers.json +3 -0
  34. package/locales/vi-VN/models.json +12 -0
  35. package/locales/vi-VN/providers.json +3 -0
  36. package/locales/zh-CN/models.json +12 -0
  37. package/locales/zh-CN/providers.json +3 -0
  38. package/locales/zh-TW/models.json +12 -0
  39. package/locales/zh-TW/providers.json +3 -0
  40. package/package.json +2 -2
  41. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/ChatItem/index.tsx +39 -0
  42. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/Content.tsx +20 -14
  43. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/WelcomeMessage.tsx +44 -0
  44. package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/index.tsx +17 -0
  45. package/src/app/(main)/chat/(workspace)/@portal/features/Header.tsx +1 -13
  46. package/src/app/metadata.ts +2 -1
  47. package/src/components/BrandWatermark/index.tsx +1 -0
  48. package/src/const/message.ts +1 -1
  49. package/src/features/Conversation/components/ChatItem/ActionsBar.tsx +9 -13
  50. package/src/features/Conversation/components/ChatItem/index.tsx +183 -209
  51. package/src/features/Conversation/components/VirtualizedList/index.tsx +75 -84
  52. package/src/features/Conversation/index.ts +0 -1
  53. package/src/features/Portal/Artifacts/index.ts +1 -1
  54. package/src/features/Portal/FilePreview/index.ts +1 -1
  55. package/src/features/Portal/Home/{Header.tsx → Title.tsx} +2 -2
  56. package/src/features/Portal/Home/index.ts +1 -1
  57. package/src/features/Portal/MessageDetail/index.ts +1 -1
  58. package/src/features/Portal/Plugins/index.ts +1 -1
  59. package/src/features/Portal/components/Header.tsx +29 -0
  60. package/src/features/Portal/router.tsx +22 -3
  61. package/src/features/Portal/type.ts +3 -1
  62. package/src/features/{Conversation/components → ShareModal/ShareImage}/ChatList/index.tsx +3 -4
  63. package/src/features/ShareModal/ShareImage/Preview.tsx +1 -1
  64. package/src/features/ShareModal/ShareJSON/index.tsx +1 -1
  65. package/src/features/ShareModal/ShareText/index.tsx +1 -1
  66. package/src/layout/GlobalProvider/Debug.tsx +15 -0
  67. package/src/layout/GlobalProvider/index.tsx +4 -2
  68. package/src/locales/resources.ts +5 -2
  69. package/src/server/ld.ts +2 -2
  70. package/src/store/chat/slices/aiChat/actions/generateAIChat.ts +5 -5
  71. package/src/store/chat/slices/message/action.ts +2 -2
  72. package/src/store/chat/slices/message/selectors.test.ts +0 -86
  73. package/src/store/chat/slices/message/selectors.ts +55 -73
  74. package/src/store/chat/slices/plugin/action.test.ts +2 -2
  75. package/src/store/chat/slices/plugin/action.ts +1 -1
  76. package/src/store/chat/slices/topic/action.ts +2 -2
  77. /package/src/{features/Conversation/components → app/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem}/InboxWelcome/AgentsSuggest.tsx +0 -0
  78. /package/src/{features/Conversation/components → app/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem}/InboxWelcome/QuestionSuggest.tsx +0 -0
  79. /package/src/{features/Conversation/components → app/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem}/InboxWelcome/index.tsx +0 -0
package/CHANGELOG.md CHANGED
@@ -2,6 +2,56 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ### [Version 1.32.5](https://github.com/lobehub/lobe-chat/compare/v1.32.4...v1.32.5)
6
+
7
+ <sup>Released on **2024-11-24**</sup>
8
+
9
+ #### ♻ Code Refactoring
10
+
11
+ - **misc**: Refactor the main chat.
12
+
13
+ <br/>
14
+
15
+ <details>
16
+ <summary><kbd>Improvements and Fixes</kbd></summary>
17
+
18
+ #### Code refactoring
19
+
20
+ - **misc**: Refactor the main chat, closes [#4773](https://github.com/lobehub/lobe-chat/issues/4773) ([6973f4e](https://github.com/lobehub/lobe-chat/commit/6973f4e))
21
+
22
+ </details>
23
+
24
+ <div align="right">
25
+
26
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
27
+
28
+ </div>
29
+
30
+ ### [Version 1.32.4](https://github.com/lobehub/lobe-chat/compare/v1.32.3...v1.32.4)
31
+
32
+ <sup>Released on **2024-11-20**</sup>
33
+
34
+ #### ♻ Code Refactoring
35
+
36
+ - **misc**: Refactor the default locale.
37
+
38
+ <br/>
39
+
40
+ <details>
41
+ <summary><kbd>Improvements and Fixes</kbd></summary>
42
+
43
+ #### Code refactoring
44
+
45
+ - **misc**: Refactor the default locale, closes [#4729](https://github.com/lobehub/lobe-chat/issues/4729) ([3f8d3db](https://github.com/lobehub/lobe-chat/commit/3f8d3db))
46
+
47
+ </details>
48
+
49
+ <div align="right">
50
+
51
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
52
+
53
+ </div>
54
+
5
55
  ### [Version 1.32.3](https://github.com/lobehub/lobe-chat/compare/v1.32.2...v1.32.3)
6
56
 
7
57
  <sup>Released on **2024-11-20**</sup>
package/README.md CHANGED
@@ -285,14 +285,14 @@ Our marketplace is not just a showcase platform but also a collaborative space.
285
285
 
286
286
  <!-- AGENT LIST -->
287
287
 
288
- | Recent Submits | Description |
289
- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -------------------------------------------------------------------------------------------------------------------------------------------------------------- |
290
- | [Thinking Claude](https://chat-preview.lobehub.com/market?agent=thinking-claude)<br/><sup>By **[AnoyiX](https://github.com/AnoyiX)** on **2024-11-14**</sup> | Let Claude think comprehensively before responding!<br/>`common` |
291
- | [Machine Vision LaTeX](https://chat-preview.lobehub.com/market?agent=cv-latex)<br/><sup>By **[5xiao0qing5](https://github.com/5xiao0qing5)** on **2024-10-29**</sup> | Specializes in explaining concepts of machine learning and deep learning<br/>`machine-learning` `deep-learning` `image-processing` `computer-vision` `la-te-x` |
292
- | [Domain Analysis Master](https://chat-preview.lobehub.com/market?agent=domain)<br/><sup>By **[ccbikai](https://github.com/ccbikai)** on **2024-10-29**</sup> | Expert in domain analysis and humorous suggestions<br/>`domain-analysis` `humor` `culture` `website-suggestions` `purchase-advice` |
293
- | [Ingo Hausmann](https://chat-preview.lobehub.com/market?agent=pc-beschaffung-ingo-hausmann)<br/><sup>By **[bionicprompter](https://github.com/bionicprompter)** on **2024-10-29**</sup> | Ingo Hausmann wants to be advised on a new purchase of PCs<br/>`company` `hardware` `needs-assessment` `it` `applications` |
294
-
295
- > 📊 Total agents: [<kbd>**431**</kbd> ](https://github.com/lobehub/lobe-chat-agents)
288
+ | Recent Submits | Description |
289
+ | -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
290
+ | [Master E's Tech Executive Assistant (EA)](https://chat-preview.lobehub.com/market?agent=alex)<br/><sup>By **[ApexAppdevelopment](https://github.com/ApexAppdevelopment)** on **2024-11-20**</sup> | Highly intelligent and loyal Executive Assistant (EA) specializing in software engineering support and strategic solutions for Master E.<br/>`executive-assistant` `software-engineering` `project-management` `technical-support` `optimization` |
291
+ | [Human Author Simulator](https://chat-preview.lobehub.com/market?agent=human-writer-simulator)<br/><sup>By **[yufei96](https://github.com/yufei96)** on **2024-11-20**</sup> | Eliminate the characteristics of AI-generated content<br/>`ai-interaction` `writing` `optimization` `consultation` |
292
+ | [Wisdom Guide](https://chat-preview.lobehub.com/market?agent=life-wisdom-guides)<br/><sup>By **[changjiong](https://github.com/changjiong)** on **2024-11-20**</sup> | Skilled in Guidance<br/>`life-coaching` `philosophical-reflection` `consultation` `heuristic-dialogue` |
293
+ | [Prompt Keywords](https://chat-preview.lobehub.com/market?agent=prompt-ts)<br/><sup>By **[qw1295353129](https://github.com/qw1295353129)** on **2024-11-20**</sup> | Prompt Keywords<br/>`prompt-keywords` |
294
+
295
+ > 📊 Total agents: [<kbd>**439**</kbd> ](https://github.com/lobehub/lobe-chat-agents)
296
296
 
297
297
  <!-- AGENT LIST -->
298
298
 
package/README.zh-CN.md CHANGED
@@ -274,14 +274,14 @@ LobeChat 的插件生态系统是其核心功能的重要扩展,它极大地
274
274
 
275
275
  <!-- AGENT LIST -->
276
276
 
277
- | 最近新增 | 助手说明 |
278
- | -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ------------------------------------------------------------------------------------------ |
279
- | [思考克劳德](https://chat-preview.lobehub.com/market?agent=thinking-claude)<br/><sup>By **[AnoyiX](https://github.com/AnoyiX)** on **2024-11-14**</sup> | 让克劳德在回应之前全面思考!<br/>`常见` |
280
- | [机器视觉 latex](https://chat-preview.lobehub.com/market?agent=cv-latex)<br/><sup>By **[5xiao0qing5](https://github.com/5xiao0qing5)** on **2024-10-29**</sup> | 擅长机器学习与深度学习概念解析<br/>`机器学习` `深度学习` `图像处理` `计算机视觉` `la-te-x` |
281
- | [域名分析大师](https://chat-preview.lobehub.com/market?agent=domain)<br/><sup>By **[ccbikai](https://github.com/ccbikai)** on **2024-10-29**</sup> | 擅长域名分析与幽默建议<br/>`域名分析` `幽默` `文化` `建站建议` `购买建议` |
282
- | [英戈・豪斯曼](https://chat-preview.lobehub.com/market?agent=pc-beschaffung-ingo-hausmann)<br/><sup>By **[bionicprompter](https://github.com/bionicprompter)** on **2024-10-29**</sup> | 英戈・豪斯曼希望就新购置的电脑进行咨询<br/>`公司` `硬件` `需求分析` `it` `应用` |
283
-
284
- > 📊 Total agents: [<kbd>**431**</kbd> ](https://github.com/lobehub/lobe-chat-agents)
277
+ | 最近新增 | 助手说明 |
278
+ | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------------------------------------------------------------------------------------------------------- |
279
+ | [Master E 的技术执行助理(EA)](https://chat-preview.lobehub.com/market?agent=alex)<br/><sup>By **[ApexAppdevelopment](https://github.com/ApexAppdevelopment)** on **2024-11-20**</sup> | 高度智能且忠诚的执行助理(EA),专注于为 Master E 提供软件工程支持和战略解决方案。<br/>`执行助理` `软件工程` `项目管理` `技术支持` `优化` |
280
+ | [人类作者模拟器](https://chat-preview.lobehub.com/market?agent=human-writer-simulator)<br/><sup>By **[yufei96](https://github.com/yufei96)** on **2024-11-20**</sup> | 消除 AI 生成内容的特征<br/>`ai交互` `写作` `优化` `咨询` |
281
+ | [智慧引导者](https://chat-preview.lobehub.com/market?agent=life-wisdom-guides)<br/><sup>By **[changjiong](https://github.com/changjiong)** on **2024-11-20**</sup> | 擅长引导<br/>`人生指导` `哲学思考` `咨询` `启发式对话` |
282
+ | [Prompt 提示词](https://chat-preview.lobehub.com/market?agent=prompt-ts)<br/><sup>By **[qw1295353129](https://github.com/qw1295353129)** on **2024-11-20**</sup> | Prompt 提示词<br/>`prompt提示词` |
283
+
284
+ > 📊 Total agents: [<kbd>**439**</kbd> ](https://github.com/lobehub/lobe-chat-agents)
285
285
 
286
286
  <!-- AGENT LIST -->
287
287
 
@@ -610,6 +610,9 @@
610
610
  "grok-beta": {
611
611
  "description": "يمتلك أداءً يعادل Grok 2، ولكنه يتمتع بكفاءة وسرعة ووظائف أعلى."
612
612
  },
613
+ "grok-vision-beta": {
614
+ "description": "أحدث نموذج لفهم الصور، يمكنه معالجة مجموعة متنوعة من المعلومات البصرية، بما في ذلك الوثائق، الرسوم البيانية، لقطات الشاشة، والصور."
615
+ },
613
616
  "gryphe/mythomax-l2-13b": {
614
617
  "description": "MythoMax l2 13B هو نموذج لغوي يجمع بين الإبداع والذكاء من خلال دمج عدة نماذج رائدة."
615
618
  },
@@ -646,6 +649,12 @@
646
649
  "internlm/internlm2_5-7b-chat": {
647
650
  "description": "InternLM2.5 يوفر حلول حوار ذكية في عدة سيناريوهات."
648
651
  },
652
+ "internlm2-pro-chat": {
653
+ "description": "نموذج النسخة القديمة الذي لا زلنا نحافظ عليه، يتوفر بخيارات متعددة من عدد المعلمات 7 مليار و 20 مليار."
654
+ },
655
+ "internlm2.5-latest": {
656
+ "description": "سلسلة نماذجنا الأحدث، تتمتع بأداء استدلال ممتاز، تدعم طول سياق يصل إلى 1 مليون، بالإضافة إلى قدرة أقوى على اتباع التعليمات واستدعاء الأدوات."
657
+ },
649
658
  "jamba-1.5-large": {},
650
659
  "jamba-1.5-mini": {},
651
660
  "lite": {
@@ -969,6 +978,9 @@
969
978
  "pixtral-12b-2409": {
970
979
  "description": "نموذج Pixtral يظهر قدرات قوية في فهم الرسوم البيانية والصور، والإجابة على الأسئلة المتعلقة بالمستندات، والاستدلال متعدد الوسائط، واتباع التعليمات، مع القدرة على إدخال الصور بدقة طبيعية ونسبة عرض إلى ارتفاع، بالإضافة إلى معالجة عدد غير محدود من الصور في نافذة سياق طويلة تصل إلى 128K توكن."
971
980
  },
981
+ "pixtral-large-latest": {
982
+ "description": "بيكسترا لارج هو نموذج متعدد الوسائط مفتوح المصدر يحتوي على 124 مليار معلمة، مبني على نموذج ميسترال لارج 2. هذا هو النموذج الثاني في عائلتنا متعددة الوسائط، ويظهر مستوى متقدم من القدرة على فهم الصور."
983
+ },
972
984
  "pro-128k": {
973
985
  "description": "سبارك برو 128K مزود بقدرة معالجة سياق كبيرة جدًا، قادر على معالجة ما يصل إلى 128K من معلومات السياق، مما يجعله مناسبًا بشكل خاص للتحليل الشامل ومعالجة الروابط المنطقية طويلة الأمد في المحتوى الطويل، ويمكنه تقديم منطق سلس ومتسق ودعم متنوع للاقتباسات في الاتصالات النصية المعقدة."
974
986
  },
@@ -37,6 +37,9 @@
37
37
  "hunyuan": {
38
38
  "description": "نموذج لغة متقدم تم تطويره بواسطة Tencent، يتمتع بقدرة قوية على الإبداع باللغة الصينية، وقدرة على الاستدلال المنطقي في سياقات معقدة، بالإضافة إلى قدرة موثوقة على تنفيذ المهام."
39
39
  },
40
+ "internlm": {
41
+ "description": "منظمة مفتوحة المصدر مكرسة لأبحاث وتطوير أدوات النماذج الكبيرة. توفر منصة مفتوحة المصدر فعالة وسهلة الاستخدام لجميع مطوري الذكاء الاصطناعي، مما يجعل أحدث تقنيات النماذج الكبيرة والخوارزميات في متناول اليد."
42
+ },
40
43
  "minimax": {
41
44
  "description": "MiniMax هي شركة تكنولوجيا الذكاء الاصطناعي العامة التي تأسست في عام 2021، تكرس جهودها للتعاون مع المستخدمين في إنشاء الذكاء. طورت MiniMax نماذج كبيرة عامة من أوضاع مختلفة، بما في ذلك نموذج نصي MoE الذي يحتوي على تريليونات من المعلمات، ونموذج صوتي، ونموذج صور. وقد أطلقت تطبيقات مثل Conch AI."
42
45
  },
@@ -610,6 +610,9 @@
610
610
  "grok-beta": {
611
611
  "description": "С производителност, сравнима с Grok 2, но с по-висока ефективност, скорост и функции."
612
612
  },
613
+ "grok-vision-beta": {
614
+ "description": "Най-новият модел за разбиране на изображения, способен да обработва разнообразна визуална информация, включително документи, графики, екранни снимки и снимки."
615
+ },
613
616
  "gryphe/mythomax-l2-13b": {
614
617
  "description": "MythoMax l2 13B е езиков модел, който комбинира креативност и интелигентност, обединявайки множество водещи модели."
615
618
  },
@@ -646,6 +649,12 @@
646
649
  "internlm/internlm2_5-7b-chat": {
647
650
  "description": "InternLM2.5 предлага интелигентни решения за диалог в множество сценарии."
648
651
  },
652
+ "internlm2-pro-chat": {
653
+ "description": "По-стара версия на модела, която все още поддържаме, с налични параметри от 7B и 20B."
654
+ },
655
+ "internlm2.5-latest": {
656
+ "description": "Нашата най-нова серия модели с изключителни способности за извеждане, поддържаща контекстна дължина от 1M и по-силни способности за следване на инструкции и извикване на инструменти."
657
+ },
649
658
  "jamba-1.5-large": {},
650
659
  "jamba-1.5-mini": {},
651
660
  "lite": {
@@ -969,6 +978,9 @@
969
978
  "pixtral-12b-2409": {
970
979
  "description": "Моделът Pixtral демонстрира силни способности в задачи като разбиране на графики и изображения, отговори на документи, многомодално разсъждение и следване на инструкции, способен да приема изображения с естествено разрешение и съотношение на страните, както и да обработва произволен брой изображения в контекстен прозорец с дължина до 128K токена."
971
980
  },
981
+ "pixtral-large-latest": {
982
+ "description": "Pixtral Large е отворен многомодален модел с 1240 милиарда параметри, базиран на Mistral Large 2. Това е вторият модел в нашето многомодално семейство, който демонстрира авангардни способности за разбиране на изображения."
983
+ },
972
984
  "pro-128k": {
973
985
  "description": "Spark Pro 128K е конфигуриран с изключителна способност за обработка на контекст, способен да обработва до 128K контекстна информация, особено подходящ за дълги текстове, изискващи цялостен анализ и дългосрочна логическа свързаност, предоставяйки гладка и последователна логика и разнообразна поддръжка на цитати в сложни текстови комуникации."
974
986
  },
@@ -37,6 +37,9 @@
37
37
  "hunyuan": {
38
38
  "description": "Модел на голям език, разработен от Tencent, който притежава мощни способности за създаване на текст на китайски, логическо разсъждение в сложни контексти и надеждни способности за изпълнение на задачи."
39
39
  },
40
+ "internlm": {
41
+ "description": "Отворена организация, посветена на изследването и разработването на инструменти за големи модели. Предоставя на всички AI разработчици ефективна и лесна за използване отворена платформа, която прави най-съвременните технологии и алгоритми за големи модели достъпни."
42
+ },
40
43
  "minimax": {
41
44
  "description": "MiniMax е компания за универсален изкуствен интелект, основана през 2021 г., която се стреми да създаде интелигентност заедно с потребителите. MiniMax е разработила различни универсални големи модели, включително текстови модели с трилйон параметри, модели за глас и модели за изображения. Също така е пуснала приложения като Conch AI."
42
45
  },
@@ -610,6 +610,9 @@
610
610
  "grok-beta": {
611
611
  "description": "Bietet eine Leistung, die mit Grok 2 vergleichbar ist, jedoch mit höherer Effizienz, Geschwindigkeit und Funktionalität."
612
612
  },
613
+ "grok-vision-beta": {
614
+ "description": "Das neueste Modell zur Bildverständnis, das eine Vielzahl von visuellen Informationen verarbeiten kann, einschließlich Dokumenten, Diagrammen, Screenshots und Fotos."
615
+ },
613
616
  "gryphe/mythomax-l2-13b": {
614
617
  "description": "MythoMax l2 13B ist ein Sprachmodell, das Kreativität und Intelligenz kombiniert und mehrere führende Modelle integriert."
615
618
  },
@@ -646,6 +649,12 @@
646
649
  "internlm/internlm2_5-7b-chat": {
647
650
  "description": "InternLM2.5 bietet intelligente Dialoglösungen in mehreren Szenarien."
648
651
  },
652
+ "internlm2-pro-chat": {
653
+ "description": "Die ältere Modellversion, die wir weiterhin pflegen, bietet eine Auswahl an Modellparametern von 7B und 20B."
654
+ },
655
+ "internlm2.5-latest": {
656
+ "description": "Unsere neueste Modellreihe mit herausragender Schlussfolgerungsleistung, die eine Kontextlänge von 1M unterstützt und über verbesserte Anweisungsbefolgung und Toolaufrufmöglichkeiten verfügt."
657
+ },
649
658
  "jamba-1.5-large": {},
650
659
  "jamba-1.5-mini": {},
651
660
  "lite": {
@@ -969,6 +978,9 @@
969
978
  "pixtral-12b-2409": {
970
979
  "description": "Das Pixtral-Modell zeigt starke Fähigkeiten in Aufgaben wie Diagramm- und Bildverständnis, Dokumentenfragen, multimodale Schlussfolgerungen und Befolgung von Anweisungen. Es kann Bilder in natürlicher Auflösung und Seitenverhältnis aufnehmen und in einem langen Kontextfenster von bis zu 128K Tokens beliebig viele Bilder verarbeiten."
971
980
  },
981
+ "pixtral-large-latest": {
982
+ "description": "Pixtral Large ist ein Open-Source-Multimodalmodell mit 124 Milliarden Parametern, das auf Mistral Large 2 basiert. Dies ist unser zweites Modell in der multimodalen Familie und zeigt fortschrittliche Fähigkeiten im Bereich der Bildverständnis."
983
+ },
972
984
  "pro-128k": {
973
985
  "description": "Spark Pro 128K verfügt über eine außergewöhnliche Kontextverarbeitungsfähigkeit und kann bis zu 128K Kontextinformationen verarbeiten, was es besonders geeignet für die Analyse langer Texte und die Verarbeitung langfristiger logischer Zusammenhänge macht. Es bietet in komplexen Textkommunikationen flüssige und konsistente Logik sowie vielfältige Unterstützung für Zitate."
974
986
  },
@@ -37,6 +37,9 @@
37
37
  "hunyuan": {
38
38
  "description": "Ein von Tencent entwickeltes großes Sprachmodell, das über starke Fähigkeiten zur Erstellung von Inhalten in chinesischer Sprache, logisches Denkvermögen in komplexen Kontexten und zuverlässige Fähigkeiten zur Aufgabenerfüllung verfügt."
39
39
  },
40
+ "internlm": {
41
+ "description": "Eine Open-Source-Organisation, die sich der Forschung und Entwicklung von großen Modellen und Werkzeugketten widmet. Sie bietet allen KI-Entwicklern eine effiziente und benutzerfreundliche Open-Source-Plattform, die den Zugang zu den neuesten Technologien und Algorithmen für große Modelle ermöglicht."
42
+ },
40
43
  "minimax": {
41
44
  "description": "MiniMax ist ein im Jahr 2021 gegründetes Unternehmen für allgemeine künstliche Intelligenz, das sich der gemeinsamen Schaffung von Intelligenz mit den Nutzern widmet. MiniMax hat verschiedene multimodale allgemeine große Modelle entwickelt, darunter ein Textmodell mit Billionen von Parametern, ein Sprachmodell und ein Bildmodell. Außerdem wurden Anwendungen wie Conch AI eingeführt."
42
45
  },
@@ -610,6 +610,9 @@
610
610
  "grok-beta": {
611
611
  "description": "Offers performance comparable to Grok 2 but with higher efficiency, speed, and functionality."
612
612
  },
613
+ "grok-vision-beta": {
614
+ "description": "The latest image understanding model that can handle a wide range of visual information, including documents, charts, screenshots, and photographs."
615
+ },
613
616
  "gryphe/mythomax-l2-13b": {
614
617
  "description": "MythoMax l2 13B is a language model that combines creativity and intelligence by merging multiple top models."
615
618
  },
@@ -646,6 +649,12 @@
646
649
  "internlm/internlm2_5-7b-chat": {
647
650
  "description": "InternLM2.5 offers intelligent dialogue solutions across multiple scenarios."
648
651
  },
652
+ "internlm2-pro-chat": {
653
+ "description": "An older version of the model that we still maintain, available in various parameter sizes of 7B and 20B."
654
+ },
655
+ "internlm2.5-latest": {
656
+ "description": "Our latest model series, featuring exceptional reasoning performance, supporting a context length of 1M, and enhanced instruction following and tool invocation capabilities."
657
+ },
649
658
  "jamba-1.5-large": {},
650
659
  "jamba-1.5-mini": {},
651
660
  "lite": {
@@ -969,6 +978,9 @@
969
978
  "pixtral-12b-2409": {
970
979
  "description": "The Pixtral model demonstrates strong capabilities in tasks such as chart and image understanding, document question answering, multimodal reasoning, and instruction following. It can ingest images at natural resolutions and aspect ratios and handle an arbitrary number of images within a long context window of up to 128K tokens."
971
980
  },
981
+ "pixtral-large-latest": {
982
+ "description": "Pixtral Large is an open-source multimodal model with 124 billion parameters, built on Mistral Large 2. This is the second model in our multimodal family, showcasing cutting-edge image understanding capabilities."
983
+ },
972
984
  "pro-128k": {
973
985
  "description": "Spark Pro 128K is equipped with an extra-large context processing capability, able to handle up to 128K of contextual information, making it particularly suitable for long-form content that requires comprehensive analysis and long-term logical connections, providing smooth and consistent logic and diverse citation support in complex text communication."
974
986
  },
@@ -37,6 +37,9 @@
37
37
  "hunyuan": {
38
38
  "description": "A large language model developed by Tencent, equipped with powerful Chinese creative capabilities, logical reasoning abilities in complex contexts, and reliable task execution skills."
39
39
  },
40
+ "internlm": {
41
+ "description": "An open-source organization dedicated to the research and development of large model toolchains. It provides an efficient and user-friendly open-source platform for all AI developers, making cutting-edge large models and algorithm technologies easily accessible."
42
+ },
40
43
  "minimax": {
41
44
  "description": "MiniMax is a general artificial intelligence technology company established in 2021, dedicated to co-creating intelligence with users. MiniMax has independently developed general large models of different modalities, including trillion-parameter MoE text models, voice models, and image models, and has launched applications such as Conch AI."
42
45
  },
@@ -610,6 +610,9 @@
610
610
  "grok-beta": {
611
611
  "description": "Ofrece un rendimiento comparable al de Grok 2, pero con mayor eficiencia, velocidad y funcionalidad."
612
612
  },
613
+ "grok-vision-beta": {
614
+ "description": "El último modelo de comprensión de imágenes, capaz de manejar una amplia variedad de información visual, incluyendo documentos, gráficos, capturas de pantalla y fotos."
615
+ },
613
616
  "gryphe/mythomax-l2-13b": {
614
617
  "description": "MythoMax l2 13B es un modelo de lenguaje que combina creatividad e inteligencia, fusionando múltiples modelos de vanguardia."
615
618
  },
@@ -646,6 +649,12 @@
646
649
  "internlm/internlm2_5-7b-chat": {
647
650
  "description": "InternLM2.5 ofrece soluciones de diálogo inteligente en múltiples escenarios."
648
651
  },
652
+ "internlm2-pro-chat": {
653
+ "description": "Modelo de versión anterior que seguimos manteniendo, disponible en opciones de 7B y 20B parámetros."
654
+ },
655
+ "internlm2.5-latest": {
656
+ "description": "Nuestra última serie de modelos, con un rendimiento de inferencia excepcional, que admite una longitud de contexto de 1M y una mayor capacidad de seguimiento de instrucciones y llamadas a herramientas."
657
+ },
649
658
  "jamba-1.5-large": {},
650
659
  "jamba-1.5-mini": {},
651
660
  "lite": {
@@ -969,6 +978,9 @@
969
978
  "pixtral-12b-2409": {
970
979
  "description": "El modelo Pixtral muestra una fuerte capacidad en tareas como comprensión de gráficos e imágenes, preguntas y respuestas de documentos, razonamiento multimodal y seguimiento de instrucciones, capaz de ingerir imágenes en resolución y proporción natural, y manejar una cantidad arbitraria de imágenes en una ventana de contexto larga de hasta 128K tokens."
971
980
  },
981
+ "pixtral-large-latest": {
982
+ "description": "Pixtral Large es un modelo multimodal de código abierto con 124 mil millones de parámetros, construido sobre Mistral Large 2. Este es nuestro segundo modelo en la familia multimodal, que muestra un nivel de comprensión de imágenes de vanguardia."
983
+ },
972
984
  "pro-128k": {
973
985
  "description": "Spark Pro 128K está equipado con una capacidad de procesamiento de contexto extragrande, capaz de manejar hasta 128K de información contextual, especialmente adecuado para el análisis completo y el manejo de relaciones lógicas a largo plazo en contenido extenso, proporcionando una lógica fluida y coherente y un soporte diverso de citas en comunicaciones de texto complejas."
974
986
  },
@@ -37,6 +37,9 @@
37
37
  "hunyuan": {
38
38
  "description": "Un modelo de lenguaje desarrollado por Tencent, que posee una poderosa capacidad de creación en chino, habilidades de razonamiento lógico en contextos complejos y una capacidad confiable para ejecutar tareas."
39
39
  },
40
+ "internlm": {
41
+ "description": "Organización de código abierto dedicada a la investigación y desarrollo de herramientas para modelos grandes. Proporciona a todos los desarrolladores de IA una plataforma de código abierto eficiente y fácil de usar, permitiendo el acceso a las tecnologías y algoritmos más avanzados."
42
+ },
40
43
  "minimax": {
41
44
  "description": "MiniMax es una empresa de tecnología de inteligencia artificial general fundada en 2021, dedicada a co-crear inteligencia con los usuarios. MiniMax ha desarrollado de forma independiente modelos de gran tamaño de diferentes modalidades, que incluyen un modelo de texto MoE de un billón de parámetros, un modelo de voz y un modelo de imagen. También ha lanzado aplicaciones como Conch AI."
42
45
  },
@@ -610,6 +610,9 @@
610
610
  "grok-beta": {
611
611
  "description": "عملکردی معادل Grok 2 دارد، اما با کارایی، سرعت و قابلیت‌های بالاتر."
612
612
  },
613
+ "grok-vision-beta": {
614
+ "description": "جدیدترین مدل درک تصویر که می‌تواند انواع مختلف اطلاعات بصری از جمله اسناد، نمودارها، اسکرین‌شات‌ها و عکس‌ها را پردازش کند."
615
+ },
613
616
  "gryphe/mythomax-l2-13b": {
614
617
  "description": "MythoMax l2 13B یک مدل زبانی است که خلاقیت و هوش را با ترکیب چندین مدل برتر به هم پیوند می‌دهد."
615
618
  },
@@ -646,6 +649,12 @@
646
649
  "internlm/internlm2_5-7b-chat": {
647
650
  "description": "InternLM2.5 راه‌حل‌های گفتگوی هوشمند در چندین سناریو ارائه می‌دهد."
648
651
  },
652
+ "internlm2-pro-chat": {
653
+ "description": "مدل قدیمی که هنوز در حال نگهداری است و گزینه‌های مختلفی از پارامترهای ۷B و ۲۰B را ارائه می‌دهد."
654
+ },
655
+ "internlm2.5-latest": {
656
+ "description": "جدیدترین سری مدل‌های ما با عملکرد استدلال عالی، از طول متن ۱M پشتیبانی می‌کند و توانایی‌های قوی‌تری در پیروی از دستورات و فراخوانی ابزارها دارد."
657
+ },
649
658
  "jamba-1.5-large": {},
650
659
  "jamba-1.5-mini": {},
651
660
  "lite": {
@@ -969,6 +978,9 @@
969
978
  "pixtral-12b-2409": {
970
979
  "description": "مدل Pixtral در وظایفی مانند نمودار و درک تصویر، پرسش و پاسخ اسناد، استدلال چندوجهی و پیروی از دستورات، توانایی‌های قدرتمندی از خود نشان می‌دهد. این مدل قادر است تصاویر را با وضوح طبیعی و نسبت ابعاد دریافت کند و همچنین می‌تواند هر تعداد تصویری را در یک پنجره متنی طولانی تا ۱۲۸ هزار توکن پردازش کند."
971
980
  },
981
+ "pixtral-large-latest": {
982
+ "description": "Pixtral Large یک مدل چندرسانه‌ای متن‌باز با ۱۲۴۰ میلیارد پارامتر است که بر اساس Mistral Large 2 ساخته شده است. این دومین مدل در خانواده چندرسانه‌ای ماست که توانایی‌های پیشرفته‌ای در درک تصویر را به نمایش می‌گذارد."
983
+ },
972
984
  "pro-128k": {
973
985
  "description": "Spark Pro 128K با قابلیت پردازش متن بسیار بزرگ، قادر به پردازش تا 128K اطلاعات متنی است. این ویژگی به‌ویژه برای تحلیل کامل و پردازش ارتباطات منطقی طولانی‌مدت در محتوای متنی طولانی مناسب است و می‌تواند در ارتباطات متنی پیچیده، پشتیبانی از منطق روان و یکپارچه و ارجاعات متنوع را فراهم کند."
974
986
  },
@@ -37,6 +37,9 @@
37
37
  "hunyuan": {
38
38
  "description": "مدل زبان بزرگ توسعه‌یافته توسط تنسنت، با توانایی‌های قدرتمند در خلق محتوای چینی، توانایی استدلال منطقی در زمینه‌های پیچیده، و قابلیت اجرای وظایف به‌صورت قابل اعتماد"
39
39
  },
40
+ "internlm": {
41
+ "description": "سازمان متن باز متعهد به تحقیق و توسعه ابزارهای مدل‌های بزرگ. ارائه یک پلتفرم متن باز کارآمد و آسان برای تمام توسعه‌دهندگان هوش مصنوعی، تا جدیدترین مدل‌ها و تکنیک‌های الگوریتمی در دسترس باشد."
42
+ },
40
43
  "minimax": {
41
44
  "description": "MiniMax یک شرکت فناوری هوش مصنوعی عمومی است که در سال 2021 تأسیس شد و به همکاری با کاربران برای ایجاد هوش مصنوعی متعهد است. MiniMax به‌طور مستقل مدل‌های بزرگ عمومی چندگانه‌ای را توسعه داده است، از جمله مدل متنی MoE با تریلیون‌ها پارامتر، مدل صوتی و مدل تصویری. همچنین برنامه‌هایی مانند حلزون AI را معرفی کرده است."
42
45
  },
@@ -610,6 +610,9 @@
610
610
  "grok-beta": {
611
611
  "description": "Offre des performances comparables à Grok 2, mais avec une efficacité, une vitesse et des fonctionnalités supérieures."
612
612
  },
613
+ "grok-vision-beta": {
614
+ "description": "Le dernier modèle de compréhension d'image, capable de traiter une variété d'informations visuelles, y compris des documents, des graphiques, des captures d'écran et des photos."
615
+ },
613
616
  "gryphe/mythomax-l2-13b": {
614
617
  "description": "MythoMax l2 13B est un modèle linguistique combinant créativité et intelligence, intégrant plusieurs modèles de pointe."
615
618
  },
@@ -646,6 +649,12 @@
646
649
  "internlm/internlm2_5-7b-chat": {
647
650
  "description": "InternLM2.5 fournit des solutions de dialogue intelligent dans divers scénarios."
648
651
  },
652
+ "internlm2-pro-chat": {
653
+ "description": "Une ancienne version du modèle que nous maintenons encore, avec des options de paramètres de 7B et 20B disponibles."
654
+ },
655
+ "internlm2.5-latest": {
656
+ "description": "Notre dernière série de modèles, offrant des performances d'inférence exceptionnelles, prenant en charge une longueur de contexte de 1M et des capacités améliorées de suivi des instructions et d'appel d'outils."
657
+ },
649
658
  "jamba-1.5-large": {},
650
659
  "jamba-1.5-mini": {},
651
660
  "lite": {
@@ -969,6 +978,9 @@
969
978
  "pixtral-12b-2409": {
970
979
  "description": "Le modèle Pixtral montre de puissantes capacités dans des tâches telles que la compréhension des graphiques et des images, le questionnement de documents, le raisonnement multimodal et le respect des instructions, capable d'ingérer des images à résolution naturelle et à rapport d'aspect, tout en traitant un nombre quelconque d'images dans une fenêtre de contexte longue allant jusqu'à 128K tokens."
971
980
  },
981
+ "pixtral-large-latest": {
982
+ "description": "Pixtral Large est un modèle multimodal open source avec 124 milliards de paramètres, basé sur Mistral Large 2. C'est notre deuxième modèle de la famille multimodale, démontrant des capacités de compréhension d'image à la pointe de la technologie."
983
+ },
972
984
  "pro-128k": {
973
985
  "description": "Spark Pro 128K est doté d'une capacité de traitement de contexte très étendue, capable de gérer jusqu'à 128K d'informations contextuelles, particulièrement adapté pour l'analyse complète et le traitement des relations logiques à long terme dans des contenus longs, offrant une logique fluide et cohérente ainsi qu'un soutien varié pour les références dans des communications textuelles complexes."
974
986
  },
@@ -37,6 +37,9 @@
37
37
  "hunyuan": {
38
38
  "description": "Un modèle de langage développé par Tencent, doté d'une puissante capacité de création en chinois, d'une capacité de raisonnement logique dans des contextes complexes, ainsi que d'une capacité fiable d'exécution des tâches."
39
39
  },
40
+ "internlm": {
41
+ "description": "Organisation open source dédiée à la recherche et au développement d'outils pour les grands modèles. Fournit à tous les développeurs d'IA une plateforme open source efficace et facile à utiliser, rendant les technologies de pointe en matière de grands modèles et d'algorithmes accessibles."
42
+ },
40
43
  "minimax": {
41
44
  "description": "MiniMax est une entreprise de technologie d'intelligence artificielle générale fondée en 2021, dédiée à la co-création d'intelligence avec les utilisateurs. MiniMax a développé de manière autonome différents modèles de grande taille, y compris un modèle de texte MoE à un trillion de paramètres, un modèle vocal et un modèle d'image. Elle a également lancé des applications telles que Conch AI."
42
45
  },
@@ -610,6 +610,9 @@
610
610
  "grok-beta": {
611
611
  "description": "Offre prestazioni comparabili a Grok 2, ma con maggiore efficienza, velocità e funzionalità."
612
612
  },
613
+ "grok-vision-beta": {
614
+ "description": "L'ultimo modello di comprensione delle immagini, in grado di gestire una vasta gamma di informazioni visive, tra cui documenti, grafici, screenshot e fotografie."
615
+ },
613
616
  "gryphe/mythomax-l2-13b": {
614
617
  "description": "MythoMax l2 13B è un modello linguistico che combina creatività e intelligenza, unendo diversi modelli di punta."
615
618
  },
@@ -646,6 +649,12 @@
646
649
  "internlm/internlm2_5-7b-chat": {
647
650
  "description": "InternLM2.5 offre soluzioni di dialogo intelligente in vari scenari."
648
651
  },
652
+ "internlm2-pro-chat": {
653
+ "description": "Un modello della vecchia versione che stiamo ancora mantenendo, disponibile in diverse dimensioni di parametri: 7B e 20B."
654
+ },
655
+ "internlm2.5-latest": {
656
+ "description": "La nostra ultima serie di modelli, con prestazioni di ragionamento eccezionali, supporta una lunghezza di contesto di 1M e offre una migliore capacità di seguire istruzioni e chiamare strumenti."
657
+ },
649
658
  "jamba-1.5-large": {},
650
659
  "jamba-1.5-mini": {},
651
660
  "lite": {
@@ -969,6 +978,9 @@
969
978
  "pixtral-12b-2409": {
970
979
  "description": "Il modello Pixtral dimostra potenti capacità in compiti di comprensione di grafici e immagini, domande e risposte su documenti, ragionamento multimodale e rispetto delle istruzioni, in grado di elaborare immagini a risoluzione naturale e proporzioni, e di gestire un numero arbitrario di immagini in una finestra di contesto lunga fino a 128K token."
971
980
  },
981
+ "pixtral-large-latest": {
982
+ "description": "Pixtral Large è un modello multimodale open source con 124 miliardi di parametri, costruito su Mistral Large 2. Questo è il nostro secondo modello nella famiglia multimodale, che mostra capacità di comprensione delle immagini a livello all'avanguardia."
983
+ },
972
984
  "pro-128k": {
973
985
  "description": "Spark Pro 128K è dotato di una capacità di elaborazione del contesto eccezionale, in grado di gestire fino a 128K di informazioni contestuali, particolarmente adatto per l'analisi completa e la gestione di associazioni logiche a lungo termine in contenuti lunghi, fornendo una logica fluida e coerente e un supporto variegato per le citazioni in comunicazioni testuali complesse."
974
986
  },
@@ -37,6 +37,9 @@
37
37
  "hunyuan": {
38
38
  "description": "Un modello di linguaggio sviluppato da Tencent, dotato di potenti capacità di creazione in cinese, abilità di ragionamento logico in contesti complessi e capacità affidabili di esecuzione dei compiti."
39
39
  },
40
+ "internlm": {
41
+ "description": "Un'organizzazione open source dedicata alla ricerca e allo sviluppo di strumenti per modelli di grandi dimensioni. Fornisce a tutti gli sviluppatori di AI una piattaforma open source efficiente e facile da usare, rendendo le tecnologie e gli algoritmi all'avanguardia accessibili a tutti."
42
+ },
40
43
  "minimax": {
41
44
  "description": "MiniMax è un'azienda di tecnologia dell'intelligenza artificiale generale fondata nel 2021, dedicata alla co-creazione di intelligenza con gli utenti. MiniMax ha sviluppato modelli generali di diverse modalità, tra cui un modello di testo MoE con trilioni di parametri, un modello vocale e un modello visivo. Ha anche lanciato applicazioni come Conch AI."
42
45
  },
@@ -610,6 +610,9 @@
610
610
  "grok-beta": {
611
611
  "description": "Grok 2と同等の性能を持ちながら、より高い効率、速度、機能を備えています。"
612
612
  },
613
+ "grok-vision-beta": {
614
+ "description": "最新の画像理解モデルで、文書、グラフ、スクリーンショット、写真など、さまざまな視覚情報を処理できます。"
615
+ },
613
616
  "gryphe/mythomax-l2-13b": {
614
617
  "description": "MythoMax l2 13Bは複数のトップモデルを統合した創造性と知性を兼ね備えた言語モデルです。"
615
618
  },
@@ -646,6 +649,12 @@
646
649
  "internlm/internlm2_5-7b-chat": {
647
650
  "description": "InternLM2.5は多様なシーンでのインテリジェントな対話ソリューションを提供します。"
648
651
  },
652
+ "internlm2-pro-chat": {
653
+ "description": "私たちがまだ維持している旧バージョンのモデルで、7B、20Bのさまざまなモデルパラメータ量が選択可能です。"
654
+ },
655
+ "internlm2.5-latest": {
656
+ "description": "私たちの最新のモデルシリーズで、卓越した推論性能を持ち、1Mのコンテキスト長をサポートし、より強力な指示追従とツール呼び出し能力を備えています。"
657
+ },
649
658
  "jamba-1.5-large": {},
650
659
  "jamba-1.5-mini": {},
651
660
  "lite": {
@@ -969,6 +978,9 @@
969
978
  "pixtral-12b-2409": {
970
979
  "description": "Pixtralモデルは、グラフと画像理解、文書質問応答、多モーダル推論、指示遵守などのタスクで強力な能力を発揮し、自然な解像度とアスペクト比で画像を取り込み、最大128Kトークンの長いコンテキストウィンドウで任意の数の画像を処理できます。"
971
980
  },
981
+ "pixtral-large-latest": {
982
+ "description": "Pixtral Largeは、1240億のパラメータを持つオープンソースのマルチモーダルモデルで、Mistral Large 2に基づいて構築されています。これは私たちのマルチモーダルファミリーの中で2番目のモデルであり、最先端の画像理解能力を示しています。"
983
+ },
972
984
  "pro-128k": {
973
985
  "description": "Spark Pro 128Kは特大のコンテキスト処理能力を備え、最大128Kのコンテキスト情報を処理できます。特に、全体を通じての分析や長期的な論理的関連性の処理が必要な長文コンテンツに適しており、複雑なテキストコミュニケーションにおいて滑らかで一貫した論理と多様な引用サポートを提供します。"
974
986
  },
@@ -37,6 +37,9 @@
37
37
  "hunyuan": {
38
38
  "description": "テンセントが開発した大規模言語モデルであり、強力な中国語の創作能力、複雑な文脈における論理的推論能力、そして信頼性の高いタスク実行能力を備えています。"
39
39
  },
40
+ "internlm": {
41
+ "description": "大規模モデルの研究と開発ツールチェーンに特化したオープンソース組織です。すべてのAI開発者に対して、高効率で使いやすいオープンプラットフォームを提供し、最先端の大規模モデルとアルゴリズム技術を身近に感じられるようにします。"
42
+ },
40
43
  "minimax": {
41
44
  "description": "MiniMaxは2021年に設立された汎用人工知能テクノロジー企業であり、ユーザーと共に知能を共創することに取り組んでいます。MiniMaxは、さまざまなモードの汎用大モデルを独自に開発しており、トリリオンパラメータのMoEテキスト大モデル、音声大モデル、画像大モデルを含んでいます。また、海螺AIなどのアプリケーションも展開しています。"
42
45
  },
@@ -610,6 +610,9 @@
610
610
  "grok-beta": {
611
611
  "description": "Grok 2와 유사한 성능을 가지지만, 더 높은 효율성, 속도 및 기능을 제공합니다."
612
612
  },
613
+ "grok-vision-beta": {
614
+ "description": "최신 이미지 이해 모델로, 문서, 차트, 스크린샷 및 사진 등 다양한 시각 정보를 처리할 수 있습니다."
615
+ },
613
616
  "gryphe/mythomax-l2-13b": {
614
617
  "description": "MythoMax l2 13B는 여러 최상위 모델을 통합한 창의성과 지능이 결합된 언어 모델입니다."
615
618
  },
@@ -646,6 +649,12 @@
646
649
  "internlm/internlm2_5-7b-chat": {
647
650
  "description": "InternLM2.5는 다양한 시나리오에서 스마트 대화 솔루션을 제공합니다."
648
651
  },
652
+ "internlm2-pro-chat": {
653
+ "description": "우리가 여전히 유지 관리하는 구버전 모델로, 7B 및 20B와 같은 다양한 모델 매개변수 옵션이 있습니다."
654
+ },
655
+ "internlm2.5-latest": {
656
+ "description": "우리가 최신으로 선보이는 모델 시리즈로, 뛰어난 추론 성능을 자랑하며 1M의 컨텍스트 길이와 더 강력한 지시 따르기 및 도구 호출 기능을 지원합니다."
657
+ },
649
658
  "jamba-1.5-large": {},
650
659
  "jamba-1.5-mini": {},
651
660
  "lite": {
@@ -969,6 +978,9 @@
969
978
  "pixtral-12b-2409": {
970
979
  "description": "Pixtral 모델은 차트 및 이미지 이해, 문서 질문 응답, 다중 모드 추론 및 지시 준수와 같은 작업에서 강력한 능력을 발휘하며, 자연 해상도와 가로 세로 비율로 이미지를 입력할 수 있고, 최대 128K 토큰의 긴 컨텍스트 창에서 임의의 수의 이미지를 처리할 수 있습니다."
971
980
  },
981
+ "pixtral-large-latest": {
982
+ "description": "Pixtral Large는 1240억 개의 매개변수를 가진 오픈 소스 다중 모달 모델로, Mistral Large 2를 기반으로 구축되었습니다. 이는 우리의 다중 모달 가족 중 두 번째 모델로, 최첨단 수준의 이미지 이해 능력을 보여줍니다."
983
+ },
972
984
  "pro-128k": {
973
985
  "description": "Spark Pro 128K는 매우 큰 컨텍스트 처리 능력을 갖추고 있으며, 최대 128K의 컨텍스트 정보를 처리할 수 있습니다. 특히 전체 분석 및 장기 논리 연관 처리가 필요한 긴 문서 콘텐츠에 적합하며, 복잡한 텍스트 커뮤니케이션에서 매끄럽고 일관된 논리와 다양한 인용 지원을 제공합니다."
974
986
  },
@@ -37,6 +37,9 @@
37
37
  "hunyuan": {
38
38
  "description": "텐센트가 개발한 대형 언어 모델로, 강력한 한국어 창작 능력과 복잡한 맥락에서의 논리적 추론 능력, 그리고 신뢰할 수 있는 작업 수행 능력을 갖추고 있습니다."
39
39
  },
40
+ "internlm": {
41
+ "description": "대규모 모델 연구 및 개발 도구 체인에 전념하는 오픈 소스 조직입니다. 모든 AI 개발자에게 효율적이고 사용하기 쉬운 오픈 소스 플랫폼을 제공하여 최첨단 대규모 모델 및 알고리즘 기술을 손쉽게 이용할 수 있도록 합니다."
42
+ },
40
43
  "minimax": {
41
44
  "description": "MiniMax는 2021년에 설립된 일반 인공지능 기술 회사로, 사용자와 함께 지능을 공동 창출하는 데 전념하고 있습니다. MiniMax는 다양한 모드의 일반 대형 모델을 독자적으로 개발하였으며, 여기에는 조 단위의 MoE 텍스트 대형 모델, 음성 대형 모델 및 이미지 대형 모델이 포함됩니다. 또한 해마 AI와 같은 응용 프로그램을 출시하였습니다."
42
45
  },