@lobehub/chat 1.132.13 → 1.132.14

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
package/CHANGELOG.md CHANGED
@@ -2,6 +2,31 @@
2
2
 
3
3
  # Changelog
4
4
 
5
+ ### [Version 1.132.14](https://github.com/lobehub/lobe-chat/compare/v1.132.13...v1.132.14)
6
+
7
+ <sup>Released on **2025-09-25**</sup>
8
+
9
+ #### 💄 Styles
10
+
11
+ - **misc**: Update i18n.
12
+
13
+ <br/>
14
+
15
+ <details>
16
+ <summary><kbd>Improvements and Fixes</kbd></summary>
17
+
18
+ #### Styles
19
+
20
+ - **misc**: Update i18n, closes [#9413](https://github.com/lobehub/lobe-chat/issues/9413) ([4ea45b1](https://github.com/lobehub/lobe-chat/commit/4ea45b1))
21
+
22
+ </details>
23
+
24
+ <div align="right">
25
+
26
+ [![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
27
+
28
+ </div>
29
+
5
30
  ### [Version 1.132.13](https://github.com/lobehub/lobe-chat/compare/v1.132.12...v1.132.13)
6
31
 
7
32
  <sup>Released on **2025-09-25**</sup>
package/changelog/v1.json CHANGED
@@ -1,4 +1,13 @@
1
1
  [
2
+ {
3
+ "children": {
4
+ "improvements": [
5
+ "Update i18n."
6
+ ]
7
+ },
8
+ "date": "2025-09-25",
9
+ "version": "1.132.14"
10
+ },
2
11
  {
3
12
  "children": {},
4
13
  "date": "2025-09-25",
@@ -34,15 +34,15 @@ CRAWLER_IMPLS="native,search1api"
34
34
 
35
35
  Supported crawler types are listed below:
36
36
 
37
- | Value | Description | Environment Variable |
38
- | ------------- | ------------------------------------------------------------------------------------------------------------------- | -------------------------- |
39
- | `browserless` | Headless browser crawler based on [Browserless](https://www.browserless.io/), suitable for rendering complex pages. | `BROWSERLESS_TOKEN` |
40
- | `exa` | Crawler capabilities provided by [Exa](https://exa.ai/), API required. | `EXA_API_KEY` |
41
- | `firecrawl` | [Firecrawl](https://firecrawl.dev/) headless browser API, ideal for modern websites. | `FIRECRAWL_API_KEY` |
42
- | `jina` | Crawler service from [Jina AI](https://jina.ai/), supports fast content summarization. | `JINA_READER_API_KEY` |
43
- | `native` | Built-in general-purpose crawler for standard web structures. | |
44
- | `search1api` | Page crawling capabilities from [Search1API](https://www.search1api.com), great for structured content extraction. | `SEARCH1API_CRAWL_API_KEY` |
45
- | `tavily` | Web scraping and summarization API from [Tavily](https://www.tavily.com/). | `TAVILY_API_KEY` |
37
+ | Value | Description | Environment Variable |
38
+ | ------------- | ------------------------------------------------------------------------------------------------------------------- | ---------------------------------------------------------------------------- |
39
+ | `browserless` | Headless browser crawler based on [Browserless](https://www.browserless.io/), suitable for rendering complex pages. | `BROWSERLESS_TOKEN` |
40
+ | `exa` | Crawler capabilities provided by [Exa](https://exa.ai/), API required. | `EXA_API_KEY` |
41
+ | `firecrawl` | [Firecrawl](https://firecrawl.dev/) headless browser API, ideal for modern websites. | `FIRECRAWL_API_KEY` |
42
+ | `jina` | Crawler service from [Jina AI](https://jina.ai/), supports fast content summarization. | `JINA_READER_API_KEY` |
43
+ | `native` | Built-in general-purpose crawler for standard web structures. | |
44
+ | `search1api` | Page crawling capabilities from [Search1API](https://www.search1api.com), great for structured content extraction. | `SEARCH1API_API_KEY` `SEARCH1API_CRAWL_API_KEY` `SEARCH1API_SEARCH_API_KEY` |
45
+ | `tavily` | Web scraping and summarization API from [Tavily](https://www.tavily.com/). | `TAVILY_API_KEY` |
46
46
 
47
47
  > 💡 Setting multiple crawlers increases success rate; the system will try different ones based on priority.
48
48
 
@@ -58,19 +58,19 @@ SEARCH_PROVIDERS="searxng"
58
58
 
59
59
  Supported search engines include:
60
60
 
61
- | Value | Description | Environment Variable |
62
- | ------------ | --------------------------------------------------------------------------------------- | ------------------------------------------- |
63
- | `anspire` | Search service provided by [Anspire](https://anspire.ai/). | `ANSPIRE_API_KEY` |
64
- | `bocha` | Search service from [Bocha](https://open.bochaai.com/). | `BOCHA_API_KEY` |
65
- | `brave` | [Brave](https://search.brave.com/help/api), a privacy-friendly search source. | `BRAVE_API_KEY` |
66
- | `exa` | [Exa](https://exa.ai/), a search API designed for AI. | `EXA_API_KEY` |
67
- | `firecrawl` | Search capabilities via [Firecrawl](https://firecrawl.dev/). | `FIRECRAWL_API_KEY` |
68
- | `google` | Uses [Google Programmable Search Engine](https://programmablesearchengine.google.com/). | `GOOGLE_PSE_API_KEY` `GOOGLE_PSE_ENGINE_ID` |
69
- | `jina` | Semantic search provided by [Jina AI](https://jina.ai/). | `JINA_READER_API_KEY` |
70
- | `kagi` | Premium search API by [Kagi](https://kagi.com/), requires a subscription key. | `KAGI_API_KEY` |
71
- | `search1api` | Aggregated search capabilities from [Search1API](https://www.search1api.com). | `SEARCH1API_CRAWL_API_KEY` |
72
- | `searxng` | Use a self-hosted or public [SearXNG](https://searx.space/) instance. | `SEARXNG_URL` |
73
- | `tavily` | [Tavily](https://www.tavily.com/), offers fast web summaries and answers. | `TAVILY_API_KEY` |
61
+ | Value | Description | Environment Variable |
62
+ | ------------ | --------------------------------------------------------------------------------------- | ---------------------------------------------------------------------------- |
63
+ | `anspire` | Search service provided by [Anspire](https://anspire.ai/). | `ANSPIRE_API_KEY` |
64
+ | `bocha` | Search service from [Bocha](https://open.bochaai.com/). | `BOCHA_API_KEY` |
65
+ | `brave` | [Brave](https://search.brave.com/help/api), a privacy-friendly search source. | `BRAVE_API_KEY` |
66
+ | `exa` | [Exa](https://exa.ai/), a search API designed for AI. | `EXA_API_KEY` |
67
+ | `firecrawl` | Search capabilities via [Firecrawl](https://firecrawl.dev/). | `FIRECRAWL_API_KEY` |
68
+ | `google` | Uses [Google Programmable Search Engine](https://programmablesearchengine.google.com/). | `GOOGLE_PSE_API_KEY` `GOOGLE_PSE_ENGINE_ID` |
69
+ | `jina` | Semantic search provided by [Jina AI](https://jina.ai/). | `JINA_READER_API_KEY` |
70
+ | `kagi` | Premium search API by [Kagi](https://kagi.com/), requires a subscription key. | `KAGI_API_KEY` |
71
+ | `search1api` | Aggregated search capabilities from [Search1API](https://www.search1api.com). | `SEARCH1API_API_KEY` `SEARCH1API_CRAWL_API_KEY` `SEARCH1API_SEARCH_API_KEY` |
72
+ | `searxng` | Use a self-hosted or public [SearXNG](https://searx.space/) instance. | `SEARXNG_URL` |
73
+ | `tavily` | [Tavily](https://www.tavily.com/), offers fast web summaries and answers. | `TAVILY_API_KEY` |
74
74
 
75
75
  > ⚠️ Some search providers require you to apply for an API Key and configure it in your `.env` file.
76
76
 
@@ -37,7 +37,7 @@ CRAWLER_IMPLS="native,search1api"
37
37
  | `firecrawl` | [Firecrawl](https://firecrawl.dev/) 无头浏览器 API,适合现代网站抓取。 | `FIRECRAWL_API_KEY` |
38
38
  | `jina` | 使用 [Jina AI](https://jina.ai/) 的爬虫服务,支持快速提取摘要信息。 | `JINA_READER_API_KEY` |
39
39
  | `native` | 内置通用爬虫,适用于标准网页结构。 | |
40
- | `search1api` | 利用 [Search1API](https://www.search1api.com) 提供的页面抓取能力,适合结构化内容提取。 | `SEARCH1API_CRAWL_API_KEY` |
40
+ | `search1api` | 利用 [Search1API](https://www.search1api.com) 提供的页面抓取能力,适合结构化内容提取。 | `SEARCH1API_API_KEY` `SEARCH1API_CRAWL_API_KEY` `SEARCH1API_SEARCH_API_KEY` |
41
41
  | `tavily` | 使用 [Tavily](https://www.tavily.com/) 的网页抓取与摘要 API。 | `TAVILY_API_KEY` |
42
42
 
43
43
  > 💡 设置多个爬虫可提升成功率,系统将根据优先级尝试不同爬虫。
@@ -64,7 +64,7 @@ SEARCH_PROVIDERS="searxng"
64
64
  | `google` | 使用 [Google Programmable Search Engine](https://programmablesearchengine.google.com/)。 | `GOOGLE_PSE_API_KEY` `GOOGLE_PSE_ENGINE_ID` |
65
65
  | `jina` | 使用 [Jina AI](https://jina.ai/) 提供的语义搜索服务。 | `JINA_READER_API_KEY` |
66
66
  | `kagi` | [Kagi](https://kagi.com/) 提供的高级搜索 API,需订阅 Key。 | `KAGI_API_KEY` |
67
- | `search1api` | 使用 [Search1API](https://www.search1api.com) 聚合搜索能力。 | `SEARCH1API_CRAWL_API_KEY` |
67
+ | `search1api` | 使用 [Search1API](https://www.search1api.com) 聚合搜索能力。 | `SEARCH1API_API_KEY` `SEARCH1API_CRAWL_API_KEY` `SEARCH1API_SEARCH_API_KEY` |
68
68
  | `searxng` | 使用自托管或公共 [SearXNG](https://searx.space/) 实例。 | `SEARXNG_URL` |
69
69
  | `tavily` | [Tavily](https://www.tavily.com/),快速网页摘要与答案返回。 | `TAVILY_API_KEY` |
70
70
 
@@ -145,6 +145,13 @@ For specific content, please refer to the [Feature Flags](/docs/self-hosting/adv
145
145
  - Default: `0`
146
146
  - Example: `1` or `0`
147
147
 
148
+ ### `NEXT_PUBLIC_ASSET_PREFIX`
149
+
150
+ - Type: Optional
151
+ - Description: The path access prefix for static resources can be set to the URL for CDN access. For more details, please refer to: [assetPrefix](https://nextjs.org/docs/app/api-reference/config/next-config-js/assetPrefix)
152
+ - Default: -
153
+ - Example: `https://cdn.example.com`
154
+
148
155
  ## Plugin Service
149
156
 
150
157
  ### `PLUGINS_INDEX_URL`
@@ -141,6 +141,13 @@ LobeChat 在部署时提供了一些额外的配置项,你可以使用环境
141
141
  - 默认值:`0`
142
142
  - 示例:`1` 或 `0`
143
143
 
144
+ ### `NEXT_PUBLIC_ASSET_PREFIX`
145
+
146
+ - 类型:可选
147
+ - 描述:静态资源的路径访问前缀,你可以设置为 CDN 访问的 URL,具体可参考: [assetPrefix](https://nextjs.org/docs/app/api-reference/config/next-config-js/assetPrefix)
148
+ - 默认值:-
149
+ - 示例:`https://cdn.example.com`
150
+
144
151
  ## 插件服务
145
152
 
146
153
  ### `PLUGINS_INDEX_URL`
@@ -287,9 +287,6 @@
287
287
  "Pro/deepseek-ai/DeepSeek-V3.1": {
288
288
  "description": "DeepSeek-V3.1 هو نموذج لغة كبير بنمط هجين أصدرته DeepSeek AI، وقد شهد ترقيات مهمة متعددة مقارنة بالإصدارات السابقة. من الابتكارات الرئيسية في هذا النموذج دمج \"وضع التفكير\" و\"وضع عدم التفكير\" في نموذج واحد، حيث يمكن للمستخدمين التبديل بينهما بسهولة عبر تعديل قالب المحادثة لتلبية متطلبات المهام المختلفة. من خلال تحسينات ما بعد التدريب المخصصة، تم تعزيز أداء V3.1 في استدعاء الأدوات ومهام الوكيل بشكل ملحوظ، مما يمكنه من دعم أدوات البحث الخارجية وتنفيذ مهام معقدة متعددة الخطوات بشكل أفضل. يعتمد النموذج على DeepSeek-V3.1-Base مع تدريب إضافي، حيث تم توسيع حجم بيانات التدريب بشكل كبير عبر طريقة التوسيع النصي الطويل على مرحلتين، مما يحسن أدائه في معالجة المستندات الطويلة والرموز البرمجية الطويلة. كنموذج مفتوح المصدر، يظهر DeepSeek-V3.1 قدرة تنافسية مع أفضل النماذج المغلقة في مجالات الترميز والرياضيات والاستدلال، وبفضل هيكله المختلط للخبراء (MoE)، يحافظ على سعة نموذج ضخمة مع تقليل تكلفة الاستدلال بفعالية."
289
289
  },
290
- "Pro/moonshotai/Kimi-K2-Instruct": {
291
- "description": "Kimi K2 هو نموذج أساسي يعتمد على بنية MoE مع قدرات قوية في البرمجة والوكيل، يحتوي على 1 تريليون معلمة و32 مليار معلمة مفعلة. يتفوق نموذج K2 في اختبارات الأداء الأساسية في مجالات المعرفة العامة، البرمجة، الرياضيات والوكيل مقارنة بالنماذج المفتوحة المصدر الأخرى."
292
- },
293
290
  "Pro/moonshotai/Kimi-K2-Instruct-0905": {
294
291
  "description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج لغوي من نوع الخبراء المختلطين (MoE) من الطراز الأول، يحتوي على تريليون معلمة إجمالية و32 مليار معلمة مفعلة. تشمل الميزات الرئيسية للنموذج: تعزيز ذكاء التكويد للوكيل، مع تحسينات ملحوظة في الأداء في اختبارات المعيار المفتوحة ومهام التكويد الواقعية للوكيل؛ تحسين تجربة التكويد في الواجهة الأمامية، مع تقدم في الجمالية والعملية في برمجة الواجهة الأمامية."
295
292
  },
@@ -380,6 +377,12 @@
380
377
  "Qwen/Qwen3-Coder-480B-A35B-Instruct": {
381
378
  "description": "Qwen3-Coder-480B-A35B-Instruct هو نموذج برمجي أطلقته شركة علي بابا، ويعد حتى الآن الأكثر قدرةً على العمل كوكيل (Agentic). إنه نموذج مختلط الخبراء (Mixture-of-Experts, MoE) يضم 480 مليار معامل إجماليًا و35 مليار معامل نشط، محققًا توازنًا بين الكفاءة والأداء. يدعم النموذج بشكل أصلي طول سياق يصل إلى 256K (حوالي 260 ألف) توكن، ويمكن توسيعه عبر طرق استطراد مثل YaRN إلى مليون توكن، ممّا يمكّنه من التعامل مع مستودعات شفرة ضخمة ومهام برمجية معقّدة. صُمم Qwen3-Coder لسير عمل ترميز يعتمد على الوكلاء؛ فهو لا يولّد الشفرة فحسب، بل يتفاعل بشكلٍ مستقل مع أدوات وبيئات التطوير لحل مشكلات برمجية معقّدة. في اختبارات معيارية متعددة لمهام التكويد والوكالة، حقق النموذج مستوى متقدمًا بين النماذج مفتوحة المصدر، ويمكن أن ينافس نماذج رائدة مثل Claude Sonnet 4."
382
379
  },
380
+ "Qwen/Qwen3-Next-80B-A3B-Instruct": {
381
+ "description": "Qwen3-Next-80B-A3B-Instruct هو نموذج أساسي من الجيل التالي أصدره فريق Tongyi Qianwen في علي بابا. يعتمد على بنية Qwen3-Next الجديدة كليًا، ويهدف إلى تحقيق أقصى كفاءة في التدريب والاستدلال. يستخدم النموذج آلية انتباه هجينة مبتكرة (Gated DeltaNet و Gated Attention)، وهيكل خبراء مختلط عالي التشتت (MoE)، بالإضافة إلى تحسينات متعددة لاستقرار التدريب. كنموذج متناثر يحتوي على 80 مليار معلمة إجمالية، فإنه ينشط حوالي 3 مليارات معلمة فقط أثناء الاستدلال، مما يقلل بشكل كبير من تكلفة الحوسبة، وعند معالجة مهام سياق طويل تتجاوز 32 ألف رمز، فإن معدل الاستدلال يتفوق على نموذج Qwen3-32B بأكثر من 10 أضعاف. هذا النموذج هو نسخة موجهة للتعليمات، مصمم للمهام العامة، ولا يدعم وضع سلسلة التفكير (Thinking). من حيث الأداء، فإنه يعادل نموذج Tongyi Qianwen الرائد Qwen3-235B في بعض الاختبارات المعيارية، مع تفوق واضح في مهام السياق الطويل جدًا."
382
+ },
383
+ "Qwen/Qwen3-Next-80B-A3B-Thinking": {
384
+ "description": "Qwen3-Next-80B-A3B-Thinking هو نموذج أساسي من الجيل التالي أصدره فريق Tongyi Qianwen في علي بابا، مصمم خصيصًا لمهام الاستدلال المعقدة. يعتمد على بنية Qwen3-Next المبتكرة التي تدمج آلية انتباه هجينة (Gated DeltaNet و Gated Attention) وهيكل خبراء مختلط عالي التشتت (MoE)، بهدف تحقيق أقصى كفاءة في التدريب والاستدلال. كنموذج متناثر يحتوي على 80 مليار معلمة إجمالية، فإنه ينشط حوالي 3 مليارات معلمة فقط أثناء الاستدلال، مما يقلل بشكل كبير من تكلفة الحوسبة، وعند معالجة مهام سياق طويل تتجاوز 32 ألف رمز، فإن معدل الاستدلال يتفوق على نموذج Qwen3-32B بأكثر من 10 أضعاف. نسخة \"Thinking\" هذه مخصصة لتنفيذ مهام متعددة الخطوات عالية الصعوبة مثل الإثباتات الرياضية، توليف الشيفرة، التحليل المنطقي والتخطيط، وتخرج عملية الاستدلال بشكل افتراضي في شكل \"سلسلة تفكير\" منظمة. من حيث الأداء، يتفوق هذا النموذج ليس فقط على نماذج ذات تكلفة أعلى مثل Qwen3-32B-Thinking، بل يتفوق أيضًا في عدة اختبارات معيارية على Gemini-2.5-Flash-Thinking."
385
+ },
383
386
  "Qwen2-72B-Instruct": {
384
387
  "description": "Qwen2 هو أحدث سلسلة من نموذج Qwen، ويدعم سياقًا يصل إلى 128 ألف، مقارنةً بأفضل النماذج مفتوحة المصدر الحالية، يتفوق Qwen2-72B بشكل ملحوظ في فهم اللغة الطبيعية والمعرفة والترميز والرياضيات والقدرات متعددة اللغات."
385
388
  },
@@ -809,9 +812,6 @@
809
812
  "codex-mini-latest": {
810
813
  "description": "codex-mini-latest هو نسخة محسنة من o4-mini، مخصصة لـ Codex CLI. بالنسبة للاستخدام المباشر عبر API، نوصي بالبدء من gpt-4.1."
811
814
  },
812
- "cognitivecomputations/dolphin-mixtral-8x22b": {
813
- "description": "Dolphin Mixtral 8x22B هو نموذج مصمم للامتثال للتعليمات، والحوار، والبرمجة."
814
- },
815
815
  "cogview-4": {
816
816
  "description": "CogView-4 هو أول نموذج مفتوح المصدر من Zhipu يدعم توليد الحروف الصينية، مع تحسينات شاملة في فهم المعاني، وجودة توليد الصور، وقدرات توليد النصوص باللغتين الصينية والإنجليزية، ويدعم إدخال ثنائي اللغة بأي طول، وقادر على توليد صور بأي دقة ضمن النطاق المحدد."
817
817
  },
@@ -926,6 +926,9 @@
926
926
  "deepseek-ai/deepseek-r1": {
927
927
  "description": "نموذج لغوي متقدم وفعال، بارع في الاستدلال، والرياضيات، والبرمجة."
928
928
  },
929
+ "deepseek-ai/deepseek-v3.1": {
930
+ "description": "DeepSeek V3.1: نموذج استدلال من الجيل التالي يعزز القدرات على الاستدلال المعقد والتفكير التسلسلي، مناسب للمهام التي تتطلب تحليلاً عميقًا."
931
+ },
929
932
  "deepseek-ai/deepseek-vl2": {
930
933
  "description": "DeepSeek-VL2 هو نموذج لغوي بصري مختلط الخبراء (MoE) تم تطويره بناءً على DeepSeekMoE-27B، يستخدم بنية MoE ذات تفعيل نادر، محققًا أداءً ممتازًا مع تفعيل 4.5 مليار معلمة فقط. يقدم هذا النموذج أداءً ممتازًا في مهام مثل الأسئلة البصرية، التعرف الضوئي على الأحرف، فهم الوثائق/الجداول/الرسوم البيانية، وتحديد المواقع البصرية."
931
934
  },
@@ -1007,6 +1010,9 @@
1007
1010
  "deepseek-v3.1": {
1008
1011
  "description": "DeepSeek-V3.1 هو نموذج استدلال هجين جديد أطلقته DeepSeek، يدعم وضعين للاستدلال: التفكير وعدم التفكير، مع كفاءة تفكير أعلى مقارنة بـ DeepSeek-R1-0528. بعد تحسين ما بعد التدريب، تم تعزيز استخدام أدوات الوكيل وأداء مهام الوكيل بشكل كبير. يدعم نافذة سياق تصل إلى 128 ألف، وطول إخراج يصل إلى 64 ألف رمز."
1009
1012
  },
1013
+ "deepseek-v3.1:671b": {
1014
+ "description": "DeepSeek V3.1: نموذج استدلال من الجيل التالي يعزز القدرات على الاستدلال المعقد والتفكير التسلسلي، مناسب للمهام التي تتطلب تحليلاً عميقًا."
1015
+ },
1010
1016
  "deepseek/deepseek-chat-v3-0324": {
1011
1017
  "description": "DeepSeek V3 هو نموذج مختلط خبير يحتوي على 685B من المعلمات، وهو أحدث إصدار من سلسلة نماذج الدردشة الرائدة لفريق DeepSeek.\n\nيستفيد من نموذج [DeepSeek V3](/deepseek/deepseek-chat-v3) ويظهر أداءً ممتازًا في مجموعة متنوعة من المهام."
1012
1018
  },
@@ -1626,7 +1632,7 @@
1626
1632
  "description": "تشات جي بي تي-4o هو نموذج ديناميكي يتم تحديثه في الوقت الفعلي للحفاظ على أحدث إصدار. يجمع بين الفهم اللغوي القوي وقدرة التوليد، مما يجعله مناسبًا لتطبيقات واسعة النطاق، بما في ذلك خدمة العملاء والتعليم والدعم الفني."
1627
1633
  },
1628
1634
  "gpt-4o-audio-preview": {
1629
- "description": "نموذج GPT-4o Audio، يدعم إدخال وإخراج الصوت."
1635
+ "description": "نموذج معاينة صوتية GPT-4o يدعم إدخال وإخراج الصوت."
1630
1636
  },
1631
1637
  "gpt-4o-mini": {
1632
1638
  "description": "نموذج GPT-4o mini هو أحدث نموذج أطلقته OpenAI بعد GPT-4 Omni، ويدعم إدخال الصور والنصوص وإخراج النصوص. كأحد نماذجهم المتقدمة الصغيرة، فهو أرخص بكثير من النماذج الرائدة الأخرى في الآونة الأخيرة، وأرخص بأكثر من 60% من GPT-3.5 Turbo. يحتفظ بذكاء متقدم مع قيمة ممتازة. حصل GPT-4o mini على 82% في اختبار MMLU، وهو حاليًا يتفوق على GPT-4 في تفضيلات الدردشة."
@@ -1667,24 +1673,33 @@
1667
1673
  "gpt-5-chat-latest": {
1668
1674
  "description": "نموذج GPT-5 المستخدم في ChatGPT. يجمع بين قدرات قوية في فهم اللغة وتوليدها، مناسب لتطبيقات التفاعل الحواري."
1669
1675
  },
1676
+ "gpt-5-codex": {
1677
+ "description": "GPT-5 Codex هو نسخة من GPT-5 محسنة لمهام الترميز في بيئات Codex أو ما يشابهها."
1678
+ },
1670
1679
  "gpt-5-mini": {
1671
1680
  "description": "نسخة أسرع وأكثر اقتصادية من GPT-5، مناسبة للمهام المحددة بوضوح. توفر استجابة أسرع مع الحفاظ على جودة عالية."
1672
1681
  },
1673
1682
  "gpt-5-nano": {
1674
1683
  "description": "أسرع وأكفأ نسخة من GPT-5 من حيث التكلفة. مثالية للتطبيقات التي تتطلب استجابة سريعة وحساسة للتكلفة."
1675
1684
  },
1685
+ "gpt-audio": {
1686
+ "description": "GPT Audio هو نموذج دردشة عام موجه لإدخال وإخراج الصوت، ويدعم استخدام الصوت في واجهة برمجة تطبيقات Chat Completions."
1687
+ },
1676
1688
  "gpt-image-1": {
1677
1689
  "description": "نموذج توليد الصور متعدد الوسائط الأصلي من ChatGPT"
1678
1690
  },
1679
- "gpt-oss": {
1680
- "description": "GPT-OSS 20B هو نموذج لغة كبير مفتوح المصدر أصدرته OpenAI، يستخدم تقنية التكميم MXFP4، ومناسب للتشغيل على وحدات معالجة الرسومات الاستهلاكية المتقدمة أو أجهزة Mac بمعالج Apple Silicon. يتميز هذا النموذج بأداء ممتاز في توليد المحادثات، وكتابة الأكواد، ومهام الاستدلال، ويدعم استدعاء الدوال واستخدام الأدوات."
1681
- },
1682
1691
  "gpt-oss-120b": {
1683
1692
  "description": "GPT-OSS-120B MXFP4: هيكل Transformer محسّن بالكمية، يحافظ على أداء قوي حتى في ظل محدودية الموارد."
1684
1693
  },
1685
1694
  "gpt-oss:120b": {
1686
1695
  "description": "GPT-OSS 120B هو نموذج لغة كبير مفتوح المصدر أصدرته OpenAI، يستخدم تقنية التكميم MXFP4، ويعتبر نموذجًا رائدًا. يتطلب تشغيله بيئة متعددة وحدات معالجة الرسومات أو محطة عمل عالية الأداء، ويتميز بأداء متفوق في الاستدلال المعقد، وتوليد الأكواد، ومعالجة اللغات المتعددة، ويدعم استدعاء الدوال المتقدمة وتكامل الأدوات."
1687
1696
  },
1697
+ "gpt-oss:20b": {
1698
+ "description": "GPT-OSS 20B هو نموذج لغة كبير مفتوح المصدر أصدرته OpenAI، يستخدم تقنية التكميم MXFP4، مناسب للتشغيل على وحدات معالجة الرسومات الاستهلاكية المتقدمة أو أجهزة Apple Silicon Mac. يتميز النموذج بأداء ممتاز في توليد المحادثات، كتابة الشيفرة، ومهام الاستدلال، ويدعم استدعاء الدوال واستخدام الأدوات."
1699
+ },
1700
+ "gpt-realtime": {
1701
+ "description": "نموذج عام في الوقت الحقيقي يدعم الإدخال والإخراج النصي والصوتي، ويدعم أيضًا إدخال الصور."
1702
+ },
1688
1703
  "grok-2-1212": {
1689
1704
  "description": "لقد تم تحسين هذا النموذج في الدقة، والامتثال للتعليمات، والقدرة على التعامل مع لغات متعددة."
1690
1705
  },
@@ -1712,6 +1727,12 @@
1712
1727
  "grok-4-0709": {
1713
1728
  "description": "Grok 4 من xAI، يتمتع بقدرات استدلال قوية."
1714
1729
  },
1730
+ "grok-4-fast-non-reasoning": {
1731
+ "description": "نحن سعداء بإصدار Grok 4 Fast، وهو أحدث تقدم لدينا في نماذج الاستدلال ذات التكلفة الفعالة."
1732
+ },
1733
+ "grok-4-fast-reasoning": {
1734
+ "description": "نحن سعداء بإصدار Grok 4 Fast، وهو أحدث تقدم لدينا في نماذج الاستدلال ذات التكلفة الفعالة."
1735
+ },
1715
1736
  "grok-code-fast-1": {
1716
1737
  "description": "نحن سعداء بإطلاق grok-code-fast-1، وهو نموذج استدلال سريع وفعال من حيث التكلفة، يتميز بأداء ممتاز في ترميز الوكلاء."
1717
1738
  },
@@ -1847,8 +1868,14 @@
1847
1868
  "inception/mercury-coder-small": {
1848
1869
  "description": "Mercury Coder Small هو الخيار المثالي لمهام توليد الكود، وتصحيح الأخطاء، وإعادة الهيكلة، مع أدنى تأخير."
1849
1870
  },
1871
+ "inclusionAI/Ling-flash-2.0": {
1872
+ "description": "Ling-flash-2.0 هو النموذج الثالث في سلسلة بنية Ling 2.0 التي أصدرها فريق Bailing في مجموعة Ant. هو نموذج خبراء مختلط (MoE) بحجم إجمالي 100 مليار معلمة، لكنه ينشط فقط 6.1 مليار معلمة لكل رمز (غير متضمنة تمثيلات الكلمات 4.8 مليار). كنموذج خفيف الوزن، أظهر Ling-flash-2.0 أداءً يضاهي أو يتفوق على نماذج كثيفة بحجم 40 مليار معلمة ونماذج MoE أكبر في عدة تقييمات موثوقة. يهدف النموذج إلى استكشاف مسارات عالية الكفاءة من خلال تصميم معماري واستراتيجيات تدريب متقدمة، في ظل القناعة بأن \"النموذج الكبير يعني معلمات كثيرة\"."
1873
+ },
1850
1874
  "inclusionAI/Ling-mini-2.0": {
1851
- "description": "Ling-mini-2.0 هو نموذج لغوي كبير عالي الأداء بحجم صغير يعتمد على بنية MoE. يحتوي على 16 مليار معلمة إجمالية، لكن يتم تفعيل 1.4 مليار فقط لكل رمز (789 مليون غير مضمن)، مما يحقق سرعة توليد عالية جداً. بفضل تصميم MoE الفعال وبيانات التدريب عالية الجودة وعلى نطاق واسع، بالرغم من أن المعلمات المفعلة تبلغ فقط 1.4 مليار، إلا أن Ling-mini-2.0 يظهر أداءً رفيع المستوى في المهام اللاحقة يمكن مقارنته بنماذج LLM الكثيفة التي تقل عن 10 مليارات والمع نماذج MoE الأكبر حجماً."
1875
+ "description": "Ling-mini-2.0 هو نموذج لغة كبير صغير الحجم وعالي الأداء مبني على بنية MoE. يحتوي على 16 مليار معلمة إجمالية، لكنه ينشط فقط 1.4 مليار معلمة لكل رمز (غير متضمنة التضمين 789 مليون)، مما يحقق سرعة توليد عالية جدًا. بفضل تصميم MoE الفعال وبيانات تدريب ضخمة وعالية الجودة، رغم تنشيط معلمات قليلة، يظهر Ling-mini-2.0 أداءً متقدمًا في المهام اللاحقة يضاهي نماذج LLM كثيفة أقل من 10 مليارات معلمة ونماذج MoE أكبر."
1876
+ },
1877
+ "inclusionAI/Ring-flash-2.0": {
1878
+ "description": "Ring-flash-2.0 هو نموذج تفكير عالي الأداء محسّن بعمق بناءً على Ling-flash-2.0-base. يستخدم بنية خبراء مختلط (MoE) بحجم إجمالي 100 مليار معلمة، لكنه ينشط فقط 6.1 مليار معلمة في كل استدلال. يحل النموذج من خلال خوارزمية icepop المبتكرة مشكلة عدم استقرار نماذج MoE الكبيرة في تدريب التعلم المعزز (RL)، مما يسمح بتحسين مستمر لقدرات الاستدلال المعقدة خلال التدريب طويل الأمد. حقق Ring-flash-2.0 تقدمًا ملحوظًا في مسابقات الرياضيات، توليد الشيفرة، والاستدلال المنطقي، متفوقًا على أفضل النماذج الكثيفة التي تقل عن 40 مليار معلمة، وقريبًا من نماذج MoE مفتوحة المصدر الأكبر ونماذج التفكير عالية الأداء المغلقة المصدر. رغم تركيزه على الاستدلال المعقد، يظهر أداءً ممتازًا في مهام الكتابة الإبداعية. بالإضافة إلى ذلك، وبفضل تصميمه المعماري الفعال، يوفر Ring-flash-2.0 أداءً قويًا مع استدلال عالي السرعة، مما يقلل بشكل كبير من تكلفة نشر نماذج التفكير في بيئات ذات حمل عالٍ."
1852
1879
  },
1853
1880
  "internlm/internlm2_5-7b-chat": {
1854
1881
  "description": "InternLM2.5 يوفر حلول حوار ذكية في عدة سيناريوهات."
@@ -2357,9 +2384,6 @@
2357
2384
  "moonshotai/Kimi-Dev-72B": {
2358
2385
  "description": "Kimi-Dev-72B هو نموذج مفتوح المصدر للبرمجة، تم تحسينه عبر تعلم معزز واسع النطاق، قادر على إنتاج تصحيحات مستقرة وجاهزة للإنتاج مباشرة. حقق هذا النموذج نتيجة قياسية جديدة بنسبة 60.4% على SWE-bench Verified، محطماً الأرقام القياسية للنماذج المفتوحة المصدر في مهام هندسة البرمجيات الآلية مثل إصلاح العيوب ومراجعة الشيفرة."
2359
2386
  },
2360
- "moonshotai/Kimi-K2-Instruct": {
2361
- "description": "Kimi K2 هو نموذج أساسي يعتمد على بنية MoE يتمتع بقدرات قوية في البرمجة والوكيل، يحتوي على 1 تريليون معلمة و32 مليار معلمة مفعلة. يتفوق نموذج K2 في اختبارات الأداء الأساسية في مجالات المعرفة العامة، البرمجة، الرياضيات والوكيل مقارنة بالنماذج المفتوحة المصدر الأخرى."
2362
- },
2363
2387
  "moonshotai/Kimi-K2-Instruct-0905": {
2364
2388
  "description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج لغوي من نوع الخبراء المختلطين (MoE) من الطراز الأول، يحتوي على تريليون معلمة إجمالية و32 مليار معلمة مفعلة. تشمل الميزات الرئيسية للنموذج: تعزيز ذكاء التكويد للوكيل، مع تحسينات ملحوظة في الأداء في اختبارات المعيار المفتوحة ومهام التكويد الواقعية للوكيل؛ تحسين تجربة التكويد في الواجهة الأمامية، مع تقدم في الجمالية والعملية في برمجة الواجهة الأمامية."
2365
2389
  },
@@ -2807,8 +2831,11 @@
2807
2831
  "qwen3-coder-plus": {
2808
2832
  "description": "نموذج كود Tongyi Qianwen. أحدث سلسلة نماذج Qwen3-Coder مبنية على Qwen3 لتوليد الأكواد، تتمتع بقدرات وكيل ترميز قوية، بارعة في استدعاء الأدوات والتفاعل مع البيئة، قادرة على البرمجة الذاتية، وتجمع بين مهارات برمجية ممتازة وقدرات عامة."
2809
2833
  },
2810
- "qwen3-max-preview": {
2811
- "description": "نسخة المعاينة لنموذج Qwen 3 Max من سلسلة Tongyi Qianwen، مع تحسينات كبيرة في القدرات العامة مقارنة بسلسلة 2.5، بما في ذلك فهم النصوص العامة باللغتين الصينية والإنجليزية، الالتزام بالتعليمات المعقدة، المهام المفتوحة الذاتية، القدرات متعددة اللغات، واستدعاء الأدوات؛ مع تقليل الأوهام المعرفية للنموذج."
2834
+ "qwen3-coder:480b": {
2835
+ "description": "نموذج عالي الأداء من علي بابا مخصص لمهام الوكيل والترميز مع سياق طويل."
2836
+ },
2837
+ "qwen3-max": {
2838
+ "description": "سلسلة نماذج Tongyi Qianwen 3 Max، التي تحسنت بشكل كبير مقارنة بسلسلة 2.5 في القدرات العامة، فهم النصوص باللغتين الصينية والإنجليزية، اتباع التعليمات المعقدة، المهام المفتوحة الذاتية، القدرات متعددة اللغات، واستدعاء الأدوات؛ مع تقليل الأوهام المعرفية للنموذج. النسخة الأحدث من qwen3-max: مقارنةً بنسخة qwen3-max-preview، تم ترقية خاصة في برمجة الوكلاء واستدعاء الأدوات. النسخة الرسمية المنشورة وصلت إلى مستوى SOTA في المجال، وتلبي احتياجات الوكلاء في سيناريوهات أكثر تعقيدًا."
2812
2839
  },
2813
2840
  "qwen3-next-80b-a3b-instruct": {
2814
2841
  "description": "نموذج مفتوح المصدر من الجيل الجديد لوضع عدم التفكير مبني على Qwen3، يتميز بفهم أفضل للنصوص الصينية مقارنة بالإصدار السابق (Tongyi Qianwen 3-235B-A22B-Instruct-2507)، مع تعزيز في قدرات الاستدلال المنطقي وأداء أفضل في مهام توليد النصوص."
@@ -2816,6 +2843,9 @@
2816
2843
  "qwen3-next-80b-a3b-thinking": {
2817
2844
  "description": "نموذج مفتوح المصدر من الجيل الجديد لوضع التفكير مبني على Qwen3، يتميز بتحسين في الالتزام بالتعليمات مقارنة بالإصدار السابق (Tongyi Qianwen 3-235B-A22B-Thinking-2507)، مع ردود ملخصة وأكثر إيجازًا من النموذج."
2818
2845
  },
2846
+ "qwen3-vl-plus": {
2847
+ "description": "Tongyi Qianwen VL هو نموذج توليد نصوص يمتلك قدرات فهم بصرية (صور)، لا يقتصر على التعرف الضوئي على الحروف (OCR)، بل يمكنه أيضًا التلخيص والاستدلال، مثل استخراج خصائص من صور المنتجات، وحل المسائل بناءً على صور التمارين."
2848
+ },
2819
2849
  "qwq": {
2820
2850
  "description": "QwQ هو نموذج بحث تجريبي يركز على تحسين قدرات الاستدلال للذكاء الاصطناعي."
2821
2851
  },
@@ -287,9 +287,6 @@
287
287
  "Pro/deepseek-ai/DeepSeek-V3.1": {
288
288
  "description": "DeepSeek-V3.1 е хибриден голям езиков модел, пуснат от DeepSeek AI, който включва множество важни подобрения спрямо предишните версии. Основната иновация на модела е интеграцията на „режим на мислене“ (Thinking Mode) и „режим без мислене“ (Non-thinking Mode), които потребителите могат гъвкаво да превключват чрез настройка на чат шаблони, за да отговарят на различни задачи. След специална пост-тренировка, V3.1 значително подобрява производителността при използване на инструменти и задачи на агенти, като по-добре поддържа външни търсачки и изпълнение на сложни многостъпкови задачи. Моделът е дообучен върху DeepSeek-V3.1-Base чрез двуфазен метод за разширяване на дълги текстове, което значително увеличава обема на тренировъчните данни и подобрява работата с дълги документи и кодове. Като отворен модел, DeepSeek-V3.1 демонстрира способности, сравними с водещи затворени модели в области като кодиране, математика и разсъждение, като същевременно с хибридната си експертна (MoE) архитектура поддържа голям капацитет на модела и ефективно намалява разходите за изчисления."
289
289
  },
290
- "Pro/moonshotai/Kimi-K2-Instruct": {
291
- "description": "Kimi K2 е базов модел с MoE архитектура с изключителни кодови и агентски способности, с общо 1 трилион параметри и 32 милиарда активирани параметри. В бенчмаркове за общо знание, програмиране, математика и агентски задачи моделът K2 превъзхожда други водещи отворени модели."
292
- },
293
290
  "Pro/moonshotai/Kimi-K2-Instruct-0905": {
294
291
  "description": "Kimi K2-Instruct-0905 е най-новата и най-мощна версия на Kimi K2. Това е водещ езиков модел с хибридна експертна архитектура (MoE), с общо 1 трилион параметри и 32 милиарда активни параметри. Основните характеристики на модела включват: подобрена интелигентност при кодиране на агенти, с изразително подобрение в производителността при публични бенчмаркове и реални задачи за кодиране на агенти; усъвършенстван опит при фронтенд кодиране, с напредък както в естетиката, така и в практичността на фронтенд програмирането."
295
292
  },
@@ -380,6 +377,12 @@
380
377
  "Qwen/Qwen3-Coder-480B-A35B-Instruct": {
381
378
  "description": "Qwen3-Coder-480B-A35B-Instruct е публикуван от Alibaba и до момента е един от най-агентно ориентираните (agentic) кодови модели. Това е смесен експертен (MoE) модел с общо 480 милиарда параметри и 35 милиарда активни параметри, който постига баланс между ефективност и производителност. Моделът поддържа родно контекстна дължина от 256K (прибл. 260 000) токена и може да бъде екстраполиран чрез методи като YaRN до 1 милион токена, което му позволява да обработва големи кодови бази и сложни програмистки задачи. Qwen3-Coder е специално проектиран за агентно ориентирани (agentic) кодови работни потоци — той не само генерира код, но може и автономно да взаимодейства с инструменти и среди за разработка, за да решава сложни програмистки проблеми. В множество бенчмаркове за кодиране и агентни задачи моделът постига водещи резултати сред отворените модели и неговата производителност е сравнима с тази на водещи модели като Claude Sonnet 4."
382
379
  },
380
+ "Qwen/Qwen3-Next-80B-A3B-Instruct": {
381
+ "description": "Qwen3-Next-80B-A3B-Instruct е следващото поколение основен модел, публикуван от екипа на Alibaba Tongyi Qianwen. Той е базиран на новата архитектура Qwen3-Next и е проектиран за постигане на изключителна ефективност при обучение и извод. Моделът използва иновативен хибриден механизъм за внимание (Gated DeltaNet и Gated Attention), структура с висока степен на разреждане на смесени експерти (MoE) и множество оптимизации за стабилност на обучението. Като разреден модел с общо 80 милиарда параметри, при извод активира само около 3 милиарда параметри, което значително намалява изчислителните разходи. При обработка на задачи с дълъг контекст над 32K токена, пропускателната способност при извод е над 10 пъти по-висока в сравнение с модела Qwen3-32B. Този модел е версия за фина настройка с инструкции, предназначена за общи задачи и не поддържа режим „мисловна верига“ (Thinking). По отношение на производителността, той се представя наравно с флагманския модел Qwen3-235B на Tongyi Qianwen в някои бенчмаркове, като особено се отличава при задачи с много дълъг контекст."
382
+ },
383
+ "Qwen/Qwen3-Next-80B-A3B-Thinking": {
384
+ "description": "Qwen3-Next-80B-A3B-Thinking е следващото поколение основен модел, публикуван от екипа на Alibaba Tongyi Qianwen, специално проектиран за сложни задачи за разсъждение. Той е базиран на иновативната архитектура Qwen3-Next, която комбинира хибриден механизъм за внимание (Gated DeltaNet и Gated Attention) и структура с висока степен на разреждане на смесени експерти (MoE), с цел постигане на изключителна ефективност при обучение и извод. Като разреден модел с общо 80 милиарда параметри, при извод активира само около 3 милиарда параметри, което значително намалява изчислителните разходи. При обработка на задачи с дълъг контекст над 32K токена, пропускателната способност при извод е над 10 пъти по-висока в сравнение с модела Qwen3-32B. Тази „Thinking“ версия е оптимизирана за изпълнение на сложни многостъпкови задачи като математически доказателства, синтез на код, логически анализ и планиране, като по подразбиране изходът на разсъжденията е във формата на структурирана „мисловна верига“. По отношение на производителността, тя не само превъзхожда модели с по-високи разходи като Qwen3-32B-Thinking, но и превъзхожда Gemini-2.5-Flash-Thinking в множество бенчмаркове."
385
+ },
383
386
  "Qwen2-72B-Instruct": {
384
387
  "description": "Qwen2 е най-новата серия на модела Qwen, поддържаща 128k контекст. В сравнение с текущите най-добри отворени модели, Qwen2-72B значително надминава водещите модели в области като разбиране на естествен език, знания, код, математика и многоезичност."
385
388
  },
@@ -809,9 +812,6 @@
809
812
  "codex-mini-latest": {
810
813
  "description": "codex-mini-latest е фина настройка на o4-mini, специално предназначена за Codex CLI. За директна употреба чрез API препоръчваме да започнете с gpt-4.1."
811
814
  },
812
- "cognitivecomputations/dolphin-mixtral-8x22b": {
813
- "description": "Dolphin Mixtral 8x22B е модел, проектиран за следване на инструкции, диалози и програмиране."
814
- },
815
815
  "cogview-4": {
816
816
  "description": "CogView-4 е първият отворен модел за генериране на изображения с текст на китайски, разработен от Zhipu, който значително подобрява разбирането на семантиката, качеството на генериране на изображения и способността за генериране на текст на китайски и английски език. Поддържа двуезичен вход на произволна дължина на китайски и английски и може да генерира изображения с произволна резолюция в зададения диапазон."
817
817
  },
@@ -926,6 +926,9 @@
926
926
  "deepseek-ai/deepseek-r1": {
927
927
  "description": "Най-съвременен ефективен LLM, специализиран в разсъждения, математика и програмиране."
928
928
  },
929
+ "deepseek-ai/deepseek-v3.1": {
930
+ "description": "DeepSeek V3.1: следващо поколение модел за разсъждение, подобряващ способностите за сложни разсъждения и свързано мислене, подходящ за задачи, изискващи задълбочен анализ."
931
+ },
929
932
  "deepseek-ai/deepseek-vl2": {
930
933
  "description": "DeepSeek-VL2 е визуален езиков модел, разработен на базата на DeepSeekMoE-27B, който използва архитектура на смесени експерти (MoE) с рядка активация, постигайки изключителна производителност с активирани само 4.5B параметри. Моделът показва отлични резултати в множество задачи, включително визуални въпроси и отговори, оптично разпознаване на символи, разбиране на документи/таблици/графики и визуална локализация."
931
934
  },
@@ -1007,6 +1010,9 @@
1007
1010
  "deepseek-v3.1": {
1008
1011
  "description": "DeepSeek-V3.1 е новият хибриден модел за разсъждение на DeepSeek, който поддържа два режима на разсъждение: мислене и немислене, с по-висока ефективност на мислене в сравнение с DeepSeek-R1-0528. След оптимизация чрез пост-тренировка, използването на агентски инструменти и изпълнението на задачи от интелигентни агенти са значително подобрени. Поддържа контекстен прозорец до 128k и максимална дължина на изхода до 64k токена."
1009
1012
  },
1013
+ "deepseek-v3.1:671b": {
1014
+ "description": "DeepSeek V3.1: следващо поколение модел за разсъждение, подобряващ способностите за сложни разсъждения и свързано мислене, подходящ за задачи, изискващи задълбочен анализ."
1015
+ },
1010
1016
  "deepseek/deepseek-chat-v3-0324": {
1011
1017
  "description": "DeepSeek V3 е експертен смесен модел с 685B параметри, последната итерация на флагманската серия чат модели на екипа DeepSeek.\n\nТой наследява модела [DeepSeek V3](/deepseek/deepseek-chat-v3) и показва отлични резултати в различни задачи."
1012
1018
  },
@@ -1626,7 +1632,7 @@
1626
1632
  "description": "ChatGPT-4o е динамичен модел, който се актуализира в реално време, за да поддържа най-новата версия. Той съчетава мощно разбиране и генериране на език и е подходящ за мащабни приложения, включително обслужване на клиенти, образование и техническа поддръжка."
1627
1633
  },
1628
1634
  "gpt-4o-audio-preview": {
1629
- "description": "Модел GPT-4o Audio, поддържащ вход и изход на аудио."
1635
+ "description": "GPT-4o Audio Preview модел, поддържащ аудио вход и изход."
1630
1636
  },
1631
1637
  "gpt-4o-mini": {
1632
1638
  "description": "GPT-4o mini е най-новият модел на OpenAI, след GPT-4 Omni, който поддържа текстово и визуално въвеждане и генерира текст. Като най-напредналият им малък модел, той е значително по-евтин от другите нови модели и е с над 60% по-евтин от GPT-3.5 Turbo. Запазва най-съвременната интелигентност, като същевременно предлага значителна стойност за парите. GPT-4o mini получи 82% на теста MMLU и в момента е с по-висок рейтинг от GPT-4 по предпочитания за чат."
@@ -1667,24 +1673,33 @@
1667
1673
  "gpt-5-chat-latest": {
1668
1674
  "description": "Моделът GPT-5, използван в ChatGPT. Комбинира мощно разбиране и генериране на език, подходящ за диалогови приложения."
1669
1675
  },
1676
+ "gpt-5-codex": {
1677
+ "description": "GPT-5 Codex е версия на GPT-5, оптимизирана за задачи с агентско кодиране в Codex или подобни среди."
1678
+ },
1670
1679
  "gpt-5-mini": {
1671
1680
  "description": "По-бърза и по-икономична версия на GPT-5, подходяща за ясно дефинирани задачи. Осигурява по-бърз отговор, като същевременно поддържа високо качество на изхода."
1672
1681
  },
1673
1682
  "gpt-5-nano": {
1674
1683
  "description": "Най-бързата и най-икономична версия на GPT-5. Отлично подходяща за приложения, изискващи бърз отговор и чувствителни към разходите."
1675
1684
  },
1685
+ "gpt-audio": {
1686
+ "description": "GPT Audio е универсален чат модел, ориентиран към аудио вход и изход, поддържащ използване на аудио I/O в Chat Completions API."
1687
+ },
1676
1688
  "gpt-image-1": {
1677
1689
  "description": "Роден мултимодален модел за генериране на изображения ChatGPT."
1678
1690
  },
1679
- "gpt-oss": {
1680
- "description": "GPT-OSS 20B е отворен голям езиков модел, публикуван от OpenAI, използващ технологията за квантуване MXFP4, подходящ за работа на висок клас потребителски GPU или Apple Silicon Mac. Този модел се отличава с отлични резултати в генерирането на диалози, писането на код и задачи за разсъждение, като поддържа извикване на функции и използване на инструменти."
1681
- },
1682
1691
  "gpt-oss-120b": {
1683
1692
  "description": "GPT-OSS-120B MXFP4 квантизиран трансформър модел, който запазва силна производителност при ограничени ресурси."
1684
1693
  },
1685
1694
  "gpt-oss:120b": {
1686
1695
  "description": "GPT-OSS 120B е голям отворен езиков модел, публикуван от OpenAI, използващ технологията за квантуване MXFP4, предназначен за флагмански клас модели. Изисква многократни GPU или високопроизводителна работна станция за работа, с изключителни възможности в сложни разсъждения, генериране на код и многоезична обработка, поддържайки усъвършенствано извикване на функции и интеграция на инструменти."
1687
1696
  },
1697
+ "gpt-oss:20b": {
1698
+ "description": "GPT-OSS 20B е отворен голям езиков модел, публикуван от OpenAI, използващ MXFP4 квантова технология, подходящ за работа на висок клас потребителски GPU или Apple Silicon Mac. Моделът се представя отлично в задачи за генериране на диалог, писане на код и разсъждения, поддържа извикване на функции и използване на инструменти."
1699
+ },
1700
+ "gpt-realtime": {
1701
+ "description": "Универсален модел в реално време, поддържащ текстов и аудио вход и изход, както и вход на изображения."
1702
+ },
1688
1703
  "grok-2-1212": {
1689
1704
  "description": "Този модел е подобрен по отношение на точност, спазване на инструкции и многоезични способности."
1690
1705
  },
@@ -1712,6 +1727,12 @@
1712
1727
  "grok-4-0709": {
1713
1728
  "description": "Grok 4 от xAI, с мощни способности за разсъждение."
1714
1729
  },
1730
+ "grok-4-fast-non-reasoning": {
1731
+ "description": "С удоволствие представяме Grok 4 Fast, нашият най-нов напредък в модели за разсъждение с висока ефективност на разходите."
1732
+ },
1733
+ "grok-4-fast-reasoning": {
1734
+ "description": "С удоволствие представяме Grok 4 Fast, нашият най-нов напредък в модели за разсъждение с висока ефективност на разходите."
1735
+ },
1715
1736
  "grok-code-fast-1": {
1716
1737
  "description": "С удоволствие представяме grok-code-fast-1, бърз и икономичен модел за извод, който се отличава с отлични резултати при кодиране на агенти."
1717
1738
  },
@@ -1847,8 +1868,14 @@
1847
1868
  "inception/mercury-coder-small": {
1848
1869
  "description": "Mercury Coder Small е идеален за задачи по генериране, отстраняване на грешки и рефакториране на код с минимална латентност."
1849
1870
  },
1871
+ "inclusionAI/Ling-flash-2.0": {
1872
+ "description": "Ling-flash-2.0 е третият модел от серията Ling 2.0 архитектури, публикуван от екипа на Ant Group Bailing. Това е модел с хибридни експерти (MoE) с общо 100 милиарда параметри, но при всеки токен активира само 6.1 милиарда параметри (без вграждания – 4.8 милиарда). Като леко конфигуриран модел, Ling-flash-2.0 показва в множество авторитетни оценки производителност, сравнима или дори превъзхождаща плътни (Dense) модели с 40 милиарда параметри и по-големи MoE модели. Моделът е предназначен да изследва пътища за висока ефективност чрез изключителен дизайн на архитектурата и стратегии за обучение, в контекста на общоприетото схващане, че „големият модел е равен на големи параметри“."
1873
+ },
1850
1874
  "inclusionAI/Ling-mini-2.0": {
1851
- "description": "Ling-mini-2.0 е малък, високопроизводителен голям езиков модел, базиран на MoE архитектура. Той разполага с 16 милиарда общи параметри, но за всеки токен се активират само 1.4 милиарда (без вграждания 789 милиона), което осигурява изключително висока скорост на генериране. Благодарение на ефективния MoE дизайн и големия обем висококачествени тренировъчни данни, въпреки че активните параметри са само 1.4 милиарда, Ling-mini-2.0 демонстрира водещи резултати в задачи надолу по веригата, сравними с плътни LLM с по-малко от 10 милиарда параметри и по-големи MoE модели."
1875
+ "description": "Ling-mini-2.0 е малък, но високопроизводителен голям езиков модел, базиран на MoE архитектура. Той има общо 16 милиарда параметри, но при всеки токен активира само 1.4 милиарда (без вграждания 789 милиона), което осигурява изключително бърза генерация. Благодарение на ефективния MoE дизайн и големия обем висококачествени тренировъчни данни, въпреки че активираните параметри са само 1.4 милиарда, Ling-mini-2.0 демонстрира върхова производителност в downstream задачи, сравнима с плътни LLM под 10 милиарда параметри и по-големи MoE модели."
1876
+ },
1877
+ "inclusionAI/Ring-flash-2.0": {
1878
+ "description": "Ring-flash-2.0 е високопроизводителен мисловен модел, дълбоко оптимизиран на базата на Ling-flash-2.0-base. Той използва MoE архитектура с общо 100 милиарда параметри, но при всяко извод активира само 6.1 милиарда параметри. Моделът решава нестабилността на големите MoE модели при обучение с подсилено учене (RL) чрез уникалния алгоритъм icepop, което позволява непрекъснато подобряване на сложните разсъждения при дългосрочно обучение. Ring-flash-2.0 постига значителни пробиви в множество трудни бенчмаркове като математически състезания, генериране на код и логически разсъждения. Неговата производителност не само превъзхожда топ плътни модели с по-малко от 40 милиарда параметри, но и се сравнява с по-големи отворени MoE модели и затворени високопроизводителни мисловни модели. Въпреки че е фокусиран върху сложни разсъждения, моделът се представя отлично и в творческо писане. Благодарение на ефективния си архитектурен дизайн, Ring-flash-2.0 осигурява висока производителност и бърз извод, значително намалявайки разходите за внедряване на мисловни модели при висока паралелност."
1852
1879
  },
1853
1880
  "internlm/internlm2_5-7b-chat": {
1854
1881
  "description": "InternLM2.5 предлага интелигентни решения за диалог в множество сценарии."
@@ -2357,9 +2384,6 @@
2357
2384
  "moonshotai/Kimi-Dev-72B": {
2358
2385
  "description": "Kimi-Dev-72B е голям отворен модел за код, оптимизиран чрез мащабно подсилено обучение, способен да генерира стабилни и директно приложими пачове. Този модел постига нов рекорд от 60,4 % на SWE-bench Verified, подобрявайки резултатите на отворени модели в автоматизирани задачи за софтуерно инженерство като поправка на дефекти и преглед на код."
2359
2386
  },
2360
- "moonshotai/Kimi-K2-Instruct": {
2361
- "description": "Kimi K2 е базов модел с MoE архитектура, с изключителни кодови и агентски способности, общо 1 трилион параметри и 32 милиарда активирани параметри. В бенчмаркове за общо знание, програмиране, математика и агентски задачи моделът K2 превъзхожда други водещи отворени модели."
2362
- },
2363
2387
  "moonshotai/Kimi-K2-Instruct-0905": {
2364
2388
  "description": "Kimi K2-Instruct-0905 е най-новата и най-мощна версия на Kimi K2. Това е водещ езиков модел с хибридна експертна архитектура (MoE), с общо 1 трилион параметри и 32 милиарда активни параметри. Основните характеристики на модела включват: подобрена интелигентност при кодиране на агенти, с изразително подобрение в производителността при публични бенчмаркове и реални задачи за кодиране на агенти; усъвършенстван опит при фронтенд кодиране, с напредък както в естетиката, така и в практичността на фронтенд програмирането."
2365
2389
  },
@@ -2807,8 +2831,11 @@
2807
2831
  "qwen3-coder-plus": {
2808
2832
  "description": "Кодиращ модел на Tongyi Qianwen. Най-новата серия модели Qwen3-Coder е базирана на Qwen3 и е модел за генериране на код с мощни възможности на Coding Agent, умеещ да използва инструменти и да взаимодейства с околната среда, способен на автономно програмиране, с изключителни кодови умения и същевременно общи способности."
2809
2833
  },
2810
- "qwen3-max-preview": {
2811
- "description": "Preview версия на Max модела от серията Qwen 3, с голямо подобрение спрямо серия 2.5 в общите универсални способности, разбиране на текст на китайски и английски, следване на сложни инструкции, субективни отворени задачи, многоезични способности и използване на инструменти; моделът има по-малко халюцинации на знания."
2834
+ "qwen3-coder:480b": {
2835
+ "description": "Високопроизводителен модел с дълъг контекст, разработен от Alibaba за агентски и кодиращи задачи."
2836
+ },
2837
+ "qwen3-max": {
2838
+ "description": "Серията Max на Tongyi Qianwen 3 предлага значително подобрена обща способност в сравнение с серия 2.5, с подобрено разбиране на текст на китайски и английски, способност за следване на сложни инструкции, умения за субективни отворени задачи, многоезични възможности и повишена способност за извикване на инструменти; моделът демонстрира по-малко халюцинации на знания. Последният модел qwen3-max включва специални подобрения в програмирането на агенти и извикването на инструменти в сравнение с версията qwen3-max-preview. Официалната версия, публикувана сега, достига SOTA ниво в своята област и е адаптирана за по-сложни изисквания на интелигентни агенти."
2812
2839
  },
2813
2840
  "qwen3-next-80b-a3b-instruct": {
2814
2841
  "description": "Базирано на Qwen3, ново поколение отворен модел без мисловен режим, който предлага по-добро разбиране на китайски текстове, подобрени логически умения и по-добри резултати при задачи за генериране на текст в сравнение с предишната версия (Tongyi Qianwen 3-235B-A22B-Instruct-2507)."
@@ -2816,6 +2843,9 @@
2816
2843
  "qwen3-next-80b-a3b-thinking": {
2817
2844
  "description": "Базирано на Qwen3, ново поколение отворен модел с мисловен режим, който подобрява спазването на инструкции и предоставя по-кратки и точни обобщения в сравнение с предишната версия (Tongyi Qianwen 3-235B-A22B-Thinking-2507)."
2818
2845
  },
2846
+ "qwen3-vl-plus": {
2847
+ "description": "Tongyi Qianwen VL е текстов генеративен модел с визуални (изображения) разбирания, който не само може да извършва OCR (разпознаване на текст в изображения), но и да обобщава и прави изводи, например извличане на атрибути от снимки на продукти или решаване на задачи по математика от изображения."
2848
+ },
2819
2849
  "qwq": {
2820
2850
  "description": "QwQ е експериментален изследователски модел, който се фокусира върху подобряване на AI разсъдъчните способности."
2821
2851
  },