@lobehub/chat 1.92.3 → 1.93.1
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/README.md +8 -8
- package/README.zh-CN.md +8 -8
- package/changelog/v1.json +18 -0
- package/docs/development/database-schema.dbml +51 -1
- package/locales/ar/modelProvider.json +4 -0
- package/locales/ar/models.json +64 -34
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/modelProvider.json +4 -0
- package/locales/bg-BG/models.json +64 -34
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/modelProvider.json +4 -0
- package/locales/de-DE/models.json +64 -34
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/modelProvider.json +4 -0
- package/locales/en-US/models.json +64 -34
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/modelProvider.json +4 -0
- package/locales/es-ES/models.json +64 -34
- package/locales/es-ES/providers.json +3 -0
- package/locales/fa-IR/modelProvider.json +4 -0
- package/locales/fa-IR/models.json +64 -34
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fr-FR/modelProvider.json +4 -0
- package/locales/fr-FR/models.json +64 -34
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/modelProvider.json +4 -0
- package/locales/it-IT/models.json +64 -34
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/modelProvider.json +4 -0
- package/locales/ja-JP/models.json +64 -34
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/modelProvider.json +4 -0
- package/locales/ko-KR/models.json +64 -34
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/modelProvider.json +4 -0
- package/locales/nl-NL/models.json +64 -34
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/modelProvider.json +4 -0
- package/locales/pl-PL/models.json +64 -34
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/modelProvider.json +4 -0
- package/locales/pt-BR/models.json +64 -34
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/modelProvider.json +4 -0
- package/locales/ru-RU/models.json +63 -33
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/modelProvider.json +4 -0
- package/locales/tr-TR/models.json +64 -34
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/modelProvider.json +4 -0
- package/locales/vi-VN/models.json +64 -34
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/modelProvider.json +4 -0
- package/locales/zh-CN/models.json +59 -29
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/modelProvider.json +4 -0
- package/locales/zh-TW/models.json +64 -34
- package/locales/zh-TW/providers.json +3 -0
- package/package.json +1 -1
- package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/index.tsx +16 -0
- package/src/config/modelProviders/openai.ts +3 -1
- package/src/database/client/migrations.json +25 -0
- package/src/database/migrations/0025_add_provider_config.sql +1 -0
- package/src/database/migrations/meta/0025_snapshot.json +5703 -0
- package/src/database/migrations/meta/_journal.json +7 -0
- package/src/database/models/__tests__/aiProvider.test.ts +2 -0
- package/src/database/models/aiProvider.ts +5 -2
- package/src/database/repositories/tableViewer/index.test.ts +1 -1
- package/src/database/schemas/_helpers.ts +5 -1
- package/src/database/schemas/aiInfra.ts +5 -1
- package/src/libs/model-runtime/openai/index.ts +21 -2
- package/src/libs/model-runtime/types/chat.ts +6 -9
- package/src/libs/model-runtime/utils/openaiCompatibleFactory/index.ts +79 -5
- package/src/libs/model-runtime/utils/openaiHelpers.test.ts +145 -1
- package/src/libs/model-runtime/utils/openaiHelpers.ts +59 -0
- package/src/libs/model-runtime/utils/streams/openai/__snapshots__/responsesStream.test.ts.snap +193 -0
- package/src/libs/model-runtime/utils/streams/openai/index.ts +2 -0
- package/src/libs/model-runtime/utils/streams/{openai.test.ts → openai/openai.test.ts} +1 -1
- package/src/libs/model-runtime/utils/streams/{openai.ts → openai/openai.ts} +5 -5
- package/src/libs/model-runtime/utils/streams/openai/responsesStream.test.ts +826 -0
- package/src/libs/model-runtime/utils/streams/openai/responsesStream.ts +166 -0
- package/src/libs/model-runtime/utils/streams/protocol.ts +4 -1
- package/src/libs/model-runtime/utils/streams/utils.ts +20 -0
- package/src/libs/model-runtime/utils/usageConverter.ts +59 -0
- package/src/locales/default/modelProvider.ts +4 -0
- package/src/services/__tests__/chat.test.ts +25 -0
- package/src/services/chat.ts +8 -2
- package/src/store/aiInfra/slices/aiProvider/selectors.ts +11 -0
- package/src/types/aiProvider.ts +13 -1
package/CHANGELOG.md
CHANGED
@@ -2,6 +2,56 @@
|
|
2
2
|
|
3
3
|
# Changelog
|
4
4
|
|
5
|
+
### [Version 1.93.1](https://github.com/lobehub/lobe-chat/compare/v1.93.0...v1.93.1)
|
6
|
+
|
7
|
+
<sup>Released on **2025-06-08**</sup>
|
8
|
+
|
9
|
+
#### 🐛 Bug Fixes
|
10
|
+
|
11
|
+
- **misc**: Fix openai default Responses API issue.
|
12
|
+
|
13
|
+
<br/>
|
14
|
+
|
15
|
+
<details>
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
17
|
+
|
18
|
+
#### What's fixed
|
19
|
+
|
20
|
+
- **misc**: Fix openai default Responses API issue, closes [#8124](https://github.com/lobehub/lobe-chat/issues/8124) ([7f6ccf2](https://github.com/lobehub/lobe-chat/commit/7f6ccf2))
|
21
|
+
|
22
|
+
</details>
|
23
|
+
|
24
|
+
<div align="right">
|
25
|
+
|
26
|
+
[](#readme-top)
|
27
|
+
|
28
|
+
</div>
|
29
|
+
|
30
|
+
## [Version 1.93.0](https://github.com/lobehub/lobe-chat/compare/v1.92.3...v1.93.0)
|
31
|
+
|
32
|
+
<sup>Released on **2025-06-08**</sup>
|
33
|
+
|
34
|
+
#### ✨ Features
|
35
|
+
|
36
|
+
- **misc**: Support OpenAI Responses API mode.
|
37
|
+
|
38
|
+
<br/>
|
39
|
+
|
40
|
+
<details>
|
41
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
42
|
+
|
43
|
+
#### What's improved
|
44
|
+
|
45
|
+
- **misc**: Support OpenAI Responses API mode, closes [#8048](https://github.com/lobehub/lobe-chat/issues/8048) ([5bf0921](https://github.com/lobehub/lobe-chat/commit/5bf0921))
|
46
|
+
|
47
|
+
</details>
|
48
|
+
|
49
|
+
<div align="right">
|
50
|
+
|
51
|
+
[](#readme-top)
|
52
|
+
|
53
|
+
</div>
|
54
|
+
|
5
55
|
### [Version 1.92.3](https://github.com/lobehub/lobe-chat/compare/v1.92.2...v1.92.3)
|
6
56
|
|
7
57
|
<sup>Released on **2025-06-08**</sup>
|
package/README.md
CHANGED
@@ -206,7 +206,7 @@ We have implemented support for the following model service providers:
|
|
206
206
|
- **[Groq](https://lobechat.com/discover/provider/groq)**: Groq's LPU inference engine has excelled in the latest independent large language model (LLM) benchmarks, redefining the standards for AI solutions with its remarkable speed and efficiency. Groq represents instant inference speed, demonstrating strong performance in cloud-based deployments.
|
207
207
|
- **[Perplexity](https://lobechat.com/discover/provider/perplexity)**: Perplexity is a leading provider of conversational generation models, offering various advanced Llama 3.1 models that support both online and offline applications, particularly suited for complex natural language processing tasks.
|
208
208
|
- **[Mistral](https://lobechat.com/discover/provider/mistral)**: Mistral provides advanced general, specialized, and research models widely used in complex reasoning, multilingual tasks, and code generation. Through functional calling interfaces, users can integrate custom functionalities for specific applications.
|
209
|
-
- **[ModelScope](https://lobechat.com/discover/provider/modelscope)**:
|
209
|
+
- **[ModelScope](https://lobechat.com/discover/provider/modelscope)**: ModelScope is a model-as-a-service platform launched by Alibaba Cloud, offering a wide range of AI models and inference services.
|
210
210
|
- **[Ai21Labs](https://lobechat.com/discover/provider/ai21)**: AI21 Labs builds foundational models and AI systems for enterprises, accelerating the application of generative AI in production.
|
211
211
|
- **[Upstage](https://lobechat.com/discover/provider/upstage)**: Upstage focuses on developing AI models for various business needs, including Solar LLM and document AI, aiming to achieve artificial general intelligence (AGI) for work. It allows for the creation of simple conversational agents through Chat API and supports functional calling, translation, embedding, and domain-specific applications.
|
212
212
|
- **[xAI (Grok)](https://lobechat.com/discover/provider/xai)**: xAI is a company dedicated to building artificial intelligence to accelerate human scientific discovery. Our mission is to advance our collective understanding of the universe.
|
@@ -367,14 +367,14 @@ Our marketplace is not just a showcase platform but also a collaborative space.
|
|
367
367
|
|
368
368
|
<!-- AGENT LIST -->
|
369
369
|
|
370
|
-
| Recent Submits
|
371
|
-
|
|
372
|
-
| [
|
373
|
-
| [
|
374
|
-
| [
|
375
|
-
| [
|
370
|
+
| Recent Submits | Description |
|
371
|
+
| ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
|
372
|
+
| [Academic Paper Reading Mentor](https://lobechat.com/discover/assistant/paper-understanding)<br/><sup>By **[AdijeShen](https://github.com/AdijeShen)** on **2025-05-09**</sup> | Skilled at explaining complex academic papers in an easy-to-understand manner<br/>`academic-knowledge` `paper-analysis` |
|
373
|
+
| [Nutritional Advisor](https://lobechat.com/discover/assistant/nutritionist)<br/><sup>By **[egornomic](https://github.com/egornomic)** on **2025-04-15**</sup> | Specializes in providing detailed nutritional information for food items.<br/>`nutrition` `food` `health` `information` |
|
374
|
+
| [Rewrite in Translation Style](https://lobechat.com/discover/assistant/rewrite-in-a-translation-tone)<br/><sup>By **[q2019715](https://github.com/q2019715)** on **2025-03-13**</sup> | Rewrite a passage in a translation style<br/>`translation-style` `creative-writing` `language-style` `text-rewriting` `culture` |
|
375
|
+
| [Academic Paper Review Expert](https://lobechat.com/discover/assistant/academic-paper-overview)<br/><sup>By **[arvinxx](https://github.com/arvinxx)** on **2025-03-11**</sup> | An academic research assistant skilled in high-quality literature retrieval and analysis<br/>`academic-research` `literature-retrieval` `data-analysis` `information-extraction` `consultation` |
|
376
376
|
|
377
|
-
> 📊 Total agents: [<kbd>**
|
377
|
+
> 📊 Total agents: [<kbd>**501**</kbd> ](https://lobechat.com/discover/assistants)
|
378
378
|
|
379
379
|
<!-- AGENT LIST -->
|
380
380
|
|
package/README.zh-CN.md
CHANGED
@@ -206,7 +206,7 @@ LobeChat 支持文件上传与知识库功能,你可以上传文件、图片
|
|
206
206
|
- **[Groq](https://lobechat.com/discover/provider/groq)**: Groq 的 LPU 推理引擎在最新的独立大语言模型(LLM)基准测试中表现卓越,以其惊人的速度和效率重新定义了 AI 解决方案的标准。Groq 是一种即时推理速度的代表,在基于云的部署中展现了良好的性能。
|
207
207
|
- **[Perplexity](https://lobechat.com/discover/provider/perplexity)**: Perplexity 是一家领先的对话生成模型提供商,提供多种先进的 Llama 3.1 模型,支持在线和离线应用,特别适用于复杂的自然语言处理任务。
|
208
208
|
- **[Mistral](https://lobechat.com/discover/provider/mistral)**: Mistral 提供先进的通用、专业和研究型模型,广泛应用于复杂推理、多语言任务、代码生成等领域,通过功能调用接口,用户可以集成自定义功能,实现特定应用。
|
209
|
-
- **[ModelScope](https://lobechat.com/discover/provider/modelscope)**:
|
209
|
+
- **[ModelScope](https://lobechat.com/discover/provider/modelscope)**: ModelScope 是阿里云推出的模型即服务平台,提供丰富的 AI 模型和推理服务。
|
210
210
|
- **[Ai21Labs](https://lobechat.com/discover/provider/ai21)**: AI21 Labs 为企业构建基础模型和人工智能系统,加速生成性人工智能在生产中的应用。
|
211
211
|
- **[Upstage](https://lobechat.com/discover/provider/upstage)**: Upstage 专注于为各种商业需求开发 AI 模型,包括 Solar LLM 和文档 AI,旨在实现工作的人造通用智能(AGI)。通过 Chat API 创建简单的对话代理,并支持功能调用、翻译、嵌入以及特定领域应用。
|
212
212
|
- **[xAI (Grok)](https://lobechat.com/discover/provider/xai)**: xAI 是一家致力于构建人工智能以加速人类科学发现的公司。我们的使命是推动我们对宇宙的共同理解。
|
@@ -356,14 +356,14 @@ LobeChat 的插件生态系统是其核心功能的重要扩展,它极大地
|
|
356
356
|
|
357
357
|
<!-- AGENT LIST -->
|
358
358
|
|
359
|
-
| 最近新增
|
360
|
-
|
|
361
|
-
| [
|
362
|
-
| [
|
363
|
-
| [
|
364
|
-
| [
|
359
|
+
| 最近新增 | 描述 |
|
360
|
+
| --------------------------------------------------------------------------------------------------------------------------------------------------------------------- | --------------------------------------------------------------------------------------------- |
|
361
|
+
| [学术论文阅读导师](https://lobechat.com/discover/assistant/paper-understanding)<br/><sup>By **[AdijeShen](https://github.com/AdijeShen)** on **2025-05-09**</sup> | 擅长将复杂学术论文通俗易懂讲解<br/>`学术知道` `论文解析` |
|
362
|
+
| [营养顾问](https://lobechat.com/discover/assistant/nutritionist)<br/><sup>By **[egornomic](https://github.com/egornomic)** on **2025-04-15**</sup> | 专注于提供食品的详细营养信息。<br/>`营养` `食品` `健康` `信息` |
|
363
|
+
| [改写为翻译腔](https://lobechat.com/discover/assistant/rewrite-in-a-translation-tone)<br/><sup>By **[q2019715](https://github.com/q2019715)** on **2025-03-13**</sup> | 将一段话重写为翻译腔<br/>`翻译腔` `创意写作` `语言风格` `文段重写` `文化` |
|
364
|
+
| [学术论文综述专家](https://lobechat.com/discover/assistant/academic-paper-overview)<br/><sup>By **[arvinxx](https://github.com/arvinxx)** on **2025-03-11**</sup> | 擅长高质量文献检索与分析的学术研究助手<br/>`学术研究` `文献检索` `数据分析` `信息提取` `咨询` |
|
365
365
|
|
366
|
-
> 📊 Total agents: [<kbd>**
|
366
|
+
> 📊 Total agents: [<kbd>**501**</kbd> ](https://lobechat.com/discover/assistants)
|
367
367
|
|
368
368
|
<!-- AGENT LIST -->
|
369
369
|
|
package/changelog/v1.json
CHANGED
@@ -1,4 +1,22 @@
|
|
1
1
|
[
|
2
|
+
{
|
3
|
+
"children": {
|
4
|
+
"fixes": [
|
5
|
+
"Fix openai default Responses API issue."
|
6
|
+
]
|
7
|
+
},
|
8
|
+
"date": "2025-06-08",
|
9
|
+
"version": "1.93.1"
|
10
|
+
},
|
11
|
+
{
|
12
|
+
"children": {
|
13
|
+
"features": [
|
14
|
+
"Support OpenAI Responses API mode."
|
15
|
+
]
|
16
|
+
},
|
17
|
+
"date": "2025-06-08",
|
18
|
+
"version": "1.93.0"
|
19
|
+
},
|
2
20
|
{
|
3
21
|
"children": {
|
4
22
|
"fixes": [
|
@@ -94,6 +94,7 @@ table ai_providers {
|
|
94
94
|
key_vaults text
|
95
95
|
source varchar(20)
|
96
96
|
settings jsonb
|
97
|
+
config jsonb
|
97
98
|
accessed_at "timestamp with time zone" [not null, default: `now()`]
|
98
99
|
created_at "timestamp with time zone" [not null, default: `now()`]
|
99
100
|
updated_at "timestamp with time zone" [not null, default: `now()`]
|
@@ -621,6 +622,55 @@ table rag_eval_evaluation_records {
|
|
621
622
|
updated_at "timestamp with time zone" [not null, default: `now()`]
|
622
623
|
}
|
623
624
|
|
625
|
+
table rbac_permissions {
|
626
|
+
id integer [pk, not null]
|
627
|
+
code text [not null, unique]
|
628
|
+
name text [not null]
|
629
|
+
description text
|
630
|
+
category text [not null]
|
631
|
+
is_active boolean [not null, default: true]
|
632
|
+
accessed_at "timestamp with time zone" [not null, default: `now()`]
|
633
|
+
created_at "timestamp with time zone" [not null, default: `now()`]
|
634
|
+
updated_at "timestamp with time zone" [not null, default: `now()`]
|
635
|
+
}
|
636
|
+
|
637
|
+
table rbac_role_permissions {
|
638
|
+
role_id integer [not null]
|
639
|
+
permission_id integer [not null]
|
640
|
+
created_at "timestamp with time zone" [not null, default: `now()`]
|
641
|
+
|
642
|
+
indexes {
|
643
|
+
(role_id, permission_id) [pk]
|
644
|
+
role_id [name: 'rbac_role_permissions_role_id_idx']
|
645
|
+
permission_id [name: 'rbac_role_permissions_permission_id_idx']
|
646
|
+
}
|
647
|
+
}
|
648
|
+
|
649
|
+
table rbac_roles {
|
650
|
+
id integer [pk, not null]
|
651
|
+
name text [not null, unique]
|
652
|
+
display_name text [not null]
|
653
|
+
description text
|
654
|
+
is_system boolean [not null, default: false]
|
655
|
+
is_active boolean [not null, default: true]
|
656
|
+
accessed_at "timestamp with time zone" [not null, default: `now()`]
|
657
|
+
created_at "timestamp with time zone" [not null, default: `now()`]
|
658
|
+
updated_at "timestamp with time zone" [not null, default: `now()`]
|
659
|
+
}
|
660
|
+
|
661
|
+
table rbac_user_roles {
|
662
|
+
user_id text [not null]
|
663
|
+
role_id integer [not null]
|
664
|
+
created_at "timestamp with time zone" [not null, default: `now()`]
|
665
|
+
expires_at "timestamp with time zone"
|
666
|
+
|
667
|
+
indexes {
|
668
|
+
(user_id, role_id) [pk]
|
669
|
+
user_id [name: 'rbac_user_roles_user_id_idx']
|
670
|
+
role_id [name: 'rbac_user_roles_role_id_idx']
|
671
|
+
}
|
672
|
+
}
|
673
|
+
|
624
674
|
table agents_to_sessions {
|
625
675
|
agent_id text [not null]
|
626
676
|
session_id text [not null]
|
@@ -814,4 +864,4 @@ ref: topic_documents.document_id > documents.id
|
|
814
864
|
|
815
865
|
ref: topic_documents.topic_id > topics.id
|
816
866
|
|
817
|
-
ref: topics.session_id - sessions.id
|
867
|
+
ref: topics.session_id - sessions.id
|
@@ -208,6 +208,10 @@
|
|
208
208
|
"title": "استخدام وضع الطلب من العميل"
|
209
209
|
},
|
210
210
|
"helpDoc": "دليل التكوين",
|
211
|
+
"responsesApi": {
|
212
|
+
"desc": "استخدام معيار طلبات الجيل الجديد من OpenAI، لفتح ميزات متقدمة مثل سلسلة التفكير",
|
213
|
+
"title": "استخدام معيار Responses API"
|
214
|
+
},
|
211
215
|
"waitingForMore": "المزيد من النماذج قيد <1>التخطيط للإدماج</1>، يرجى الانتظار"
|
212
216
|
},
|
213
217
|
"createNew": {
|
package/locales/ar/models.json
CHANGED
@@ -230,6 +230,9 @@
|
|
230
230
|
"Pro/deepseek-ai/DeepSeek-R1": {
|
231
231
|
"description": "DeepSeek-R1 هو نموذج استدلال مدفوع بالتعلم المعزز (RL)، يعالج مشكلات التكرار وقابلية القراءة في النموذج. قبل التعلم المعزز، أدخل DeepSeek-R1 بيانات بدء التشغيل الباردة، مما أدى إلى تحسين أداء الاستدلال. إنه يتفوق في المهام الرياضية، والبرمجة، والاستدلال مقارنةً بـ OpenAI-o1، وقد حسّن الأداء العام من خلال طرق تدريب مصممة بعناية."
|
232
232
|
},
|
233
|
+
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
234
|
+
"description": "DeepSeek-R1 هو نموذج استدلال مدفوع بالتعلم المعزز (RL)، يعالج مشاكل التكرار وقابلية القراءة في النماذج. قبل التعلم المعزز، أدخل DeepSeek-R1 بيانات بدء باردة لتحسين أداء الاستدلال. يظهر أداءً مماثلًا لـ OpenAI-o1 في مهام الرياضيات، البرمجة، والاستدلال، مع تحسينات شاملة بفضل طرق التدريب المصممة بعناية."
|
235
|
+
},
|
233
236
|
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
234
237
|
"description": "DeepSeek-R1-Distill-Qwen-1.5B هو نموذج تم الحصول عليه من خلال تقطير المعرفة بناءً على Qwen2.5-Math-1.5B. تم ضبط هذا النموذج باستخدام 800 ألف عينة مختارة تم إنشاؤها بواسطة DeepSeek-R1، حيث أظهر أداءً جيدًا في معايير متعددة. كنموذج خفيف الوزن، حقق دقة 83.9٪ في MATH-500، ومعدل نجاح 28.9٪ في AIME 2024، وحصل على تقييم 954 في CodeForces، مما يظهر قدرة استدلالية تتجاوز حجم معلماته."
|
235
238
|
},
|
@@ -422,8 +425,8 @@
|
|
422
425
|
"THUDM/glm-4-9b-chat": {
|
423
426
|
"description": "GLM-4 9B هو إصدار مفتوح المصدر، يوفر تجربة حوار محسنة لتطبيقات الحوار."
|
424
427
|
},
|
425
|
-
"
|
426
|
-
"description": "
|
428
|
+
"Tongyi-Zhiwen/QwenLong-L1-32B": {
|
429
|
+
"description": "QwenLong-L1-32B هو أول نموذج استدلال كبير السياق طويل مدرب بالتعلم المعزز (LRM)، مخصص لتحسين مهام الاستدلال على النصوص الطويلة. يستخدم إطار تعلم معزز لتوسيع السياق تدريجيًا، محققًا انتقالًا مستقرًا من السياق القصير إلى الطويل. في سبعة اختبارات معيارية للأسئلة على مستندات طويلة، تفوق QwenLong-L1-32B على نماذج رائدة مثل OpenAI-o3-mini و Qwen3-235B-A22B، وأداءه قابل للمقارنة مع Claude-3.7-Sonnet-Thinking. يتميز النموذج بمهارات عالية في الاستدلال الرياضي، المنطقي، والاستدلال متعدد القفزات."
|
427
430
|
},
|
428
431
|
"Yi-34B-Chat": {
|
429
432
|
"description": "Yi-1.5-34B، مع الحفاظ على القدرات اللغوية العامة الممتازة للنموذج الأصلي، تم تدريبه بشكل إضافي على 500 مليار توكن عالي الجودة، مما أدى إلى تحسين كبير في المنطق الرياضي وقدرات الترميز."
|
@@ -734,6 +737,12 @@
|
|
734
737
|
"deepseek-ai/DeepSeek-R1": {
|
735
738
|
"description": "DeepSeek-R1 هو نموذج استدلال مدفوع بالتعلم المعزز (RL) يعالج مشكلات التكرار وقابلية القراءة في النموذج. قبل استخدام RL، قدم DeepSeek-R1 بيانات بدء باردة، مما أدى إلى تحسين أداء الاستدلال. إنه يقدم أداءً مماثلاً لـ OpenAI-o1 في المهام الرياضية والبرمجية والاستدلال، وقد حسّن النتائج العامة من خلال طرق تدريب مصممة بعناية."
|
736
739
|
},
|
740
|
+
"deepseek-ai/DeepSeek-R1-0528": {
|
741
|
+
"description": "DeepSeek R1 يعزز بشكل كبير عمق قدرات الاستدلال والاستنتاج من خلال زيادة الموارد الحاسوبية وإدخال آليات تحسين الخوارزميات في مرحلة ما بعد التدريب. يظهر النموذج أداءً ممتازًا في تقييمات معيارية متنوعة، بما في ذلك الرياضيات، البرمجة، والمنطق العام. أداؤه العام يقترب الآن من النماذج الرائدة مثل O3 و Gemini 2.5 Pro."
|
742
|
+
},
|
743
|
+
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B": {
|
744
|
+
"description": "DeepSeek-R1-0528-Qwen3-8B هو نموذج تم الحصول عليه من تقطير سلسلة التفكير من DeepSeek-R1-0528 إلى Qwen3 8B Base. حقق هذا النموذج أداءً متقدمًا (SOTA) بين النماذج المفتوحة المصدر، متفوقًا على Qwen3 8B بنسبة 10% في اختبار AIME 2024، ووصل إلى مستوى أداء Qwen3-235B-thinking. أظهر أداءً ممتازًا في الاستدلال الرياضي، البرمجة، والمنطق العام عبر عدة اختبارات معيارية، ويشارك نفس بنية Qwen3-8B لكنه يستخدم تكوين محلل الرموز الخاص بـ DeepSeek-R1-0528."
|
745
|
+
},
|
737
746
|
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
|
738
747
|
"description": "نموذج التقطير DeepSeek-R1، تم تحسين أداء الاستدلال من خلال التعلم المعزز وبيانات البداية الباردة، ويعيد نموذج المصدر فتح معايير المهام المتعددة."
|
739
748
|
},
|
@@ -836,9 +845,6 @@
|
|
836
845
|
"deepseek-v3-0324": {
|
837
846
|
"description": "DeepSeek-V3-0324 هو نموذج MoE يحتوي على 671 مليار معلمة، ويتميز بقدرات بارزة في البرمجة والتقنية، وفهم السياق ومعالجة النصوص الطويلة."
|
838
847
|
},
|
839
|
-
"deepseek/deepseek-chat": {
|
840
|
-
"description": "نموذج مفتوح المصدر جديد يجمع بين القدرات العامة وقدرات البرمجة، لا يحتفظ فقط بقدرات الحوار العامة لنموذج الدردشة الأصلي وقدرات معالجة الأكواد القوية لنموذج Coder، بل يتماشى أيضًا بشكل أفضل مع تفضيلات البشر. بالإضافة إلى ذلك، حقق DeepSeek-V2.5 تحسينات كبيرة في مهام الكتابة، واتباع التعليمات، وغيرها من المجالات."
|
841
|
-
},
|
842
848
|
"deepseek/deepseek-chat-v3-0324": {
|
843
849
|
"description": "DeepSeek V3 هو نموذج مختلط خبير يحتوي على 685B من المعلمات، وهو أحدث إصدار من سلسلة نماذج الدردشة الرائدة لفريق DeepSeek.\n\nيستفيد من نموذج [DeepSeek V3](/deepseek/deepseek-chat-v3) ويظهر أداءً ممتازًا في مجموعة متنوعة من المهام."
|
844
850
|
},
|
@@ -848,6 +854,12 @@
|
|
848
854
|
"deepseek/deepseek-r1": {
|
849
855
|
"description": "DeepSeek-R1 يعزز بشكل كبير من قدرة النموذج على الاستدلال في ظل وجود بيانات محدودة جدًا. قبل تقديم الإجابة النهائية، يقوم النموذج أولاً بإخراج سلسلة من التفكير لتحسين دقة الإجابة النهائية."
|
850
856
|
},
|
857
|
+
"deepseek/deepseek-r1-0528": {
|
858
|
+
"description": "DeepSeek-R1 يعزز بشكل كبير قدرة الاستدلال للنموذج حتى مع وجود بيانات تعليمية قليلة جدًا. قبل إخراج الإجابة النهائية، يقوم النموذج أولاً بإخراج سلسلة من التفكير لتحسين دقة الإجابة النهائية."
|
859
|
+
},
|
860
|
+
"deepseek/deepseek-r1-0528:free": {
|
861
|
+
"description": "DeepSeek-R1 يعزز بشكل كبير قدرة الاستدلال للنموذج حتى مع وجود بيانات تعليمية قليلة جدًا. قبل إخراج الإجابة النهائية، يقوم النموذج أولاً بإخراج سلسلة من التفكير لتحسين دقة الإجابة النهائية."
|
862
|
+
},
|
851
863
|
"deepseek/deepseek-r1-distill-llama-70b": {
|
852
864
|
"description": "DeepSeek R1 Distill Llama 70B هو نموذج لغوي كبير يعتمد على Llama3.3 70B، حيث يحقق أداءً تنافسيًا مماثلاً للنماذج الرائدة الكبيرة من خلال استخدام التعديلات المستندة إلى مخرجات DeepSeek R1."
|
853
865
|
},
|
@@ -1262,6 +1274,9 @@
|
|
1262
1274
|
"gpt-4o-mini-realtime-preview": {
|
1263
1275
|
"description": "الإصدار المصغر الفوري من GPT-4o، يدعم إدخال وإخراج الصوت والنص في الوقت الحقيقي."
|
1264
1276
|
},
|
1277
|
+
"gpt-4o-mini-search-preview": {
|
1278
|
+
"description": "نسخة معاينة بحث GPT-4o mini هي نموذج مدرب خصيصًا لفهم وتنفيذ استعلامات البحث على الويب، باستخدام واجهة برمجة تطبيقات Chat Completions. بالإضافة إلى رسوم الرموز، يتم فرض رسوم على استعلامات البحث على الويب لكل استدعاء أداة."
|
1279
|
+
},
|
1265
1280
|
"gpt-4o-mini-tts": {
|
1266
1281
|
"description": "GPT-4o mini TTS هو نموذج تحويل النص إلى كلام، مبني على GPT-4o mini، يقدم إنتاج كلمات صوتية عالية الجودة بسعر أقل."
|
1267
1282
|
},
|
@@ -1274,6 +1289,9 @@
|
|
1274
1289
|
"gpt-4o-realtime-preview-2024-12-17": {
|
1275
1290
|
"description": "الإصدار الفوري من GPT-4o، يدعم إدخال وإخراج الصوت والنص في الوقت الحقيقي."
|
1276
1291
|
},
|
1292
|
+
"gpt-4o-search-preview": {
|
1293
|
+
"description": "نسخة معاينة بحث GPT-4o هي نموذج مدرب خصيصًا لفهم وتنفيذ استعلامات البحث على الويب، باستخدام واجهة برمجة تطبيقات Chat Completions. بالإضافة إلى رسوم الرموز، يتم فرض رسوم على استعلامات البحث على الويب لكل استدعاء أداة."
|
1294
|
+
},
|
1277
1295
|
"grok-2-1212": {
|
1278
1296
|
"description": "لقد تم تحسين هذا النموذج في الدقة، والامتثال للتعليمات، والقدرة على التعامل مع لغات متعددة."
|
1279
1297
|
},
|
@@ -1307,6 +1325,9 @@
|
|
1307
1325
|
"hunyuan-large-longcontext": {
|
1308
1326
|
"description": "يتفوق في معالجة المهام الطويلة مثل تلخيص الوثائق والأسئلة والأجوبة المتعلقة بالوثائق، كما يمتلك القدرة على معالجة مهام إنشاء النصوص العامة. يظهر أداءً ممتازًا في تحليل وإنشاء النصوص الطويلة، مما يمكنه من التعامل بفعالية مع متطلبات معالجة المحتوى الطويل المعقد والمفصل."
|
1309
1327
|
},
|
1328
|
+
"hunyuan-large-vision": {
|
1329
|
+
"description": "هذا النموذج مناسب لمشاهد فهم الصور والنصوص، وهو نموذج لغوي بصري كبير مبني على تدريب Hunyuan Large، يدعم إدخال صور متعددة بأي دقة مع نص، ويولد محتوى نصي، مع تركيز على مهام فهم الصور والنصوص، مع تحسين ملحوظ في القدرات متعددة اللغات."
|
1330
|
+
},
|
1310
1331
|
"hunyuan-lite": {
|
1311
1332
|
"description": "تم الترقية إلى هيكل MOE، مع نافذة سياق تصل إلى 256k، متفوقًا على العديد من النماذج مفتوحة المصدر في تقييمات NLP، البرمجة، الرياضيات، والصناعات."
|
1312
1333
|
},
|
@@ -1331,18 +1352,15 @@
|
|
1331
1352
|
"hunyuan-t1-20250321": {
|
1332
1353
|
"description": "بناء شامل لقدرات النموذج في العلوم الإنسانية والطبيعية، مع قدرة قوية على التقاط المعلومات من النصوص الطويلة. يدعم الاستدلال والإجابة على مشكلات علمية متنوعة من الرياضيات/المنطق/العلوم/الشيفرات."
|
1333
1354
|
},
|
1355
|
+
"hunyuan-t1-20250403": {
|
1356
|
+
"description": "تعزيز قدرة توليد الأكواد على مستوى المشروع؛ تحسين جودة كتابة النصوص المولدة؛ تعزيز قدرة فهم النصوص متعددة الجولات، والامتثال لتعليمات toB، وفهم الكلمات؛ تحسين مشاكل الخلط بين النصوص المبسطة والتقليدية والخلط بين اللغات الصينية والإنجليزية في المخرجات."
|
1357
|
+
},
|
1334
1358
|
"hunyuan-t1-latest": {
|
1335
1359
|
"description": "أول نموذج استدلال هجين ضخم في الصناعة، يوسع قدرات الاستدلال، بسرعة فك تشفير فائقة، ويعزز التوافق مع تفضيلات البشر."
|
1336
1360
|
},
|
1337
1361
|
"hunyuan-t1-vision": {
|
1338
1362
|
"description": "نموذج تفكير عميق متعدد الوسائط من Hunyuan، يدعم سلاسل التفكير الأصلية متعددة الوسائط، بارع في معالجة مختلف سيناريوهات الاستدلال على الصور، ويحقق تحسينًا شاملاً مقارنة بنموذج التفكير السريع في مسائل العلوم."
|
1339
1363
|
},
|
1340
|
-
"hunyuan-translation": {
|
1341
|
-
"description": "يدعم الترجمة بين 15 لغة بما في ذلك الصينية والإنجليزية واليابانية والفرنسية والبرتغالية والإسبانية والتركية والروسية والعربية والكورية والإيطالية والألمانية والفيتنامية والماليزية والإندونيسية، ويعتمد على مجموعة تقييم الترجمة متعددة السيناريوهات لتقييم تلقائي باستخدام درجة COMET، حيث يتفوق بشكل عام على نماذج السوق المماثلة في القدرة على الترجمة بين اللغات الشائعة."
|
1342
|
-
},
|
1343
|
-
"hunyuan-translation-lite": {
|
1344
|
-
"description": "يدعم نموذج الترجمة هونيون الترجمة الحوارية بلغة طبيعية؛ يدعم الترجمة بين 15 لغة بما في ذلك الصينية والإنجليزية واليابانية والفرنسية والبرتغالية والإسبانية والتركية والروسية والعربية والكورية والإيطالية والألمانية والفيتنامية والماليزية والإندونيسية."
|
1345
|
-
},
|
1346
1364
|
"hunyuan-turbo": {
|
1347
1365
|
"description": "نسخة المعاينة من الجيل الجديد من نموذج اللغة الكبير، يستخدم هيكل نموذج الخبراء المختلط (MoE) الجديد، مما يوفر كفاءة استدلال أسرع وأداء أقوى مقارنة بـ hunyuan-pro."
|
1348
1366
|
},
|
@@ -1355,8 +1373,11 @@
|
|
1355
1373
|
"hunyuan-turbo-vision": {
|
1356
1374
|
"description": "نموذج اللغة البصرية الرائد من الجيل الجديد، يستخدم هيكل نموذج الخبراء المختلط (MoE) الجديد، مع تحسين شامل في القدرات المتعلقة بفهم النصوص والصور، وإنشاء المحتوى، والأسئلة والأجوبة المعرفية، والتحليل والاستدلال مقارنة بالنماذج السابقة."
|
1357
1375
|
},
|
1358
|
-
"hunyuan-turbos-
|
1359
|
-
"description": "
|
1376
|
+
"hunyuan-turbos-20250313": {
|
1377
|
+
"description": "توحيد أسلوب خطوات حل المسائل الرياضية، وتعزيز الأسئلة والأجوبة متعددة الجولات في الرياضيات. تحسين أسلوب الإجابة في الإبداع النصي، إزالة الطابع الآلي، وزيادة البلاغة."
|
1378
|
+
},
|
1379
|
+
"hunyuan-turbos-20250416": {
|
1380
|
+
"description": "ترقية قاعدة التدريب المسبق لتعزيز فهم القاعدة والامتثال للتعليمات؛ تعزيز القدرات العلمية مثل الرياضيات، البرمجة، المنطق، والعلوم خلال مرحلة المحاذاة؛ تحسين جودة الكتابة الإبداعية، فهم النصوص، دقة الترجمة، والإجابة على الأسئلة المعرفية في المجالات الأدبية؛ تعزيز قدرات الوكلاء في مختلف المجالات، مع التركيز على تحسين فهم الحوار متعدد الجولات."
|
1360
1381
|
},
|
1361
1382
|
"hunyuan-turbos-latest": {
|
1362
1383
|
"description": "hunyuan-TurboS هو أحدث إصدار من نموذج هونيان الرائد، يتمتع بقدرات تفكير أقوى وتجربة أفضل."
|
@@ -1364,8 +1385,8 @@
|
|
1364
1385
|
"hunyuan-turbos-longtext-128k-20250325": {
|
1365
1386
|
"description": "بارع في معالجة المهام الطويلة مثل تلخيص الوثائق والأسئلة والأجوبة، كما يمتلك القدرة على معالجة مهام توليد النصوص العامة. يظهر أداءً ممتازًا في تحليل وتوليد النصوص الطويلة، ويمكنه التعامل بفعالية مع متطلبات معالجة المحتوى الطويل والمعقد."
|
1366
1387
|
},
|
1367
|
-
"hunyuan-turbos-
|
1368
|
-
"description": "
|
1388
|
+
"hunyuan-turbos-role-plus": {
|
1389
|
+
"description": "أحدث نموذج تمثيل الأدوار من Hunyuan، نموذج تم تدريبه بدقة من قبل Hunyuan الرسمي، يعتمد على نموذج Hunyuan مع بيانات مشاهد تمثيل الأدوار للتدريب الإضافي، ويقدم أداءً أساسيًا أفضل في مشاهد تمثيل الأدوار."
|
1369
1390
|
},
|
1370
1391
|
"hunyuan-vision": {
|
1371
1392
|
"description": "نموذج Hunyuan الأحدث متعدد الوسائط، يدعم إدخال الصور والنصوص لتوليد محتوى نصي."
|
@@ -1886,11 +1907,14 @@
|
|
1886
1907
|
"qvq-72b-preview": {
|
1887
1908
|
"description": "نموذج QVQ هو نموذج بحث تجريبي تم تطويره بواسطة فريق Qwen، يركز على تعزيز قدرات الاستدلال البصري، خاصة في مجال الاستدلال الرياضي."
|
1888
1909
|
},
|
1889
|
-
"qvq-max
|
1890
|
-
"description": "نموذج QVQ
|
1910
|
+
"qvq-max": {
|
1911
|
+
"description": "نموذج Tongyi Qianwen QVQ للاستدلال البصري، يدعم الإدخال البصري وإخراج سلسلة التفكير، ويظهر قدرة أقوى في الرياضيات، البرمجة، التحليل البصري، الإبداع، والمهام العامة."
|
1912
|
+
},
|
1913
|
+
"qwen-coder-plus": {
|
1914
|
+
"description": "نموذج Tongyi Qianwen للبرمجة."
|
1891
1915
|
},
|
1892
|
-
"qwen-coder-
|
1893
|
-
"description": "نموذج
|
1916
|
+
"qwen-coder-turbo": {
|
1917
|
+
"description": "نموذج Tongyi Qianwen للبرمجة."
|
1894
1918
|
},
|
1895
1919
|
"qwen-coder-turbo-latest": {
|
1896
1920
|
"description": "نموذج Qwen للبرمجة."
|
@@ -1898,41 +1922,44 @@
|
|
1898
1922
|
"qwen-long": {
|
1899
1923
|
"description": "نموذج Qwen العملاق للغة، يدعم سياقات نصية طويلة، بالإضافة إلى وظائف الحوار المستندة إلى الوثائق الطويلة والعديد من الوثائق."
|
1900
1924
|
},
|
1925
|
+
"qwen-math-plus": {
|
1926
|
+
"description": "نموذج Tongyi Qianwen للرياضيات مخصص لحل المسائل الرياضية."
|
1927
|
+
},
|
1901
1928
|
"qwen-math-plus-latest": {
|
1902
1929
|
"description": "نموذج Qwen الرياضي مصمم خصيصًا لحل المسائل الرياضية."
|
1903
1930
|
},
|
1931
|
+
"qwen-math-turbo": {
|
1932
|
+
"description": "نموذج Tongyi Qianwen للرياضيات مخصص لحل المسائل الرياضية."
|
1933
|
+
},
|
1904
1934
|
"qwen-math-turbo-latest": {
|
1905
1935
|
"description": "نموذج Qwen الرياضي مصمم خصيصًا لحل المسائل الرياضية."
|
1906
1936
|
},
|
1907
1937
|
"qwen-max": {
|
1908
1938
|
"description": "نموذج لغة ضخم من توغي بمستوى مئات المليارات، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية. هو النموذج الذي يقف خلف إصدار توغي 2.5."
|
1909
1939
|
},
|
1910
|
-
"qwen-
|
1911
|
-
"description": "
|
1912
|
-
},
|
1913
|
-
"qwen-omni-turbo-latest": {
|
1914
|
-
"description": "تدعم نماذج كيوين-أومني إدخال بيانات متعددة الأنماط، بما في ذلك الفيديو والصوت والصور والنصوص، وتخرج الصوت والنص."
|
1940
|
+
"qwen-omni-turbo": {
|
1941
|
+
"description": "سلسلة نماذج Qwen-Omni تدعم إدخال بيانات متعددة الوسائط، بما في ذلك الفيديو، الصوت، الصور، والنص، وتنتج صوتًا ونصًا."
|
1915
1942
|
},
|
1916
1943
|
"qwen-plus": {
|
1917
1944
|
"description": "نموذج لغة ضخم من توغي، نسخة معززة، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية."
|
1918
1945
|
},
|
1919
|
-
"qwen-plus-latest": {
|
1920
|
-
"description": "نسخة محسنة من نموذج لغة Qwen الضخم، تدعم إدخال لغات مختلفة مثل الصينية والإنجليزية."
|
1921
|
-
},
|
1922
1946
|
"qwen-turbo": {
|
1923
1947
|
"description": "نموذج لغة ضخم من توغي، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية."
|
1924
1948
|
},
|
1925
|
-
"qwen-turbo-latest": {
|
1926
|
-
"description": "نموذج لغة ضخم من Qwen، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية."
|
1927
|
-
},
|
1928
1949
|
"qwen-vl-chat-v1": {
|
1929
1950
|
"description": "نموذج Qwen العملاق للغة البصرية يدعم طرق تفاعل مرنة، بما في ذلك الصور المتعددة، والأسئلة والأجوبة المتعددة، والإبداع."
|
1930
1951
|
},
|
1952
|
+
"qwen-vl-max": {
|
1953
|
+
"description": "نموذج Tongyi Qianwen البصري فائق الحجم. مقارنة بالنسخة المعززة، يعزز مرة أخرى قدرة الاستدلال البصري والامتثال للتعليمات، ويوفر مستوى أعلى من الإدراك البصري والمعرفي."
|
1954
|
+
},
|
1931
1955
|
"qwen-vl-max-latest": {
|
1932
1956
|
"description": "نموذج اللغة البصرية الكبير Qwen. مقارنةً بالنسخة المحسّنة، تعزز مرة أخرى من قدرة الاستدلال البصري وقدرة اتباع التعليمات، مما يوفر مستوى أعلى من الإدراك البصري والمعرفة."
|
1933
1957
|
},
|
1934
|
-
"qwen-vl-ocr
|
1935
|
-
"description": "نموذج OCR الخاص بـ Tongyi Qianwen
|
1958
|
+
"qwen-vl-ocr": {
|
1959
|
+
"description": "نموذج OCR الخاص بـ Tongyi Qianwen مخصص لاستخراج النصوص، يركز على استخراج النصوص من الصور مثل الوثائق، الجداول، الأسئلة، والكتابة اليدوية. يمكنه التعرف على عدة لغات، منها: الصينية، الإنجليزية، الفرنسية، اليابانية، الكورية، الألمانية، الروسية، الإيطالية، الفيتنامية، والعربية."
|
1960
|
+
},
|
1961
|
+
"qwen-vl-plus": {
|
1962
|
+
"description": "نسخة معززة من نموذج Tongyi Qianwen الكبير للغة البصرية. تعزز بشكل كبير قدرة التعرف على التفاصيل والقدرة على التعرف على النصوص، تدعم صورًا بدقة تزيد عن مليون بكسل وأبعاد بأي نسبة عرض إلى ارتفاع."
|
1936
1963
|
},
|
1937
1964
|
"qwen-vl-plus-latest": {
|
1938
1965
|
"description": "نسخة محسّنة من نموذج اللغة البصرية الكبير Qwen. تعزز بشكل كبير من قدرة التعرف على التفاصيل وقدرة التعرف على النصوص، وتدعم دقة تصل إلى أكثر من مليون بكسل وأبعاد صور بأي نسبة عرض إلى ارتفاع."
|
@@ -2021,6 +2048,9 @@
|
|
2021
2048
|
"qwen2.5-coder-1.5b-instruct": {
|
2022
2049
|
"description": "نموذج كود تونغي، النسخة مفتوحة المصدر."
|
2023
2050
|
},
|
2051
|
+
"qwen2.5-coder-14b-instruct": {
|
2052
|
+
"description": "نسخة مفتوحة المصدر من نموذج Tongyi Qianwen للبرمجة."
|
2053
|
+
},
|
2024
2054
|
"qwen2.5-coder-32b-instruct": {
|
2025
2055
|
"description": "الإصدار المفتوح من نموذج كود Qwen الشامل."
|
2026
2056
|
},
|
@@ -2111,8 +2141,8 @@
|
|
2111
2141
|
"qwq-32b-preview": {
|
2112
2142
|
"description": "نموذج QwQ هو نموذج بحث تجريبي تم تطويره بواسطة فريق Qwen، يركز على تعزيز قدرات الاستدلال للذكاء الاصطناعي."
|
2113
2143
|
},
|
2114
|
-
"qwq-plus
|
2115
|
-
"description": "نموذج استدلال QwQ المدرب على نموذج Qwen2.5،
|
2144
|
+
"qwq-plus": {
|
2145
|
+
"description": "نموذج استدلال QwQ المدرب على نموذج Qwen2.5، يعزز بشكل كبير قدرة الاستدلال من خلال التعلم المعزز. حقق النموذج مؤشرات رئيسية في الرياضيات والبرمجة (AIME 24/25، LiveCodeBench) وبعض المؤشرات العامة (IFEval، LiveBench وغيرها) بمستوى DeepSeek-R1 الكامل."
|
2116
2146
|
},
|
2117
2147
|
"qwq_32b": {
|
2118
2148
|
"description": "نموذج استدلال متوسط الحجم من سلسلة Qwen. مقارنة بنماذج تحسين التعليمات التقليدية، يظهر QwQ، الذي يتمتع بقدرة على التفكير والاستدلال، أداءً محسّنًا بشكل ملحوظ في المهام اللاحقة، خاصة عند حل المشكلات الصعبة."
|
@@ -71,6 +71,9 @@
|
|
71
71
|
"mistral": {
|
72
72
|
"description": "تقدم Mistral نماذج متقدمة عامة ومتخصصة وبحثية، تستخدم على نطاق واسع في الاستدلال المعقد، والمهام متعددة اللغات، وتوليد الشيفرات، من خلال واجهة استدعاء الوظائف، يمكن للمستخدمين دمج وظائف مخصصة لتحقيق تطبيقات محددة."
|
73
73
|
},
|
74
|
+
"modelscope": {
|
75
|
+
"description": "ModelScope هو منصة نموذج كخدمة أطلقتها علي بابا كلاود، تقدم مجموعة واسعة من نماذج الذكاء الاصطناعي وخدمات الاستدلال."
|
76
|
+
},
|
74
77
|
"moonshot": {
|
75
78
|
"description": "Moonshot هي منصة مفتوحة أطلقتها شركة Beijing Dark Side Technology Co.، Ltd، تقدم مجموعة متنوعة من نماذج معالجة اللغة الطبيعية، وتغطي مجالات واسعة، بما في ذلك ولكن لا تقتصر على إنشاء المحتوى، والبحث الأكاديمي، والتوصيات الذكية، والتشخيص الطبي، وتدعم معالجة النصوص الطويلة والمهام المعقدة."
|
76
79
|
},
|
@@ -208,6 +208,10 @@
|
|
208
208
|
"title": "Използване на клиентски режим на запитвания"
|
209
209
|
},
|
210
210
|
"helpDoc": "Ръководство за конфигуриране",
|
211
|
+
"responsesApi": {
|
212
|
+
"desc": "Използва новия формат на заявките на OpenAI, отключващ функции като вериги на мислене и други усъвършенствани възможности",
|
213
|
+
"title": "Използване на Responses API стандарта"
|
214
|
+
},
|
211
215
|
"waitingForMore": "Още модели са в <1>планиране</1>, моля, очаквайте"
|
212
216
|
},
|
213
217
|
"createNew": {
|