@lobehub/chat 1.132.12 → 1.132.14
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +42 -0
- package/Dockerfile +2 -2
- package/Dockerfile.database +2 -2
- package/Dockerfile.pglite +2 -2
- package/README.md +8 -8
- package/README.zh-CN.md +8 -8
- package/changelog/v1.json +14 -0
- package/docs/self-hosting/advanced/online-search.mdx +22 -22
- package/docs/self-hosting/advanced/online-search.zh-CN.mdx +2 -2
- package/docs/self-hosting/environment-variables/basic.mdx +7 -0
- package/docs/self-hosting/environment-variables/basic.zh-CN.mdx +7 -0
- package/locales/ar/models.json +46 -16
- package/locales/bg-BG/models.json +46 -16
- package/locales/de-DE/models.json +46 -16
- package/locales/en-US/models.json +46 -16
- package/locales/es-ES/models.json +46 -16
- package/locales/fa-IR/models.json +46 -16
- package/locales/fr-FR/models.json +46 -16
- package/locales/it-IT/models.json +46 -16
- package/locales/ja-JP/models.json +46 -16
- package/locales/ko-KR/models.json +46 -16
- package/locales/nl-NL/models.json +46 -16
- package/locales/pl-PL/models.json +46 -16
- package/locales/pt-BR/models.json +46 -16
- package/locales/ru-RU/models.json +46 -16
- package/locales/tr-TR/models.json +46 -16
- package/locales/vi-VN/models.json +46 -16
- package/locales/zh-CN/models.json +46 -16
- package/locales/zh-TW/models.json +46 -16
- package/next.config.ts +1 -0
- package/package.json +1 -1
package/CHANGELOG.md
CHANGED
|
@@ -2,6 +2,48 @@
|
|
|
2
2
|
|
|
3
3
|
# Changelog
|
|
4
4
|
|
|
5
|
+
### [Version 1.132.14](https://github.com/lobehub/lobe-chat/compare/v1.132.13...v1.132.14)
|
|
6
|
+
|
|
7
|
+
<sup>Released on **2025-09-25**</sup>
|
|
8
|
+
|
|
9
|
+
#### 💄 Styles
|
|
10
|
+
|
|
11
|
+
- **misc**: Update i18n.
|
|
12
|
+
|
|
13
|
+
<br/>
|
|
14
|
+
|
|
15
|
+
<details>
|
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
|
17
|
+
|
|
18
|
+
#### Styles
|
|
19
|
+
|
|
20
|
+
- **misc**: Update i18n, closes [#9413](https://github.com/lobehub/lobe-chat/issues/9413) ([4ea45b1](https://github.com/lobehub/lobe-chat/commit/4ea45b1))
|
|
21
|
+
|
|
22
|
+
</details>
|
|
23
|
+
|
|
24
|
+
<div align="right">
|
|
25
|
+
|
|
26
|
+
[](#readme-top)
|
|
27
|
+
|
|
28
|
+
</div>
|
|
29
|
+
|
|
30
|
+
### [Version 1.132.13](https://github.com/lobehub/lobe-chat/compare/v1.132.12...v1.132.13)
|
|
31
|
+
|
|
32
|
+
<sup>Released on **2025-09-25**</sup>
|
|
33
|
+
|
|
34
|
+
<br/>
|
|
35
|
+
|
|
36
|
+
<details>
|
|
37
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
|
38
|
+
|
|
39
|
+
</details>
|
|
40
|
+
|
|
41
|
+
<div align="right">
|
|
42
|
+
|
|
43
|
+
[](#readme-top)
|
|
44
|
+
|
|
45
|
+
</div>
|
|
46
|
+
|
|
5
47
|
### [Version 1.132.12](https://github.com/lobehub/lobe-chat/compare/v1.132.11...v1.132.12)
|
|
6
48
|
|
|
7
49
|
<sup>Released on **2025-09-25**</sup>
|
package/Dockerfile
CHANGED
|
@@ -1,5 +1,5 @@
|
|
|
1
1
|
## Set global build ENV
|
|
2
|
-
ARG NODEJS_VERSION="
|
|
2
|
+
ARG NODEJS_VERSION="24"
|
|
3
3
|
|
|
4
4
|
## Base image for all building stages
|
|
5
5
|
FROM node:${NODEJS_VERSION}-slim AS base
|
|
@@ -126,7 +126,7 @@ ENV NODE_ENV="production" \
|
|
|
126
126
|
NODE_OPTIONS="--dns-result-order=ipv4first --use-openssl-ca" \
|
|
127
127
|
NODE_EXTRA_CA_CERTS="" \
|
|
128
128
|
NODE_TLS_REJECT_UNAUTHORIZED="" \
|
|
129
|
-
|
|
129
|
+
SSL_CERT_FILE="/etc/ssl/certs/ca-certificates.crt"
|
|
130
130
|
|
|
131
131
|
# Make the middleware rewrite through local as default
|
|
132
132
|
# refs: https://github.com/lobehub/lobe-chat/issues/5876
|
package/Dockerfile.database
CHANGED
|
@@ -1,5 +1,5 @@
|
|
|
1
1
|
## Set global build ENV
|
|
2
|
-
ARG NODEJS_VERSION="
|
|
2
|
+
ARG NODEJS_VERSION="24"
|
|
3
3
|
|
|
4
4
|
## Base image for all building stages
|
|
5
5
|
FROM node:${NODEJS_VERSION}-slim AS base
|
|
@@ -149,7 +149,7 @@ ENV NODE_ENV="production" \
|
|
|
149
149
|
NODE_OPTIONS="--dns-result-order=ipv4first --use-openssl-ca" \
|
|
150
150
|
NODE_EXTRA_CA_CERTS="" \
|
|
151
151
|
NODE_TLS_REJECT_UNAUTHORIZED="" \
|
|
152
|
-
|
|
152
|
+
SSL_CERT_FILE="/etc/ssl/certs/ca-certificates.crt"
|
|
153
153
|
|
|
154
154
|
# Make the middleware rewrite through local as default
|
|
155
155
|
# refs: https://github.com/lobehub/lobe-chat/issues/5876
|
package/Dockerfile.pglite
CHANGED
|
@@ -1,5 +1,5 @@
|
|
|
1
1
|
## Set global build ENV
|
|
2
|
-
ARG NODEJS_VERSION="
|
|
2
|
+
ARG NODEJS_VERSION="24"
|
|
3
3
|
|
|
4
4
|
## Base image for all building stages
|
|
5
5
|
FROM node:${NODEJS_VERSION}-slim AS base
|
|
@@ -128,7 +128,7 @@ ENV NODE_ENV="production" \
|
|
|
128
128
|
NODE_OPTIONS="--dns-result-order=ipv4first --use-openssl-ca" \
|
|
129
129
|
NODE_EXTRA_CA_CERTS="" \
|
|
130
130
|
NODE_TLS_REJECT_UNAUTHORIZED="" \
|
|
131
|
-
|
|
131
|
+
SSL_CERT_FILE="/etc/ssl/certs/ca-certificates.crt"
|
|
132
132
|
|
|
133
133
|
# Make the middleware rewrite through local as default
|
|
134
134
|
# refs: https://github.com/lobehub/lobe-chat/issues/5876
|
package/README.md
CHANGED
|
@@ -382,14 +382,14 @@ In addition, these plugins are not limited to news aggregation, but can also ext
|
|
|
382
382
|
|
|
383
383
|
<!-- PLUGIN LIST -->
|
|
384
384
|
|
|
385
|
-
| Recent Submits
|
|
386
|
-
|
|
|
387
|
-
| [
|
|
388
|
-
| [
|
|
389
|
-
| [
|
|
390
|
-
| [
|
|
391
|
-
|
|
392
|
-
> 📊 Total plugins: [<kbd>**
|
|
385
|
+
| Recent Submits | Description |
|
|
386
|
+
| ----------------------------------------------------------------------------------------------------------------------------------------- | -------------------------------------------------------------------------------------------------------------------------- |
|
|
387
|
+
| [Web](https://lobechat.com/discover/plugin/web)<br/><sup>By **Proghit** on **2025-01-24**</sup> | Smart web search that reads and analyzes pages to deliver comprehensive answers from Google results.<br/>`web` `search` |
|
|
388
|
+
| [Bing_websearch](https://lobechat.com/discover/plugin/Bingsearch-identifier)<br/><sup>By **FineHow** on **2024-12-22**</sup> | Search for information from the internet base BingApi<br/>`bingsearch` |
|
|
389
|
+
| [Google CSE](https://lobechat.com/discover/plugin/google-cse)<br/><sup>By **vsnthdev** on **2024-12-02**</sup> | Searches Google through their official CSE API.<br/>`web` `search` |
|
|
390
|
+
| [Tongyi wanxiang Image Generator](https://lobechat.com/discover/plugin/alps-tongyi-image)<br/><sup>By **YoungTx** on **2024-08-09**</sup> | This plugin uses Alibaba's Tongyi Wanxiang model to generate images based on text prompts.<br/>`image` `tongyi` `wanxiang` |
|
|
391
|
+
|
|
392
|
+
> 📊 Total plugins: [<kbd>**41**</kbd>](https://lobechat.com/discover/plugins)
|
|
393
393
|
|
|
394
394
|
<!-- PLUGIN LIST -->
|
|
395
395
|
|
package/README.zh-CN.md
CHANGED
|
@@ -375,14 +375,14 @@ LobeChat 的插件生态系统是其核心功能的重要扩展,它极大地
|
|
|
375
375
|
|
|
376
376
|
<!-- PLUGIN LIST -->
|
|
377
377
|
|
|
378
|
-
| 最近新增
|
|
379
|
-
|
|
|
380
|
-
| [
|
|
381
|
-
| [
|
|
382
|
-
| [
|
|
383
|
-
| [
|
|
384
|
-
|
|
385
|
-
> 📊 Total plugins: [<kbd>**
|
|
378
|
+
| 最近新增 | 描述 |
|
|
379
|
+
| ---------------------------------------------------------------------------------------------------------------------------- | ---------------------------------------------------------------------------------- |
|
|
380
|
+
| [网页](https://lobechat.com/discover/plugin/web)<br/><sup>By **Proghit** on **2025-01-24**</sup> | 智能网页搜索,读取和分析页面,以提供来自 Google 结果的全面答案。<br/>`网页` `搜索` |
|
|
381
|
+
| [必应网页搜索](https://lobechat.com/discover/plugin/Bingsearch-identifier)<br/><sup>By **FineHow** on **2024-12-22**</sup> | 通过 BingApi 搜索互联网上的信息<br/>`bingsearch` |
|
|
382
|
+
| [谷歌自定义搜索引擎](https://lobechat.com/discover/plugin/google-cse)<br/><sup>By **vsnthdev** on **2024-12-02**</sup> | 通过他们的官方自定义搜索引擎 API 搜索谷歌。<br/>`网络` `搜索` |
|
|
383
|
+
| [通义万象图像生成器](https://lobechat.com/discover/plugin/alps-tongyi-image)<br/><sup>By **YoungTx** on **2024-08-09**</sup> | 此插件使用阿里巴巴的通义万象模型根据文本提示生成图像。<br/>`图像` `通义` `万象` |
|
|
384
|
+
|
|
385
|
+
> 📊 Total plugins: [<kbd>**41**</kbd>](https://lobechat.com/discover/plugins)
|
|
386
386
|
|
|
387
387
|
<!-- PLUGIN LIST -->
|
|
388
388
|
|
package/changelog/v1.json
CHANGED
|
@@ -34,15 +34,15 @@ CRAWLER_IMPLS="native,search1api"
|
|
|
34
34
|
|
|
35
35
|
Supported crawler types are listed below:
|
|
36
36
|
|
|
37
|
-
| Value | Description | Environment Variable
|
|
38
|
-
| ------------- | ------------------------------------------------------------------------------------------------------------------- |
|
|
39
|
-
| `browserless` | Headless browser crawler based on [Browserless](https://www.browserless.io/), suitable for rendering complex pages. | `BROWSERLESS_TOKEN`
|
|
40
|
-
| `exa` | Crawler capabilities provided by [Exa](https://exa.ai/), API required. | `EXA_API_KEY`
|
|
41
|
-
| `firecrawl` | [Firecrawl](https://firecrawl.dev/) headless browser API, ideal for modern websites. | `FIRECRAWL_API_KEY`
|
|
42
|
-
| `jina` | Crawler service from [Jina AI](https://jina.ai/), supports fast content summarization. | `JINA_READER_API_KEY`
|
|
43
|
-
| `native` | Built-in general-purpose crawler for standard web structures. |
|
|
44
|
-
| `search1api` | Page crawling capabilities from [Search1API](https://www.search1api.com), great for structured content extraction. | `SEARCH1API_CRAWL_API_KEY` |
|
|
45
|
-
| `tavily` | Web scraping and summarization API from [Tavily](https://www.tavily.com/). | `TAVILY_API_KEY`
|
|
37
|
+
| Value | Description | Environment Variable |
|
|
38
|
+
| ------------- | ------------------------------------------------------------------------------------------------------------------- | ---------------------------------------------------------------------------- |
|
|
39
|
+
| `browserless` | Headless browser crawler based on [Browserless](https://www.browserless.io/), suitable for rendering complex pages. | `BROWSERLESS_TOKEN` |
|
|
40
|
+
| `exa` | Crawler capabilities provided by [Exa](https://exa.ai/), API required. | `EXA_API_KEY` |
|
|
41
|
+
| `firecrawl` | [Firecrawl](https://firecrawl.dev/) headless browser API, ideal for modern websites. | `FIRECRAWL_API_KEY` |
|
|
42
|
+
| `jina` | Crawler service from [Jina AI](https://jina.ai/), supports fast content summarization. | `JINA_READER_API_KEY` |
|
|
43
|
+
| `native` | Built-in general-purpose crawler for standard web structures. | |
|
|
44
|
+
| `search1api` | Page crawling capabilities from [Search1API](https://www.search1api.com), great for structured content extraction. | `SEARCH1API_API_KEY` `SEARCH1API_CRAWL_API_KEY` `SEARCH1API_SEARCH_API_KEY` |
|
|
45
|
+
| `tavily` | Web scraping and summarization API from [Tavily](https://www.tavily.com/). | `TAVILY_API_KEY` |
|
|
46
46
|
|
|
47
47
|
> 💡 Setting multiple crawlers increases success rate; the system will try different ones based on priority.
|
|
48
48
|
|
|
@@ -58,19 +58,19 @@ SEARCH_PROVIDERS="searxng"
|
|
|
58
58
|
|
|
59
59
|
Supported search engines include:
|
|
60
60
|
|
|
61
|
-
| Value | Description | Environment Variable
|
|
62
|
-
| ------------ | --------------------------------------------------------------------------------------- |
|
|
63
|
-
| `anspire` | Search service provided by [Anspire](https://anspire.ai/). | `ANSPIRE_API_KEY`
|
|
64
|
-
| `bocha` | Search service from [Bocha](https://open.bochaai.com/). | `BOCHA_API_KEY`
|
|
65
|
-
| `brave` | [Brave](https://search.brave.com/help/api), a privacy-friendly search source. | `BRAVE_API_KEY`
|
|
66
|
-
| `exa` | [Exa](https://exa.ai/), a search API designed for AI. | `EXA_API_KEY`
|
|
67
|
-
| `firecrawl` | Search capabilities via [Firecrawl](https://firecrawl.dev/). | `FIRECRAWL_API_KEY`
|
|
68
|
-
| `google` | Uses [Google Programmable Search Engine](https://programmablesearchengine.google.com/). | `GOOGLE_PSE_API_KEY` `GOOGLE_PSE_ENGINE_ID`
|
|
69
|
-
| `jina` | Semantic search provided by [Jina AI](https://jina.ai/). | `JINA_READER_API_KEY`
|
|
70
|
-
| `kagi` | Premium search API by [Kagi](https://kagi.com/), requires a subscription key. | `KAGI_API_KEY`
|
|
71
|
-
| `search1api` | Aggregated search capabilities from [Search1API](https://www.search1api.com). | `SEARCH1API_CRAWL_API_KEY`
|
|
72
|
-
| `searxng` | Use a self-hosted or public [SearXNG](https://searx.space/) instance. | `SEARXNG_URL`
|
|
73
|
-
| `tavily` | [Tavily](https://www.tavily.com/), offers fast web summaries and answers. | `TAVILY_API_KEY`
|
|
61
|
+
| Value | Description | Environment Variable |
|
|
62
|
+
| ------------ | --------------------------------------------------------------------------------------- | ---------------------------------------------------------------------------- |
|
|
63
|
+
| `anspire` | Search service provided by [Anspire](https://anspire.ai/). | `ANSPIRE_API_KEY` |
|
|
64
|
+
| `bocha` | Search service from [Bocha](https://open.bochaai.com/). | `BOCHA_API_KEY` |
|
|
65
|
+
| `brave` | [Brave](https://search.brave.com/help/api), a privacy-friendly search source. | `BRAVE_API_KEY` |
|
|
66
|
+
| `exa` | [Exa](https://exa.ai/), a search API designed for AI. | `EXA_API_KEY` |
|
|
67
|
+
| `firecrawl` | Search capabilities via [Firecrawl](https://firecrawl.dev/). | `FIRECRAWL_API_KEY` |
|
|
68
|
+
| `google` | Uses [Google Programmable Search Engine](https://programmablesearchengine.google.com/). | `GOOGLE_PSE_API_KEY` `GOOGLE_PSE_ENGINE_ID` |
|
|
69
|
+
| `jina` | Semantic search provided by [Jina AI](https://jina.ai/). | `JINA_READER_API_KEY` |
|
|
70
|
+
| `kagi` | Premium search API by [Kagi](https://kagi.com/), requires a subscription key. | `KAGI_API_KEY` |
|
|
71
|
+
| `search1api` | Aggregated search capabilities from [Search1API](https://www.search1api.com). | `SEARCH1API_API_KEY` `SEARCH1API_CRAWL_API_KEY` `SEARCH1API_SEARCH_API_KEY` |
|
|
72
|
+
| `searxng` | Use a self-hosted or public [SearXNG](https://searx.space/) instance. | `SEARXNG_URL` |
|
|
73
|
+
| `tavily` | [Tavily](https://www.tavily.com/), offers fast web summaries and answers. | `TAVILY_API_KEY` |
|
|
74
74
|
|
|
75
75
|
> ⚠️ Some search providers require you to apply for an API Key and configure it in your `.env` file.
|
|
76
76
|
|
|
@@ -37,7 +37,7 @@ CRAWLER_IMPLS="native,search1api"
|
|
|
37
37
|
| `firecrawl` | [Firecrawl](https://firecrawl.dev/) 无头浏览器 API,适合现代网站抓取。 | `FIRECRAWL_API_KEY` |
|
|
38
38
|
| `jina` | 使用 [Jina AI](https://jina.ai/) 的爬虫服务,支持快速提取摘要信息。 | `JINA_READER_API_KEY` |
|
|
39
39
|
| `native` | 内置通用爬虫,适用于标准网页结构。 | |
|
|
40
|
-
| `search1api` | 利用 [Search1API](https://www.search1api.com) 提供的页面抓取能力,适合结构化内容提取。 | `SEARCH1API_CRAWL_API_KEY` |
|
|
40
|
+
| `search1api` | 利用 [Search1API](https://www.search1api.com) 提供的页面抓取能力,适合结构化内容提取。 | `SEARCH1API_API_KEY` `SEARCH1API_CRAWL_API_KEY` `SEARCH1API_SEARCH_API_KEY` |
|
|
41
41
|
| `tavily` | 使用 [Tavily](https://www.tavily.com/) 的网页抓取与摘要 API。 | `TAVILY_API_KEY` |
|
|
42
42
|
|
|
43
43
|
> 💡 设置多个爬虫可提升成功率,系统将根据优先级尝试不同爬虫。
|
|
@@ -64,7 +64,7 @@ SEARCH_PROVIDERS="searxng"
|
|
|
64
64
|
| `google` | 使用 [Google Programmable Search Engine](https://programmablesearchengine.google.com/)。 | `GOOGLE_PSE_API_KEY` `GOOGLE_PSE_ENGINE_ID` |
|
|
65
65
|
| `jina` | 使用 [Jina AI](https://jina.ai/) 提供的语义搜索服务。 | `JINA_READER_API_KEY` |
|
|
66
66
|
| `kagi` | [Kagi](https://kagi.com/) 提供的高级搜索 API,需订阅 Key。 | `KAGI_API_KEY` |
|
|
67
|
-
| `search1api` | 使用 [Search1API](https://www.search1api.com) 聚合搜索能力。 | `SEARCH1API_CRAWL_API_KEY`
|
|
67
|
+
| `search1api` | 使用 [Search1API](https://www.search1api.com) 聚合搜索能力。 | `SEARCH1API_API_KEY` `SEARCH1API_CRAWL_API_KEY` `SEARCH1API_SEARCH_API_KEY` |
|
|
68
68
|
| `searxng` | 使用自托管或公共 [SearXNG](https://searx.space/) 实例。 | `SEARXNG_URL` |
|
|
69
69
|
| `tavily` | [Tavily](https://www.tavily.com/),快速网页摘要与答案返回。 | `TAVILY_API_KEY` |
|
|
70
70
|
|
|
@@ -145,6 +145,13 @@ For specific content, please refer to the [Feature Flags](/docs/self-hosting/adv
|
|
|
145
145
|
- Default: `0`
|
|
146
146
|
- Example: `1` or `0`
|
|
147
147
|
|
|
148
|
+
### `NEXT_PUBLIC_ASSET_PREFIX`
|
|
149
|
+
|
|
150
|
+
- Type: Optional
|
|
151
|
+
- Description: The path access prefix for static resources can be set to the URL for CDN access. For more details, please refer to: [assetPrefix](https://nextjs.org/docs/app/api-reference/config/next-config-js/assetPrefix)
|
|
152
|
+
- Default: -
|
|
153
|
+
- Example: `https://cdn.example.com`
|
|
154
|
+
|
|
148
155
|
## Plugin Service
|
|
149
156
|
|
|
150
157
|
### `PLUGINS_INDEX_URL`
|
|
@@ -141,6 +141,13 @@ LobeChat 在部署时提供了一些额外的配置项,你可以使用环境
|
|
|
141
141
|
- 默认值:`0`
|
|
142
142
|
- 示例:`1` 或 `0`
|
|
143
143
|
|
|
144
|
+
### `NEXT_PUBLIC_ASSET_PREFIX`
|
|
145
|
+
|
|
146
|
+
- 类型:可选
|
|
147
|
+
- 描述:静态资源的路径访问前缀,你可以设置为 CDN 访问的 URL,具体可参考: [assetPrefix](https://nextjs.org/docs/app/api-reference/config/next-config-js/assetPrefix)
|
|
148
|
+
- 默认值:-
|
|
149
|
+
- 示例:`https://cdn.example.com`
|
|
150
|
+
|
|
144
151
|
## 插件服务
|
|
145
152
|
|
|
146
153
|
### `PLUGINS_INDEX_URL`
|
package/locales/ar/models.json
CHANGED
|
@@ -287,9 +287,6 @@
|
|
|
287
287
|
"Pro/deepseek-ai/DeepSeek-V3.1": {
|
|
288
288
|
"description": "DeepSeek-V3.1 هو نموذج لغة كبير بنمط هجين أصدرته DeepSeek AI، وقد شهد ترقيات مهمة متعددة مقارنة بالإصدارات السابقة. من الابتكارات الرئيسية في هذا النموذج دمج \"وضع التفكير\" و\"وضع عدم التفكير\" في نموذج واحد، حيث يمكن للمستخدمين التبديل بينهما بسهولة عبر تعديل قالب المحادثة لتلبية متطلبات المهام المختلفة. من خلال تحسينات ما بعد التدريب المخصصة، تم تعزيز أداء V3.1 في استدعاء الأدوات ومهام الوكيل بشكل ملحوظ، مما يمكنه من دعم أدوات البحث الخارجية وتنفيذ مهام معقدة متعددة الخطوات بشكل أفضل. يعتمد النموذج على DeepSeek-V3.1-Base مع تدريب إضافي، حيث تم توسيع حجم بيانات التدريب بشكل كبير عبر طريقة التوسيع النصي الطويل على مرحلتين، مما يحسن أدائه في معالجة المستندات الطويلة والرموز البرمجية الطويلة. كنموذج مفتوح المصدر، يظهر DeepSeek-V3.1 قدرة تنافسية مع أفضل النماذج المغلقة في مجالات الترميز والرياضيات والاستدلال، وبفضل هيكله المختلط للخبراء (MoE)، يحافظ على سعة نموذج ضخمة مع تقليل تكلفة الاستدلال بفعالية."
|
|
289
289
|
},
|
|
290
|
-
"Pro/moonshotai/Kimi-K2-Instruct": {
|
|
291
|
-
"description": "Kimi K2 هو نموذج أساسي يعتمد على بنية MoE مع قدرات قوية في البرمجة والوكيل، يحتوي على 1 تريليون معلمة و32 مليار معلمة مفعلة. يتفوق نموذج K2 في اختبارات الأداء الأساسية في مجالات المعرفة العامة، البرمجة، الرياضيات والوكيل مقارنة بالنماذج المفتوحة المصدر الأخرى."
|
|
292
|
-
},
|
|
293
290
|
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
|
|
294
291
|
"description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج لغوي من نوع الخبراء المختلطين (MoE) من الطراز الأول، يحتوي على تريليون معلمة إجمالية و32 مليار معلمة مفعلة. تشمل الميزات الرئيسية للنموذج: تعزيز ذكاء التكويد للوكيل، مع تحسينات ملحوظة في الأداء في اختبارات المعيار المفتوحة ومهام التكويد الواقعية للوكيل؛ تحسين تجربة التكويد في الواجهة الأمامية، مع تقدم في الجمالية والعملية في برمجة الواجهة الأمامية."
|
|
295
292
|
},
|
|
@@ -380,6 +377,12 @@
|
|
|
380
377
|
"Qwen/Qwen3-Coder-480B-A35B-Instruct": {
|
|
381
378
|
"description": "Qwen3-Coder-480B-A35B-Instruct هو نموذج برمجي أطلقته شركة علي بابا، ويعد حتى الآن الأكثر قدرةً على العمل كوكيل (Agentic). إنه نموذج مختلط الخبراء (Mixture-of-Experts, MoE) يضم 480 مليار معامل إجماليًا و35 مليار معامل نشط، محققًا توازنًا بين الكفاءة والأداء. يدعم النموذج بشكل أصلي طول سياق يصل إلى 256K (حوالي 260 ألف) توكن، ويمكن توسيعه عبر طرق استطراد مثل YaRN إلى مليون توكن، ممّا يمكّنه من التعامل مع مستودعات شفرة ضخمة ومهام برمجية معقّدة. صُمم Qwen3-Coder لسير عمل ترميز يعتمد على الوكلاء؛ فهو لا يولّد الشفرة فحسب، بل يتفاعل بشكلٍ مستقل مع أدوات وبيئات التطوير لحل مشكلات برمجية معقّدة. في اختبارات معيارية متعددة لمهام التكويد والوكالة، حقق النموذج مستوى متقدمًا بين النماذج مفتوحة المصدر، ويمكن أن ينافس نماذج رائدة مثل Claude Sonnet 4."
|
|
382
379
|
},
|
|
380
|
+
"Qwen/Qwen3-Next-80B-A3B-Instruct": {
|
|
381
|
+
"description": "Qwen3-Next-80B-A3B-Instruct هو نموذج أساسي من الجيل التالي أصدره فريق Tongyi Qianwen في علي بابا. يعتمد على بنية Qwen3-Next الجديدة كليًا، ويهدف إلى تحقيق أقصى كفاءة في التدريب والاستدلال. يستخدم النموذج آلية انتباه هجينة مبتكرة (Gated DeltaNet و Gated Attention)، وهيكل خبراء مختلط عالي التشتت (MoE)، بالإضافة إلى تحسينات متعددة لاستقرار التدريب. كنموذج متناثر يحتوي على 80 مليار معلمة إجمالية، فإنه ينشط حوالي 3 مليارات معلمة فقط أثناء الاستدلال، مما يقلل بشكل كبير من تكلفة الحوسبة، وعند معالجة مهام سياق طويل تتجاوز 32 ألف رمز، فإن معدل الاستدلال يتفوق على نموذج Qwen3-32B بأكثر من 10 أضعاف. هذا النموذج هو نسخة موجهة للتعليمات، مصمم للمهام العامة، ولا يدعم وضع سلسلة التفكير (Thinking). من حيث الأداء، فإنه يعادل نموذج Tongyi Qianwen الرائد Qwen3-235B في بعض الاختبارات المعيارية، مع تفوق واضح في مهام السياق الطويل جدًا."
|
|
382
|
+
},
|
|
383
|
+
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
|
|
384
|
+
"description": "Qwen3-Next-80B-A3B-Thinking هو نموذج أساسي من الجيل التالي أصدره فريق Tongyi Qianwen في علي بابا، مصمم خصيصًا لمهام الاستدلال المعقدة. يعتمد على بنية Qwen3-Next المبتكرة التي تدمج آلية انتباه هجينة (Gated DeltaNet و Gated Attention) وهيكل خبراء مختلط عالي التشتت (MoE)، بهدف تحقيق أقصى كفاءة في التدريب والاستدلال. كنموذج متناثر يحتوي على 80 مليار معلمة إجمالية، فإنه ينشط حوالي 3 مليارات معلمة فقط أثناء الاستدلال، مما يقلل بشكل كبير من تكلفة الحوسبة، وعند معالجة مهام سياق طويل تتجاوز 32 ألف رمز، فإن معدل الاستدلال يتفوق على نموذج Qwen3-32B بأكثر من 10 أضعاف. نسخة \"Thinking\" هذه مخصصة لتنفيذ مهام متعددة الخطوات عالية الصعوبة مثل الإثباتات الرياضية، توليف الشيفرة، التحليل المنطقي والتخطيط، وتخرج عملية الاستدلال بشكل افتراضي في شكل \"سلسلة تفكير\" منظمة. من حيث الأداء، يتفوق هذا النموذج ليس فقط على نماذج ذات تكلفة أعلى مثل Qwen3-32B-Thinking، بل يتفوق أيضًا في عدة اختبارات معيارية على Gemini-2.5-Flash-Thinking."
|
|
385
|
+
},
|
|
383
386
|
"Qwen2-72B-Instruct": {
|
|
384
387
|
"description": "Qwen2 هو أحدث سلسلة من نموذج Qwen، ويدعم سياقًا يصل إلى 128 ألف، مقارنةً بأفضل النماذج مفتوحة المصدر الحالية، يتفوق Qwen2-72B بشكل ملحوظ في فهم اللغة الطبيعية والمعرفة والترميز والرياضيات والقدرات متعددة اللغات."
|
|
385
388
|
},
|
|
@@ -809,9 +812,6 @@
|
|
|
809
812
|
"codex-mini-latest": {
|
|
810
813
|
"description": "codex-mini-latest هو نسخة محسنة من o4-mini، مخصصة لـ Codex CLI. بالنسبة للاستخدام المباشر عبر API، نوصي بالبدء من gpt-4.1."
|
|
811
814
|
},
|
|
812
|
-
"cognitivecomputations/dolphin-mixtral-8x22b": {
|
|
813
|
-
"description": "Dolphin Mixtral 8x22B هو نموذج مصمم للامتثال للتعليمات، والحوار، والبرمجة."
|
|
814
|
-
},
|
|
815
815
|
"cogview-4": {
|
|
816
816
|
"description": "CogView-4 هو أول نموذج مفتوح المصدر من Zhipu يدعم توليد الحروف الصينية، مع تحسينات شاملة في فهم المعاني، وجودة توليد الصور، وقدرات توليد النصوص باللغتين الصينية والإنجليزية، ويدعم إدخال ثنائي اللغة بأي طول، وقادر على توليد صور بأي دقة ضمن النطاق المحدد."
|
|
817
817
|
},
|
|
@@ -926,6 +926,9 @@
|
|
|
926
926
|
"deepseek-ai/deepseek-r1": {
|
|
927
927
|
"description": "نموذج لغوي متقدم وفعال، بارع في الاستدلال، والرياضيات، والبرمجة."
|
|
928
928
|
},
|
|
929
|
+
"deepseek-ai/deepseek-v3.1": {
|
|
930
|
+
"description": "DeepSeek V3.1: نموذج استدلال من الجيل التالي يعزز القدرات على الاستدلال المعقد والتفكير التسلسلي، مناسب للمهام التي تتطلب تحليلاً عميقًا."
|
|
931
|
+
},
|
|
929
932
|
"deepseek-ai/deepseek-vl2": {
|
|
930
933
|
"description": "DeepSeek-VL2 هو نموذج لغوي بصري مختلط الخبراء (MoE) تم تطويره بناءً على DeepSeekMoE-27B، يستخدم بنية MoE ذات تفعيل نادر، محققًا أداءً ممتازًا مع تفعيل 4.5 مليار معلمة فقط. يقدم هذا النموذج أداءً ممتازًا في مهام مثل الأسئلة البصرية، التعرف الضوئي على الأحرف، فهم الوثائق/الجداول/الرسوم البيانية، وتحديد المواقع البصرية."
|
|
931
934
|
},
|
|
@@ -1007,6 +1010,9 @@
|
|
|
1007
1010
|
"deepseek-v3.1": {
|
|
1008
1011
|
"description": "DeepSeek-V3.1 هو نموذج استدلال هجين جديد أطلقته DeepSeek، يدعم وضعين للاستدلال: التفكير وعدم التفكير، مع كفاءة تفكير أعلى مقارنة بـ DeepSeek-R1-0528. بعد تحسين ما بعد التدريب، تم تعزيز استخدام أدوات الوكيل وأداء مهام الوكيل بشكل كبير. يدعم نافذة سياق تصل إلى 128 ألف، وطول إخراج يصل إلى 64 ألف رمز."
|
|
1009
1012
|
},
|
|
1013
|
+
"deepseek-v3.1:671b": {
|
|
1014
|
+
"description": "DeepSeek V3.1: نموذج استدلال من الجيل التالي يعزز القدرات على الاستدلال المعقد والتفكير التسلسلي، مناسب للمهام التي تتطلب تحليلاً عميقًا."
|
|
1015
|
+
},
|
|
1010
1016
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1011
1017
|
"description": "DeepSeek V3 هو نموذج مختلط خبير يحتوي على 685B من المعلمات، وهو أحدث إصدار من سلسلة نماذج الدردشة الرائدة لفريق DeepSeek.\n\nيستفيد من نموذج [DeepSeek V3](/deepseek/deepseek-chat-v3) ويظهر أداءً ممتازًا في مجموعة متنوعة من المهام."
|
|
1012
1018
|
},
|
|
@@ -1626,7 +1632,7 @@
|
|
|
1626
1632
|
"description": "تشات جي بي تي-4o هو نموذج ديناميكي يتم تحديثه في الوقت الفعلي للحفاظ على أحدث إصدار. يجمع بين الفهم اللغوي القوي وقدرة التوليد، مما يجعله مناسبًا لتطبيقات واسعة النطاق، بما في ذلك خدمة العملاء والتعليم والدعم الفني."
|
|
1627
1633
|
},
|
|
1628
1634
|
"gpt-4o-audio-preview": {
|
|
1629
|
-
"description": "نموذج GPT-4o
|
|
1635
|
+
"description": "نموذج معاينة صوتية GPT-4o يدعم إدخال وإخراج الصوت."
|
|
1630
1636
|
},
|
|
1631
1637
|
"gpt-4o-mini": {
|
|
1632
1638
|
"description": "نموذج GPT-4o mini هو أحدث نموذج أطلقته OpenAI بعد GPT-4 Omni، ويدعم إدخال الصور والنصوص وإخراج النصوص. كأحد نماذجهم المتقدمة الصغيرة، فهو أرخص بكثير من النماذج الرائدة الأخرى في الآونة الأخيرة، وأرخص بأكثر من 60% من GPT-3.5 Turbo. يحتفظ بذكاء متقدم مع قيمة ممتازة. حصل GPT-4o mini على 82% في اختبار MMLU، وهو حاليًا يتفوق على GPT-4 في تفضيلات الدردشة."
|
|
@@ -1667,24 +1673,33 @@
|
|
|
1667
1673
|
"gpt-5-chat-latest": {
|
|
1668
1674
|
"description": "نموذج GPT-5 المستخدم في ChatGPT. يجمع بين قدرات قوية في فهم اللغة وتوليدها، مناسب لتطبيقات التفاعل الحواري."
|
|
1669
1675
|
},
|
|
1676
|
+
"gpt-5-codex": {
|
|
1677
|
+
"description": "GPT-5 Codex هو نسخة من GPT-5 محسنة لمهام الترميز في بيئات Codex أو ما يشابهها."
|
|
1678
|
+
},
|
|
1670
1679
|
"gpt-5-mini": {
|
|
1671
1680
|
"description": "نسخة أسرع وأكثر اقتصادية من GPT-5، مناسبة للمهام المحددة بوضوح. توفر استجابة أسرع مع الحفاظ على جودة عالية."
|
|
1672
1681
|
},
|
|
1673
1682
|
"gpt-5-nano": {
|
|
1674
1683
|
"description": "أسرع وأكفأ نسخة من GPT-5 من حيث التكلفة. مثالية للتطبيقات التي تتطلب استجابة سريعة وحساسة للتكلفة."
|
|
1675
1684
|
},
|
|
1685
|
+
"gpt-audio": {
|
|
1686
|
+
"description": "GPT Audio هو نموذج دردشة عام موجه لإدخال وإخراج الصوت، ويدعم استخدام الصوت في واجهة برمجة تطبيقات Chat Completions."
|
|
1687
|
+
},
|
|
1676
1688
|
"gpt-image-1": {
|
|
1677
1689
|
"description": "نموذج توليد الصور متعدد الوسائط الأصلي من ChatGPT"
|
|
1678
1690
|
},
|
|
1679
|
-
"gpt-oss": {
|
|
1680
|
-
"description": "GPT-OSS 20B هو نموذج لغة كبير مفتوح المصدر أصدرته OpenAI، يستخدم تقنية التكميم MXFP4، ومناسب للتشغيل على وحدات معالجة الرسومات الاستهلاكية المتقدمة أو أجهزة Mac بمعالج Apple Silicon. يتميز هذا النموذج بأداء ممتاز في توليد المحادثات، وكتابة الأكواد، ومهام الاستدلال، ويدعم استدعاء الدوال واستخدام الأدوات."
|
|
1681
|
-
},
|
|
1682
1691
|
"gpt-oss-120b": {
|
|
1683
1692
|
"description": "GPT-OSS-120B MXFP4: هيكل Transformer محسّن بالكمية، يحافظ على أداء قوي حتى في ظل محدودية الموارد."
|
|
1684
1693
|
},
|
|
1685
1694
|
"gpt-oss:120b": {
|
|
1686
1695
|
"description": "GPT-OSS 120B هو نموذج لغة كبير مفتوح المصدر أصدرته OpenAI، يستخدم تقنية التكميم MXFP4، ويعتبر نموذجًا رائدًا. يتطلب تشغيله بيئة متعددة وحدات معالجة الرسومات أو محطة عمل عالية الأداء، ويتميز بأداء متفوق في الاستدلال المعقد، وتوليد الأكواد، ومعالجة اللغات المتعددة، ويدعم استدعاء الدوال المتقدمة وتكامل الأدوات."
|
|
1687
1696
|
},
|
|
1697
|
+
"gpt-oss:20b": {
|
|
1698
|
+
"description": "GPT-OSS 20B هو نموذج لغة كبير مفتوح المصدر أصدرته OpenAI، يستخدم تقنية التكميم MXFP4، مناسب للتشغيل على وحدات معالجة الرسومات الاستهلاكية المتقدمة أو أجهزة Apple Silicon Mac. يتميز النموذج بأداء ممتاز في توليد المحادثات، كتابة الشيفرة، ومهام الاستدلال، ويدعم استدعاء الدوال واستخدام الأدوات."
|
|
1699
|
+
},
|
|
1700
|
+
"gpt-realtime": {
|
|
1701
|
+
"description": "نموذج عام في الوقت الحقيقي يدعم الإدخال والإخراج النصي والصوتي، ويدعم أيضًا إدخال الصور."
|
|
1702
|
+
},
|
|
1688
1703
|
"grok-2-1212": {
|
|
1689
1704
|
"description": "لقد تم تحسين هذا النموذج في الدقة، والامتثال للتعليمات، والقدرة على التعامل مع لغات متعددة."
|
|
1690
1705
|
},
|
|
@@ -1712,6 +1727,12 @@
|
|
|
1712
1727
|
"grok-4-0709": {
|
|
1713
1728
|
"description": "Grok 4 من xAI، يتمتع بقدرات استدلال قوية."
|
|
1714
1729
|
},
|
|
1730
|
+
"grok-4-fast-non-reasoning": {
|
|
1731
|
+
"description": "نحن سعداء بإصدار Grok 4 Fast، وهو أحدث تقدم لدينا في نماذج الاستدلال ذات التكلفة الفعالة."
|
|
1732
|
+
},
|
|
1733
|
+
"grok-4-fast-reasoning": {
|
|
1734
|
+
"description": "نحن سعداء بإصدار Grok 4 Fast، وهو أحدث تقدم لدينا في نماذج الاستدلال ذات التكلفة الفعالة."
|
|
1735
|
+
},
|
|
1715
1736
|
"grok-code-fast-1": {
|
|
1716
1737
|
"description": "نحن سعداء بإطلاق grok-code-fast-1، وهو نموذج استدلال سريع وفعال من حيث التكلفة، يتميز بأداء ممتاز في ترميز الوكلاء."
|
|
1717
1738
|
},
|
|
@@ -1847,8 +1868,14 @@
|
|
|
1847
1868
|
"inception/mercury-coder-small": {
|
|
1848
1869
|
"description": "Mercury Coder Small هو الخيار المثالي لمهام توليد الكود، وتصحيح الأخطاء، وإعادة الهيكلة، مع أدنى تأخير."
|
|
1849
1870
|
},
|
|
1871
|
+
"inclusionAI/Ling-flash-2.0": {
|
|
1872
|
+
"description": "Ling-flash-2.0 هو النموذج الثالث في سلسلة بنية Ling 2.0 التي أصدرها فريق Bailing في مجموعة Ant. هو نموذج خبراء مختلط (MoE) بحجم إجمالي 100 مليار معلمة، لكنه ينشط فقط 6.1 مليار معلمة لكل رمز (غير متضمنة تمثيلات الكلمات 4.8 مليار). كنموذج خفيف الوزن، أظهر Ling-flash-2.0 أداءً يضاهي أو يتفوق على نماذج كثيفة بحجم 40 مليار معلمة ونماذج MoE أكبر في عدة تقييمات موثوقة. يهدف النموذج إلى استكشاف مسارات عالية الكفاءة من خلال تصميم معماري واستراتيجيات تدريب متقدمة، في ظل القناعة بأن \"النموذج الكبير يعني معلمات كثيرة\"."
|
|
1873
|
+
},
|
|
1850
1874
|
"inclusionAI/Ling-mini-2.0": {
|
|
1851
|
-
"description": "Ling-mini-2.0 هو نموذج
|
|
1875
|
+
"description": "Ling-mini-2.0 هو نموذج لغة كبير صغير الحجم وعالي الأداء مبني على بنية MoE. يحتوي على 16 مليار معلمة إجمالية، لكنه ينشط فقط 1.4 مليار معلمة لكل رمز (غير متضمنة التضمين 789 مليون)، مما يحقق سرعة توليد عالية جدًا. بفضل تصميم MoE الفعال وبيانات تدريب ضخمة وعالية الجودة، رغم تنشيط معلمات قليلة، يظهر Ling-mini-2.0 أداءً متقدمًا في المهام اللاحقة يضاهي نماذج LLM كثيفة أقل من 10 مليارات معلمة ونماذج MoE أكبر."
|
|
1876
|
+
},
|
|
1877
|
+
"inclusionAI/Ring-flash-2.0": {
|
|
1878
|
+
"description": "Ring-flash-2.0 هو نموذج تفكير عالي الأداء محسّن بعمق بناءً على Ling-flash-2.0-base. يستخدم بنية خبراء مختلط (MoE) بحجم إجمالي 100 مليار معلمة، لكنه ينشط فقط 6.1 مليار معلمة في كل استدلال. يحل النموذج من خلال خوارزمية icepop المبتكرة مشكلة عدم استقرار نماذج MoE الكبيرة في تدريب التعلم المعزز (RL)، مما يسمح بتحسين مستمر لقدرات الاستدلال المعقدة خلال التدريب طويل الأمد. حقق Ring-flash-2.0 تقدمًا ملحوظًا في مسابقات الرياضيات، توليد الشيفرة، والاستدلال المنطقي، متفوقًا على أفضل النماذج الكثيفة التي تقل عن 40 مليار معلمة، وقريبًا من نماذج MoE مفتوحة المصدر الأكبر ونماذج التفكير عالية الأداء المغلقة المصدر. رغم تركيزه على الاستدلال المعقد، يظهر أداءً ممتازًا في مهام الكتابة الإبداعية. بالإضافة إلى ذلك، وبفضل تصميمه المعماري الفعال، يوفر Ring-flash-2.0 أداءً قويًا مع استدلال عالي السرعة، مما يقلل بشكل كبير من تكلفة نشر نماذج التفكير في بيئات ذات حمل عالٍ."
|
|
1852
1879
|
},
|
|
1853
1880
|
"internlm/internlm2_5-7b-chat": {
|
|
1854
1881
|
"description": "InternLM2.5 يوفر حلول حوار ذكية في عدة سيناريوهات."
|
|
@@ -2357,9 +2384,6 @@
|
|
|
2357
2384
|
"moonshotai/Kimi-Dev-72B": {
|
|
2358
2385
|
"description": "Kimi-Dev-72B هو نموذج مفتوح المصدر للبرمجة، تم تحسينه عبر تعلم معزز واسع النطاق، قادر على إنتاج تصحيحات مستقرة وجاهزة للإنتاج مباشرة. حقق هذا النموذج نتيجة قياسية جديدة بنسبة 60.4% على SWE-bench Verified، محطماً الأرقام القياسية للنماذج المفتوحة المصدر في مهام هندسة البرمجيات الآلية مثل إصلاح العيوب ومراجعة الشيفرة."
|
|
2359
2386
|
},
|
|
2360
|
-
"moonshotai/Kimi-K2-Instruct": {
|
|
2361
|
-
"description": "Kimi K2 هو نموذج أساسي يعتمد على بنية MoE يتمتع بقدرات قوية في البرمجة والوكيل، يحتوي على 1 تريليون معلمة و32 مليار معلمة مفعلة. يتفوق نموذج K2 في اختبارات الأداء الأساسية في مجالات المعرفة العامة، البرمجة، الرياضيات والوكيل مقارنة بالنماذج المفتوحة المصدر الأخرى."
|
|
2362
|
-
},
|
|
2363
2387
|
"moonshotai/Kimi-K2-Instruct-0905": {
|
|
2364
2388
|
"description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج لغوي من نوع الخبراء المختلطين (MoE) من الطراز الأول، يحتوي على تريليون معلمة إجمالية و32 مليار معلمة مفعلة. تشمل الميزات الرئيسية للنموذج: تعزيز ذكاء التكويد للوكيل، مع تحسينات ملحوظة في الأداء في اختبارات المعيار المفتوحة ومهام التكويد الواقعية للوكيل؛ تحسين تجربة التكويد في الواجهة الأمامية، مع تقدم في الجمالية والعملية في برمجة الواجهة الأمامية."
|
|
2365
2389
|
},
|
|
@@ -2807,8 +2831,11 @@
|
|
|
2807
2831
|
"qwen3-coder-plus": {
|
|
2808
2832
|
"description": "نموذج كود Tongyi Qianwen. أحدث سلسلة نماذج Qwen3-Coder مبنية على Qwen3 لتوليد الأكواد، تتمتع بقدرات وكيل ترميز قوية، بارعة في استدعاء الأدوات والتفاعل مع البيئة، قادرة على البرمجة الذاتية، وتجمع بين مهارات برمجية ممتازة وقدرات عامة."
|
|
2809
2833
|
},
|
|
2810
|
-
"qwen3-
|
|
2811
|
-
"description": "
|
|
2834
|
+
"qwen3-coder:480b": {
|
|
2835
|
+
"description": "نموذج عالي الأداء من علي بابا مخصص لمهام الوكيل والترميز مع سياق طويل."
|
|
2836
|
+
},
|
|
2837
|
+
"qwen3-max": {
|
|
2838
|
+
"description": "سلسلة نماذج Tongyi Qianwen 3 Max، التي تحسنت بشكل كبير مقارنة بسلسلة 2.5 في القدرات العامة، فهم النصوص باللغتين الصينية والإنجليزية، اتباع التعليمات المعقدة، المهام المفتوحة الذاتية، القدرات متعددة اللغات، واستدعاء الأدوات؛ مع تقليل الأوهام المعرفية للنموذج. النسخة الأحدث من qwen3-max: مقارنةً بنسخة qwen3-max-preview، تم ترقية خاصة في برمجة الوكلاء واستدعاء الأدوات. النسخة الرسمية المنشورة وصلت إلى مستوى SOTA في المجال، وتلبي احتياجات الوكلاء في سيناريوهات أكثر تعقيدًا."
|
|
2812
2839
|
},
|
|
2813
2840
|
"qwen3-next-80b-a3b-instruct": {
|
|
2814
2841
|
"description": "نموذج مفتوح المصدر من الجيل الجديد لوضع عدم التفكير مبني على Qwen3، يتميز بفهم أفضل للنصوص الصينية مقارنة بالإصدار السابق (Tongyi Qianwen 3-235B-A22B-Instruct-2507)، مع تعزيز في قدرات الاستدلال المنطقي وأداء أفضل في مهام توليد النصوص."
|
|
@@ -2816,6 +2843,9 @@
|
|
|
2816
2843
|
"qwen3-next-80b-a3b-thinking": {
|
|
2817
2844
|
"description": "نموذج مفتوح المصدر من الجيل الجديد لوضع التفكير مبني على Qwen3، يتميز بتحسين في الالتزام بالتعليمات مقارنة بالإصدار السابق (Tongyi Qianwen 3-235B-A22B-Thinking-2507)، مع ردود ملخصة وأكثر إيجازًا من النموذج."
|
|
2818
2845
|
},
|
|
2846
|
+
"qwen3-vl-plus": {
|
|
2847
|
+
"description": "Tongyi Qianwen VL هو نموذج توليد نصوص يمتلك قدرات فهم بصرية (صور)، لا يقتصر على التعرف الضوئي على الحروف (OCR)، بل يمكنه أيضًا التلخيص والاستدلال، مثل استخراج خصائص من صور المنتجات، وحل المسائل بناءً على صور التمارين."
|
|
2848
|
+
},
|
|
2819
2849
|
"qwq": {
|
|
2820
2850
|
"description": "QwQ هو نموذج بحث تجريبي يركز على تحسين قدرات الاستدلال للذكاء الاصطناعي."
|
|
2821
2851
|
},
|