@lobehub/lobehub 2.0.0-next.202 → 2.0.0-next.204
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/apps/desktop/src/main/controllers/SystemCtr.ts +0 -6
- package/apps/desktop/src/main/controllers/__tests__/SystemCtr.test.ts +1 -13
- package/apps/desktop/src/main/core/App.ts +19 -1
- package/apps/desktop/src/main/core/__tests__/App.test.ts +1 -1
- package/apps/desktop/src/main/core/browser/Browser.ts +5 -12
- package/apps/desktop/src/main/core/browser/__tests__/Browser.test.ts +10 -16
- package/apps/desktop/src/main/core/ui/TrayManager.ts +1 -1
- package/apps/desktop/src/main/core/ui/__tests__/TrayManager.test.ts +3 -3
- package/changelog/v1.json +18 -0
- package/locales/ar/models.json +48 -7
- package/locales/ar/providers.json +0 -1
- package/locales/bg-BG/models.json +5 -7
- package/locales/bg-BG/providers.json +0 -1
- package/locales/de-DE/models.json +47 -6
- package/locales/de-DE/providers.json +0 -1
- package/locales/en-US/models.json +10 -10
- package/locales/en-US/providers.json +0 -1
- package/locales/es-ES/models.json +36 -10
- package/locales/es-ES/providers.json +0 -1
- package/locales/fa-IR/models.json +5 -7
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fr-FR/models.json +36 -7
- package/locales/fr-FR/providers.json +0 -1
- package/locales/it-IT/models.json +5 -7
- package/locales/it-IT/providers.json +0 -1
- package/locales/ja-JP/models.json +49 -10
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ko-KR/models.json +48 -7
- package/locales/ko-KR/providers.json +0 -1
- package/locales/nl-NL/models.json +4 -4
- package/locales/nl-NL/providers.json +0 -1
- package/locales/pl-PL/models.json +30 -5
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pt-BR/models.json +51 -6
- package/locales/pt-BR/providers.json +0 -1
- package/locales/ru-RU/models.json +5 -7
- package/locales/ru-RU/providers.json +0 -1
- package/locales/tr-TR/models.json +5 -7
- package/locales/tr-TR/providers.json +0 -1
- package/locales/vi-VN/models.json +5 -7
- package/locales/vi-VN/providers.json +0 -1
- package/locales/zh-CN/models.json +61 -6
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-TW/models.json +32 -7
- package/locales/zh-TW/providers.json +0 -1
- package/package.json +1 -1
- package/packages/model-bank/package.json +1 -0
- package/packages/model-bank/src/aiModels/index.ts +3 -0
- package/packages/model-bank/src/aiModels/xiaomimimo.ts +24 -0
- package/packages/model-bank/src/const/modelProvider.ts +1 -0
- package/packages/model-bank/src/modelProviders/index.ts +3 -0
- package/packages/model-bank/src/modelProviders/xiaomimimo.ts +22 -0
- package/packages/model-runtime/src/index.ts +1 -0
- package/packages/model-runtime/src/providers/xiaomimimo/index.test.ts +147 -0
- package/packages/model-runtime/src/providers/xiaomimimo/index.ts +48 -0
- package/packages/model-runtime/src/runtimeMap.ts +2 -0
- package/packages/model-runtime/src/utils/modelParse.ts +6 -0
- package/src/envs/llm.ts +6 -0
- package/src/features/ElectronTitlebar/hooks/useWatchThemeUpdate.ts +7 -2
package/CHANGELOG.md
CHANGED
|
@@ -2,6 +2,56 @@
|
|
|
2
2
|
|
|
3
3
|
# Changelog
|
|
4
4
|
|
|
5
|
+
## [Version 2.0.0-next.204](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.203...v2.0.0-next.204)
|
|
6
|
+
|
|
7
|
+
<sup>Released on **2026-01-04**</sup>
|
|
8
|
+
|
|
9
|
+
#### ✨ Features
|
|
10
|
+
|
|
11
|
+
- **misc**: Add new provider Xiaomi MiMo.
|
|
12
|
+
|
|
13
|
+
<br/>
|
|
14
|
+
|
|
15
|
+
<details>
|
|
16
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
|
17
|
+
|
|
18
|
+
#### What's improved
|
|
19
|
+
|
|
20
|
+
- **misc**: Add new provider Xiaomi MiMo, closes [#10834](https://github.com/lobehub/lobe-chat/issues/10834) ([62f7858](https://github.com/lobehub/lobe-chat/commit/62f7858))
|
|
21
|
+
|
|
22
|
+
</details>
|
|
23
|
+
|
|
24
|
+
<div align="right">
|
|
25
|
+
|
|
26
|
+
[](#readme-top)
|
|
27
|
+
|
|
28
|
+
</div>
|
|
29
|
+
|
|
30
|
+
## [Version 2.0.0-next.203](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.202...v2.0.0-next.203)
|
|
31
|
+
|
|
32
|
+
<sup>Released on **2026-01-04**</sup>
|
|
33
|
+
|
|
34
|
+
#### 💄 Styles
|
|
35
|
+
|
|
36
|
+
- **misc**: Update i18n.
|
|
37
|
+
|
|
38
|
+
<br/>
|
|
39
|
+
|
|
40
|
+
<details>
|
|
41
|
+
<summary><kbd>Improvements and Fixes</kbd></summary>
|
|
42
|
+
|
|
43
|
+
#### Styles
|
|
44
|
+
|
|
45
|
+
- **misc**: Update i18n, closes [#11145](https://github.com/lobehub/lobe-chat/issues/11145) ([fdadef2](https://github.com/lobehub/lobe-chat/commit/fdadef2))
|
|
46
|
+
|
|
47
|
+
</details>
|
|
48
|
+
|
|
49
|
+
<div align="right">
|
|
50
|
+
|
|
51
|
+
[](#readme-top)
|
|
52
|
+
|
|
53
|
+
</div>
|
|
54
|
+
|
|
5
55
|
## [Version 2.0.0-next.202](https://github.com/lobehub/lobe-chat/compare/v2.0.0-next.201...v2.0.0-next.202)
|
|
6
56
|
|
|
7
57
|
<sup>Released on **2026-01-03**</sup>
|
|
@@ -39,7 +39,6 @@ export default class SystemController extends ControllerModule {
|
|
|
39
39
|
isMac: platform === 'darwin',
|
|
40
40
|
isWindows: platform === 'win32',
|
|
41
41
|
platform: platform as 'darwin' | 'win32' | 'linux',
|
|
42
|
-
systemAppearance: nativeTheme.shouldUseDarkColors ? 'dark' : 'light',
|
|
43
42
|
userPath: {
|
|
44
43
|
// User Paths (ensure keys match UserPathData / DesktopAppState interface)
|
|
45
44
|
desktop: app.getPath('desktop'),
|
|
@@ -265,11 +264,6 @@ export default class SystemController extends ControllerModule {
|
|
|
265
264
|
|
|
266
265
|
logger.info('Initializing system theme listener');
|
|
267
266
|
|
|
268
|
-
// Get initial system theme
|
|
269
|
-
const initialDarkMode = nativeTheme.shouldUseDarkColors;
|
|
270
|
-
const initialSystemTheme: ThemeMode = initialDarkMode ? 'dark' : 'light';
|
|
271
|
-
logger.info(`Initial system theme: ${initialSystemTheme}`);
|
|
272
|
-
|
|
273
267
|
// Listen for system theme changes
|
|
274
268
|
nativeTheme.on('updated', () => {
|
|
275
269
|
const isDarkMode = nativeTheme.shouldUseDarkColors;
|
|
@@ -72,6 +72,7 @@ vi.mock('electron', () => ({
|
|
|
72
72
|
nativeTheme: {
|
|
73
73
|
on: vi.fn(),
|
|
74
74
|
shouldUseDarkColors: false,
|
|
75
|
+
themeSource: 'system',
|
|
75
76
|
},
|
|
76
77
|
shell: {
|
|
77
78
|
openExternal: vi.fn().mockResolvedValue(undefined),
|
|
@@ -138,7 +139,6 @@ describe('SystemController', () => {
|
|
|
138
139
|
expect(result).toMatchObject({
|
|
139
140
|
arch: expect.any(String),
|
|
140
141
|
platform: expect.any(String),
|
|
141
|
-
systemAppearance: 'light',
|
|
142
142
|
userPath: {
|
|
143
143
|
desktop: '/mock/path/desktop',
|
|
144
144
|
documents: '/mock/path/documents',
|
|
@@ -151,18 +151,6 @@ describe('SystemController', () => {
|
|
|
151
151
|
},
|
|
152
152
|
});
|
|
153
153
|
});
|
|
154
|
-
|
|
155
|
-
it('should return dark appearance when nativeTheme is dark', async () => {
|
|
156
|
-
const { nativeTheme } = await import('electron');
|
|
157
|
-
Object.defineProperty(nativeTheme, 'shouldUseDarkColors', { value: true });
|
|
158
|
-
|
|
159
|
-
const result = await invokeIpc('system.getAppState');
|
|
160
|
-
|
|
161
|
-
expect(result.systemAppearance).toBe('dark');
|
|
162
|
-
|
|
163
|
-
// Reset
|
|
164
|
-
Object.defineProperty(nativeTheme, 'shouldUseDarkColors', { value: false });
|
|
165
|
-
});
|
|
166
154
|
});
|
|
167
155
|
|
|
168
156
|
describe('accessibility', () => {
|
|
@@ -6,7 +6,7 @@ import {
|
|
|
6
6
|
RouteVariants,
|
|
7
7
|
} from '@lobechat/desktop-bridge';
|
|
8
8
|
import { ElectronIPCEventHandler, ElectronIPCServer } from '@lobechat/electron-server-ipc';
|
|
9
|
-
import { app, protocol, session } from 'electron';
|
|
9
|
+
import { app, nativeTheme, protocol, session } from 'electron';
|
|
10
10
|
import installExtension, { REACT_DEVELOPER_TOOLS } from 'electron-devtools-installer';
|
|
11
11
|
import { macOS, windows } from 'electron-is';
|
|
12
12
|
import { pathExistsSync } from 'fs-extra';
|
|
@@ -154,9 +154,27 @@ export class App {
|
|
|
154
154
|
// 统一处理 before-quit 事件
|
|
155
155
|
app.on('before-quit', this.handleBeforeQuit);
|
|
156
156
|
|
|
157
|
+
// Initialize theme mode from store
|
|
158
|
+
this.initializeThemeMode();
|
|
159
|
+
|
|
157
160
|
logger.info('App initialization completed');
|
|
158
161
|
}
|
|
159
162
|
|
|
163
|
+
/**
|
|
164
|
+
* Initialize nativeTheme.themeSource from stored themeMode preference
|
|
165
|
+
* This allows nativeTheme.shouldUseDarkColors to be used consistently everywhere
|
|
166
|
+
*/
|
|
167
|
+
private initializeThemeMode() {
|
|
168
|
+
const themeMode = this.storeManager.get('themeMode');
|
|
169
|
+
|
|
170
|
+
if (themeMode) {
|
|
171
|
+
nativeTheme.themeSource = themeMode === 'auto' ? 'system' : themeMode;
|
|
172
|
+
logger.debug(
|
|
173
|
+
`Theme mode initialized to: ${themeMode} (themeSource: ${nativeTheme.themeSource})`,
|
|
174
|
+
);
|
|
175
|
+
}
|
|
176
|
+
}
|
|
177
|
+
|
|
160
178
|
bootstrap = async () => {
|
|
161
179
|
logger.info('Bootstrapping application');
|
|
162
180
|
// make single instance
|
|
@@ -78,11 +78,9 @@ export default class Browser {
|
|
|
78
78
|
/**
|
|
79
79
|
* Get platform-specific theme configuration for window creation
|
|
80
80
|
*/
|
|
81
|
-
private getPlatformThemeConfig(
|
|
82
|
-
const darkMode = isDarkMode ?? nativeTheme.shouldUseDarkColors;
|
|
83
|
-
|
|
81
|
+
private getPlatformThemeConfig(): Record<string, any> {
|
|
84
82
|
if (isWindows) {
|
|
85
|
-
return this.getWindowsThemeConfig(
|
|
83
|
+
return this.getWindowsThemeConfig(this.isDarkMode);
|
|
86
84
|
}
|
|
87
85
|
|
|
88
86
|
return {};
|
|
@@ -164,10 +162,7 @@ export default class Browser {
|
|
|
164
162
|
}
|
|
165
163
|
|
|
166
164
|
private get isDarkMode() {
|
|
167
|
-
|
|
168
|
-
if (themeMode === 'auto') return nativeTheme.shouldUseDarkColors;
|
|
169
|
-
|
|
170
|
-
return themeMode === 'dark';
|
|
165
|
+
return nativeTheme.shouldUseDarkColors;
|
|
171
166
|
}
|
|
172
167
|
|
|
173
168
|
loadUrl = async (path: string) => {
|
|
@@ -328,13 +323,11 @@ export default class Browser {
|
|
|
328
323
|
`[${this.identifier}] Saved window state (only size used): ${JSON.stringify(savedState)}`,
|
|
329
324
|
);
|
|
330
325
|
|
|
331
|
-
const isDarkMode = nativeTheme.shouldUseDarkColors;
|
|
332
|
-
|
|
333
326
|
const browserWindow = new BrowserWindow({
|
|
334
327
|
...res,
|
|
335
328
|
autoHideMenuBar: true,
|
|
336
329
|
backgroundColor: '#00000000',
|
|
337
|
-
darkTheme: isDarkMode,
|
|
330
|
+
darkTheme: this.isDarkMode,
|
|
338
331
|
frame: false,
|
|
339
332
|
height: savedState?.height || height,
|
|
340
333
|
show: false,
|
|
@@ -348,7 +341,7 @@ export default class Browser {
|
|
|
348
341
|
sandbox: false,
|
|
349
342
|
},
|
|
350
343
|
width: savedState?.width || width,
|
|
351
|
-
...this.getPlatformThemeConfig(
|
|
344
|
+
...this.getPlatformThemeConfig(),
|
|
352
345
|
});
|
|
353
346
|
|
|
354
347
|
this._browserWindow = browserWindow;
|
|
@@ -53,6 +53,7 @@ const { mockBrowserWindow, mockNativeTheme, mockIpcMain, mockScreen, MockBrowser
|
|
|
53
53
|
off: vi.fn(),
|
|
54
54
|
on: vi.fn(),
|
|
55
55
|
shouldUseDarkColors: false,
|
|
56
|
+
themeSource: 'system',
|
|
56
57
|
},
|
|
57
58
|
mockScreen: {
|
|
58
59
|
getDisplayNearestPoint: vi.fn().mockReturnValue({
|
|
@@ -272,7 +273,7 @@ describe('Browser', () => {
|
|
|
272
273
|
|
|
273
274
|
describe('theme management', () => {
|
|
274
275
|
describe('getPlatformThemeConfig', () => {
|
|
275
|
-
it('should return Windows dark theme config', () => {
|
|
276
|
+
it('should return Windows dark theme config when shouldUseDarkColors is true', () => {
|
|
276
277
|
mockNativeTheme.shouldUseDarkColors = true;
|
|
277
278
|
|
|
278
279
|
// Create browser with dark mode
|
|
@@ -289,7 +290,7 @@ describe('Browser', () => {
|
|
|
289
290
|
);
|
|
290
291
|
});
|
|
291
292
|
|
|
292
|
-
it('should return Windows light theme config', () => {
|
|
293
|
+
it('should return Windows light theme config when shouldUseDarkColors is false', () => {
|
|
293
294
|
mockNativeTheme.shouldUseDarkColors = false;
|
|
294
295
|
|
|
295
296
|
expect(MockBrowserWindow).toHaveBeenCalledWith(
|
|
@@ -334,11 +335,8 @@ describe('Browser', () => {
|
|
|
334
335
|
});
|
|
335
336
|
|
|
336
337
|
describe('isDarkMode', () => {
|
|
337
|
-
it('should return true when
|
|
338
|
-
|
|
339
|
-
if (key === 'themeMode') return 'dark';
|
|
340
|
-
return undefined;
|
|
341
|
-
});
|
|
338
|
+
it('should return true when shouldUseDarkColors is true', () => {
|
|
339
|
+
mockNativeTheme.shouldUseDarkColors = true;
|
|
342
340
|
|
|
343
341
|
const darkBrowser = new Browser(defaultOptions, mockApp);
|
|
344
342
|
// Access private getter through handleAppThemeChange which uses isDarkMode
|
|
@@ -348,18 +346,14 @@ describe('Browser', () => {
|
|
|
348
346
|
expect(mockBrowserWindow.setBackgroundColor).toHaveBeenCalledWith('#1a1a1a');
|
|
349
347
|
});
|
|
350
348
|
|
|
351
|
-
it('should
|
|
352
|
-
|
|
353
|
-
if (key === 'themeMode') return 'auto';
|
|
354
|
-
return undefined;
|
|
355
|
-
});
|
|
356
|
-
mockNativeTheme.shouldUseDarkColors = true;
|
|
349
|
+
it('should return false when shouldUseDarkColors is false', () => {
|
|
350
|
+
mockNativeTheme.shouldUseDarkColors = false;
|
|
357
351
|
|
|
358
|
-
const
|
|
359
|
-
|
|
352
|
+
const lightBrowser = new Browser(defaultOptions, mockApp);
|
|
353
|
+
lightBrowser.handleAppThemeChange();
|
|
360
354
|
vi.advanceTimersByTime(0);
|
|
361
355
|
|
|
362
|
-
expect(mockBrowserWindow.setBackgroundColor).toHaveBeenCalledWith('#
|
|
356
|
+
expect(mockBrowserWindow.setBackgroundColor).toHaveBeenCalledWith('#ffffff');
|
|
363
357
|
});
|
|
364
358
|
});
|
|
365
359
|
});
|
|
@@ -57,7 +57,7 @@ export class TrayManager {
|
|
|
57
57
|
logger.debug('初始化主托盘');
|
|
58
58
|
return this.retrieveOrInitialize({
|
|
59
59
|
iconPath: isMac
|
|
60
|
-
? nativeTheme.
|
|
60
|
+
? nativeTheme.shouldUseDarkColorsForSystemIntegratedUI
|
|
61
61
|
? 'tray-dark.png'
|
|
62
62
|
: 'tray-light.png'
|
|
63
63
|
: 'tray.png',
|
|
@@ -8,7 +8,7 @@ import { TrayManager } from '../TrayManager';
|
|
|
8
8
|
// Mock electron modules
|
|
9
9
|
vi.mock('electron', () => ({
|
|
10
10
|
nativeTheme: {
|
|
11
|
-
|
|
11
|
+
shouldUseDarkColorsForSystemIntegratedUI: false,
|
|
12
12
|
},
|
|
13
13
|
}));
|
|
14
14
|
|
|
@@ -90,7 +90,7 @@ describe('TrayManager', () => {
|
|
|
90
90
|
|
|
91
91
|
describe('initializeMainTray', () => {
|
|
92
92
|
it('should create main tray with dark icon on macOS when dark mode is enabled', () => {
|
|
93
|
-
Object.defineProperty(nativeTheme, '
|
|
93
|
+
Object.defineProperty(nativeTheme, 'shouldUseDarkColorsForSystemIntegratedUI', {
|
|
94
94
|
value: true,
|
|
95
95
|
writable: true,
|
|
96
96
|
configurable: true,
|
|
@@ -110,7 +110,7 @@ describe('TrayManager', () => {
|
|
|
110
110
|
});
|
|
111
111
|
|
|
112
112
|
it('should create main tray with light icon on macOS when light mode is enabled', () => {
|
|
113
|
-
Object.defineProperty(nativeTheme, '
|
|
113
|
+
Object.defineProperty(nativeTheme, 'shouldUseDarkColorsForSystemIntegratedUI', {
|
|
114
114
|
value: false,
|
|
115
115
|
writable: true,
|
|
116
116
|
configurable: true,
|
package/changelog/v1.json
CHANGED
|
@@ -1,4 +1,22 @@
|
|
|
1
1
|
[
|
|
2
|
+
{
|
|
3
|
+
"children": {
|
|
4
|
+
"features": [
|
|
5
|
+
"Add new provider Xiaomi MiMo."
|
|
6
|
+
]
|
|
7
|
+
},
|
|
8
|
+
"date": "2026-01-04",
|
|
9
|
+
"version": "2.0.0-next.204"
|
|
10
|
+
},
|
|
11
|
+
{
|
|
12
|
+
"children": {
|
|
13
|
+
"improvements": [
|
|
14
|
+
"Update i18n."
|
|
15
|
+
]
|
|
16
|
+
},
|
|
17
|
+
"date": "2026-01-04",
|
|
18
|
+
"version": "2.0.0-next.203"
|
|
19
|
+
},
|
|
2
20
|
{
|
|
3
21
|
"children": {
|
|
4
22
|
"improvements": [
|
package/locales/ar/models.json
CHANGED
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الفعلي، يجمع بين الفهم العميق والقدرة على التوليد لتلبية احتياجات الاستخدام الواسعة مثل دعم العملاء والتعليم والدعم الفني.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل التالي من Anthropic،
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل التالي من Anthropic. مقارنةً بـ Claude 3 Haiku، يقدم تحسينات في المهارات ويتفوق على أكبر نموذج سابق Claude 3 Opus في العديد من اختبارات الذكاء.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku يقدم استجابات سريعة للمهام الخفيفة.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هو أذكى نموذج من Anthropic وأول نموذج هجيني للاستدلال في السوق. يمكنه تقديم ردود شبه فورية أو استدلال تدريجي مرئي للمستخدمين. يتميز Sonnet بقوة خاصة في البرمجة، علم البيانات، الرؤية، ومهام الوكلاء.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتقديم استجابات شبه فورية بأداء سريع ودقيق.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus هو أقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet يوازن بين الذكاء والسرعة لتلبية احتياجات المؤسسات، ويوفر فائدة عالية بتكلفة أقل ونشر موثوق على نطاق واسع.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأذكى نموذج Haiku من Anthropic، يتميز بسرعة البرق وقدرة استدلال موسعة.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking هو إصدار متقدم يمكنه عرض عملية تفكيره.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الاستثنائي والأداء القابل للتوسع، مثالي للمهام المعقدة التي تتطلب استجابات عالية الجودة وتفكير متقدم.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking يمكنه تقديم استجابات شبه فورية أو تفكير متسلسل مرئي.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 يمكنه تقديم ردود شبه فورية أو تفكير تدريجي مرئي بخطوات واضحة.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو أذكى نموذج من Anthropic حتى الآن.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 هو مساعد برمجة ذكي يدعم الأسئلة والأجوبة متعددة اللغات وإكمال الشيفرة لزيادة إنتاجية المطورين.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B هو نموذج توليد شيفرة متعدد اللغات يدعم الإكمال والتوليد، تفسير الشيفرة، البحث عبر الإنترنت، استدعاء الوظائف، وأسئلة وأجوبة على مستوى المستودع، ويغطي مجموعة واسعة من سيناريوهات تطوير البرمجيات. يُعد من أفضل نماذج الشيفرة تحت 10B.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 هو نموذج رؤية-لغة MoE يعتمد على DeepSeekMoE-27B مع تنشيط متفرق، ويحقق أداءً قويًا باستخدام 4.5 مليار معلمة نشطة فقط. يتميز في الأسئلة البصرية، وOCR، وفهم المستندات/الجداول/المخططات، والتأريض البصري.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "نموذج مفتوح المصدر جديد يجمع بين القدرات العامة والبرمجية. يحافظ على حوار النموذج العام وقوة نموذج البرمجة، مع تحسين التوافق مع تفضيلات المستخدم. DeepSeek-V2.5 يعزز أيضًا مهارات الكتابة واتباع التعليمات.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B هو نموذج لغة برمجية تم تدريبه على 2 تريليون رمز (87٪ كود، 13٪ نص صيني/إنجليزي). يقدم نافذة سياق 16K ومهام الإكمال في المنتصف، ويوفر إكمال كود على مستوى المشاريع وملء مقاطع الكود.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "الإصدار الكامل السريع من DeepSeek R1 مع بحث ويب في الوقت الحقيقي، يجمع بين قدرات بحجم 671B واستجابة أسرع.",
|
|
379
379
|
"deepseek-r1-online.description": "الإصدار الكامل من DeepSeek R1 مع 671 مليار معلمة وبحث ويب في الوقت الحقيقي، يوفر فهمًا وتوليدًا أقوى.",
|
|
380
380
|
"deepseek-r1.description": "يستخدم DeepSeek-R1 بيانات البداية الباردة قبل التعلم المعزز ويؤدي أداءً مماثلًا لـ OpenAI-o1 في الرياضيات، والبرمجة، والتفكير.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "وضع التفكير في DeepSeek V3.2 ينتج سلسلة من الأفكار قبل الإجابة النهائية لتحسين الدقة.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 هو نموذج MoE فعال لمعالجة منخفضة التكلفة.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B هو نموذج DeepSeek الموجه للبرمجة مع قدرات قوية في توليد الكود.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 هو نموذج MoE يحتوي على 671 مليار معلمة يتميز بقوة في البرمجة، والقدرات التقنية، وفهم السياق، والتعامل مع النصوص الطويلة.",
|
|
@@ -471,6 +471,47 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K هو نموذج فائق الخفة للأسئلة البسيطة، التصنيف، والاستدلال منخفض التكلفة.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K هو نموذج تفكير سريع بسياق 32K للاستدلال المعقد والدردشة متعددة الأدوار.",
|
|
473
473
|
"ernie-x1.1-preview.description": "معاينة ERNIE X1.1 هو نموذج تفكير مخصص للتقييم والاختبار.",
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع تحكم عالي الجودة في إخراج الصور. يقوم بإنشاء صور من التعليمات النصية.",
|
|
475
|
+
"fal-ai/flux-kontext/dev.description": "نموذج FLUX.1 يركز على تحرير الصور، ويدعم إدخال النصوص والصور.",
|
|
476
|
+
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] يقبل نصوصًا وصورًا مرجعية كمدخلات، مما يتيح تعديلات محلية مستهدفة وتحولات معقدة في المشهد العام.",
|
|
477
|
+
"fal-ai/flux/krea.description": "Flux Krea [dev] هو نموذج توليد صور يتميز بميول جمالية نحو صور أكثر واقعية وطبيعية.",
|
|
478
|
+
"fal-ai/flux/schnell.description": "FLUX.1 [schnell] هو نموذج توليد صور يحتوي على 12 مليار معامل، مصمم لإنتاج سريع وعالي الجودة.",
|
|
479
|
+
"fal-ai/hunyuan-image/v3.description": "نموذج توليد صور متعدد الوسائط قوي وأصلي.",
|
|
480
|
+
"fal-ai/imagen4/preview.description": "نموذج توليد صور عالي الجودة من Google.",
|
|
481
|
+
"fal-ai/nano-banana.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google كفاءةً، يتيح توليد وتحرير الصور من خلال المحادثة.",
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "نموذج تحرير صور احترافي من فريق Qwen يدعم التعديلات الدلالية والمظهرية، ويحرر النصوص الصينية والإنجليزية بدقة، ويدعم تعديلات عالية الجودة مثل نقل الأسلوب وتدوير العناصر.",
|
|
483
|
+
"fal-ai/qwen-image.description": "نموذج توليد صور قوي من فريق Qwen يتميز بعرض نصوص صينية مميز وأنماط بصرية متنوعة.",
|
|
484
|
+
"flux-1-schnell.description": "نموذج تحويل نص إلى صورة يحتوي على 12 مليار معامل من Black Forest Labs يستخدم تقنيات تقطير الانتشار العدائي الكامن لتوليد صور عالية الجودة في 1-4 خطوات. ينافس البدائل المغلقة ومتاح بموجب ترخيص Apache-2.0 للاستخدام الشخصي والبحثي والتجاري.",
|
|
485
|
+
"flux-dev.description": "FLUX.1 [dev] هو نموذج مفتوح الأوزان مخصص للاستخدام غير التجاري. يحافظ على جودة صور قريبة من المستوى الاحترافي واتباع التعليمات مع كفاءة تشغيل أعلى مقارنة بالنماذج القياسية من نفس الحجم.",
|
|
486
|
+
"flux-kontext-max.description": "توليد وتحرير صور سياقية متقدمة، يجمع بين النصوص والصور لتحقيق نتائج دقيقة ومتسقة.",
|
|
487
|
+
"flux-kontext-pro.description": "توليد وتحرير صور سياقية متقدمة، يجمع بين النصوص والصور لتحقيق نتائج دقيقة ومتسقة.",
|
|
488
|
+
"flux-merged.description": "FLUX.1-merged يجمع بين الميزات العميقة المستكشفة في \"DEV\" مع مزايا السرعة العالية في \"Schnell\"، مما يوسع حدود الأداء ويوسع نطاق التطبيقات.",
|
|
489
|
+
"flux-pro-1.1-ultra.description": "توليد صور بدقة فائقة تصل إلى 4 ميغابكسل، ينتج صورًا واضحة في غضون 10 ثوانٍ.",
|
|
490
|
+
"flux-pro-1.1.description": "نموذج توليد صور احترافي مطور بجودة صور ممتازة واتباع دقيق للتعليمات.",
|
|
491
|
+
"flux-pro.description": "نموذج توليد صور تجاري من الدرجة الأولى بجودة صور لا مثيل لها ومخرجات متنوعة.",
|
|
492
|
+
"flux-schnell.description": "FLUX.1 [schnell] هو أكثر النماذج مفتوحة المصدر تقدمًا في خطوات قليلة، يتفوق على المنافسين المماثلين وحتى على نماذج غير مقطرة قوية مثل Midjourney v6.0 وDALL-E 3 (HD). تم ضبطه بدقة للحفاظ على تنوع ما قبل التدريب، مما يحسن بشكل كبير من الجودة البصرية، واتباع التعليمات، وتنوع الحجم/النسبة، والتعامل مع الخطوط، وتنوع المخرجات.",
|
|
493
|
+
"flux.1-schnell.description": "FLUX.1-schnell هو نموذج توليد صور عالي الأداء لإخراج أنماط متعددة بسرعة.",
|
|
494
|
+
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) يوفر أداءً مستقرًا وقابلًا للضبط للمهام المعقدة.",
|
|
495
|
+
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) يوفر دعمًا متعدد الوسائط قويًا للمهام المعقدة.",
|
|
496
|
+
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro هو نموذج ذكاء اصطناعي عالي الأداء من Google مصمم لتوسيع نطاق المهام.",
|
|
497
|
+
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 هو نموذج متعدد الوسائط فعال لتوسيع التطبيقات على نطاق واسع.",
|
|
498
|
+
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 هو نموذج متعدد الوسائط فعال مصمم للنشر الواسع.",
|
|
499
|
+
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 هو أحدث نموذج تجريبي يحقق مكاسب ملحوظة في استخدامات النص والمتعدد الوسائط.",
|
|
500
|
+
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B هو نموذج متعدد الوسائط فعال مصمم للنشر الواسع.",
|
|
501
|
+
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B هو نموذج متعدد الوسائط فعال لتوسيع التطبيقات على نطاق واسع.",
|
|
502
|
+
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 يقدم معالجة متعددة الوسائط محسّنة للمهام المعقدة.",
|
|
503
|
+
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash هو أحدث نموذج ذكاء اصطناعي متعدد الوسائط من Google يتميز بسرعة المعالجة ويدعم إدخال النصوص والصور والفيديو لتوسيع المهام بكفاءة.",
|
|
504
|
+
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 هو حل ذكاء اصطناعي متعدد الوسائط قابل للتوسع للمهام المعقدة.",
|
|
505
|
+
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 هو أحدث نموذج جاهز للإنتاج بجودة إخراج أعلى، خاصة في الرياضيات والسياقات الطويلة ومهام الرؤية.",
|
|
506
|
+
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 يوفر معالجة متعددة الوسائط قوية مع مرونة أكبر لتطوير التطبيقات.",
|
|
507
|
+
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 يطبق أحدث التحسينات لمعالجة متعددة الوسائط أكثر كفاءة.",
|
|
508
|
+
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro يدعم ما يصل إلى 2 مليون رمز، وهو نموذج متعدد الوسائط متوسط الحجم مثالي للمهام المعقدة.",
|
|
509
|
+
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash يقدم ميزات الجيل التالي بما في ذلك السرعة الاستثنائية، استخدام الأدوات الأصلية، التوليد المتعدد الوسائط، ونافذة سياق تصل إلى مليون رمز.",
|
|
510
|
+
"gemini-2.0-flash-exp-image-generation.description": "نموذج تجريبي من Gemini 2.0 Flash يدعم توليد الصور.",
|
|
511
|
+
"gemini-2.0-flash-exp.description": "إصدار من Gemini 2.0 Flash محسن لتقليل التكاليف وتقليل زمن الاستجابة.",
|
|
512
|
+
"gemini-2.0-flash-lite-001.description": "إصدار من Gemini 2.0 Flash محسن لتقليل التكاليف وتقليل زمن الاستجابة.",
|
|
513
|
+
"gemini-2.0-flash-lite.description": "إصدار من Gemini 2.0 Flash محسن لتقليل التكاليف وتقليل زمن الاستجابة.",
|
|
514
|
+
"gemini-2.0-flash.description": "Gemini 2.0 Flash يقدم ميزات الجيل التالي بما في ذلك السرعة الاستثنائية، استخدام الأدوات الأصلية، التوليد المتعدد الوسائط، ونافذة سياق تصل إلى مليون رمز.",
|
|
474
515
|
"meta.llama3-8b-instruct-v1:0.description": "ميتا لاما 3 هو نموذج لغوي مفتوح المصدر مخصص للمطورين والباحثين والشركات، صُمم لمساعدتهم في بناء أفكار الذكاء الاصطناعي التوليدي، وتجربتها، وتوسيع نطاقها بشكل مسؤول. يُعد جزءًا من البنية التحتية للابتكار المجتمعي العالمي، وهو مناسب للبيئات ذات الموارد المحدودة، والأجهزة الطرفية، وأوقات التدريب الأسرع.",
|
|
475
516
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "قدرات قوية في الاستدلال الصوري على الصور عالية الدقة، مناسب لتطبيقات الفهم البصري.",
|
|
476
517
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال صوري متقدم لتطبيقات الوكلاء المعتمدين على الفهم البصري.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "منظمة مفتوحة المصدر تركز على أبحاث النماذج الكبيرة والأدوات، وتوفر منصة فعالة وسهلة الاستخدام تتيح الوصول إلى أحدث النماذج والخوارزميات.",
|
|
30
30
|
"jina.description": "تأسست Jina AI في عام 2020، وهي شركة رائدة في مجال البحث الذكي. تشمل تقنياتها نماذج المتجهات، ومعيدو الترتيب، ونماذج لغوية صغيرة لبناء تطبيقات بحث توليدية ومتعددة الوسائط عالية الجودة.",
|
|
31
31
|
"lmstudio.description": "LM Studio هو تطبيق سطح مكتب لتطوير وتجربة النماذج اللغوية الكبيرة على جهازك.",
|
|
32
|
-
"lobehub.description": "تستخدم LobeHub Cloud واجهات برمجة التطبيقات الرسمية للوصول إلى نماذج الذكاء الاصطناعي، وتقيس الاستخدام من خلال الأرصدة المرتبطة برموز النماذج.",
|
|
33
32
|
"minimax.description": "تأسست MiniMax في عام 2021، وتبني نماذج ذكاء اصطناعي متعددة الوسائط للأغراض العامة، بما في ذلك نماذج نصية بمليارات المعلمات، ونماذج صوتية وبصرية، بالإضافة إلى تطبيقات مثل Hailuo AI.",
|
|
34
33
|
"mistral.description": "تقدم Mistral نماذج متقدمة عامة ومتخصصة وبحثية للتفكير المعقد، والمهام متعددة اللغات، وتوليد الأكواد، مع دعم استدعاء الوظائف للتكامل المخصص.",
|
|
35
34
|
"modelscope.description": "ModelScope هي منصة نماذج كخدمة من Alibaba Cloud، تقدم مجموعة واسعة من النماذج وخدمات الاستدلال.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, комбиниращ силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic,
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic. В сравнение с Claude 3 Haiku, той показва подобрение в различни умения и надминава предишния най-голям модел Claude 3 Opus в много интелигентни бенчмаркове.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku осигурява бързи отговори за леки задачи.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара. Той може да генерира почти мигновени отговори или разширено поетапно разсъждение, което потребителите могат да проследят. Sonnet е особено силен в програмиране, анализ на данни, визуални задачи и задачи за агенти.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, осигурявайки висока полезност на по-ниска цена и надеждно мащабно внедряване.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic,
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic, с мълниеносна скорост и разширено разсъждение.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за силно комплексни задачи,
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за силно комплексни задачи, отличаващ се с висока производителност, интелигентност, плавност и разбиране.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 е флагманският модел на Anthropic, комбиниращ изключителна интелигентност с мащабируема производителност, идеален за сложни задачи, изискващи най-висококачествени отговори и разсъждение.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 може да генерира почти мигновени отговори или разширено поетапно мислене с видим процес.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic досега.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 е мощен AI асистент за програмиране, който поддържа многоезични въпроси и допълване на код, повишавайки продуктивността на разработчиците.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B е многоезичен модел за генериране на код, който поддържа допълване и създаване на код, интерпретиране, уеб търсене, извикване на функции и въпроси на ниво хранилище. Подходящ е за широк спектър от софтуерни сценарии и е водещ модел под 10 милиарда параметри.",
|
|
@@ -355,7 +355,6 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 е MoE модел за визия и език, базиран на DeepSeekMoE-27B със слаба активация, постигайки висока производителност с едва 4.5 милиарда активни параметъра. Отличава се в визуални въпроси и отговори, OCR, разбиране на документи/таблици/графики и визуално привързване.",
|
|
358
|
-
"deepseek-chat.description": "DeepSeek V3.2 балансира разсъждение и дължина на изхода за ежедневни въпроси и задачи на агенти. Публичните бенчмаркове достигат нивата на GPT-5, като това е първият модел, който интегрира мислене в използването на инструменти, водещ в оценките на отворените агенти.",
|
|
359
358
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.",
|
|
360
359
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
|
|
361
360
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
|
|
@@ -378,7 +377,6 @@
|
|
|
378
377
|
"deepseek-r1-fast-online.description": "Пълна бърза версия на DeepSeek R1 с търсене в реално време в уеб, комбинираща възможности от мащаб 671B и по-бърз отговор.",
|
|
379
378
|
"deepseek-r1-online.description": "Пълна версия на DeepSeek R1 с 671 милиарда параметъра и търсене в реално време в уеб, предлагаща по-силно разбиране и генериране.",
|
|
380
379
|
"deepseek-r1.description": "DeepSeek-R1 използва данни от студен старт преди подсиленото обучение и се представя наравно с OpenAI-o1 в математика, програмиране и разсъждение.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking е дълбок модел за разсъждение, който генерира верига от мисли преди отговорите за по-висока точност, с водещи резултати в състезания и разсъждение, сравнимо с Gemini-3.0-Pro.",
|
|
382
380
|
"deepseek-v2.description": "DeepSeek V2 е ефективен MoE модел за икономична обработка.",
|
|
383
381
|
"deepseek-v2:236b.description": "DeepSeek V2 236B е модел на DeepSeek, фокусиран върху програмиране, с висока производителност при генериране на код.",
|
|
384
382
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 е MoE модел с 671 милиарда параметъра, с изключителни способности в програмиране, технически задачи, разбиране на контекст и обработка на дълги текстове.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Open-source организация, фокусирана върху изследвания и инструменти за големи модели, предоставяща ефективна и лесна за използване платформа за достъп до водещи модели и алгоритми.",
|
|
30
30
|
"jina.description": "Основана през 2020 г., Jina AI е водеща компания в областта на търсещия AI. Технологичният ѝ стек включва векторни модели, преоценители и малки езикови модели за създаване на надеждни генеративни и мултимодални търсещи приложения.",
|
|
31
31
|
"lmstudio.description": "LM Studio е десктоп приложение за разработка и експериментиране с LLM на вашия компютър.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud използва официални API интерфейси за достъп до AI модели и измерва използването чрез Кредити, обвързани с токени на модела.",
|
|
33
32
|
"minimax.description": "Основана през 2021 г., MiniMax създава универсален AI с мултимодални базови модели, включително текстови модели с трилиони параметри, речеви и визуални модели, както и приложения като Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral предлага усъвършенствани универсални, специализирани и изследователски модели за сложни разсъждения, многоезични задачи и генериране на код, с извикване на функции за персонализирани интеграции.",
|
|
35
34
|
"modelscope.description": "ModelScope е платформа на Alibaba Cloud за модели като услуга, предлагаща широка гама от AI модели и услуги за инференция.",
|