@lobehub/chat 1.115.0 → 1.116.1
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.cursor/rules/add-provider-doc.mdc +183 -0
- package/.env.example +8 -0
- package/.github/workflows/claude.yml +1 -1
- package/.github/workflows/release.yml +3 -3
- package/.github/workflows/test.yml +3 -7
- package/CHANGELOG.md +42 -0
- package/CLAUDE.md +6 -6
- package/Dockerfile +5 -1
- package/Dockerfile.database +5 -1
- package/Dockerfile.pglite +5 -1
- package/changelog/v1.json +14 -0
- package/docs/development/basic/setup-development.mdx +10 -13
- package/docs/development/basic/setup-development.zh-CN.mdx +9 -12
- package/docs/development/database-schema.dbml +44 -0
- package/docs/self-hosting/environment-variables/model-provider.mdx +27 -2
- package/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx +27 -2
- package/docs/usage/providers/bfl.mdx +68 -0
- package/docs/usage/providers/bfl.zh-CN.mdx +67 -0
- package/locales/ar/components.json +11 -0
- package/locales/ar/error.json +11 -0
- package/locales/ar/models.json +64 -4
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/components.json +11 -0
- package/locales/bg-BG/error.json +11 -0
- package/locales/bg-BG/models.json +64 -4
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/components.json +11 -0
- package/locales/de-DE/error.json +11 -12
- package/locales/de-DE/models.json +64 -4
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/components.json +6 -0
- package/locales/en-US/error.json +11 -12
- package/locales/en-US/models.json +64 -4
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/components.json +11 -0
- package/locales/es-ES/error.json +11 -0
- package/locales/es-ES/models.json +64 -6
- package/locales/es-ES/providers.json +3 -0
- package/locales/fa-IR/components.json +11 -0
- package/locales/fa-IR/error.json +11 -0
- package/locales/fa-IR/models.json +64 -4
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fr-FR/components.json +11 -0
- package/locales/fr-FR/error.json +11 -12
- package/locales/fr-FR/models.json +64 -4
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/components.json +11 -0
- package/locales/it-IT/error.json +11 -0
- package/locales/it-IT/models.json +64 -4
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/components.json +11 -0
- package/locales/ja-JP/error.json +11 -12
- package/locales/ja-JP/models.json +64 -4
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/components.json +11 -0
- package/locales/ko-KR/error.json +11 -12
- package/locales/ko-KR/models.json +64 -6
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/components.json +11 -0
- package/locales/nl-NL/error.json +11 -0
- package/locales/nl-NL/models.json +62 -4
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/components.json +11 -0
- package/locales/pl-PL/error.json +11 -0
- package/locales/pl-PL/models.json +64 -4
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/components.json +11 -0
- package/locales/pt-BR/error.json +11 -0
- package/locales/pt-BR/models.json +64 -4
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/components.json +11 -0
- package/locales/ru-RU/error.json +11 -0
- package/locales/ru-RU/models.json +64 -4
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/components.json +11 -0
- package/locales/tr-TR/error.json +11 -0
- package/locales/tr-TR/models.json +64 -4
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/components.json +11 -0
- package/locales/vi-VN/error.json +11 -0
- package/locales/vi-VN/models.json +64 -4
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/components.json +6 -0
- package/locales/zh-CN/error.json +11 -0
- package/locales/zh-CN/models.json +64 -4
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/components.json +11 -0
- package/locales/zh-TW/error.json +11 -12
- package/locales/zh-TW/models.json +64 -6
- package/locales/zh-TW/providers.json +3 -0
- package/package.json +1 -1
- package/packages/database/migrations/0030_add_group_chat.sql +36 -0
- package/packages/database/migrations/meta/0030_snapshot.json +6417 -0
- package/packages/database/migrations/meta/_journal.json +7 -0
- package/packages/database/src/core/migrations.json +19 -0
- package/packages/database/src/models/__tests__/topic.test.ts +3 -1
- package/packages/database/src/repositories/tableViewer/index.test.ts +1 -1
- package/packages/database/src/schemas/chatGroup.ts +98 -0
- package/packages/database/src/schemas/index.ts +1 -0
- package/packages/database/src/schemas/message.ts +4 -1
- package/packages/database/src/schemas/relations.ts +26 -0
- package/packages/database/src/schemas/topic.ts +2 -0
- package/packages/database/src/types/chatGroup.ts +9 -0
- package/packages/database/src/utils/idGenerator.ts +1 -0
- package/packages/model-runtime/src/google/index.ts +3 -0
- package/packages/model-runtime/src/qwen/createImage.test.ts +0 -19
- package/packages/model-runtime/src/qwen/createImage.ts +1 -27
- package/packages/model-runtime/src/utils/modelParse.ts +17 -8
- package/packages/model-runtime/src/utils/streams/google-ai.ts +26 -14
- package/packages/types/src/aiModel.ts +2 -1
- package/src/config/aiModels/google.ts +22 -1
- package/src/config/aiModels/qwen.ts +2 -2
- package/src/config/aiModels/vertexai.ts +22 -0
- package/src/features/FileViewer/Renderer/PDF/index.tsx +2 -2
- package/.cursor/rules/debug.mdc +0 -193
@@ -0,0 +1,68 @@
|
|
1
|
+
---
|
2
|
+
title: Using Black Forest Labs API Key in LobeChat
|
3
|
+
description: >-
|
4
|
+
Learn how to integrate Black Forest Labs API Key in LobeChat for AI image generation using advanced models and high-quality output.
|
5
|
+
|
6
|
+
tags:
|
7
|
+
- Black Forest Labs
|
8
|
+
- Image Generation
|
9
|
+
- API Key
|
10
|
+
- Web UI
|
11
|
+
---
|
12
|
+
|
13
|
+
# Using Black Forest Labs in LobeChat
|
14
|
+
|
15
|
+
<Image alt={'Using Black Forest Labs in LobeChat'} cover src={'https://hub-apac-1.lobeobjects.space/docs/c7274a5b037227f042ad7558f535b5ea.png'} />
|
16
|
+
|
17
|
+
[Black Forest Labs](https://bfl.ai/) is currently the world's top-tier AI image generation research lab, having developed the FLUX series of high-quality image generation models and the FLUX Kontext series of image editing models. This document will guide you on how to use Black Forest Labs in LobeChat:
|
18
|
+
|
19
|
+
<Steps>
|
20
|
+
### Step 1: Obtain Black Forest Labs API Key
|
21
|
+
|
22
|
+
- Register for a [Black Forest Labs account](https://auth.bfl.ai/).
|
23
|
+
- Navigate to the [API Keys dashboard](https://dashboard.bfl.ai/api/keys) and click **Add Key** to generate a new API key.
|
24
|
+
- Copy the generated API key and keep it secure; it will only be shown once.
|
25
|
+
|
26
|
+
<Image
|
27
|
+
alt={'Open the API dashboard'}
|
28
|
+
inStep
|
29
|
+
src={
|
30
|
+
'https://hub-apac-1.lobeobjects.space/docs/36331f581e36a72ba91fb6c1dacbedd4.png'
|
31
|
+
}
|
32
|
+
/>
|
33
|
+
|
34
|
+
<Image
|
35
|
+
alt={'Create API Key'}
|
36
|
+
inStep
|
37
|
+
src={
|
38
|
+
'https://hub-apac-1.lobeobjects.space/docs/3049ad79746bf913d1b2736cfe1d38fa.png'
|
39
|
+
}
|
40
|
+
/>
|
41
|
+
|
42
|
+
<Image
|
43
|
+
alt={'Retrieve API Key'}
|
44
|
+
inStep
|
45
|
+
src={
|
46
|
+
'https://hub-apac-1.lobeobjects.space/docs/33143deb04f2a0cdb2fd543ff8161633.png'
|
47
|
+
}
|
48
|
+
/>
|
49
|
+
|
50
|
+
### Step 2: Configure Black Forest Labs in LobeChat
|
51
|
+
|
52
|
+
- Visit the `Settings` page in LobeChat.
|
53
|
+
- Under **AI Service Provider**, locate the **Black Forest Labs** configuration section.
|
54
|
+
|
55
|
+
<Image alt={'Enter API Key'} inStep src={'https://hub-apac-1.lobeobjects.space/docs/4fe1993d94fad72829612d22527a2ecd.png'} />
|
56
|
+
|
57
|
+
- Paste the API key you obtained.
|
58
|
+
- Choose a Black Forest Labs model for image generation.
|
59
|
+
|
60
|
+
<Image alt={'Select Black Forest Labs model for image generation'} inStep src={'https://hub-apac-1.lobeobjects.space/docs/7a6dfdb1a1bdd5443104a6d2cb3a8bf4.png'} />
|
61
|
+
|
62
|
+
<Callout type={'warning'}>
|
63
|
+
During usage, you may incur charges according to Black Forest Labs's pricing policy. Please review Black Forest Labs's
|
64
|
+
official pricing before heavy usage.
|
65
|
+
</Callout>
|
66
|
+
</Steps>
|
67
|
+
|
68
|
+
You can now use Black Forest Labs's advanced image generation models directly within LobeChat to create stunning visual content.
|
@@ -0,0 +1,67 @@
|
|
1
|
+
---
|
2
|
+
title: 在 LobeChat 中使用 Black Forest Labs API Key
|
3
|
+
description: >-
|
4
|
+
学习如何在 LobeChat 中配置和使用 Black Forest Labs API Key,使用先进模型进行高质量 AI 图像生成。
|
5
|
+
|
6
|
+
tags:
|
7
|
+
- Black Forest Labs
|
8
|
+
- 图像生成
|
9
|
+
- API Key
|
10
|
+
- Web UI
|
11
|
+
---
|
12
|
+
|
13
|
+
# 在 LobeChat 中使用 Black Forest Labs
|
14
|
+
|
15
|
+
<Image alt={'在 LobeChat 中使用 Black Forest Labs'} cover src={'https://hub-apac-1.lobeobjects.space/docs/c7274a5b037227f042ad7558f535b5ea.png'} />
|
16
|
+
|
17
|
+
[Black Forest Labs](https://bfl.ai/) 是当前世界最顶级的 AI 图像生成实验室团队,研发了 FLUX 系列高质量图像生成模型,FLUX Kontext 系列图像编辑模型。本文将指导你如何在 LobeChat 中使用 Black Forest Labs:
|
18
|
+
|
19
|
+
<Steps>
|
20
|
+
### 步骤一:获取 Black Forest Labs API Key
|
21
|
+
|
22
|
+
- 注册 [Black Forest Labs](https://auth.bfl.ai/) 账户;
|
23
|
+
- 前往 [API Keys 控制台](https://dashboard.bfl.ai/api/keys),点击 **Add Key** 创建新的 API 密钥;
|
24
|
+
- 复制生成的 API Key 并妥善保存,它只会显示一次。
|
25
|
+
|
26
|
+
<Image
|
27
|
+
alt={'打开 API 控制台'}
|
28
|
+
inStep
|
29
|
+
src={
|
30
|
+
'https://hub-apac-1.lobeobjects.space/docs/36331f581e36a72ba91fb6c1dacbedd4.png'
|
31
|
+
}
|
32
|
+
/>
|
33
|
+
|
34
|
+
<Image
|
35
|
+
alt={'创建 API Key'}
|
36
|
+
inStep
|
37
|
+
src={
|
38
|
+
'https://hub-apac-1.lobeobjects.space/docs/3049ad79746bf913d1b2736cfe1d38fa.png'
|
39
|
+
}
|
40
|
+
/>
|
41
|
+
|
42
|
+
<Image
|
43
|
+
alt={'获取 API Key'}
|
44
|
+
inStep
|
45
|
+
src={
|
46
|
+
'https://hub-apac-1.lobeobjects.space/docs/33143deb04f2a0cdb2fd543ff8161633.png'
|
47
|
+
}
|
48
|
+
/>
|
49
|
+
|
50
|
+
### 步骤二:在 LobeChat 中配置 Black Forest Labs
|
51
|
+
|
52
|
+
- 访问 LobeChat 的 `设置` 页面;
|
53
|
+
- 在 `AI服务商` 下找到 `Black Forest Labs` 的设置项;
|
54
|
+
|
55
|
+
<Image alt={'填入 API 密钥'} inStep src={'https://hub-apac-1.lobeobjects.space/docs/4fe1993d94fad72829612d22527a2ecd.png'} />
|
56
|
+
|
57
|
+
- 粘贴获取到的 API Key;
|
58
|
+
- 选择一个 Black Forest Labs 模型用于图像生成。
|
59
|
+
|
60
|
+
<Image alt={'选择 Black Forest Labs 模型进行图像生成'} inStep src={'https://hub-apac-1.lobeobjects.space/docs/7a6dfdb1a1bdd5443104a6d2cb3a8bf4.png'} />
|
61
|
+
|
62
|
+
<Callout type={'warning'}>
|
63
|
+
在使用过程中,你可能需要向 Black Forest Labs 支付相应费用,请在大量调用前查阅 Black Forest Labs 的官方计费政策。
|
64
|
+
</Callout>
|
65
|
+
</Steps>
|
66
|
+
|
67
|
+
至此,你已经可以在 LobeChat 中使用 Black Forest Labs 提供的先进图像生成模型来创作精美的视觉内容了。
|
@@ -1,4 +1,9 @@
|
|
1
1
|
{
|
2
|
+
"ArgsInput": {
|
3
|
+
"addArgument": "إضافة معامل",
|
4
|
+
"argumentPlaceholder": "المعامل {{index}}",
|
5
|
+
"enterFirstArgument": "أدخل المعامل الأول..."
|
6
|
+
},
|
2
7
|
"DragUpload": {
|
3
8
|
"dragDesc": "اسحب الملفات هنا، يدعم تحميل عدة صور.",
|
4
9
|
"dragFileDesc": "اسحب الصور والملفات هنا، يدعم تحميل عدة صور وملفات.",
|
@@ -125,6 +130,12 @@
|
|
125
130
|
},
|
126
131
|
"progress": {
|
127
132
|
"uploadingWithCount": "تم تحميل {{completed}} من أصل {{total}}"
|
133
|
+
},
|
134
|
+
"validation": {
|
135
|
+
"fileSizeExceeded": "تجاوز حجم الملف الحد المسموح به",
|
136
|
+
"fileSizeExceededDetail": "{{fileName}} ({{actualSize}}) يتجاوز الحد الأقصى للحجم وهو {{maxSize}}",
|
137
|
+
"fileSizeExceededMultiple": "{{count}} من الملفات تتجاوز الحد الأقصى للحجم {{maxSize}}: {{fileList}}",
|
138
|
+
"imageCountExceeded": "تجاوز عدد الصور الحد المسموح به"
|
128
139
|
}
|
129
140
|
},
|
130
141
|
"OllamaSetupGuide": {
|
package/locales/ar/error.json
CHANGED
@@ -85,6 +85,17 @@
|
|
85
85
|
"CreateMessageError": "عذرًا، لم يتم إرسال الرسالة بشكل صحيح، يرجى نسخ المحتوى وإعادة إرساله، بعد تحديث الصفحة لن يتم الاحتفاظ بهذه الرسالة",
|
86
86
|
"ExceededContextWindow": "المحتوى المطلوب الحالي يتجاوز الطول الذي يمكن للنموذج معالجته، يرجى تقليل كمية المحتوى ثم إعادة المحاولة",
|
87
87
|
"FreePlanLimit": "أنت حاليًا مستخدم مجاني، لا يمكنك استخدام هذه الوظيفة، يرجى الترقية إلى خطة مدفوعة للمتابعة",
|
88
|
+
"GoogleAIBlockReason": {
|
89
|
+
"BLOCKLIST": "يحتوي محتواك على كلمات محظورة. الرجاء التحقق من مدخلاتك وتعديلها ثم المحاولة مرة أخرى.",
|
90
|
+
"IMAGE_SAFETY": "تم حظر المحتوى الصوري لأسباب تتعلق بالسلامة. يرجى محاولة تعديل طلب إنشاء الصورة.",
|
91
|
+
"LANGUAGE": "اللغة التي استخدمتها غير مدعومة حالياً. يرجى المحاولة مرة أخرى باستخدام الإنجليزية أو إحدى اللغات المدعومة.",
|
92
|
+
"OTHER": "تم حظر المحتوى لسبب غير معروف. يرجى محاولة إعادة صياغة طلبك.",
|
93
|
+
"PROHIBITED_CONTENT": "قد يحتوي طلبك على محتوى محظور. يرجى تعديل طلبك والتأكد من أن المحتوى يلتزم بسياسات الاستخدام.",
|
94
|
+
"RECITATION": "تم حظر المحتوى لأنه قد ينطوي على مسائل حقوق نشر. يرجى محاولة استخدام محتوى أصلي أو إعادة صياغة طلبك.",
|
95
|
+
"SAFETY": "تم حظر المحتوى بسبب سياسات الأمان. يرجى محاولة تعديل طلبك وتجنب تضمين محتوى قد يكون ضاراً أو غير مناسب.",
|
96
|
+
"SPII": "قد يحتوي محتواك على معلومات شخصية حساسة. لحماية الخصوصية، يرجى إزالة المعلومات الحساسة ثم المحاولة مرة أخرى.",
|
97
|
+
"default": "تم حظر المحتوى: {{blockReason}}。请调整您的请求内容后重试。"
|
98
|
+
},
|
88
99
|
"InsufficientQuota": "عذرًا، لقد reached الحد الأقصى للحصة (quota) لهذه المفتاح، يرجى التحقق من رصيد الحساب الخاص بك أو زيادة حصة المفتاح ثم المحاولة مرة أخرى",
|
89
100
|
"InvalidAccessCode": "كلمة المرور غير صحيحة أو فارغة، يرجى إدخال كلمة مرور الوصول الصحيحة أو إضافة مفتاح API مخصص",
|
90
101
|
"InvalidBedrockCredentials": "فشلت مصادقة Bedrock، يرجى التحقق من AccessKeyId/SecretAccessKey وإعادة المحاولة",
|
package/locales/ar/models.json
CHANGED
@@ -332,12 +332,21 @@
|
|
332
332
|
"Qwen/Qwen3-30B-A3B-Instruct-2507": {
|
333
333
|
"description": "Qwen3-30B-A3B-Instruct-2507 هو نسخة محدثة من Qwen3-30B-A3B في وضع عدم التفكير. هذا نموذج خبير مختلط (MoE) يحتوي على 30.5 مليار معلمة إجمالية و3.3 مليار معلمة تنشيط. تم تعزيز النموذج بشكل كبير في عدة جوانب، بما في ذلك تحسين كبير في الالتزام بالتعليمات، والتفكير المنطقي، وفهم النصوص، والرياضيات، والعلوم، والبرمجة، واستخدام الأدوات. كما حقق تقدمًا ملموسًا في تغطية المعرفة متعددة اللغات، ويستطيع التوافق بشكل أفضل مع تفضيلات المستخدم في المهام الذاتية والمفتوحة، مما يمكنه من توليد ردود أكثر فائدة ونصوص ذات جودة أعلى. بالإضافة إلى ذلك، تم تعزيز قدرة النموذج على فهم النصوص الطويلة إلى 256 ألف رمز. هذا النموذج يدعم فقط وضع عدم التفكير، ولن ينتج علامات `<think></think>` في مخرجاته."
|
334
334
|
},
|
335
|
+
"Qwen/Qwen3-30B-A3B-Thinking-2507": {
|
336
|
+
"description": "Qwen3-30B-A3B-Thinking-2507 هو أحدث نموذج من سلسلة Qwen3 أصدره فريق Tongyi Qianwen في علي بابا. كنموذج خبير مختلط (MoE) يضم إجمالي 305 亿 (30.5 مليار) معلمة و33 亿 (3.3 مليار) معلمة تنشيط، يركز على تعزيز قدرة معالجة المهام المعقدة. أظهر هذا النموذج تحسناً ملحوظاً في الاستدلال المنطقي والرياضيات والعلوم والبرمجة والاختبارات المعيارية الأكاديمية التي تتطلب خبرة بشرية متخصصة. وفي الوقت نفسه، تحسنت قدراته العامة بشكل كبير في الالتزام بالتعليمات واستخدام الأدوات وتوليد النصوص ومحاذاة التفضيلات البشرية. يدعم النموذج أصلاً فهم سياق طويل بطول 256K وقابل للتوسع ليصل إلى مليون توكن. تم تصميم هذا الإصدار لوضع \"التفكير\"، ويهدف إلى حل المهام شديدة التعقيد من خلال استدلال تفصيلي خطوة بخطوة، كما برزت قدرات الوكلاء (Agent) فيه بشكل مميز."
|
337
|
+
},
|
335
338
|
"Qwen/Qwen3-32B": {
|
336
339
|
"description": "Qwen3 هو نموذج جديد من الجيل التالي مع تحسينات كبيرة في القدرات، حيث يصل إلى مستويات رائدة في الاستدلال، المهام العامة، الوكلاء، واللغات المتعددة، ويدعم تبديل وضع التفكير."
|
337
340
|
},
|
338
341
|
"Qwen/Qwen3-8B": {
|
339
342
|
"description": "Qwen3 هو نموذج جديد من الجيل التالي مع تحسينات كبيرة في القدرات، حيث يصل إلى مستويات رائدة في الاستدلال، المهام العامة، الوكلاء، واللغات المتعددة، ويدعم تبديل وضع التفكير."
|
340
343
|
},
|
344
|
+
"Qwen/Qwen3-Coder-30B-A3B-Instruct": {
|
345
|
+
"description": "Qwen3-Coder-30B-A3B-Instruct هو نموذج شيفرة من سلسلة Qwen3 طوّرته فريق Tongyi Qianwen التابع لشركة علي بابا. كنموذج مُبسّط ومُحسّن، يركز على تعزيز قدرات معالجة الشيفرة مع الحفاظ على أداء وكفاءة عاليتين. يُظهر هذا النموذج مزايا أداء بارزة بين النماذج مفتوحة المصدر في مهام معقدة مثل البرمجة الوكِيلية (Agentic Coding)، التشغيل الآلي لمتصفحات الويب واستدعاء الأدوات. يدعم النموذج بطبيعته سياقاً طويلاً يصل إلى 256K توكن، وقابلاً للتوسيع حتى 1M توكن، مما يتيح فهماً ومعالجة أفضل على مستوى مستودعات الشيفرة. بالإضافة إلى ذلك، يوفر النموذج دعماً قوياً للترميز الوكيل على منصات مثل Qwen Code وCLINE، وقد صُمّم بصيغة استدعاء دوال مخصّصة."
|
346
|
+
},
|
347
|
+
"Qwen/Qwen3-Coder-480B-A35B-Instruct": {
|
348
|
+
"description": "Qwen3-Coder-480B-A35B-Instruct هو نموذج برمجي أطلقته شركة علي بابا، ويعد حتى الآن الأكثر قدرةً على العمل كوكيل (Agentic). إنه نموذج مختلط الخبراء (Mixture-of-Experts, MoE) يضم 480 مليار معامل إجماليًا و35 مليار معامل نشط، محققًا توازنًا بين الكفاءة والأداء. يدعم النموذج بشكل أصلي طول سياق يصل إلى 256K (حوالي 260 ألف) توكن، ويمكن توسيعه عبر طرق استطراد مثل YaRN إلى مليون توكن، ممّا يمكّنه من التعامل مع مستودعات شفرة ضخمة ومهام برمجية معقّدة. صُمم Qwen3-Coder لسير عمل ترميز يعتمد على الوكلاء؛ فهو لا يولّد الشفرة فحسب، بل يتفاعل بشكلٍ مستقل مع أدوات وبيئات التطوير لحل مشكلات برمجية معقّدة. في اختبارات معيارية متعددة لمهام التكويد والوكالة، حقق النموذج مستوى متقدمًا بين النماذج مفتوحة المصدر، ويمكن أن ينافس نماذج رائدة مثل Claude Sonnet 4."
|
349
|
+
},
|
341
350
|
"Qwen2-72B-Instruct": {
|
342
351
|
"description": "Qwen2 هو أحدث سلسلة من نموذج Qwen، ويدعم سياقًا يصل إلى 128 ألف، مقارنةً بأفضل النماذج مفتوحة المصدر الحالية، يتفوق Qwen2-72B بشكل ملحوظ في فهم اللغة الطبيعية والمعرفة والترميز والرياضيات والقدرات متعددة اللغات."
|
343
352
|
},
|
@@ -1103,12 +1112,27 @@
|
|
1103
1112
|
"flux-dev": {
|
1104
1113
|
"description": "FLUX.1 [dev] هو نموذج مفتوح المصدر للأوزان المكررة موجه للتطبيقات غير التجارية. يحافظ على جودة الصور وقدرة اتباع التعليمات مماثلة لإصدار FLUX الاحترافي، مع كفاءة تشغيل أعلى. مقارنة بالنماذج القياسية ذات الحجم المماثل، يستخدم الموارد بشكل أكثر فعالية."
|
1105
1114
|
},
|
1115
|
+
"flux-kontext-max": {
|
1116
|
+
"description": "توليد وتحرير الصور السياقية بأحدث التقنيات — يجمع بين النص والصور لتحقيق نتائج دقيقة ومتسقة."
|
1117
|
+
},
|
1118
|
+
"flux-kontext-pro": {
|
1119
|
+
"description": "توليد وتحرير الصور السياقية بأحدث التقنيات — يجمع بين النص والصورة للحصول على نتائج دقيقة ومتسقة."
|
1120
|
+
},
|
1106
1121
|
"flux-kontext/dev": {
|
1107
1122
|
"description": "نموذج FLUX.1 مخصص لمهام تحرير الصور، يدعم إدخال النصوص والصور."
|
1108
1123
|
},
|
1109
1124
|
"flux-merged": {
|
1110
1125
|
"description": "نموذج FLUX.1-merged يجمع بين ميزات العمق التي استكشفتها نسخة \"DEV\" أثناء التطوير ومزايا التنفيذ السريع التي تمثلها نسخة \"Schnell\". من خلال هذا الدمج، يعزز FLUX.1-merged حدود أداء النموذج ويوسع نطاق تطبيقاته."
|
1111
1126
|
},
|
1127
|
+
"flux-pro": {
|
1128
|
+
"description": "نموذج توليد صور بالذكاء الاصطناعي من الطراز الأول للاستخدام التجاري — جودة صور لا تضاهى وقدرة عالية على إنتاج مخرجات متنوعة."
|
1129
|
+
},
|
1130
|
+
"flux-pro-1.1": {
|
1131
|
+
"description": "نموذج متقدم احترافي لتوليد الصور بالذكاء الاصطناعي — يوفر جودة صور استثنائية وقدرة دقيقة على الالتزام بالمطالبات."
|
1132
|
+
},
|
1133
|
+
"flux-pro-1.1-ultra": {
|
1134
|
+
"description": "توليد صور بالذكاء الاصطناعي بدقة فائقة — يدعم إخراج يصل إلى 4 ميجابكسل ويولد صورًا فائقة الوضوح خلال 10 ثوانٍ."
|
1135
|
+
},
|
1112
1136
|
"flux-pro/kontext": {
|
1113
1137
|
"description": "FLUX.1 Kontext [pro] قادر على معالجة النصوص والصور المرجعية كمدخلات، مما يتيح تحريرًا محليًا مستهدفًا وتحولات معقدة للمشهد الكلي بسلاسة."
|
1114
1138
|
},
|
@@ -1193,6 +1217,9 @@
|
|
1193
1217
|
"gemini-2.5-flash": {
|
1194
1218
|
"description": "Gemini 2.5 Flash هو نموذج Google الأكثر فعالية من حيث التكلفة، ويوفر وظائف شاملة."
|
1195
1219
|
},
|
1220
|
+
"gemini-2.5-flash-image-preview": {
|
1221
|
+
"description": "Gemini 2.5 Flash Image Preview هو أحدث وأسرع وأكثر كفاءة نموذج متعدد الوسائط أصلي من Google، ويتيح لك إنشاء الصور وتحريرها من خلال المحادثة."
|
1222
|
+
},
|
1196
1223
|
"gemini-2.5-flash-lite": {
|
1197
1224
|
"description": "Gemini 2.5 Flash-Lite هو أصغر وأفضل نموذج من حيث التكلفة من Google، مصمم للاستخدام على نطاق واسع."
|
1198
1225
|
},
|
@@ -1295,6 +1322,9 @@
|
|
1295
1322
|
"glm-4.5-x": {
|
1296
1323
|
"description": "نسخة فائقة السرعة من GLM-4.5، تجمع بين أداء قوي وسرعة توليد تصل إلى 100 رمز في الثانية."
|
1297
1324
|
},
|
1325
|
+
"glm-4.5v": {
|
1326
|
+
"description": "نموذج استدلال بصري من الجيل الجديد لشركة Zhipu مبني على بنية MOE، بإجمالي 106 مليار معامل و12 مليار معامل نشط، وقد بلغ مستوى الأداء الأعلى (SOTA) بين نماذج التعدد الوسائط مفتوحة المصدر المماثلة على مستوى العالم في عدة اختبارات معيارية، ويغطي مهامًا شائعة مثل فهم الصور والفيديو والمستندات وواجهات المستخدم الرسومية (GUI)."
|
1327
|
+
},
|
1298
1328
|
"glm-4v": {
|
1299
1329
|
"description": "GLM-4V يوفر قدرات قوية في فهم الصور والاستدلال، ويدعم مجموعة متنوعة من المهام البصرية."
|
1300
1330
|
},
|
@@ -1434,7 +1464,7 @@
|
|
1434
1464
|
"description": "يوفر GPT-4.1 mini توازنًا بين الذكاء والسرعة والتكلفة، مما يجعله نموذجًا جذابًا للعديد من الاستخدامات."
|
1435
1465
|
},
|
1436
1466
|
"gpt-4.5-preview": {
|
1437
|
-
"description": "
|
1467
|
+
"description": "GPT-4.5-preview هو أحدث نموذج عام متعدد الأغراض، يتمتع بمعرفة عالمية عميقة وفهم محسن لنوايا المستخدم، ويتفوق في المهام الإبداعية وفي تخطيط الوكلاء. معارف هذا النموذج محدّثة حتى أكتوبر 2023."
|
1438
1468
|
},
|
1439
1469
|
"gpt-4o": {
|
1440
1470
|
"description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي للحفاظ على أحدث إصدار. يجمع بين فهم اللغة القوي وقدرات التوليد، مما يجعله مناسبًا لمجموعة واسعة من التطبيقات، بما في ذلك خدمة العملاء والتعليم والدعم الفني."
|
@@ -1637,9 +1667,18 @@
|
|
1637
1667
|
"image-01-live": {
|
1638
1668
|
"description": "نموذج توليد صور يقدم تفاصيل دقيقة، يدعم توليد الصور من النصوص مع إمكانية ضبط الأسلوب الفني."
|
1639
1669
|
},
|
1670
|
+
"imagen-4.0-fast-generate-001": {
|
1671
|
+
"description": "Imagen، سلسلة نماذج تحويل النص إلى صورة من الجيل الرابع، الإصدار السريع"
|
1672
|
+
},
|
1673
|
+
"imagen-4.0-generate-001": {
|
1674
|
+
"description": "سلسلة نماذج Imagen لتحويل النص إلى صورة من الجيل الرابع"
|
1675
|
+
},
|
1640
1676
|
"imagen-4.0-generate-preview-06-06": {
|
1641
1677
|
"description": "سلسلة نموذج Imagen للجيل الرابع لتحويل النص إلى صورة"
|
1642
1678
|
},
|
1679
|
+
"imagen-4.0-ultra-generate-001": {
|
1680
|
+
"description": "سلسلة نماذج Imagen لتحويل النص إلى صورة من الجيل الرابع — إصدار Ultra"
|
1681
|
+
},
|
1643
1682
|
"imagen-4.0-ultra-generate-preview-06-06": {
|
1644
1683
|
"description": "نسخة ألترا من سلسلة نموذج Imagen للجيل الرابع لتحويل النص إلى صورة"
|
1645
1684
|
},
|
@@ -1679,6 +1718,9 @@
|
|
1679
1718
|
"kimi-k2-0711-preview": {
|
1680
1719
|
"description": "kimi-k2 هو نموذج أساسي بمعمارية MoE يتمتع بقدرات فائقة في البرمجة والوكيل، مع إجمالي 1 تريليون معلمة و32 مليار معلمة مفعلة. في اختبارات الأداء الأساسية في مجالات المعرفة العامة، البرمجة، الرياضيات، والوكيل، يتفوق نموذج K2 على النماذج المفتوحة المصدر الرئيسية الأخرى."
|
1681
1720
|
},
|
1721
|
+
"kimi-k2-turbo-preview": {
|
1722
|
+
"description": "kimi-k2 هو نموذج أساسي بمعمارية MoE يتمتع بقدرات قوية للغاية في البرمجة وقدرات الوكيل (Agent)، بإجمالي معلمات يبلغ 1 تريليون والمعلمات المُفعَّلة 32 مليار. في اختبارات الأداء المعيارية للفئات الرئيسية مثل الاستدلال المعرفي العام والبرمجة والرياضيات والوكلاء (Agent)، تفوق أداء نموذج K2 على النماذج المفتوحة المصدر السائدة الأخرى."
|
1723
|
+
},
|
1682
1724
|
"kimi-latest": {
|
1683
1725
|
"description": "يستخدم منتج كيمي المساعد الذكي أحدث نموذج كبير من كيمي، وقد يحتوي على ميزات لم تستقر بعد. يدعم فهم الصور، وسيختار تلقائيًا نموذج 8k/32k/128k كنموذج للتسعير بناءً على طول سياق الطلب."
|
1684
1726
|
},
|
@@ -1763,6 +1805,9 @@
|
|
1763
1805
|
"llava:34b": {
|
1764
1806
|
"description": "LLaVA هو نموذج متعدد الوسائط يجمع بين مشفرات بصرية وVicuna، يستخدم لفهم بصري ولغوي قوي."
|
1765
1807
|
},
|
1808
|
+
"magistral-medium-latest": {
|
1809
|
+
"description": "Magistral Medium 1.1 هو نموذج استدلال رائد أطلقته Mistral AI في يوليو 2025."
|
1810
|
+
},
|
1766
1811
|
"mathstral": {
|
1767
1812
|
"description": "MathΣtral مصمم للبحث العلمي والاستدلال الرياضي، يوفر قدرة حسابية فعالة وتفسير النتائج."
|
1768
1813
|
},
|
@@ -2094,7 +2139,7 @@
|
|
2094
2139
|
"description": "o1-mini هو نموذج استدلال سريع وفعال من حيث التكلفة مصمم لتطبيقات البرمجة والرياضيات والعلوم. يحتوي هذا النموذج على 128K من السياق وتاريخ انتهاء المعرفة في أكتوبر 2023."
|
2095
2140
|
},
|
2096
2141
|
"o1-preview": {
|
2097
|
-
"description": "
|
2142
|
+
"description": "يركّز على الاستدلال المتقدّم وحل المشكلات المعقّدة، بما في ذلك المهام الرياضية والعلمية. مناسب للغاية للتطبيقات التي تتطلّب فهماً عميقاً للسياق وسير عمل مستقل."
|
2098
2143
|
},
|
2099
2144
|
"o1-pro": {
|
2100
2145
|
"description": "نماذج سلسلة o1 مدربة بالتعلم المعزز، قادرة على التفكير قبل الإجابة وتنفيذ مهام استدلال معقدة. يستخدم نموذج o1-pro موارد حسابية أكبر للتفكير الأعمق، مما يضمن تقديم إجابات ذات جودة أعلى باستمرار."
|
@@ -2213,8 +2258,14 @@
|
|
2213
2258
|
"qwen-coder-turbo-latest": {
|
2214
2259
|
"description": "نموذج Qwen للبرمجة."
|
2215
2260
|
},
|
2261
|
+
"qwen-flash": {
|
2262
|
+
"description": "سلسلة Qwen-Flash هي الأسرع والأقل تكلفة بشكل كبير، ومناسبة للمهام البسيطة."
|
2263
|
+
},
|
2216
2264
|
"qwen-image": {
|
2217
|
-
"description": "
|
2265
|
+
"description": "Qwen-Image هي نموذج عام لتوليد الصور يدعم أنماطًا فنية متعددة، ويتميز بقدرته على عرض النصوص المعقدة، خصوصًا النصوص بالصينية والإنجليزية. يدعم النموذج تخطيطات متعددة الأسطر، وتوليد نص على مستوى الفقرات، وتمثيل التفاصيل الدقيقة، مما يتيح إنشاء تصميمات معقدة تمزج بين النص والصورة."
|
2266
|
+
},
|
2267
|
+
"qwen-image-edit": {
|
2268
|
+
"description": "أصدر فريق Qwen نموذجًا احترافيًا لتحرير الصور يدعم التحرير الدلالي وتحرير المظهر، ويستطيع تحرير النصوص بالصينية والإنجليزية بدقة، وتحقيق تحويلات النمط وتدوير الكائنات، وغيرها من عمليات تحرير الصور عالية الجودة."
|
2218
2269
|
},
|
2219
2270
|
"qwen-long": {
|
2220
2271
|
"description": "نموذج Qwen العملاق للغة، يدعم سياقات نصية طويلة، بالإضافة إلى وظائف الحوار المستندة إلى الوثائق الطويلة والعديد من الوثائق."
|
@@ -2241,7 +2292,7 @@
|
|
2241
2292
|
"description": "نموذج لغة ضخم من توغي، نسخة معززة، يدعم إدخال لغات مختلفة مثل الصينية والإنجليزية."
|
2242
2293
|
},
|
2243
2294
|
"qwen-turbo": {
|
2244
|
-
"description": "نموذج
|
2295
|
+
"description": "لن يتم تحديث 通义千问 Turbo مستقبلًا؛ يُنصح باستبداله بـ 通义千问 Flash. 通义千问 هو نموذج لغوي ضخم جدًا ويدعم إدخال لغات مختلفة مثل الصينية والإنجليزية."
|
2245
2296
|
},
|
2246
2297
|
"qwen-vl-chat-v1": {
|
2247
2298
|
"description": "نموذج Qwen العملاق للغة البصرية يدعم طرق تفاعل مرنة، بما في ذلك الصور المتعددة، والأسئلة والأجوبة المتعددة، والإبداع."
|
@@ -2558,9 +2609,15 @@
|
|
2558
2609
|
"step-2x-large": {
|
2559
2610
|
"description": "نموذج الجيل الجديد من Step Star، يركز على مهام توليد الصور، قادر على توليد صور عالية الجودة بناءً على الأوصاف النصية المقدمة من المستخدم. يتميز النموذج الجديد بجودة صور أكثر واقعية وقدرات أفضل في توليد النصوص الصينية والإنجليزية."
|
2560
2611
|
},
|
2612
|
+
"step-3": {
|
2613
|
+
"description": "يمتلك هذا النموذج قدرة فائقة على الإدراك البصري وعلى الاستدلال المعقّد. يمكنه إنجاز فهم دقيق للمعارف المعقّدة عبر مجالات متعدّدة، وإجراء تحليلات تقاطعية بين المعلومات الرياضية والبصرية، وكذلك معالجة مختلف مسائل التحليل البصري في الحياة اليومية."
|
2614
|
+
},
|
2561
2615
|
"step-r1-v-mini": {
|
2562
2616
|
"description": "هذا النموذج هو نموذج استدلال كبير يتمتع بقدرة قوية على فهم الصور، يمكنه معالجة المعلومات النصية والصورية، ويخرج نصوصًا بعد تفكير عميق. يظهر هذا النموذج أداءً بارزًا في مجال الاستدلال البصري، كما يمتلك قدرات رياضية، برمجية، ونصية من الدرجة الأولى. طول السياق هو 100k."
|
2563
2617
|
},
|
2618
|
+
"stepfun-ai/step3": {
|
2619
|
+
"description": "Step3 هو نموذج استدلال متعدد الوسائط متقدم أصدرته شركة 阶跃星辰 (StepFun). بُني على بنية مزيج الخبراء (MoE) التي تضم 321 مليار معلمة إجمالية و38 مليار معلمة تنشيط. صُمم النموذج بنهج من الطرف إلى الطرف ليقلل تكلفة فك الترميز، مع تقديم أداء رائد في الاستدلال البصري-اللغوي. من خلال التصميم التعاوني لآلية انتباه تفكيك متعدد المصفوفات (MFA) وفصل الانتباه عن شبكة التغذية الأمامية (AFD)، يحافظ Step3 على كفاءة ممتازة على كل من المسرعات الرائدة والمسرعات منخفضة التكلفة. في مرحلة ما قبل التدريب عالج Step3 أكثر من 20 تريليون توكن نصي و4 تريليون توكن مختلط نص-صورة، مغطياً أكثر من عشر لغات. حقق النموذج أداءً متقدماً بين نماذج المصدر المفتوح في عدة معايير قياسية تشمل الرياضيات والبرمجة والمهام متعددة الوسائط."
|
2620
|
+
},
|
2564
2621
|
"taichu_llm": {
|
2565
2622
|
"description": "نموذج اللغة الكبير TaiChu يتمتع بقدرات قوية في فهم اللغة، بالإضافة إلى إنشاء النصوص، والإجابة على الأسئلة، وبرمجة الأكواد، والحسابات الرياضية، والاستدلال المنطقي، وتحليل المشاعر، وتلخيص النصوص. يجمع بشكل مبتكر بين التدريب المسبق على البيانات الضخمة والمعرفة الغنية من مصادر متعددة، من خلال تحسين تقنيات الخوارزميات باستمرار واستيعاب المعرفة الجديدة من البيانات النصية الضخمة، مما يحقق تطورًا مستمرًا في أداء النموذج. يوفر للمستخدمين معلومات وخدمات أكثر سهولة وتجربة أكثر ذكاءً."
|
2566
2623
|
},
|
@@ -2707,5 +2764,8 @@
|
|
2707
2764
|
},
|
2708
2765
|
"zai-org/GLM-4.5-Air": {
|
2709
2766
|
"description": "GLM-4.5-Air هو نموذج أساسي مصمم لتطبيقات الوكلاء الذكية، يستخدم بنية Mixture-of-Experts (MoE). تم تحسينه بعمق في مجالات استدعاء الأدوات، تصفح الويب، هندسة البرمجيات، وبرمجة الواجهة الأمامية، ويدعم التكامل السلس مع وكلاء الكود مثل Claude Code وRoo Code. يستخدم وضع استدلال مختلط ليتكيف مع سيناريوهات الاستدلال المعقدة والاستخدام اليومي."
|
2767
|
+
},
|
2768
|
+
"zai-org/GLM-4.5V": {
|
2769
|
+
"description": "GLM-4.5V هو نموذج لغوي بصري (VLM) من الجيل الأحدث صدر عن Zhipu AI (智谱 AI). بُني النموذج على نموذج النص الرائد GLM-4.5-Air الذي يحتوي على 106B من المعاملات الإجمالية و12B من معاملات التنشيط، ويعتمد على بنية الخبراء المختلطين (MoE) بهدف تحقيق أداء متميز بتكلفة استدلال أقل. من الناحية التقنية، يواصل GLM-4.5V نهج GLM-4.1V-Thinking ويقدّم ابتكارات مثل ترميز المواقع الدوراني ثلاثي الأبعاد (3D-RoPE)، مما عزّز بشكل ملحوظ قدرته على إدراك واستنتاج العلاقات المكانية ثلاثية الأبعاد. وبفضل تحسينات في مراحل ما قبل التدريب، والتعديل بالإشراف، والتعلّم المعزّز، أصبح النموذج قادراً على معالجة محتوى بصري متنوّع مثل الصور والفيديوهات والمستندات الطويلة، وقد حقق مستوى متقدماً ضمن أفضل نماذج المصدر المفتوح في 41 معياراً متعدد الوسائط منشوراً. بالإضافة إلى ذلك، أضاف النموذج مفتاح \"وضع التفكير\" الذي يتيح للمستخدمين التبديل بين الاستجابة السريعة والاستدلال العميق بحرية لتوازن أفضل بين الكفاءة والفعالية."
|
2710
2770
|
}
|
2711
2771
|
}
|
@@ -26,6 +26,9 @@
|
|
26
26
|
"bedrock": {
|
27
27
|
"description": "Bedrock هي خدمة تقدمها أمازون AWS، تركز على توفير نماذج لغة ورؤية متقدمة للذكاء الاصطناعي للشركات. تشمل عائلة نماذجها سلسلة Claude من Anthropic وسلسلة Llama 3.1 من Meta، وتغطي مجموعة من الخيارات من النماذج الخفيفة إلى عالية الأداء، وتدعم مهام مثل توليد النصوص، والحوار، ومعالجة الصور، مما يجعلها مناسبة لتطبيقات الشركات بمختلف أحجامها واحتياجاتها."
|
28
28
|
},
|
29
|
+
"bfl": {
|
30
|
+
"description": "مختبر أبحاث رائد في مقدمة الذكاء الاصطناعي، يبني البنية التحتية البصرية للمستقبل."
|
31
|
+
},
|
29
32
|
"cloudflare": {
|
30
33
|
"description": "تشغيل نماذج التعلم الآلي المدفوعة بوحدات معالجة الرسوميات بدون خادم على شبكة Cloudflare العالمية."
|
31
34
|
},
|
@@ -1,4 +1,9 @@
|
|
1
1
|
{
|
2
|
+
"ArgsInput": {
|
3
|
+
"addArgument": "Добави параметър",
|
4
|
+
"argumentPlaceholder": "Параметър {{index}}",
|
5
|
+
"enterFirstArgument": "Въведете първия параметър..."
|
6
|
+
},
|
2
7
|
"DragUpload": {
|
3
8
|
"dragDesc": "Плъзнете файлове тук, поддържа качване на множество изображения.",
|
4
9
|
"dragFileDesc": "Плъзнете изображения и файлове тук, поддържа качване на множество изображения и файлове.",
|
@@ -125,6 +130,12 @@
|
|
125
130
|
},
|
126
131
|
"progress": {
|
127
132
|
"uploadingWithCount": "{{completed}}/{{total}} качени"
|
133
|
+
},
|
134
|
+
"validation": {
|
135
|
+
"fileSizeExceeded": "Превишен допустим размер на файла",
|
136
|
+
"fileSizeExceededDetail": "{{fileName}} ({{actualSize}}) надвишава максимално допустимия размер {{maxSize}}",
|
137
|
+
"fileSizeExceededMultiple": "{{count}} файла надвишават максимално допустимия размер {{maxSize}}: {{fileList}}",
|
138
|
+
"imageCountExceeded": "Надвишен е допустимият брой изображения"
|
128
139
|
}
|
129
140
|
},
|
130
141
|
"OllamaSetupGuide": {
|
package/locales/bg-BG/error.json
CHANGED
@@ -85,6 +85,17 @@
|
|
85
85
|
"CreateMessageError": "Съжалявам, съобщението не можа да бъде изпратено успешно. Моля, копирайте съдържанието и го изпратете отново. След опресняване на страницата, това съобщение няма да бъде запазено.",
|
86
86
|
"ExceededContextWindow": "Текущото съдържание на заявката надвишава дължината, която моделът може да обработи. Моля, намалете обема на съдържанието и опитайте отново.",
|
87
87
|
"FreePlanLimit": "В момента сте потребител на безплатен план и не можете да използвате тази функционалност. Моля, надстройте до платен план, за да продължите да я използвате.",
|
88
|
+
"GoogleAIBlockReason": {
|
89
|
+
"BLOCKLIST": "Вашето съдържание съдържа забранени думи. Моля, прегледайте и коригирайте входа си и опитайте отново。",
|
90
|
+
"IMAGE_SAFETY": "Генерираното изображение е блокирано поради съображения за сигурност. Моля, опитайте да модифицирате заявката за генериране на изображение。",
|
91
|
+
"LANGUAGE": "Езикът, който използвате, в момента не се поддържа. Моля, опитайте с английски или друг поддържан език。",
|
92
|
+
"OTHER": "Съдържанието е блокирано по неизвестна причина. Моля, опитайте да преформулирате заявката си。",
|
93
|
+
"PROHIBITED_CONTENT": "Вашата заявка може да съдържа забранено съдържание. Моля, коригирайте заявката, за да съответства на правилата за използване。",
|
94
|
+
"RECITATION": "Вашето съдържание е блокирано поради възможни нарушения на авторското право. Моля, опитайте с оригинално съдържание или преформулирайте заявката си。",
|
95
|
+
"SAFETY": "Вашето съдържание е блокирано поради политики за безопасност. Моля, коригирайте заявката си, като избягвате потенциално вредно или неподходящо съдържание。",
|
96
|
+
"SPII": "Вашето съдържание може да съдържа чувствителна лична информация. За защита на поверителността, моля премахнете съответната чувствителна информация и опитайте отново。",
|
97
|
+
"default": "Съдържанието е блокирано: {{blockReason}}。请调整您的请求内容后重试。"
|
98
|
+
},
|
88
99
|
"InsufficientQuota": "Съжаляваме, квотата за този ключ е достигнала лимита. Моля, проверете баланса на акаунта си или увеличете квотата на ключа и опитайте отново.",
|
89
100
|
"InvalidAccessCode": "Невалиден или празен код за достъп. Моля, въведете правилния код за достъп или добавете персонализиран API ключ.",
|
90
101
|
"InvalidBedrockCredentials": "Удостоверяването на Bedrock е неуспешно. Моля, проверете AccessKeyId/SecretAccessKey и опитайте отново.",
|