@lobehub/lobehub 2.0.0-next.252 → 2.0.0-next.254
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +58 -0
- package/apps/desktop/build/entitlements.mac.plist +9 -0
- package/apps/desktop/resources/locales/zh-CN/dialog.json +5 -1
- package/apps/desktop/resources/locales/zh-CN/menu.json +7 -0
- package/apps/desktop/src/main/controllers/SystemCtr.ts +186 -94
- package/apps/desktop/src/main/controllers/__tests__/SystemCtr.test.ts +200 -31
- package/apps/desktop/src/main/core/browser/Browser.ts +9 -0
- package/apps/desktop/src/main/locales/default/dialog.ts +7 -2
- package/apps/desktop/src/main/locales/default/menu.ts +7 -0
- package/apps/desktop/src/main/menus/impls/macOS.ts +44 -1
- package/apps/desktop/src/main/utils/fullDiskAccess.ts +121 -0
- package/changelog/v1.json +14 -0
- package/locales/ar/discover.json +3 -0
- package/locales/ar/file.json +2 -0
- package/locales/ar/models.json +38 -10
- package/locales/ar/providers.json +0 -1
- package/locales/ar/setting.json +42 -0
- package/locales/bg-BG/discover.json +3 -0
- package/locales/bg-BG/file.json +2 -0
- package/locales/bg-BG/models.json +36 -7
- package/locales/bg-BG/providers.json +0 -1
- package/locales/bg-BG/setting.json +43 -1
- package/locales/de-DE/discover.json +3 -0
- package/locales/de-DE/file.json +2 -0
- package/locales/de-DE/models.json +45 -10
- package/locales/de-DE/providers.json +0 -1
- package/locales/de-DE/setting.json +43 -1
- package/locales/en-US/discover.json +3 -0
- package/locales/en-US/models.json +10 -10
- package/locales/en-US/providers.json +0 -1
- package/locales/en-US/setting.json +43 -1
- package/locales/es-ES/discover.json +3 -0
- package/locales/es-ES/file.json +2 -0
- package/locales/es-ES/models.json +49 -10
- package/locales/es-ES/providers.json +0 -1
- package/locales/es-ES/setting.json +43 -1
- package/locales/fa-IR/discover.json +3 -0
- package/locales/fa-IR/file.json +2 -0
- package/locales/fa-IR/models.json +39 -10
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fa-IR/setting.json +43 -1
- package/locales/fr-FR/discover.json +3 -0
- package/locales/fr-FR/file.json +2 -0
- package/locales/fr-FR/models.json +36 -7
- package/locales/fr-FR/providers.json +0 -1
- package/locales/fr-FR/setting.json +42 -0
- package/locales/it-IT/discover.json +3 -0
- package/locales/it-IT/file.json +2 -0
- package/locales/it-IT/models.json +45 -10
- package/locales/it-IT/providers.json +0 -1
- package/locales/it-IT/setting.json +42 -0
- package/locales/ja-JP/discover.json +3 -0
- package/locales/ja-JP/file.json +2 -0
- package/locales/ja-JP/models.json +42 -7
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ja-JP/setting.json +42 -0
- package/locales/ko-KR/discover.json +3 -0
- package/locales/ko-KR/file.json +2 -0
- package/locales/ko-KR/models.json +48 -7
- package/locales/ko-KR/providers.json +0 -1
- package/locales/ko-KR/setting.json +42 -0
- package/locales/nl-NL/discover.json +3 -0
- package/locales/nl-NL/file.json +2 -0
- package/locales/nl-NL/models.json +4 -6
- package/locales/nl-NL/providers.json +0 -1
- package/locales/nl-NL/setting.json +42 -0
- package/locales/pl-PL/discover.json +3 -0
- package/locales/pl-PL/file.json +2 -0
- package/locales/pl-PL/models.json +36 -7
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pl-PL/setting.json +43 -1
- package/locales/pt-BR/discover.json +3 -0
- package/locales/pt-BR/file.json +2 -0
- package/locales/pt-BR/models.json +47 -6
- package/locales/pt-BR/providers.json +0 -1
- package/locales/pt-BR/setting.json +42 -0
- package/locales/ru-RU/discover.json +3 -0
- package/locales/ru-RU/file.json +2 -0
- package/locales/ru-RU/models.json +36 -7
- package/locales/ru-RU/providers.json +0 -1
- package/locales/ru-RU/setting.json +42 -0
- package/locales/tr-TR/discover.json +3 -0
- package/locales/tr-TR/file.json +2 -0
- package/locales/tr-TR/models.json +36 -5
- package/locales/tr-TR/providers.json +0 -1
- package/locales/tr-TR/setting.json +43 -1
- package/locales/vi-VN/discover.json +3 -0
- package/locales/vi-VN/file.json +2 -0
- package/locales/vi-VN/models.json +5 -5
- package/locales/vi-VN/providers.json +0 -1
- package/locales/vi-VN/setting.json +42 -0
- package/locales/zh-CN/discover.json +3 -3
- package/locales/zh-CN/models.json +38 -9
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-CN/setting.json +42 -0
- package/locales/zh-TW/discover.json +3 -0
- package/locales/zh-TW/file.json +2 -0
- package/locales/zh-TW/models.json +54 -10
- package/locales/zh-TW/providers.json +0 -1
- package/locales/zh-TW/setting.json +42 -0
- package/package.json +1 -1
- package/packages/electron-client-ipc/src/events/system.ts +1 -0
- package/src/app/[variants]/(desktop)/desktop-onboarding/features/PermissionsStep.tsx +16 -30
- package/src/app/[variants]/(desktop)/desktop-onboarding/index.tsx +19 -9
- package/src/app/[variants]/(desktop)/desktop-onboarding/storage.ts +49 -0
- package/src/features/ChatInput/ActionBar/Params/Controls.tsx +7 -6
- package/apps/desktop/src/main/controllers/scripts/full-disk-access.applescript +0 -85
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که بهصورت بلادرنگ بهروزرسانی میشود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب میکند.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمانها ارائه میدهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمانها ارائه میدهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریعترین مدل نسل جدید Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریعترین مدل نسل جدید Anthropic است. در مقایسه با Claude 3 Haiku، در مهارتها بهبود یافته و در بسیاری از معیارهای هوش از مدل بزرگتر قبلی، Claude 3 Opus، پیشی میگیرد.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخهای سریع برای وظایف سبک ارائه میدهد.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است. این مدل میتواند پاسخهای تقریباً فوری یا استدلال گامبهگام طولانی تولید کند که کاربران میتوانند آن را مشاهده کنند. Sonnet در زمینههای برنامهنویسی، علم داده، بینایی رایانهای و وظایف عاملها بسیار قدرتمند است.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku سریعترین و فشردهترین مدل Anthropic است که برای پاسخهای تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار میکند و با هزینه کمتر، بهرهوری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه میدهد.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریعترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برقآسا و توانایی
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریعترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برقآسا و توانایی استدلال پیشرفته همراه است.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که میتواند فرآیند استدلال خود را آشکار کند.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب برتری دارد.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچمدار Anthropic است که هوش برجسته را با عملکرد مقیاسپذیر ترکیب میکند و برای وظایف پیچیدهای که نیاز به پاسخهای باکیفیت و استدلال دارند، ایدهآل است.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking میتواند پاسخهای تقریباً فوری یا تفکر گامبهگام طولانی با فرآیند قابل مشاهده تولید کند.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 میتواند پاسخهای تقریباً فوری یا تفکر گامبهگام طولانی با فرآیند قابل مشاهده تولید کند.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامهنویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی میکند تا بهرهوری توسعهدهندگان را افزایش دهد.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی میکند و طیف گستردهای از سناریوهای توسعه نرمافزار را پوشش میدهد. این مدل یکی از بهترین مدلهای کد زیر ۱۰ میلیارد پارامتر است.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعالسازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قویای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایهگذاری بصری عملکرد درخشانی دارد.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "مدلی متنباز جدید که تواناییهای عمومی و برنامهنویسی را ترکیب میکند. این مدل گفتوگوی عمومی مدل چت و قدرت برنامهنویسی مدل کدنویس را حفظ کرده و با همراستایی ترجیحی بهتر همراه است. DeepSeek-V2.5 همچنین در نوشتن و پیروی از دستورالعملها بهبود یافته است.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامهنویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم میکند.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متنباز است که در وظایف برنامهنویسی عملکردی همسطح با GPT-4 Turbo دارد.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متنباز است که در وظایف برنامهنویسی عملکردی همسطح با GPT-4 Turbo دارد.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "نسخه کامل سریع DeepSeek R1 با جستجوی وب در زمان واقعی که توانایی در مقیاس ۶۷۱B را با پاسخدهی سریعتر ترکیب میکند.",
|
|
379
379
|
"deepseek-r1-online.description": "نسخه کامل DeepSeek R1 با ۶۷۱ میلیارد پارامتر و جستجوی وب در زمان واقعی که درک و تولید قویتری را ارائه میدهد.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 پیش از یادگیری تقویتی از دادههای شروع سرد استفاده میکند و در وظایف ریاضی، کدنویسی و استدلال عملکردی همسطح با OpenAI-o1 دارد.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "حالت تفکر DeepSeek V3.2 پیش از پاسخ نهایی زنجیرهای از افکار را تولید میکند تا دقت را افزایش دهد.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 یک مدل MoE کارآمد است که پردازش مقرونبهصرفه را امکانپذیر میسازد.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B مدل متمرکز بر کدنویسی DeepSeek است که توانایی بالایی در تولید کد دارد.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در برنامهنویسی، تواناییهای فنی، درک زمینه و پردازش متون بلند عملکرد برجستهای دارد.",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K یک مدل فوقسبک برای پرسشوپاسخ ساده، طبقهبندی و استنتاج کمهزینه است.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفتوگوی چندمرحلهای است.",
|
|
473
473
|
"ernie-x1.1-preview.description": "پیشنمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودیهای متنی و تصویری پشتیبانی میکند و تولید تصویر با کیفیت بالا و قابل کنترل را ارائه میدهد. این مدل تصاویر را از دستورات متنی تولید میکند.",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودیهای متنی و تصویری پشتیبانی میکند.",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودیهای متنی و تصاویر مرجع را میپذیرد و امکان ویرایشهای محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم میکند.",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیباییشناسی به تصاویر طبیعی و واقعگرایانهتر است.",
|
|
@@ -479,8 +479,8 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "یک مدل قدرتمند بومی چندوجهی برای تولید تصویر.",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "مدل تولید تصویر با کیفیت بالا از گوگل.",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana جدیدترین، سریعترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویر از طریق مکالمه را فراهم میکند.",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفهای از تیم Qwen که ویرایشهای معنایی و
|
|
483
|
-
"fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با رندر
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفهای از تیم Qwen که از ویرایشهای معنایی و ظاهری پشتیبانی میکند، متون چینی و انگلیسی را با دقت ویرایش میکند و ویرایشهای با کیفیتی مانند انتقال سبک و چرخش اشیاء را ممکن میسازد.",
|
|
483
|
+
"fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با رندر چشمگیر متون چینی و سبکهای بصری متنوع.",
|
|
484
484
|
"flux-1-schnell.description": "مدل تبدیل متن به تصویر با ۱۲ میلیارد پارامتر از Black Forest Labs که از تقطیر انتشار تقابلی نهفته برای تولید تصاویر با کیفیت بالا در ۱ تا ۴ مرحله استفاده میکند. این مدل با جایگزینهای بسته رقابت میکند و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است.",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] یک مدل تقطیر شده با وزنهای باز برای استفاده غیرتجاری است. این مدل کیفیت تصویر نزدیک به حرفهای و پیروی از دستورالعمل را حفظ میکند و در عین حال کارآمدتر اجرا میشود و منابع را بهتر از مدلهای استاندارد همسایز استفاده میکند.",
|
|
486
486
|
"flux-kontext-max.description": "تولید و ویرایش تصویر متنی-زمینهای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب میکند.",
|
|
@@ -554,6 +554,35 @@
|
|
|
554
554
|
"glm-4-plus.description": "GLM-4-Plus پرچمدار با هوش بالا است که در مدیریت متنهای طولانی و وظایف پیچیده قوی عمل میکند و عملکرد کلی ارتقاء یافتهای دارد.",
|
|
555
555
|
"glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking قویترین مدل VLM شناختهشده با حدود ۱۰ میلیارد پارامتر است که وظایف پیشرفتهای مانند درک ویدیو، پرسشوپاسخ تصویری، حل مسائل موضوعی، OCR، خواندن اسناد و نمودارها، عاملهای رابط کاربری، کدنویسی فرانتاند و اتصال به واقعیت را پوشش میدهد. این مدل حتی از Qwen2.5-VL-72B که ۸ برابر بزرگتر است در بسیاری از وظایف پیشی میگیرد. با استفاده از یادگیری تقویتی پیشرفته، از استدلال زنجیرهای برای بهبود دقت و غنای پاسخها بهره میبرد و در نتایج و قابلیت توضیحپذیری از مدلهای سنتی بدون تفکر بهتر عمل میکند.",
|
|
556
556
|
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking قویترین مدل VLM شناختهشده با حدود ۱۰ میلیارد پارامتر است که وظایف پیشرفتهای مانند درک ویدیو، پرسشوپاسخ تصویری، حل مسائل موضوعی، OCR، خواندن اسناد و نمودارها، عاملهای رابط کاربری، کدنویسی فرانتاند و اتصال به واقعیت را پوشش میدهد. این مدل حتی از Qwen2.5-VL-72B که ۸ برابر بزرگتر است در بسیاری از وظایف پیشی میگیرد. با استفاده از یادگیری تقویتی پیشرفته، از استدلال زنجیرهای برای بهبود دقت و غنای پاسخها بهره میبرد و در نتایج و قابلیت توضیحپذیری از مدلهای سنتی بدون تفکر بهتر عمل میکند.",
|
|
557
|
+
"glm-4.5-air.description": "نسخه سبک GLM-4.5 که بین عملکرد و هزینه تعادل برقرار میکند و از حالتهای تفکر ترکیبی انعطافپذیر پشتیبانی میکند.",
|
|
558
|
+
"glm-4.5-airx.description": "نسخه سریع GLM-4.5-Air با پاسخدهی سریعتر برای استفاده در مقیاس بالا و سرعت بالا.",
|
|
559
|
+
"glm-4.5-flash.description": "نسخه رایگان GLM-4.5 با عملکرد قوی در استدلال، برنامهنویسی و وظایف عاملها.",
|
|
560
|
+
"glm-4.5-x.description": "نسخه سریع GLM-4.5 با عملکرد قوی و سرعت تولید تا ۱۰۰ توکن در ثانیه.",
|
|
561
|
+
"glm-4.5.description": "مدل پرچمدار Zhipu با حالت تفکر قابل تغییر، ارائهدهنده بهترین عملکرد متنباز و پشتیبانی از زمینه تا ۱۲۸ هزار توکن.",
|
|
562
|
+
"glm-4.5v.description": "مدل نسل بعدی بینایی و استدلال Zhipu با معماری MoE، دارای ۱۰۶ میلیارد پارامتر کل و ۱۲ میلیارد فعال، که در میان مدلهای چندوجهی متنباز همرده خود درک تصویر، ویدیو، اسناد و رابطهای گرافیکی را به سطح SOTA میرساند.",
|
|
563
|
+
"glm-4.6.description": "GLM-4.6 پرچمدار جدید Zhipu (با ۳۵۵ میلیارد پارامتر) است که در برنامهنویسی پیشرفته، پردازش متون بلند، استدلال و تواناییهای عاملها بهطور کامل از نسل قبل پیشی گرفته است. بهویژه در توانایی برنامهنویسی با Claude Sonnet 4 همراستا شده و به یکی از برترین مدلهای کدنویسی داخلی تبدیل شده است.",
|
|
564
|
+
"glm-4.7.description": "GLM-4.7 پرچمدار جدید Zhipu است که برای سناریوهای Agentic Coding تواناییهای کدنویسی، برنامهریزی وظایف بلندمدت و همکاری با ابزارها را تقویت کرده است. در بسیاری از رتبهبندیهای عمومی، در میان مدلهای متنباز پیشتاز است. تواناییهای عمومی بهبود یافته، پاسخها طبیعیتر و نوشتار غنیتر شدهاند. در اجرای وظایف پیچیده عاملها و پیروی از دستورالعملها هنگام استفاده از ابزارها عملکرد بهتری دارد. زیبایی بصری در خروجیهای Artifacts و کارایی در انجام وظایف بلندمدت نیز ارتقا یافتهاند.",
|
|
565
|
+
"glm-4.description": "GLM-4 پرچمدار قدیمی است که در ژانویه ۲۰۲۴ منتشر شد و اکنون با GLM-4-0520 قویتر جایگزین شده است.",
|
|
566
|
+
"glm-4v-flash.description": "GLM-4V-Flash بر درک کارآمد تصویر تکی تمرکز دارد و برای سناریوهای تحلیلی سریع مانند پردازش تصویر بلادرنگ یا دستهای مناسب است.",
|
|
567
|
+
"glm-4v-plus-0111.description": "GLM-4V-Plus توانایی درک ویدیو و چند تصویر را دارد و برای وظایف چندوجهی مناسب است.",
|
|
568
|
+
"glm-4v-plus.description": "GLM-4V-Plus توانایی درک ویدیو و چند تصویر را دارد و برای وظایف چندوجهی مناسب است.",
|
|
569
|
+
"glm-4v.description": "GLM-4V درک تصویر و استدلال قوی در وظایف بصری را ارائه میدهد.",
|
|
570
|
+
"glm-z1-air.description": "مدل استدلال با توانایی قوی در استنتاج عمیق برای وظایف پیچیده.",
|
|
571
|
+
"glm-z1-airx.description": "استدلال فوقسریع با کیفیت بالای استدلال.",
|
|
572
|
+
"glm-z1-flash.description": "سری GLM-Z1 استدلال پیچیده قوی را ارائه میدهد و در منطق، ریاضی و برنامهنویسی برتری دارد.",
|
|
573
|
+
"glm-z1-flashx.description": "سریع و کمهزینه: نسخه Flash با استدلال فوقسریع و همزمانی بیشتر.",
|
|
574
|
+
"glm-zero-preview.description": "GLM-Zero-Preview استدلال پیچیده قوی را ارائه میدهد و در منطق، ریاضی و برنامهنویسی برتری دارد.",
|
|
575
|
+
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 مدل پرچمدار Anthropic است که هوش استثنایی و عملکرد مقیاسپذیر را برای وظایف پیچیده با نیاز به پاسخهای باکیفیت و استدلال ترکیب میکند.",
|
|
576
|
+
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash قابلیتهای نسل بعدی را ارائه میدهد، از جمله سرعت عالی، استفاده بومی از ابزارها، تولید چندوجهی و پنجره زمینهای ۱ میلیون توکن.",
|
|
577
|
+
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental جدیدترین مدل چندوجهی آزمایشی گوگل است که در مقایسه با نسخههای قبلی بهبودهایی در دانش عمومی، کدنویسی و زمینه بلند دارد.",
|
|
578
|
+
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite نسخه سبک Gemini است که بهطور پیشفرض تفکر را غیرفعال کرده تا تأخیر و هزینه را کاهش دهد، اما میتوان آن را از طریق پارامترها فعال کرد.",
|
|
579
|
+
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite ویژگیهای نسل بعدی را ارائه میدهد، از جمله سرعت بالا، استفاده داخلی از ابزارها، تولید چندوجهی و پنجره زمینهای ۱ میلیون توکن.",
|
|
580
|
+
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash مدل استدلال با عملکرد بالای گوگل برای وظایف چندوجهی گسترده است.",
|
|
581
|
+
"google/gemini-2.5-flash-image-free.description": "نسخه رایگان Gemini 2.5 Flash Image با سهمیه محدود برای تولید چندوجهی.",
|
|
582
|
+
"google/gemini-2.5-flash-image-preview.description": "مدل آزمایشی Gemini 2.5 Flash با پشتیبانی از تولید تصویر.",
|
|
583
|
+
"google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image (Nano Banana) مدل تولید تصویر گوگل با پشتیبانی از گفتوگوی چندوجهی است.",
|
|
584
|
+
"google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite نسخه سبک Gemini 2.5 است که برای تأخیر کم و هزینه پایین بهینه شده و برای سناریوهای با حجم بالا مناسب است.",
|
|
585
|
+
"google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash پیشرفتهترین مدل پرچمدار گوگل است که برای استدلال پیشرفته، برنامهنویسی، ریاضی و علوم طراحی شده است. این مدل دارای قابلیت تفکر داخلی است تا پاسخهایی با دقت بالاتر و پردازش زمینهای دقیقتر ارائه دهد.",
|
|
557
586
|
"meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعهدهندگان، پژوهشگران و شرکتها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایدههای هوش مصنوعی مولد طراحی شده است. این مدل بهعنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیطهایی با منابع محدود، دستگاههای لبه و زمانهای آموزش سریع مناسب است.",
|
|
558
587
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامههای درک بصری.",
|
|
559
588
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامههای عامل با قابلیت درک بصری.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "یک سازمان متنباز متمرکز بر تحقیقات مدلهای بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه میدهد تا مدلها و الگوریتمهای پیشرفته را در دسترس قرار دهد.",
|
|
30
30
|
"jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدلهای برداری، رتبهبندها و مدلهای زبانی کوچک برای ساخت اپلیکیشنهای جستجوی مولد و چندوجهی با کیفیت بالا است.",
|
|
31
31
|
"lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدلهای زبانی بزرگ روی رایانه شخصی شماست.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud از رابطهای برنامهنویسی رسمی برای دسترسی به مدلهای هوش مصنوعی استفاده میکند و مصرف را با اعتباراتی که به توکنهای مدل وابستهاند، اندازهگیری میکند.",
|
|
33
32
|
"minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدلهای پایه چندوجهی از جمله مدلهای متنی با پارامترهای تریلیونی، مدلهای گفتاری و تصویری توسعه میدهد و اپهایی مانند Hailuo AI را ارائه میکند.",
|
|
34
33
|
"mistral.description": "Mistral مدلهای عمومی، تخصصی و تحقیقاتی پیشرفتهای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه میدهد و از فراخوانی توابع برای یکپارچهسازی سفارشی پشتیبانی میکند.",
|
|
35
34
|
"modelscope.description": "ModelScope پلتفرم مدل بهعنوانسرویس Alibaba Cloud است که مجموعهای گسترده از مدلهای هوش مصنوعی و خدمات استنتاج را ارائه میدهد.",
|
|
@@ -2,6 +2,48 @@
|
|
|
2
2
|
"_cloud.officialProvider": "سرویس مدل رسمی {{name}}",
|
|
3
3
|
"about.title": "درباره",
|
|
4
4
|
"advancedSettings": "تنظیمات پیشرفته",
|
|
5
|
+
"agentCronJobs.addJob": "افزودن وظیفه زمانبندیشده",
|
|
6
|
+
"agentCronJobs.confirmDelete": "آیا از حذف این وظیفه زمانبندیشده مطمئن هستید؟",
|
|
7
|
+
"agentCronJobs.content": "محتوای وظیفه",
|
|
8
|
+
"agentCronJobs.create": "ایجاد",
|
|
9
|
+
"agentCronJobs.createSuccess": "وظیفه زمانبندیشده با موفقیت ایجاد شد",
|
|
10
|
+
"agentCronJobs.deleteJob": "حذف وظیفه",
|
|
11
|
+
"agentCronJobs.deleteSuccess": "وظیفه زمانبندیشده با موفقیت حذف شد",
|
|
12
|
+
"agentCronJobs.description": "عامل خود را با اجرای زمانبندیشده خودکار کنید",
|
|
13
|
+
"agentCronJobs.disable": "غیرفعال کردن",
|
|
14
|
+
"agentCronJobs.editJob": "ویرایش وظیفه زمانبندیشده",
|
|
15
|
+
"agentCronJobs.empty.description": "اولین وظیفه زمانبندیشده خود را برای خودکارسازی عامل ایجاد کنید",
|
|
16
|
+
"agentCronJobs.empty.title": "هنوز وظیفه زمانبندیشدهای وجود ندارد",
|
|
17
|
+
"agentCronJobs.enable": "فعال کردن",
|
|
18
|
+
"agentCronJobs.form.content.placeholder": "دستور یا راهنمایی برای عامل وارد کنید",
|
|
19
|
+
"agentCronJobs.form.maxExecutions.placeholder": "برای نامحدود خالی بگذارید",
|
|
20
|
+
"agentCronJobs.form.name.placeholder": "نام وظیفه را وارد کنید",
|
|
21
|
+
"agentCronJobs.form.timeRange.end": "زمان پایان",
|
|
22
|
+
"agentCronJobs.form.timeRange.start": "زمان شروع",
|
|
23
|
+
"agentCronJobs.form.validation.contentRequired": "محتوای وظیفه الزامی است",
|
|
24
|
+
"agentCronJobs.form.validation.invalidTimeRange": "زمان شروع باید قبل از زمان پایان باشد",
|
|
25
|
+
"agentCronJobs.form.validation.nameRequired": "نام وظیفه الزامی است",
|
|
26
|
+
"agentCronJobs.interval.12hours": "هر ۱۲ ساعت",
|
|
27
|
+
"agentCronJobs.interval.1hour": "هر ساعت",
|
|
28
|
+
"agentCronJobs.interval.30min": "هر ۳۰ دقیقه",
|
|
29
|
+
"agentCronJobs.interval.6hours": "هر ۶ ساعت",
|
|
30
|
+
"agentCronJobs.interval.daily": "روزانه",
|
|
31
|
+
"agentCronJobs.interval.weekly": "هفتگی",
|
|
32
|
+
"agentCronJobs.lastExecuted": "آخرین اجرا",
|
|
33
|
+
"agentCronJobs.maxExecutions": "حداکثر دفعات اجرا",
|
|
34
|
+
"agentCronJobs.name": "نام وظیفه",
|
|
35
|
+
"agentCronJobs.never": "هرگز",
|
|
36
|
+
"agentCronJobs.remainingExecutions": "باقیمانده: {{count}}",
|
|
37
|
+
"agentCronJobs.save": "ذخیره",
|
|
38
|
+
"agentCronJobs.schedule": "زمانبندی",
|
|
39
|
+
"agentCronJobs.status.depleted": "پایانیافته",
|
|
40
|
+
"agentCronJobs.status.disabled": "غیرفعال",
|
|
41
|
+
"agentCronJobs.status.enabled": "فعال",
|
|
42
|
+
"agentCronJobs.timeRange": "بازه زمانی",
|
|
43
|
+
"agentCronJobs.title": "وظایف زمانبندیشده",
|
|
44
|
+
"agentCronJobs.unlimited": "نامحدود",
|
|
45
|
+
"agentCronJobs.updateSuccess": "وظیفه زمانبندیشده با موفقیت بهروزرسانی شد",
|
|
46
|
+
"agentCronJobs.weekdays": "روزهای هفته",
|
|
5
47
|
"agentInfoDescription.basic.avatar": "آواتار",
|
|
6
48
|
"agentInfoDescription.basic.description": "توضیحات",
|
|
7
49
|
"agentInfoDescription.basic.name": "نام",
|
|
@@ -46,7 +88,7 @@
|
|
|
46
88
|
"danger.reset.action": "بازنشانی اکنون",
|
|
47
89
|
"danger.reset.confirm": "آیا همه تنظیمات بازنشانی شوند؟",
|
|
48
90
|
"danger.reset.currentVersion": "نسخه فعلی",
|
|
49
|
-
"danger.reset.desc": "بازگرداندن
|
|
91
|
+
"danger.reset.desc": "بازگرداندن تمام تنظیمات به حالت پیشفرض. دادههای شما حذف نخواهند شد.",
|
|
50
92
|
"danger.reset.success": "همه تنظیمات بازنشانی شدند",
|
|
51
93
|
"danger.reset.title": "بازنشانی همه تنظیمات",
|
|
52
94
|
"defaultAgent.model.desc": "مدل پیشفرض هنگام ایجاد عامل جدید",
|
|
@@ -156,6 +156,8 @@
|
|
|
156
156
|
"mcp.categories.business.name": "Services professionnels",
|
|
157
157
|
"mcp.categories.developer.description": "Outils et services pour les développeurs",
|
|
158
158
|
"mcp.categories.developer.name": "Outils développeur",
|
|
159
|
+
"mcp.categories.discover.description": "Serveurs MCP recommandés et populaires",
|
|
160
|
+
"mcp.categories.discover.name": "Découvrir",
|
|
159
161
|
"mcp.categories.gaming-entertainment.description": "Jeux, divertissement et loisirs",
|
|
160
162
|
"mcp.categories.gaming-entertainment.name": "Jeux & Divertissement",
|
|
161
163
|
"mcp.categories.health-wellness.description": "Santé, forme physique et bien-être",
|
|
@@ -343,6 +345,7 @@
|
|
|
343
345
|
"mcp.sorts.isValidated": "Compétences validées",
|
|
344
346
|
"mcp.sorts.promptsCount": "Nombre d’invites",
|
|
345
347
|
"mcp.sorts.ratingCount": "Nombre d’évaluations",
|
|
348
|
+
"mcp.sorts.recommended": "Recommandé",
|
|
346
349
|
"mcp.sorts.resourcesCount": "Nombre de ressources",
|
|
347
350
|
"mcp.sorts.toolsCount": "Nombre d’outils",
|
|
348
351
|
"mcp.sorts.updatedAt": "Mis à jour récemment",
|
package/locales/fr-FR/file.json
CHANGED
|
@@ -18,6 +18,8 @@
|
|
|
18
18
|
"empty": "Aucun fichier ou dossier n’a encore été importé.",
|
|
19
19
|
"header.actions.builtInBlockList.filtered": "{{ignored}} fichiers filtrés (sur {{total}} au total)",
|
|
20
20
|
"header.actions.connect": "Se connecter...",
|
|
21
|
+
"header.actions.createFolderError": "Échec de la création du dossier",
|
|
22
|
+
"header.actions.creatingFolder": "Création du dossier...",
|
|
21
23
|
"header.actions.gitignore.apply": "Appliquer les règles",
|
|
22
24
|
"header.actions.gitignore.cancel": "Ignorer les règles",
|
|
23
25
|
"header.actions.gitignore.content": "Fichier .gitignore détecté ({{count}} fichiers au total). Souhaitez-vous appliquer les règles d’exclusion ?",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic,
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic. Par rapport à Claude 3 Haiku, il améliore ses compétences et surpasse le plus grand modèle précédent, Claude 3 Opus, sur de nombreux tests d’intelligence.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet est le modèle le plus intelligent d’Anthropic et le premier modèle de raisonnement hybride sur le marché. Il peut fournir des réponses quasi instantanées ou un raisonnement détaillé étape par étape visible par l’utilisateur. Sonnet excelle particulièrement en programmation, science des données, vision et tâches d’agents.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d’Anthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic,
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, alliant vitesse fulgurante et raisonnement approfondi.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches complexes,
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches hautement complexes, offrant des performances exceptionnelles en intelligence, fluidité et compréhension.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut générer des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec un processus visible.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d’Anthropic à ce jour.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, l’interprétation de code, la recherche web, l’appel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est l’un des meilleurs modèles de code sous 10 milliards de paramètres.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 est un modèle vision-langage MoE basé sur DeepSeekMoE-27B avec activation clairsemée, atteignant de hautes performances avec seulement 4,5B de paramètres actifs. Il excelle en QA visuelle, OCR, compréhension de documents/tableaux/graphes et ancrage visuel.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "Un nouveau modèle open source combinant capacités générales et de codage. Il conserve le dialogue général du modèle de chat et la puissance du modèle de codeur, avec un meilleur alignement des préférences. DeepSeek-V2.5 améliore également la rédaction et le suivi des instructions.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à l’échelle du projet et un remplissage de fragments.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Version complète rapide de DeepSeek R1 avec recherche web en temps réel, combinant des capacités à l’échelle de 671B et des réponses plus rapides.",
|
|
379
379
|
"deepseek-r1-online.description": "Version complète de DeepSeek R1 avec 671B de paramètres et recherche web en temps réel, offrant une meilleure compréhension et génération.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 utilise des données de démarrage à froid avant l’apprentissage par renforcement et affiche des performances comparables à OpenAI-o1 en mathématiques, codage et raisonnement.",
|
|
381
|
-
"deepseek-reasoner.description": "
|
|
381
|
+
"deepseek-reasoner.description": "Le mode de réflexion DeepSeek V3.2 produit une chaîne de raisonnement avant la réponse finale pour améliorer la précision.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.",
|
|
@@ -442,6 +442,35 @@
|
|
|
442
442
|
"doubao-vision-lite-32k.description": "Doubao-vision est un modèle multimodal de Doubao avec une forte compréhension et un raisonnement d’image, ainsi qu’un suivi précis des instructions. Il excelle dans l’extraction image-texte et les tâches de raisonnement basées sur l’image, permettant des scénarios de questions-réponses visuelles plus complexes et étendus.",
|
|
443
443
|
"doubao-vision-pro-32k.description": "Doubao-vision est un modèle multimodal de Doubao avec une forte compréhension et un raisonnement d’image, ainsi qu’un suivi précis des instructions. Il excelle dans l’extraction image-texte et les tâches de raisonnement basées sur l’image, permettant des scénarios de questions-réponses visuelles plus complexes et étendus.",
|
|
444
444
|
"emohaa.description": "Emohaa est un modèle de santé mentale doté de compétences professionnelles en conseil pour aider les utilisateurs à comprendre leurs problèmes émotionnels.",
|
|
445
|
+
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B est un modèle léger open source conçu pour un déploiement local et personnalisé.",
|
|
446
|
+
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B est un modèle open source à grande capacité offrant une meilleure compréhension et génération.",
|
|
447
|
+
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B est le modèle MoE ultra-large d’ERNIE de Baidu, doté d’excellentes capacités de raisonnement.",
|
|
448
|
+
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview est un modèle de prévisualisation avec contexte 8K pour l’évaluation d’ERNIE 4.5.",
|
|
449
|
+
"ernie-4.5-turbo-128k-preview.description": "Préversion d’ERNIE 4.5 Turbo 128K avec des capacités de niveau production, adaptée à l’intégration et aux tests canaris.",
|
|
450
|
+
"ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K est un modèle général haute performance avec augmentation par recherche et appel d’outils pour les scénarios de QA, de codage et d’agents.",
|
|
451
|
+
"ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K est une version à contexte moyen pour la QA, la recherche dans les bases de connaissances et les dialogues multi-tours.",
|
|
452
|
+
"ernie-4.5-turbo-latest.description": "Dernière version d’ERNIE 4.5 Turbo avec des performances globales optimisées, idéale comme modèle principal en production.",
|
|
453
|
+
"ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview est une préversion multimodale 32K pour évaluer les capacités de vision à long contexte.",
|
|
454
|
+
"ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K est une version multimodale à contexte moyen-long pour la compréhension combinée de documents longs et d’images.",
|
|
455
|
+
"ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest est la version multimodale la plus récente avec une meilleure compréhension image-texte et raisonnement visuel.",
|
|
456
|
+
"ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview est un modèle multimodal de prévisualisation pour la compréhension et la génération image-texte, adapté à la QA visuelle et à la compréhension de contenu.",
|
|
457
|
+
"ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL est un modèle multimodal mature pour la compréhension et la reconnaissance image-texte en production.",
|
|
458
|
+
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B est un modèle multimodal open source pour la compréhension et le raisonnement image-texte.",
|
|
459
|
+
"ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking est un modèle phare natif tout-modal avec modélisation unifiée du texte, de l’image, de l’audio et de la vidéo. Il offre des améliorations majeures pour la QA complexe, la création et les scénarios d’agents.",
|
|
460
|
+
"ernie-5.0-thinking-preview.description": "Wenxin 5.0 Thinking Preview est un modèle phare natif tout-modal avec modélisation unifiée du texte, de l’image, de l’audio et de la vidéo. Il offre des améliorations majeures pour la QA complexe, la création et les scénarios d’agents.",
|
|
461
|
+
"ernie-char-8k.description": "ERNIE Character 8K est un modèle de dialogue de personnage pour la création d’IP et les conversations de compagnie à long terme.",
|
|
462
|
+
"ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview est une préversion de modèle pour la création de personnages et d’intrigues, destinée à l’évaluation des fonctionnalités.",
|
|
463
|
+
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K est un modèle de personnage pour romans et création d’intrigues, adapté à la génération d’histoires longues.",
|
|
464
|
+
"ernie-irag-edit.description": "ERNIE iRAG Edit est un modèle d’édition d’image prenant en charge l’effacement, la retouche et la génération de variantes.",
|
|
465
|
+
"ernie-lite-8k.description": "ERNIE Lite 8K est un modèle général léger pour la QA quotidienne et la génération de contenu à faible coût.",
|
|
466
|
+
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K est un modèle léger haute performance pour les scénarios sensibles à la latence et au coût.",
|
|
467
|
+
"ernie-novel-8k.description": "ERNIE Novel 8K est conçu pour les romans longs et les intrigues IP avec des récits multi-personnages.",
|
|
468
|
+
"ernie-speed-128k.description": "ERNIE Speed 128K est un modèle sans frais d’E/S pour la compréhension de longs textes et les essais à grande échelle.",
|
|
469
|
+
"ernie-speed-8k.description": "ERNIE Speed 8K est un modèle gratuit et rapide pour le chat quotidien et les tâches textuelles légères.",
|
|
470
|
+
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K est un modèle à haute valeur et haute concurrence pour les services en ligne à grande échelle et les applications d’entreprise.",
|
|
471
|
+
"ernie-tiny-8k.description": "ERNIE Tiny 8K est un modèle ultra-léger pour la QA simple, la classification et l’inférence à faible coût.",
|
|
472
|
+
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K est un modèle de réflexion rapide avec un contexte de 32K pour le raisonnement complexe et les dialogues multi-tours.",
|
|
473
|
+
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview est une préversion de modèle de réflexion pour l’évaluation et les tests.",
|
|
445
474
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
|
|
446
475
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
|
|
447
476
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Une organisation open source axée sur la recherche et les outils pour les grands modèles, offrant une plateforme efficace et accessible pour les modèles et algorithmes de pointe.",
|
|
30
30
|
"jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
|
|
31
31
|
"lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud utilise les API officielles pour accéder aux modèles d'IA et mesure l'utilisation à l'aide de crédits liés aux jetons des modèles.",
|
|
33
32
|
"minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral propose des modèles avancés généralistes, spécialisés et de recherche pour le raisonnement complexe, les tâches multilingues et la génération de code, avec appels de fonctions pour des intégrations personnalisées.",
|
|
35
34
|
"modelscope.description": "ModelScope est la plateforme de modèles en tant que service d'Alibaba Cloud, offrant un large éventail de modèles d'IA et de services d'inférence.",
|
|
@@ -2,6 +2,48 @@
|
|
|
2
2
|
"_cloud.officialProvider": "Service de modèle officiel de {{name}}",
|
|
3
3
|
"about.title": "À propos",
|
|
4
4
|
"advancedSettings": "Paramètres avancés",
|
|
5
|
+
"agentCronJobs.addJob": "Ajouter une tâche planifiée",
|
|
6
|
+
"agentCronJobs.confirmDelete": "Êtes-vous sûr de vouloir supprimer cette tâche planifiée ?",
|
|
7
|
+
"agentCronJobs.content": "Contenu de la tâche",
|
|
8
|
+
"agentCronJobs.create": "Créer",
|
|
9
|
+
"agentCronJobs.createSuccess": "Tâche planifiée créée avec succès",
|
|
10
|
+
"agentCronJobs.deleteJob": "Supprimer la tâche",
|
|
11
|
+
"agentCronJobs.deleteSuccess": "Tâche planifiée supprimée avec succès",
|
|
12
|
+
"agentCronJobs.description": "Automatisez votre agent avec des exécutions planifiées",
|
|
13
|
+
"agentCronJobs.disable": "Désactiver",
|
|
14
|
+
"agentCronJobs.editJob": "Modifier la tâche planifiée",
|
|
15
|
+
"agentCronJobs.empty.description": "Créez votre première tâche planifiée pour automatiser votre agent",
|
|
16
|
+
"agentCronJobs.empty.title": "Aucune tâche planifiée pour le moment",
|
|
17
|
+
"agentCronJobs.enable": "Activer",
|
|
18
|
+
"agentCronJobs.form.content.placeholder": "Saisissez l'invite ou l'instruction pour l'agent",
|
|
19
|
+
"agentCronJobs.form.maxExecutions.placeholder": "Laisser vide pour illimité",
|
|
20
|
+
"agentCronJobs.form.name.placeholder": "Saisissez le nom de la tâche",
|
|
21
|
+
"agentCronJobs.form.timeRange.end": "Heure de fin",
|
|
22
|
+
"agentCronJobs.form.timeRange.start": "Heure de début",
|
|
23
|
+
"agentCronJobs.form.validation.contentRequired": "Le contenu de la tâche est requis",
|
|
24
|
+
"agentCronJobs.form.validation.invalidTimeRange": "L'heure de début doit être antérieure à l'heure de fin",
|
|
25
|
+
"agentCronJobs.form.validation.nameRequired": "Le nom de la tâche est requis",
|
|
26
|
+
"agentCronJobs.interval.12hours": "Toutes les 12 heures",
|
|
27
|
+
"agentCronJobs.interval.1hour": "Toutes les heures",
|
|
28
|
+
"agentCronJobs.interval.30min": "Toutes les 30 minutes",
|
|
29
|
+
"agentCronJobs.interval.6hours": "Toutes les 6 heures",
|
|
30
|
+
"agentCronJobs.interval.daily": "Quotidien",
|
|
31
|
+
"agentCronJobs.interval.weekly": "Hebdomadaire",
|
|
32
|
+
"agentCronJobs.lastExecuted": "Dernière exécution",
|
|
33
|
+
"agentCronJobs.maxExecutions": "Exécutions maximales",
|
|
34
|
+
"agentCronJobs.name": "Nom de la tâche",
|
|
35
|
+
"agentCronJobs.never": "Jamais",
|
|
36
|
+
"agentCronJobs.remainingExecutions": "Restant : {{count}}",
|
|
37
|
+
"agentCronJobs.save": "Enregistrer",
|
|
38
|
+
"agentCronJobs.schedule": "Planifier",
|
|
39
|
+
"agentCronJobs.status.depleted": "Épuisé",
|
|
40
|
+
"agentCronJobs.status.disabled": "Désactivé",
|
|
41
|
+
"agentCronJobs.status.enabled": "Activé",
|
|
42
|
+
"agentCronJobs.timeRange": "Plage horaire",
|
|
43
|
+
"agentCronJobs.title": "Tâches planifiées",
|
|
44
|
+
"agentCronJobs.unlimited": "Illimité",
|
|
45
|
+
"agentCronJobs.updateSuccess": "Tâche planifiée mise à jour avec succès",
|
|
46
|
+
"agentCronJobs.weekdays": "Jours de la semaine",
|
|
5
47
|
"agentInfoDescription.basic.avatar": "Avatar",
|
|
6
48
|
"agentInfoDescription.basic.description": "Description",
|
|
7
49
|
"agentInfoDescription.basic.name": "Nom",
|
|
@@ -156,6 +156,8 @@
|
|
|
156
156
|
"mcp.categories.business.name": "Servizi aziendali",
|
|
157
157
|
"mcp.categories.developer.description": "Strumenti e servizi per sviluppatori",
|
|
158
158
|
"mcp.categories.developer.name": "Strumenti per sviluppatori",
|
|
159
|
+
"mcp.categories.discover.description": "Server MCP consigliati e di tendenza",
|
|
160
|
+
"mcp.categories.discover.name": "Scopri",
|
|
159
161
|
"mcp.categories.gaming-entertainment.description": "Giochi, intrattenimento e attività ricreative",
|
|
160
162
|
"mcp.categories.gaming-entertainment.name": "Giochi e intrattenimento",
|
|
161
163
|
"mcp.categories.health-wellness.description": "Salute, fitness e benessere",
|
|
@@ -343,6 +345,7 @@
|
|
|
343
345
|
"mcp.sorts.isValidated": "Abilità Validate",
|
|
344
346
|
"mcp.sorts.promptsCount": "Numero di Prompt",
|
|
345
347
|
"mcp.sorts.ratingCount": "Numero di Valutazioni",
|
|
348
|
+
"mcp.sorts.recommended": "Consigliati",
|
|
346
349
|
"mcp.sorts.resourcesCount": "Numero di Risorse",
|
|
347
350
|
"mcp.sorts.toolsCount": "Numero di Strumenti",
|
|
348
351
|
"mcp.sorts.updatedAt": "Aggiornati di Recente",
|
package/locales/it-IT/file.json
CHANGED
|
@@ -18,6 +18,8 @@
|
|
|
18
18
|
"empty": "Nessun file o cartella è stato ancora caricato.",
|
|
19
19
|
"header.actions.builtInBlockList.filtered": "{{ignored}} file filtrati (su un totale di {{total}})",
|
|
20
20
|
"header.actions.connect": "Connetti...",
|
|
21
|
+
"header.actions.createFolderError": "Impossibile creare la cartella",
|
|
22
|
+
"header.actions.creatingFolder": "Creazione della cartella in corso...",
|
|
21
23
|
"header.actions.gitignore.apply": "Applica regole",
|
|
22
24
|
"header.actions.gitignore.cancel": "Ignora regole",
|
|
23
25
|
"header.actions.gitignore.content": "File .gitignore rilevato ({{count}} file in totale). Vuoi applicare le regole di esclusione?",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o è un modello dinamico aggiornato in tempo reale, che combina comprensione e generazione avanzate per casi d'uso su larga scala come assistenza clienti, istruzione e supporto tecnico.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic,
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic. Rispetto a Claude 3 Haiku, migliora in tutte le competenze e supera il precedente modello di punta Claude 3 Opus in molti benchmark di intelligenza.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fornisce risposte rapide per attività leggere.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato. È in grado di fornire risposte quasi istantanee o ragionamenti estesi passo dopo passo visibili all’utente. Sonnet eccelle in particolare nella programmazione, data science, visione artificiale e compiti per agenti.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet è il modello più recente e avanzato di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee con prestazioni rapide e accurate.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bilancia intelligenza e velocità per carichi di lavoro aziendali, offrendo alta utilità a costi inferiori e distribuzione affidabile su larga scala.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con una velocità fulminea e capacità di
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con una velocità fulminea e capacità di ragionamento estese.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking è una variante avanzata in grado di mostrare il proprio processo di ragionamento.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 è il modello più recente e potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi,
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza eccezionale e prestazioni scalabili, ideale per compiti complessi che richiedono risposte e ragionamenti di altissima qualità.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking può produrre risposte quasi istantanee o riflessioni estese passo dopo passo con processo visibile.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 è
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 è in grado di fornire risposte quasi istantanee o ragionamenti articolati passo dopo passo con un processo visibile.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente di Anthropic fino ad oggi.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 è un potente assistente di codifica AI che supporta Q&A multilingue e completamento del codice per aumentare la produttività degli sviluppatori.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B è un modello multilingue di generazione di codice che supporta completamento e generazione di codice, interprete di codice, ricerca web, chiamata di funzioni e Q&A a livello di repository, coprendo un'ampia gamma di scenari di sviluppo software. È un modello di codice di alto livello con meno di 10B parametri.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 è un modello visione-linguaggio MoE basato su DeepSeekMoE-27B con attivazione sparsa, che raggiunge prestazioni elevate con solo 4,5B di parametri attivi. Eccelle in QA visivo, OCR, comprensione di documenti/tabelle/grafici e grounding visivo.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "Un nuovo modello open-source che combina capacità generali e di programmazione. Mantiene il dialogo generale del modello conversazionale e la forte abilità di codifica del modello per sviluppatori, con un migliore allineamento alle preferenze. DeepSeek-V2.5 migliora anche la scrittura e la comprensione delle istruzioni.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B è un modello linguistico per il codice addestrato su 2 trilioni di token (87% codice, 13% testo in cinese/inglese). Introduce una finestra di contesto da 16K e compiti di completamento intermedio, offrendo completamento di codice a livello di progetto e riempimento di snippet.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 versione completa veloce con ricerca web in tempo reale, che combina capacità su scala 671B e risposte rapide.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 versione completa con 671 miliardi di parametri e ricerca web in tempo reale, che offre una comprensione e generazione più avanzate.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 utilizza dati cold-start prima dell'RL e ottiene prestazioni comparabili a OpenAI-o1 in matematica, programmazione e ragionamento.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "La modalità di pensiero DeepSeek V3.2 produce una catena di ragionamento prima della risposta finale per migliorarne l’accuratezza.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 è un modello MoE efficiente per un'elaborazione conveniente.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B è il modello DeepSeek focalizzato sul codice con forte capacità di generazione.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 è un modello MoE con 671 miliardi di parametri, con punti di forza nella programmazione, capacità tecnica, comprensione del contesto e gestione di testi lunghi.",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K è un modello ultra-leggero per domande semplici, classificazione e inferenza a basso costo.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K è un modello di pensiero veloce con contesto da 32K per ragionamento complesso e chat multi-turno.",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview è un’anteprima del modello di pensiero per valutazioni e test.",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 è un modello di generazione di immagini di ByteDance Seed, che supporta input testuali e visivi con una generazione di immagini di alta qualità e altamente controllabile. Genera immagini a partire da prompt testuali.",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 è un modello focalizzato sull’editing di immagini, che supporta input di testo e immagini.",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accetta testo e immagini di riferimento come input, consentendo modifiche locali mirate e trasformazioni complesse della scena globale.",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] è un modello di generazione di immagini con una preferenza estetica per immagini più realistiche e naturali.",
|
|
@@ -479,8 +479,8 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "Un potente modello nativo multimodale per la generazione di immagini.",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "Modello di generazione di immagini di alta qualità sviluppato da Google.",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana è il modello multimodale nativo più recente, veloce ed efficiente di Google, che consente la generazione e l’editing di immagini tramite conversazione.",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "
|
|
483
|
-
"fal-ai/qwen-image.description": "
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Un modello professionale di editing immagini del team Qwen che supporta modifiche semantiche e visive, modifica con precisione testi in cinese e inglese, e consente modifiche di alta qualità come trasferimento di stile e rotazione di oggetti.",
|
|
483
|
+
"fal-ai/qwen-image.description": "Un potente modello di generazione di immagini del team Qwen con una resa impressionante del testo cinese e stili visivi diversificati.",
|
|
484
484
|
"flux-1-schnell.description": "Modello testo-immagine da 12 miliardi di parametri di Black Forest Labs che utilizza la distillazione latente avversariale per generare immagini di alta qualità in 1-4 passaggi. Con licenza Apache-2.0 per uso personale, di ricerca e commerciale.",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] è un modello distillato a pesi aperti per uso non commerciale. Mantiene una qualità d’immagine quasi professionale e capacità di seguire istruzioni, con maggiore efficienza rispetto ai modelli standard di pari dimensioni.",
|
|
486
486
|
"flux-kontext-max.description": "Generazione ed editing di immagini contestuali all’avanguardia, combinando testo e immagini per risultati precisi e coerenti.",
|
|
@@ -491,6 +491,41 @@
|
|
|
491
491
|
"flux-pro.description": "Modello commerciale di generazione di immagini di fascia alta con qualità visiva impareggiabile e output diversificati.",
|
|
492
492
|
"flux-schnell.description": "FLUX.1 [schnell] è il modello open-source più avanzato a pochi passaggi, superiore a concorrenti simili e persino a modelli non distillati come Midjourney v6.0 e DALL-E 3 (HD). Ottimizzato per preservare la diversità del pretraining, migliora notevolmente la qualità visiva, il rispetto delle istruzioni, la variazione di dimensioni/aspetto, la gestione dei font e la diversità degli output.",
|
|
493
493
|
"flux.1-schnell.description": "FLUX.1-schnell è un modello ad alte prestazioni per la generazione di immagini rapide in più stili.",
|
|
494
|
+
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) offre prestazioni stabili e regolabili per compiti complessi.",
|
|
495
|
+
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) fornisce un forte supporto multimodale per compiti complessi.",
|
|
496
|
+
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro è il modello AI ad alte prestazioni di Google progettato per l’esecuzione su larga scala di compiti generali.",
|
|
497
|
+
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 è un modello multimodale efficiente per l’implementazione su larga scala.",
|
|
498
|
+
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 è un modello multimodale efficiente progettato per una distribuzione estesa.",
|
|
499
|
+
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 è il più recente modello sperimentale con miglioramenti significativi nei casi d’uso testuali e multimodali.",
|
|
500
|
+
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B è un modello multimodale efficiente progettato per una distribuzione estesa.",
|
|
501
|
+
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B è un modello multimodale efficiente per l’implementazione su larga scala.",
|
|
502
|
+
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 offre un’elaborazione multimodale ottimizzata per compiti complessi.",
|
|
503
|
+
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash è l’ultimo modello AI multimodale di Google con elaborazione rapida, supporto per input testuali, visivi e video, ideale per l’esecuzione efficiente di compiti su larga scala.",
|
|
504
|
+
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 è una soluzione AI multimodale scalabile per compiti complessi.",
|
|
505
|
+
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 è l’ultima versione pronta per la produzione con output di qualità superiore, in particolare per matematica, contesti lunghi e compiti visivi.",
|
|
506
|
+
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 offre un’elaborazione multimodale avanzata con maggiore flessibilità per lo sviluppo di applicazioni.",
|
|
507
|
+
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 applica le ultime ottimizzazioni per un’elaborazione multimodale più efficiente.",
|
|
508
|
+
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro supporta fino a 2 milioni di token, un modello multimodale di medie dimensioni ideale per compiti complessi.",
|
|
509
|
+
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash offre funzionalità di nuova generazione tra cui velocità eccezionale, uso nativo di strumenti, generazione multimodale e una finestra di contesto da 1 milione di token.",
|
|
510
|
+
"gemini-2.0-flash-exp-image-generation.description": "Modello sperimentale Gemini 2.0 Flash con supporto alla generazione di immagini.",
|
|
511
|
+
"gemini-2.0-flash-exp.description": "Una variante di Gemini 2.0 Flash ottimizzata per efficienza dei costi e bassa latenza.",
|
|
512
|
+
"gemini-2.0-flash-lite-001.description": "Una variante di Gemini 2.0 Flash ottimizzata per efficienza dei costi e bassa latenza.",
|
|
513
|
+
"gemini-2.0-flash-lite.description": "Una variante di Gemini 2.0 Flash ottimizzata per efficienza dei costi e bassa latenza.",
|
|
514
|
+
"gemini-2.0-flash.description": "Gemini 2.0 Flash offre funzionalità di nuova generazione tra cui velocità eccezionale, uso nativo di strumenti, generazione multimodale e una finestra di contesto da 1 milione di token.",
|
|
515
|
+
"gemini-2.5-flash-image-preview.description": "Nano Banana è il più recente, veloce ed efficiente modello multimodale nativo di Google, che consente la generazione e modifica di immagini in conversazione.",
|
|
516
|
+
"gemini-2.5-flash-image-preview:image.description": "Nano Banana è il più recente, veloce ed efficiente modello multimodale nativo di Google, che consente la generazione e modifica di immagini in conversazione.",
|
|
517
|
+
"gemini-2.5-flash-image.description": "Nano Banana è il più recente, veloce ed efficiente modello multimodale nativo di Google, che consente la generazione e modifica di immagini in conversazione.",
|
|
518
|
+
"gemini-2.5-flash-image:image.description": "Nano Banana è il più recente, veloce ed efficiente modello multimodale nativo di Google, che consente la generazione e modifica di immagini in conversazione.",
|
|
519
|
+
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview è il modello più piccolo e conveniente di Google, progettato per l’uso su larga scala.",
|
|
520
|
+
"gemini-2.5-flash-lite-preview-09-2025.description": "Versione di anteprima (25 settembre 2025) di Gemini 2.5 Flash-Lite",
|
|
521
|
+
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite è il modello più piccolo e conveniente di Google, progettato per l’uso su larga scala.",
|
|
522
|
+
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview è il modello più conveniente di Google con funzionalità complete.",
|
|
523
|
+
"gemini-2.5-flash-preview-09-2025.description": "Versione di anteprima (25 settembre 2025) di Gemini 2.5 Flash",
|
|
524
|
+
"gemini-2.5-flash.description": "Gemini 2.5 Flash è il modello più conveniente di Google con funzionalità complete.",
|
|
525
|
+
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview è il modello di ragionamento più avanzato di Google, in grado di ragionare su codice, matematica e problemi STEM, e analizzare grandi dataset, basi di codice e documenti con contesto esteso.",
|
|
526
|
+
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview è il modello di ragionamento più avanzato di Google, in grado di ragionare su codice, matematica e problemi STEM, e analizzare grandi dataset, basi di codice e documenti con contesto esteso.",
|
|
527
|
+
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview è il modello di ragionamento più avanzato di Google, in grado di ragionare su codice, matematica e problemi STEM, e analizzare grandi dataset, basi di codice e documenti con contesto esteso.",
|
|
528
|
+
"gemini-2.5-pro.description": "Gemini 2.5 Pro è il modello di ragionamento più avanzato di Google, in grado di ragionare su codice, matematica e problemi STEM, e analizzare grandi dataset, basi di codice e documenti con contesto esteso.",
|
|
494
529
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 è un LLM open-source pensato per sviluppatori, ricercatori e aziende, progettato per supportare la creazione, la sperimentazione e la scalabilità responsabile di idee basate su IA generativa. Parte integrante dell’ecosistema globale per l’innovazione comunitaria, è ideale per ambienti con risorse limitate, dispositivi edge e tempi di addestramento ridotti.",
|
|
495
530
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Solido ragionamento visivo su immagini ad alta risoluzione, ideale per applicazioni di comprensione visiva.",
|
|
496
531
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Ragionamento visivo avanzato per applicazioni agenti di comprensione visiva.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Un'organizzazione open-source focalizzata sulla ricerca e gli strumenti per modelli di grandi dimensioni, che offre una piattaforma efficiente e facile da usare per rendere accessibili modelli e algoritmi all'avanguardia.",
|
|
30
30
|
"jina.description": "Fondata nel 2020, Jina AI è un'azienda leader nell'AI per la ricerca. Il suo stack include modelli vettoriali, reranker e piccoli modelli linguistici per costruire app di ricerca generativa e multimodale affidabili e di alta qualità.",
|
|
31
31
|
"lmstudio.description": "LM Studio è un'app desktop per sviluppare e sperimentare con LLM direttamente sul tuo computer.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud utilizza le API ufficiali per accedere ai modelli di intelligenza artificiale e misura l'utilizzo tramite Crediti legati ai token del modello.",
|
|
33
32
|
"minimax.description": "Fondata nel 2021, MiniMax sviluppa AI generali con modelli fondamentali multimodali, inclusi modelli testuali MoE da trilioni di parametri, modelli vocali e visivi, oltre ad app come Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral offre modelli avanzati generali, specializzati e di ricerca per ragionamento complesso, compiti multilingue e generazione di codice, con supporto per chiamate di funzione per integrazioni personalizzate.",
|
|
35
34
|
"modelscope.description": "ModelScope è la piattaforma di modelli-as-a-service di Alibaba Cloud, che offre un'ampia gamma di modelli AI e servizi di inferenza.",
|