@lobehub/lobehub 2.0.0-next.234 → 2.0.0-next.235
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/locales/ar/components.json +1 -0
- package/locales/ar/file.json +4 -0
- package/locales/ar/models.json +29 -0
- package/locales/ar/setting.json +7 -0
- package/locales/bg-BG/components.json +1 -0
- package/locales/bg-BG/file.json +4 -0
- package/locales/bg-BG/models.json +1 -0
- package/locales/bg-BG/setting.json +7 -0
- package/locales/de-DE/components.json +1 -0
- package/locales/de-DE/file.json +4 -0
- package/locales/de-DE/models.json +29 -0
- package/locales/de-DE/setting.json +7 -0
- package/locales/en-US/common.json +0 -1
- package/locales/en-US/components.json +1 -0
- package/locales/en-US/file.json +4 -0
- package/locales/en-US/models.json +1 -0
- package/locales/es-ES/components.json +1 -0
- package/locales/es-ES/file.json +4 -0
- package/locales/es-ES/models.json +43 -0
- package/locales/es-ES/setting.json +7 -0
- package/locales/fa-IR/components.json +1 -0
- package/locales/fa-IR/file.json +4 -0
- package/locales/fa-IR/models.json +54 -0
- package/locales/fa-IR/setting.json +7 -0
- package/locales/fr-FR/components.json +1 -0
- package/locales/fr-FR/file.json +4 -0
- package/locales/fr-FR/models.json +31 -0
- package/locales/fr-FR/setting.json +7 -0
- package/locales/it-IT/components.json +1 -0
- package/locales/it-IT/file.json +4 -0
- package/locales/it-IT/models.json +43 -0
- package/locales/it-IT/setting.json +7 -0
- package/locales/ja-JP/components.json +1 -0
- package/locales/ja-JP/file.json +4 -0
- package/locales/ja-JP/models.json +28 -0
- package/locales/ja-JP/setting.json +7 -0
- package/locales/ko-KR/components.json +1 -0
- package/locales/ko-KR/file.json +4 -0
- package/locales/ko-KR/models.json +37 -0
- package/locales/ko-KR/setting.json +7 -0
- package/locales/nl-NL/components.json +1 -0
- package/locales/nl-NL/file.json +4 -0
- package/locales/nl-NL/models.json +13 -0
- package/locales/nl-NL/setting.json +7 -0
- package/locales/pl-PL/components.json +1 -0
- package/locales/pl-PL/file.json +4 -0
- package/locales/pl-PL/models.json +13 -0
- package/locales/pl-PL/setting.json +7 -0
- package/locales/pt-BR/components.json +1 -0
- package/locales/pt-BR/file.json +4 -0
- package/locales/pt-BR/models.json +29 -0
- package/locales/pt-BR/setting.json +7 -0
- package/locales/ru-RU/components.json +1 -0
- package/locales/ru-RU/file.json +4 -0
- package/locales/ru-RU/models.json +1 -0
- package/locales/ru-RU/setting.json +7 -0
- package/locales/tr-TR/components.json +1 -0
- package/locales/tr-TR/file.json +4 -0
- package/locales/tr-TR/models.json +29 -0
- package/locales/tr-TR/setting.json +7 -0
- package/locales/vi-VN/components.json +1 -0
- package/locales/vi-VN/file.json +4 -0
- package/locales/vi-VN/models.json +1 -0
- package/locales/vi-VN/setting.json +7 -0
- package/locales/zh-CN/models.json +46 -0
- package/locales/zh-TW/components.json +1 -0
- package/locales/zh-TW/file.json +4 -0
- package/locales/zh-TW/models.json +35 -0
- package/locales/zh-TW/setting.json +7 -0
- package/package.json +1 -1
- package/src/server/routers/lambda/_helpers/resolveContext.ts +8 -8
- package/src/server/routers/lambda/agent.ts +1 -1
- package/src/server/routers/lambda/aiModel.ts +1 -1
- package/src/server/routers/lambda/comfyui.ts +1 -1
- package/src/server/routers/lambda/exporter.ts +1 -1
- package/src/server/routers/lambda/image.ts +13 -13
- package/src/server/routers/lambda/klavis.ts +10 -10
- package/src/server/routers/lambda/market/index.ts +6 -6
- package/src/server/routers/lambda/message.ts +2 -2
- package/src/server/routers/lambda/plugin.ts +1 -1
- package/src/server/routers/lambda/ragEval.ts +2 -2
- package/src/server/routers/lambda/topic.ts +3 -3
- package/src/server/routers/lambda/user.ts +10 -10
- package/src/server/routers/lambda/userMemories.ts +6 -6
|
@@ -458,6 +458,60 @@
|
|
|
458
458
|
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B یک مدل چندوجهی متنباز برای درک و استدلال تصویر-متن است.",
|
|
459
459
|
"ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking یک مدل پرچمدار بومی تماموجهی است که مدلسازی متن، تصویر، صدا و ویدیو را یکپارچه میکند. این مدل ارتقاهای گستردهای در توانایی برای پرسش و پاسخ پیچیده، تولید محتوا و سناریوهای عامل ارائه میدهد.",
|
|
460
460
|
"ernie-5.0-thinking-preview.description": "پیشنمایش Wenxin 5.0 Thinking، یک مدل پرچمدار بومی تماموجهی با مدلسازی یکپارچه متن، تصویر، صدا و ویدیو. این مدل ارتقاهای گستردهای در توانایی برای پرسش و پاسخ پیچیده، تولید محتوا و سناریوهای عامل ارائه میدهد.",
|
|
461
|
+
"ernie-char-8k.description": "ERNIE Character 8K یک مدل گفتوگوی شخصیتی برای ساخت شخصیتهای IP و چت همراه بلندمدت است.",
|
|
462
|
+
"ernie-char-fiction-8k-preview.description": "پیشنمایش ERNIE Character Fiction 8K یک مدل ساخت شخصیت و داستان برای ارزیابی و آزمایش ویژگیها است.",
|
|
463
|
+
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K یک مدل شخصیتی برای رماننویسی و خلق داستان است که برای تولید داستانهای بلند مناسب است.",
|
|
464
|
+
"ernie-irag-edit.description": "ERNIE iRAG Edit یک مدل ویرایش تصویر است که از پاککردن، بازنقاشی و تولید نسخههای جایگزین پشتیبانی میکند.",
|
|
465
|
+
"ernie-lite-8k.description": "ERNIE Lite 8K یک مدل سبک عمومی برای پرسشوپاسخ روزمره و تولید محتوا با حساسیت به هزینه است.",
|
|
466
|
+
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K یک مدل سبک و پرکاربرد برای سناریوهای حساس به تأخیر و هزینه است.",
|
|
467
|
+
"ernie-novel-8k.description": "ERNIE Novel 8K برای رمانهای بلند و داستانهای IP با روایت چندشخصیتی طراحی شده است.",
|
|
468
|
+
"ernie-speed-128k.description": "ERNIE Speed 128K یک مدل بدون هزینه ورودی/خروجی برای درک متون بلند و آزمایشهای گسترده است.",
|
|
469
|
+
"ernie-speed-8k.description": "ERNIE Speed 8K یک مدل رایگان و سریع برای چت روزمره و وظایف متنی سبک است.",
|
|
470
|
+
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K یک مدل با ارزش بالا و همزمانی بالا برای خدمات آنلاین گسترده و برنامههای سازمانی است.",
|
|
471
|
+
"ernie-tiny-8k.description": "ERNIE Tiny 8K یک مدل فوقسبک برای پرسشوپاسخ ساده، طبقهبندی و استنتاج کمهزینه است.",
|
|
472
|
+
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفتوگوی چندمرحلهای است.",
|
|
473
|
+
"ernie-x1.1-preview.description": "پیشنمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودیهای متنی و تصویری پشتیبانی میکند و تولید تصویر با کیفیت بالا و قابل کنترل را ارائه میدهد. این مدل تصاویر را از دستورات متنی تولید میکند.",
|
|
475
|
+
"fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودیهای متنی و تصویری پشتیبانی میکند.",
|
|
476
|
+
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودیهای متنی و تصاویر مرجع را میپذیرد و امکان ویرایشهای محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم میکند.",
|
|
477
|
+
"fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیباییشناسی به تصاویر طبیعی و واقعگرایانهتر است.",
|
|
478
|
+
"fal-ai/flux/schnell.description": "FLUX.1 [schnell] یک مدل تولید تصویر با ۱۲ میلیارد پارامتر است که برای خروجی سریع و با کیفیت بالا طراحی شده است.",
|
|
479
|
+
"fal-ai/hunyuan-image/v3.description": "یک مدل قدرتمند بومی چندوجهی برای تولید تصویر.",
|
|
480
|
+
"fal-ai/imagen4/preview.description": "مدل تولید تصویر با کیفیت بالا از گوگل.",
|
|
481
|
+
"fal-ai/nano-banana.description": "Nano Banana جدیدترین، سریعترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویر از طریق مکالمه را فراهم میکند.",
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "یک مدل حرفهای ویرایش تصویر از تیم Qwen که از ویرایشهای معنایی و ظاهری پشتیبانی میکند، متون چینی و انگلیسی را با دقت ویرایش میکند و ویرایشهای با کیفیتی مانند انتقال سبک و چرخش اشیاء را ممکن میسازد.",
|
|
483
|
+
"fal-ai/qwen-image.description": "یک مدل قدرتمند تولید تصویر از تیم Qwen با رندر چشمگیر متن چینی و سبکهای بصری متنوع.",
|
|
484
|
+
"flux-1-schnell.description": "مدل تبدیل متن به تصویر با ۱۲ میلیارد پارامتر از Black Forest Labs که از تقطیر انتشار تقابلی نهفته برای تولید تصاویر با کیفیت بالا در ۱ تا ۴ مرحله استفاده میکند. این مدل با جایگزینهای بسته رقابت میکند و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است.",
|
|
485
|
+
"flux-dev.description": "FLUX.1 [dev] یک مدل تقطیر شده با وزنهای باز برای استفاده غیرتجاری است. این مدل کیفیت تصویر نزدیک به حرفهای و پیروی از دستورالعمل را حفظ میکند و در عین حال کارآمدتر اجرا میشود و منابع را بهتر از مدلهای استاندارد همسایز استفاده میکند.",
|
|
486
|
+
"flux-kontext-max.description": "تولید و ویرایش تصویر متنی-زمینهای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب میکند.",
|
|
487
|
+
"flux-kontext-pro.description": "تولید و ویرایش تصویر متنی-زمینهای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب میکند.",
|
|
488
|
+
"flux-merged.description": "FLUX.1-merged ویژگیهای عمیق بررسیشده در «DEV» را با مزایای سرعت بالای «Schnell» ترکیب میکند و مرزهای عملکرد را گسترش داده و کاربردها را افزایش میدهد.",
|
|
489
|
+
"flux-pro-1.1-ultra.description": "تولید تصویر با وضوح فوقالعاده بالا با خروجی ۴ مگاپیکسلی، تولید تصاویر شفاف در ۱۰ ثانیه.",
|
|
490
|
+
"flux-pro-1.1.description": "مدل ارتقاءیافته تولید تصویر حرفهای با کیفیت تصویر عالی و پیروی دقیق از دستورات.",
|
|
491
|
+
"flux-pro.description": "مدل تولید تصویر تجاری سطح بالا با کیفیت تصویر بینظیر و خروجیهای متنوع.",
|
|
492
|
+
"flux-schnell.description": "FLUX.1 [schnell] پیشرفتهترین مدل متنباز چندمرحلهای است که از رقبای مشابه و حتی مدلهای تقطیرنشده قوی مانند Midjourney v6.0 و DALL-E 3 (HD) پیشی میگیرد. این مدل بهخوبی برای حفظ تنوع پیشآموزش تنظیم شده و کیفیت بصری، پیروی از دستورالعمل، تنوع اندازه/نسبت، مدیریت فونت و تنوع خروجی را بهطور قابل توجهی بهبود میبخشد.",
|
|
493
|
+
"flux.1-schnell.description": "FLUX.1-schnell یک مدل تولید تصویر با عملکرد بالا برای خروجیهای سریع و چندسبکی است.",
|
|
494
|
+
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (تنظیمشده) عملکردی پایدار و قابل تنظیم برای وظایف پیچیده ارائه میدهد.",
|
|
495
|
+
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (تنظیمشده) پشتیبانی قوی چندوجهی برای وظایف پیچیده فراهم میکند.",
|
|
496
|
+
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro مدل هوش مصنوعی با عملکرد بالای گوگل است که برای مقیاسپذیری گسترده وظایف طراحی شده است.",
|
|
497
|
+
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 یک مدل چندوجهی کارآمد برای مقیاسپذیری گسترده کاربردها است.",
|
|
498
|
+
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 یک مدل چندوجهی کارآمد است که برای استقرار گسترده طراحی شده است.",
|
|
499
|
+
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 جدیدترین مدل آزمایشی با پیشرفتهای قابل توجه در کاربردهای متنی و چندوجهی است.",
|
|
500
|
+
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B یک مدل چندوجهی کارآمد است که برای استقرار گسترده طراحی شده است.",
|
|
501
|
+
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B یک مدل چندوجهی کارآمد برای مقیاسپذیری گسترده کاربردها است.",
|
|
502
|
+
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 پردازش چندوجهی بهینهشده برای وظایف پیچیده ارائه میدهد.",
|
|
503
|
+
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash جدیدترین مدل چندوجهی هوش مصنوعی گوگل است که از ورودیهای متنی، تصویری و ویدیویی پشتیبانی میکند و پردازش سریع را برای مقیاسپذیری مؤثر در وظایف مختلف فراهم میسازد.",
|
|
504
|
+
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 یک راهکار چندوجهی مقیاسپذیر برای وظایف پیچیده است.",
|
|
505
|
+
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 جدیدترین مدل آماده تولید با خروجی با کیفیت بالاتر، بهویژه برای ریاضی، زمینههای طولانی و وظایف بصری است.",
|
|
506
|
+
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 پردازش چندوجهی قوی با انعطافپذیری بیشتر برای توسعه برنامهها ارائه میدهد.",
|
|
507
|
+
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 آخرین بهینهسازیها را برای پردازش چندوجهی کارآمدتر اعمال میکند.",
|
|
508
|
+
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro از حداکثر ۲ میلیون توکن پشتیبانی میکند و یک مدل چندوجهی میانرده ایدهآل برای وظایف پیچیده است.",
|
|
509
|
+
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash ویژگیهای نسل بعدی از جمله سرعت استثنایی، استفاده بومی از ابزارها، تولید چندوجهی و پنجره زمینه ۱ میلیون توکن را ارائه میدهد.",
|
|
510
|
+
"gemini-2.0-flash-exp-image-generation.description": "مدل آزمایشی Gemini 2.0 Flash با پشتیبانی از تولید تصویر.",
|
|
511
|
+
"gemini-2.0-flash-exp.description": "یک نسخه بهینهشده Gemini 2.0 Flash برای بهرهوری هزینه و تأخیر کم.",
|
|
512
|
+
"gemini-2.0-flash-lite-001.description": "یک نسخه بهینهشده Gemini 2.0 Flash برای بهرهوری هزینه و تأخیر کم.",
|
|
513
|
+
"gemini-2.0-flash-lite.description": "یک نسخه بهینهشده Gemini 2.0 Flash برای بهرهوری هزینه و تأخیر کم.",
|
|
514
|
+
"gemini-2.0-flash.description": "Gemini 2.0 Flash ویژگیهای نسل بعدی از جمله سرعت استثنایی، استفاده بومی از ابزارها، تولید چندوجهی و پنجره زمینه ۱ میلیون توکن را ارائه میدهد.",
|
|
461
515
|
"meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعهدهندگان، پژوهشگران و شرکتها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایدههای هوش مصنوعی مولد طراحی شده است. این مدل بهعنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیطهایی با منابع محدود، دستگاههای لبه و زمانهای آموزش سریع مناسب است.",
|
|
462
516
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامههای درک بصری.",
|
|
463
517
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامههای عامل با قابلیت درک بصری.",
|
|
@@ -127,6 +127,10 @@
|
|
|
127
127
|
"llm.proxyUrl.title": "آدرس پراکسی API",
|
|
128
128
|
"llm.waitingForMore": "مدلهای بیشتری <1>در حال برنامهریزی برای افزودن</1> هستند، با ما همراه باشید",
|
|
129
129
|
"llm.waitingForMoreLinkAriaLabel": "فرم درخواست ارائهدهنده را باز کنید",
|
|
130
|
+
"marketPublish.forkConfirm.by": "توسط {{author}}",
|
|
131
|
+
"marketPublish.forkConfirm.confirm": "تأیید انتشار",
|
|
132
|
+
"marketPublish.forkConfirm.description": "شما در حال انتشار نسخهای مشتقشده بر اساس یک عامل موجود از جامعه هستید. عامل جدید شما بهعنوان یک ورودی جداگانه در بازار ایجاد خواهد شد.",
|
|
133
|
+
"marketPublish.forkConfirm.title": "انتشار عامل مشتقشده",
|
|
130
134
|
"marketPublish.modal.changelog.extra": "توضیحی درباره تغییرات و بهبودهای کلیدی در این نسخه ارائه دهید",
|
|
131
135
|
"marketPublish.modal.changelog.label": "تغییرات نسخه",
|
|
132
136
|
"marketPublish.modal.changelog.maxLengthError": "تغییرات نسخه نباید بیش از ۵۰۰ کاراکتر باشد",
|
|
@@ -524,6 +528,9 @@
|
|
|
524
528
|
"tools.klavis.servers": "سرورها",
|
|
525
529
|
"tools.klavis.tools": "ابزارها",
|
|
526
530
|
"tools.klavis.verifyAuth": "احراز هویت را کامل کردهام",
|
|
531
|
+
"tools.lobehubSkill.authorize": "اعطا مجوز",
|
|
532
|
+
"tools.lobehubSkill.connect": "اتصال",
|
|
533
|
+
"tools.lobehubSkill.error": "خطا",
|
|
527
534
|
"tools.notInstalled": "نصب نشده",
|
|
528
535
|
"tools.notInstalledWarning": "این مهارت در حال حاضر نصب نشده است و ممکن است عملکرد عامل را تحت تأثیر قرار دهد.",
|
|
529
536
|
"tools.plugins.enabled": "فعالشده: {{num}}",
|
|
@@ -99,6 +99,7 @@
|
|
|
99
99
|
"ModelSwitchPanel.goToSettings": "Aller aux paramètres",
|
|
100
100
|
"ModelSwitchPanel.manageProvider": "Gérer le fournisseur",
|
|
101
101
|
"ModelSwitchPanel.provider": "Fournisseur",
|
|
102
|
+
"ModelSwitchPanel.searchPlaceholder": "Rechercher des modèles...",
|
|
102
103
|
"ModelSwitchPanel.title": "Modèle",
|
|
103
104
|
"ModelSwitchPanel.useModelFrom": "Utiliser ce modèle depuis :",
|
|
104
105
|
"MultiImagesUpload.actions.uploadMore": "Cliquez ou glissez pour téléverser plus",
|
package/locales/fr-FR/file.json
CHANGED
|
@@ -37,6 +37,7 @@
|
|
|
37
37
|
"header.actions.notionGuide.title": "Importer depuis Notion",
|
|
38
38
|
"header.actions.uploadFile": "Importer un fichier",
|
|
39
39
|
"header.actions.uploadFolder": "Importer un dossier",
|
|
40
|
+
"header.actions.uploadFolder.creatingFolders": "Création de la structure des dossiers...",
|
|
40
41
|
"header.newPageButton": "Nouvelle page",
|
|
41
42
|
"header.uploadButton": "Importer",
|
|
42
43
|
"home.getStarted": "Commencer",
|
|
@@ -119,6 +120,8 @@
|
|
|
119
120
|
"title": "Ressources",
|
|
120
121
|
"toggleLeftPanel": "Afficher/Masquer le panneau gauche",
|
|
121
122
|
"uploadDock.body.collapse": "Réduire",
|
|
123
|
+
"uploadDock.body.item.cancel": "Annuler",
|
|
124
|
+
"uploadDock.body.item.cancelled": "Annulé",
|
|
122
125
|
"uploadDock.body.item.done": "Importé",
|
|
123
126
|
"uploadDock.body.item.error": "Échec de l’importation, veuillez réessayer",
|
|
124
127
|
"uploadDock.body.item.pending": "Préparation à l’importation...",
|
|
@@ -126,6 +129,7 @@
|
|
|
126
129
|
"uploadDock.body.item.restTime": "Temps restant : {{time}}",
|
|
127
130
|
"uploadDock.fileQueueInfo": "Importation des {{count}} premiers fichiers, {{remaining}} en attente",
|
|
128
131
|
"uploadDock.totalCount": "Total : {{count}} éléments",
|
|
132
|
+
"uploadDock.uploadStatus.cancelled": "Téléversement annulé",
|
|
129
133
|
"uploadDock.uploadStatus.error": "Erreur d’importation",
|
|
130
134
|
"uploadDock.uploadStatus.pending": "En attente d’importation",
|
|
131
135
|
"uploadDock.uploadStatus.processing": "Importation en cours",
|
|
@@ -382,6 +382,37 @@
|
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.",
|
|
385
|
+
"deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus est un modèle LLM optimisé pour les terminaux, développé par DeepSeek, spécialement conçu pour les appareils en ligne de commande.",
|
|
386
|
+
"deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 est le modèle de réflexion approfondie correspondant à la version Terminus, conçu pour un raisonnement haute performance.",
|
|
387
|
+
"deepseek-v3.1.description": "DeepSeek-V3.1 est un nouveau modèle de raisonnement hybride de DeepSeek, prenant en charge les modes avec ou sans réflexion, et offrant une efficacité de raisonnement supérieure à celle de DeepSeek-R1-0528. Les optimisations post-entraînement améliorent considérablement l'utilisation des outils par les agents et leurs performances sur les tâches. Il prend en charge une fenêtre de contexte de 128k et jusqu'à 64k jetons de sortie.",
|
|
388
|
+
"deepseek-v3.1:671b.description": "DeepSeek V3.1 est un modèle de raisonnement de nouvelle génération, amélioré pour le raisonnement complexe et la chaîne de pensée, adapté aux tâches nécessitant une analyse approfondie.",
|
|
389
|
+
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduit l'attention clairsemée pour améliorer l'efficacité de l'entraînement et de l'inférence sur les textes longs, à un coût inférieur à celui de deepseek-v3.1.",
|
|
390
|
+
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think est un modèle de réflexion approfondie complet, doté d'un raisonnement en chaîne plus puissant.",
|
|
391
|
+
"deepseek-v3.2.description": "DeepSeek-V3.2 est le premier modèle de raisonnement hybride de DeepSeek intégrant la réflexion à l'utilisation d'outils. Il combine une architecture efficace pour économiser les ressources, un apprentissage par renforcement à grande échelle pour améliorer les capacités, et des données synthétiques massives pour renforcer la généralisation. Ses performances rivalisent avec celles de GPT-5-High, tout en réduisant considérablement la longueur des sorties, les coûts de calcul et le temps d'attente des utilisateurs.",
|
|
392
|
+
"deepseek-v3.description": "DeepSeek-V3 est un puissant modèle MoE avec 671 milliards de paramètres au total et 37 milliards actifs par jeton.",
|
|
393
|
+
"deepseek-vl2-small.description": "DeepSeek VL2 Small est une version multimodale légère, conçue pour les environnements à ressources limitées et les cas d'utilisation à forte concurrence.",
|
|
394
|
+
"deepseek-vl2.description": "DeepSeek VL2 est un modèle multimodal pour la compréhension image-texte et les questions-réponses visuelles de précision.",
|
|
395
|
+
"deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 est un modèle MoE de 685 milliards de paramètres, dernière itération de la série de chat phare de DeepSeek.\n\nIl s'appuie sur [DeepSeek V3](/deepseek/deepseek-chat-v3) et offre d'excellentes performances sur diverses tâches.",
|
|
396
|
+
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 est un modèle MoE de 685 milliards de paramètres, dernière itération de la série de chat phare de DeepSeek.\n\nIl s'appuie sur [DeepSeek V3](/deepseek/deepseek-chat-v3) et offre d'excellentes performances sur diverses tâches.",
|
|
397
|
+
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 est le modèle de raisonnement hybride à long contexte de DeepSeek, prenant en charge les modes de réflexion mixtes et l'intégration d'outils.",
|
|
398
|
+
"deepseek/deepseek-chat.description": "DeepSeek-V3 est le modèle de raisonnement hybride haute performance de DeepSeek, conçu pour les tâches complexes et l'intégration d'outils.",
|
|
399
|
+
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 est une variante mise à jour axée sur l'ouverture et un raisonnement plus approfondi.",
|
|
400
|
+
"deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 améliore considérablement le raisonnement avec un minimum de données annotées et génère une chaîne de pensée avant la réponse finale pour en accroître la précision.",
|
|
401
|
+
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B est un LLM distillé basé sur Llama 3.3 70B, affiné à l'aide des sorties de DeepSeek R1 pour atteindre des performances comparables aux modèles de pointe.",
|
|
402
|
+
"deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B est un LLM distillé basé sur Llama-3.1-8B-Instruct, entraîné à partir des sorties de DeepSeek R1.",
|
|
403
|
+
"deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B est un LLM distillé basé sur Qwen 2.5 14B, entraîné à partir des sorties de DeepSeek R1. Il surpasse OpenAI o1-mini sur plusieurs benchmarks, atteignant des résultats de pointe parmi les modèles denses. Résultats clés :\nAIME 2024 pass@1 : 69,7\nMATH-500 pass@1 : 93,9\nCodeForces Rating : 1481\nL'affinage avec les sorties de DeepSeek R1 permet d'obtenir des performances compétitives face aux modèles de pointe plus volumineux.",
|
|
404
|
+
"deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B est un LLM distillé basé sur Qwen 2.5 32B, entraîné à partir des sorties de DeepSeek R1. Il surpasse OpenAI o1-mini sur plusieurs benchmarks, atteignant des résultats de pointe parmi les modèles denses. Résultats clés :\nAIME 2024 pass@1 : 72,6\nMATH-500 pass@1 : 94,3\nCodeForces Rating : 1691\nL'affinage avec les sorties de DeepSeek R1 permet d'obtenir des performances compétitives face aux modèles de pointe plus volumineux.",
|
|
405
|
+
"deepseek/deepseek-r1.description": "DeepSeek R1 a été mis à jour vers DeepSeek-R1-0528. Grâce à une puissance de calcul accrue et à des optimisations algorithmiques post-entraînement, il améliore considérablement la profondeur et la capacité de raisonnement. Il offre d'excellentes performances en mathématiques, programmation et logique générale, rivalisant avec des leaders comme o3 et Gemini 2.5 Pro.",
|
|
406
|
+
"deepseek/deepseek-r1/community.description": "DeepSeek R1 est le dernier modèle open source publié par l'équipe DeepSeek, avec des performances de raisonnement très solides, notamment en mathématiques, en programmation et en logique, comparables à OpenAI o1.",
|
|
407
|
+
"deepseek/deepseek-r1:free.description": "DeepSeek-R1 améliore considérablement le raisonnement avec un minimum de données annotées et génère une chaîne de pensée avant la réponse finale pour en accroître la précision.",
|
|
408
|
+
"deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner) est le modèle expérimental de raisonnement de DeepSeek, adapté aux tâches de raisonnement à haute complexité.",
|
|
409
|
+
"deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base est une version améliorée du modèle DeepSeek V3.",
|
|
410
|
+
"deepseek/deepseek-v3.description": "Un LLM polyvalent rapide avec des capacités de raisonnement renforcées.",
|
|
411
|
+
"deepseek/deepseek-v3/community.description": "DeepSeek-V3 marque une avancée majeure en vitesse de raisonnement par rapport aux modèles précédents. Il se classe premier parmi les modèles open source et rivalise avec les modèles propriétaires les plus avancés. DeepSeek-V3 adopte l'attention latente multi-tête (MLA) et l'architecture DeepSeekMoE, toutes deux validées dans DeepSeek-V2. Il introduit également une stratégie auxiliaire sans perte pour l'équilibrage de charge et un objectif d'entraînement à prédiction multi-jetons pour des performances accrues.",
|
|
412
|
+
"deepseek_r1.description": "DeepSeek-R1 est un modèle de raisonnement basé sur l'apprentissage par renforcement, conçu pour résoudre les problèmes de répétition et de lisibilité. Avant l'étape RL, il utilise des données de démarrage à froid pour améliorer encore les performances de raisonnement. Il rivalise avec OpenAI-o1 en mathématiques, programmation et logique, grâce à un entraînement soigneusement conçu qui améliore les résultats globaux.",
|
|
413
|
+
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B est distillé à partir de Llama-3.3-70B-Instruct. Faisant partie de la série DeepSeek-R1, il est affiné sur des échantillons générés par DeepSeek-R1 et offre d'excellentes performances en mathématiques, programmation et raisonnement.",
|
|
414
|
+
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B est distillé à partir de Qwen2.5-14B et affiné sur 800 000 échantillons sélectionnés générés par DeepSeek-R1, offrant un raisonnement solide.",
|
|
415
|
+
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B est distillé à partir de Qwen2.5-32B et affiné sur 800 000 échantillons sélectionnés générés par DeepSeek-R1, excellant en mathématiques, programmation et raisonnement.",
|
|
385
416
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
|
|
386
417
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
|
|
387
418
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",
|
|
@@ -127,6 +127,10 @@
|
|
|
127
127
|
"llm.proxyUrl.title": "URL du proxy API",
|
|
128
128
|
"llm.waitingForMore": "D'autres modèles <1>seront ajoutés prochainement</1>, restez à l'écoute",
|
|
129
129
|
"llm.waitingForMoreLinkAriaLabel": "Ouvrir le formulaire de demande de fournisseur",
|
|
130
|
+
"marketPublish.forkConfirm.by": "par {{author}}",
|
|
131
|
+
"marketPublish.forkConfirm.confirm": "Confirmer la publication",
|
|
132
|
+
"marketPublish.forkConfirm.description": "Vous êtes sur le point de publier une version dérivée basée sur un agent existant de la communauté. Votre nouvel agent sera créé comme une entrée distincte dans la place de marché.",
|
|
133
|
+
"marketPublish.forkConfirm.title": "Publier un agent dérivé",
|
|
130
134
|
"marketPublish.modal.changelog.extra": "Décrivez les principales modifications et améliorations de cette version",
|
|
131
135
|
"marketPublish.modal.changelog.label": "Journal des modifications",
|
|
132
136
|
"marketPublish.modal.changelog.maxLengthError": "Le journal des modifications ne doit pas dépasser 500 caractères",
|
|
@@ -524,6 +528,9 @@
|
|
|
524
528
|
"tools.klavis.servers": "serveurs",
|
|
525
529
|
"tools.klavis.tools": "outils",
|
|
526
530
|
"tools.klavis.verifyAuth": "J’ai terminé l’authentification",
|
|
531
|
+
"tools.lobehubSkill.authorize": "Autoriser",
|
|
532
|
+
"tools.lobehubSkill.connect": "Connecter",
|
|
533
|
+
"tools.lobehubSkill.error": "Erreur",
|
|
527
534
|
"tools.notInstalled": "Non installé",
|
|
528
535
|
"tools.notInstalledWarning": "Cette compétence n’est pas installée actuellement, ce qui peut affecter le fonctionnement de l’agent.",
|
|
529
536
|
"tools.plugins.enabled": "Activées : {{num}}",
|
|
@@ -99,6 +99,7 @@
|
|
|
99
99
|
"ModelSwitchPanel.goToSettings": "Vai alle impostazioni",
|
|
100
100
|
"ModelSwitchPanel.manageProvider": "Gestisci Fornitore",
|
|
101
101
|
"ModelSwitchPanel.provider": "Provider",
|
|
102
|
+
"ModelSwitchPanel.searchPlaceholder": "Cerca modelli...",
|
|
102
103
|
"ModelSwitchPanel.title": "Modello",
|
|
103
104
|
"ModelSwitchPanel.useModelFrom": "Usa questo modello da:",
|
|
104
105
|
"MultiImagesUpload.actions.uploadMore": "Clicca o trascina per caricare altri",
|
package/locales/it-IT/file.json
CHANGED
|
@@ -37,6 +37,7 @@
|
|
|
37
37
|
"header.actions.notionGuide.title": "Importa da Notion",
|
|
38
38
|
"header.actions.uploadFile": "Carica file",
|
|
39
39
|
"header.actions.uploadFolder": "Carica cartella",
|
|
40
|
+
"header.actions.uploadFolder.creatingFolders": "Creazione della struttura delle cartelle in corso...",
|
|
40
41
|
"header.newPageButton": "Nuova pagina",
|
|
41
42
|
"header.uploadButton": "Carica",
|
|
42
43
|
"home.getStarted": "Inizia",
|
|
@@ -119,6 +120,8 @@
|
|
|
119
120
|
"title": "Risorse",
|
|
120
121
|
"toggleLeftPanel": "Mostra/Nascondi pannello sinistro",
|
|
121
122
|
"uploadDock.body.collapse": "Comprimi",
|
|
123
|
+
"uploadDock.body.item.cancel": "Annulla",
|
|
124
|
+
"uploadDock.body.item.cancelled": "Annullato",
|
|
122
125
|
"uploadDock.body.item.done": "Caricato",
|
|
123
126
|
"uploadDock.body.item.error": "Caricamento fallito, riprova",
|
|
124
127
|
"uploadDock.body.item.pending": "Preparazione al caricamento...",
|
|
@@ -126,6 +129,7 @@
|
|
|
126
129
|
"uploadDock.body.item.restTime": "Tempo rimanente {{time}}",
|
|
127
130
|
"uploadDock.fileQueueInfo": "Caricamento dei primi {{count}} file, {{remaining}} in coda",
|
|
128
131
|
"uploadDock.totalCount": "Totale {{count}} elementi",
|
|
132
|
+
"uploadDock.uploadStatus.cancelled": "Caricamento annullato",
|
|
129
133
|
"uploadDock.uploadStatus.error": "Errore di caricamento",
|
|
130
134
|
"uploadDock.uploadStatus.pending": "In attesa di caricamento",
|
|
131
135
|
"uploadDock.uploadStatus.processing": "Caricamento in corso",
|
|
@@ -413,6 +413,49 @@
|
|
|
413
413
|
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B è distillato da Llama-3.3-70B-Instruct. Fa parte della serie DeepSeek-R1, è ottimizzato su campioni generati da DeepSeek-R1 e offre prestazioni elevate in matematica, programmazione e ragionamento.",
|
|
414
414
|
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B è distillato da Qwen2.5-14B e ottimizzato su 800.000 campioni curati generati da DeepSeek-R1, offrendo un ragionamento solido.",
|
|
415
415
|
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B è distillato da Qwen2.5-32B e ottimizzato su 800.000 campioni curati generati da DeepSeek-R1, eccellendo in matematica, programmazione e ragionamento.",
|
|
416
|
+
"devstral-2:123b.description": "Devstral 2 123B eccelle nell'utilizzo di strumenti per esplorare basi di codice, modificare più file e supportare agenti di ingegneria del software.",
|
|
417
|
+
"doubao-1.5-lite-32k.description": "Doubao-1.5-lite è un nuovo modello leggero con risposta ultra-rapida, che offre qualità e latenza di livello superiore.",
|
|
418
|
+
"doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k è un aggiornamento completo di Doubao-1.5-Pro, con un miglioramento delle prestazioni complessive del 10%. Supporta una finestra contestuale di 256k e fino a 12k token in output, offrendo prestazioni superiori, una finestra più ampia e un ottimo rapporto qualità-prezzo per casi d'uso più ampi.",
|
|
419
|
+
"doubao-1.5-pro-32k.description": "Doubao-1.5-pro è un modello di punta di nuova generazione con miglioramenti su tutta la linea, eccellente in conoscenza, programmazione e ragionamento.",
|
|
420
|
+
"doubao-1.5-thinking-pro-m.description": "Doubao-1.5 è un nuovo modello di ragionamento profondo (la versione m include ragionamento profondo multimodale nativo) che eccelle in matematica, programmazione, ragionamento scientifico e compiti generali come la scrittura creativa. Raggiunge o si avvicina ai migliori risultati nei benchmark come AIME 2024, Codeforces e GPQA. Supporta una finestra contestuale di 128k e 16k token in output.",
|
|
421
|
+
"doubao-1.5-thinking-pro.description": "Doubao-1.5 è un nuovo modello di ragionamento profondo che eccelle in matematica, programmazione, ragionamento scientifico e compiti generali come la scrittura creativa. Raggiunge o si avvicina ai migliori risultati nei benchmark come AIME 2024, Codeforces e GPQA. Supporta una finestra contestuale di 128k e 16k token in output.",
|
|
422
|
+
"doubao-1.5-thinking-vision-pro.description": "Un nuovo modello visivo di ragionamento profondo con una comprensione e un ragionamento multimodale più avanzati, che raggiunge risultati SOTA in 37 su 59 benchmark pubblici.",
|
|
423
|
+
"doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS è un modello agente nativo focalizzato sulle interfacce grafiche, che interagisce in modo fluido con le interfacce attraverso percezione, ragionamento e azione simili a quelle umane.",
|
|
424
|
+
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite è un modello multimodale aggiornato che supporta immagini a qualsiasi risoluzione e con rapporti d'aspetto estremi, migliorando il ragionamento visivo, il riconoscimento di documenti, la comprensione dei dettagli e il rispetto delle istruzioni. Supporta una finestra contestuale di 128k e fino a 16k token in output.",
|
|
425
|
+
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro è un modello multimodale aggiornato che supporta immagini a qualsiasi risoluzione e con rapporti d'aspetto estremi, migliorando il ragionamento visivo, il riconoscimento di documenti, la comprensione dei dettagli e il rispetto delle istruzioni.",
|
|
426
|
+
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro è un modello multimodale aggiornato che supporta immagini a qualsiasi risoluzione e con rapporti d'aspetto estremi, migliorando il ragionamento visivo, il riconoscimento di documenti, la comprensione dei dettagli e il rispetto delle istruzioni.",
|
|
427
|
+
"doubao-lite-128k.description": "Risposta ultra-rapida con un miglior rapporto qualità-prezzo, offrendo scelte più flessibili in diversi scenari. Supporta ragionamento e fine-tuning con una finestra contestuale di 128k.",
|
|
428
|
+
"doubao-lite-32k.description": "Risposta ultra-rapida con un miglior rapporto qualità-prezzo, offrendo scelte più flessibili in diversi scenari. Supporta ragionamento e fine-tuning con una finestra contestuale di 32k.",
|
|
429
|
+
"doubao-lite-4k.description": "Risposta ultra-rapida con un miglior rapporto qualità-prezzo, offrendo scelte più flessibili in diversi scenari. Supporta ragionamento e fine-tuning con una finestra contestuale di 4k.",
|
|
430
|
+
"doubao-pro-256k.description": "Il modello di punta con le migliori prestazioni per compiti complessi, con risultati eccellenti in QA con riferimento, riassunti, creazione, classificazione del testo e simulazione di ruoli. Supporta ragionamento e fine-tuning con una finestra contestuale di 256k.",
|
|
431
|
+
"doubao-pro-32k.description": "Il modello di punta con le migliori prestazioni per compiti complessi, con risultati eccellenti in QA con riferimento, riassunti, creazione, classificazione del testo e simulazione di ruoli. Supporta ragionamento e fine-tuning con una finestra contestuale di 32k.",
|
|
432
|
+
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash è un modello multimodale di ragionamento profondo ultra-rapido con TPOT fino a 10ms. Supporta testo e visione, supera il precedente modello lite nella comprensione del testo e si equipara ai modelli pro concorrenti nella visione. Supporta una finestra contestuale di 256k e fino a 16k token in output.",
|
|
433
|
+
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite è un nuovo modello multimodale di ragionamento profondo con sforzo di ragionamento regolabile (Minimo, Basso, Medio, Alto), che offre un miglior rapporto qualità-prezzo ed è una scelta solida per compiti comuni, con una finestra contestuale fino a 256k.",
|
|
434
|
+
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 potenzia significativamente il ragionamento, migliorando ulteriormente le capacità fondamentali in programmazione, matematica e logica rispetto a Doubao-1.5-thinking-pro, aggiungendo anche la comprensione visiva. Supporta una finestra contestuale di 256k e fino a 16k token in output.",
|
|
435
|
+
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision è un modello visivo di ragionamento profondo che offre una comprensione e un ragionamento multimodale più forti per l'istruzione, la revisione di immagini, l'ispezione/sicurezza e la ricerca AI con domande e risposte. Supporta una finestra contestuale di 256k e fino a 64k token in output.",
|
|
436
|
+
"doubao-seed-1.6.description": "Doubao-Seed-1.6 è un nuovo modello multimodale di ragionamento profondo con modalità auto, thinking e non-thinking. In modalità non-thinking, supera significativamente Doubao-1.5-pro/250115. Supporta una finestra contestuale di 256k e fino a 16k token in output.",
|
|
437
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 ha capacità multimodali e agentiche più avanzate, supporta input di testo/immagini/video e caching del contesto, offrendo prestazioni superiori in compiti complessi.",
|
|
438
|
+
"doubao-seed-code.description": "Doubao-Seed-Code è ottimizzato in profondità per la programmazione agentica, supporta input multimodali (testo/immagine/video) e una finestra contestuale di 256k, è compatibile con l'API Anthropic ed è adatto a flussi di lavoro di programmazione, comprensione visiva e agenti.",
|
|
439
|
+
"doubao-seededit-3-0-i2i-250628.description": "Il modello di immagini Doubao di ByteDance Seed supporta input di testo e immagini con generazione di immagini di alta qualità e altamente controllabile. Supporta l'editing di immagini guidato da testo, con dimensioni di output tra 512 e 1536 sul lato lungo.",
|
|
440
|
+
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 è un modello di generazione di immagini di ByteDance Seed, che supporta input di testo e immagini con generazione di immagini di alta qualità e altamente controllabile. Genera immagini da prompt testuali.",
|
|
441
|
+
"doubao-seedream-4-0-250828.description": "Seedream 4.0 è un modello di generazione di immagini di ByteDance Seed, che supporta input di testo e immagini con generazione di immagini di alta qualità e altamente controllabile. Genera immagini da prompt testuali.",
|
|
442
|
+
"doubao-vision-lite-32k.description": "Doubao-vision è un modello multimodale di Doubao con forte comprensione e ragionamento visivo, oltre a un'accurata esecuzione delle istruzioni. Eccelle in compiti di estrazione immagine-testo e ragionamento basato su immagini, abilitando scenari di QA visivo più complessi e ampi.",
|
|
443
|
+
"doubao-vision-pro-32k.description": "Doubao-vision è un modello multimodale di Doubao con forte comprensione e ragionamento visivo, oltre a un'accurata esecuzione delle istruzioni. Eccelle in compiti di estrazione immagine-testo e ragionamento basato su immagini, abilitando scenari di QA visivo più complessi e ampi.",
|
|
444
|
+
"emohaa.description": "Emohaa è un modello per la salute mentale con capacità di consulenza professionale per aiutare gli utenti a comprendere le problematiche emotive.",
|
|
445
|
+
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B è un modello open-source leggero per implementazioni locali e personalizzate.",
|
|
446
|
+
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B è un modello open-source con un numero elevato di parametri e una maggiore capacità di comprensione e generazione.",
|
|
447
|
+
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B è il modello MoE ultra-large di Baidu ERNIE con eccellenti capacità di ragionamento.",
|
|
448
|
+
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview è un modello di anteprima con finestra contestuale da 8K per la valutazione di ERNIE 4.5.",
|
|
449
|
+
"ernie-4.5-turbo-128k-preview.description": "Anteprima di ERNIE 4.5 Turbo 128K con capacità di livello release, adatto per integrazione e test canary.",
|
|
450
|
+
"ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K è un modello generale ad alte prestazioni con supporto alla ricerca e chiamata di strumenti per QA, programmazione e scenari agentici.",
|
|
451
|
+
"ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K è una versione con contesto medio per QA, recupero da base di conoscenza e dialoghi multi-turno.",
|
|
452
|
+
"ernie-4.5-turbo-latest.description": "Ultima versione di ERNIE 4.5 Turbo con prestazioni ottimizzate, ideale come modello principale in produzione.",
|
|
453
|
+
"ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview è un modello multimodale di anteprima da 32K per valutare la capacità visiva su contesti lunghi.",
|
|
454
|
+
"ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K è una versione multimodale medio-lunga per la comprensione combinata di documenti lunghi e immagini.",
|
|
455
|
+
"ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest è la versione multimodale più recente con migliorata comprensione e ragionamento immagine-testo.",
|
|
456
|
+
"ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview è un modello multimodale di anteprima per comprensione e generazione immagine-testo, adatto a QA visivo e comprensione dei contenuti.",
|
|
457
|
+
"ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL è un modello multimodale maturo per la comprensione e il riconoscimento immagine-testo in produzione.",
|
|
458
|
+
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B è un modello multimodale open-source per la comprensione e il ragionamento immagine-testo.",
|
|
416
459
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 è un LLM open-source pensato per sviluppatori, ricercatori e aziende, progettato per supportare la creazione, la sperimentazione e la scalabilità responsabile di idee basate su IA generativa. Parte integrante dell’ecosistema globale per l’innovazione comunitaria, è ideale per ambienti con risorse limitate, dispositivi edge e tempi di addestramento ridotti.",
|
|
417
460
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Solido ragionamento visivo su immagini ad alta risoluzione, ideale per applicazioni di comprensione visiva.",
|
|
418
461
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Ragionamento visivo avanzato per applicazioni agenti di comprensione visiva.",
|
|
@@ -127,6 +127,10 @@
|
|
|
127
127
|
"llm.proxyUrl.title": "URL Proxy API",
|
|
128
128
|
"llm.waitingForMore": "Altri modelli <1>in arrivo</1>, resta aggiornato",
|
|
129
129
|
"llm.waitingForMoreLinkAriaLabel": "Apri il modulo di richiesta Fornitore",
|
|
130
|
+
"marketPublish.forkConfirm.by": "di {{author}}",
|
|
131
|
+
"marketPublish.forkConfirm.confirm": "Conferma Pubblicazione",
|
|
132
|
+
"marketPublish.forkConfirm.description": "Stai per pubblicare una versione derivata basata su un agente esistente della community. Il tuo nuovo agente verrà creato come una voce separata nel marketplace.",
|
|
133
|
+
"marketPublish.forkConfirm.title": "Pubblica Agente Derivato",
|
|
130
134
|
"marketPublish.modal.changelog.extra": "Descrivi i principali cambiamenti e miglioramenti di questa versione",
|
|
131
135
|
"marketPublish.modal.changelog.label": "Registro modifiche",
|
|
132
136
|
"marketPublish.modal.changelog.maxLengthError": "Il registro modifiche non può superare i 500 caratteri",
|
|
@@ -524,6 +528,9 @@
|
|
|
524
528
|
"tools.klavis.servers": "server",
|
|
525
529
|
"tools.klavis.tools": "strumenti",
|
|
526
530
|
"tools.klavis.verifyAuth": "Ho completato l'autenticazione",
|
|
531
|
+
"tools.lobehubSkill.authorize": "Autorizza",
|
|
532
|
+
"tools.lobehubSkill.connect": "Connetti",
|
|
533
|
+
"tools.lobehubSkill.error": "Errore",
|
|
527
534
|
"tools.notInstalled": "Non Installato",
|
|
528
535
|
"tools.notInstalledWarning": "Questa competenza non è attualmente installata, il che potrebbe influire sulla funzionalità dell'agente.",
|
|
529
536
|
"tools.plugins.enabled": "Abilitati: {{num}}",
|
|
@@ -99,6 +99,7 @@
|
|
|
99
99
|
"ModelSwitchPanel.goToSettings": "設定に移動",
|
|
100
100
|
"ModelSwitchPanel.manageProvider": "プロバイダーを管理",
|
|
101
101
|
"ModelSwitchPanel.provider": "プロバイダー",
|
|
102
|
+
"ModelSwitchPanel.searchPlaceholder": "モデルを検索...",
|
|
102
103
|
"ModelSwitchPanel.title": "モデル",
|
|
103
104
|
"ModelSwitchPanel.useModelFrom": "このモデルの提供元:",
|
|
104
105
|
"MultiImagesUpload.actions.uploadMore": "クリックまたはドラッグしてさらにアップロード",
|
package/locales/ja-JP/file.json
CHANGED
|
@@ -37,6 +37,7 @@
|
|
|
37
37
|
"header.actions.notionGuide.title": "Notion コンテンツをインポート",
|
|
38
38
|
"header.actions.uploadFile": "ファイルをアップロード",
|
|
39
39
|
"header.actions.uploadFolder": "フォルダーをアップロード",
|
|
40
|
+
"header.actions.uploadFolder.creatingFolders": "フォルダー構造を作成しています...",
|
|
40
41
|
"header.newPageButton": "新しいドキュメントを作成",
|
|
41
42
|
"header.uploadButton": "アップロード",
|
|
42
43
|
"home.getStarted": "はじめに",
|
|
@@ -119,6 +120,8 @@
|
|
|
119
120
|
"title": "リソース",
|
|
120
121
|
"toggleLeftPanel": "左パネルの表示/非表示を切り替え",
|
|
121
122
|
"uploadDock.body.collapse": "折りたたむ",
|
|
123
|
+
"uploadDock.body.item.cancel": "キャンセル",
|
|
124
|
+
"uploadDock.body.item.cancelled": "キャンセルされました",
|
|
122
125
|
"uploadDock.body.item.done": "アップロード完了",
|
|
123
126
|
"uploadDock.body.item.error": "アップロード失敗、再試行してください",
|
|
124
127
|
"uploadDock.body.item.pending": "アップロード準備中...",
|
|
@@ -126,6 +129,7 @@
|
|
|
126
129
|
"uploadDock.body.item.restTime": "残り {{time}}",
|
|
127
130
|
"uploadDock.fileQueueInfo": "最初の {{count}} 件のファイルをアップロード中、残りの {{remaining}} 件は順番待ちです",
|
|
128
131
|
"uploadDock.totalCount": "合計 {{count}} 件",
|
|
132
|
+
"uploadDock.uploadStatus.cancelled": "アップロードがキャンセルされました",
|
|
129
133
|
"uploadDock.uploadStatus.error": "アップロードエラー",
|
|
130
134
|
"uploadDock.uploadStatus.pending": "アップロード待機中",
|
|
131
135
|
"uploadDock.uploadStatus.processing": "アップロード中",
|
|
@@ -414,6 +414,34 @@
|
|
|
414
414
|
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14Bは、Qwen2.5-14Bから蒸留され、DeepSeek-R1が生成した80万件の厳選サンプルでファインチューニングされ、強力な推論能力を発揮します。",
|
|
415
415
|
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32Bは、Qwen2.5-32Bから蒸留され、DeepSeek-R1が生成した80万件の厳選サンプルでファインチューニングされ、数学、コーディング、推論において卓越した性能を発揮します。",
|
|
416
416
|
"devstral-2:123b.description": "Devstral 2 123B は、ツールを活用してコードベースを探索し、複数ファイルを編集し、ソフトウェアエンジニアリングエージェントを支援することに優れています。",
|
|
417
|
+
"doubao-1.5-lite-32k.description": "Doubao-1.5-lite は、超高速応答を実現する新しい軽量モデルで、最高水準の品質と低遅延を提供します。",
|
|
418
|
+
"doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k は Doubao-1.5-Pro の包括的なアップグレード版で、全体的な性能が10%向上しています。256kのコンテキストウィンドウと最大12kの出力トークンに対応し、より高性能で広範なユースケースに対応する価値の高いモデルです。",
|
|
419
|
+
"doubao-1.5-pro-32k.description": "Doubao-1.5-pro は次世代のフラッグシップモデルで、知識、コーディング、推論の各分野で優れた性能を発揮します。",
|
|
420
|
+
"doubao-1.5-thinking-pro-m.description": "Doubao-1.5 は新しい深層推論モデルで、mバージョンはネイティブなマルチモーダル深層推論を含みます。数学、コーディング、科学的推論、創造的な文章作成などの一般的なタスクに優れ、AIME 2024、Codeforces、GPQA などのベンチマークで最高水準の結果を達成または接近しています。128kのコンテキストウィンドウと16kの出力に対応します。",
|
|
421
|
+
"doubao-1.5-thinking-pro.description": "Doubao-1.5 は新しい深層推論モデルで、数学、コーディング、科学的推論、創造的な文章作成などの一般的なタスクに優れています。AIME 2024、Codeforces、GPQA などのベンチマークで最高水準の結果を達成または接近しています。128kのコンテキストウィンドウと16kの出力に対応します。",
|
|
422
|
+
"doubao-1.5-thinking-vision-pro.description": "新しい視覚的深層推論モデルで、マルチモーダルの理解と推論能力が強化されており、59の公開ベンチマーク中37でSOTA(最先端)結果を達成しています。",
|
|
423
|
+
"doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS は、ネイティブなGUI操作に特化したエージェントモデルで、人間のような知覚・推論・行動を通じてインターフェースとシームレスに連携します。",
|
|
424
|
+
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite はアップグレードされたマルチモーダルモデルで、あらゆる解像度や極端なアスペクト比の画像に対応し、視覚的推論、文書認識、細部理解、指示の追従性を強化します。128kのコンテキストウィンドウと最大16kの出力トークンに対応します。",
|
|
425
|
+
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro はアップグレードされたマルチモーダルモデルで、あらゆる解像度や極端なアスペクト比の画像に対応し、視覚的推論、文書認識、細部理解、指示の追従性を強化します。",
|
|
426
|
+
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro はアップグレードされたマルチモーダルモデルで、あらゆる解像度や極端なアスペクト比の画像に対応し、視覚的推論、文書認識、細部理解、指示の追従性を強化します。",
|
|
427
|
+
"doubao-lite-128k.description": "超高速応答と高いコストパフォーマンスを実現し、さまざまなシナリオに柔軟に対応可能です。128kのコンテキストウィンドウで推論とファインチューニングをサポートします。",
|
|
428
|
+
"doubao-lite-32k.description": "超高速応答と高いコストパフォーマンスを実現し、さまざまなシナリオに柔軟に対応可能です。32kのコンテキストウィンドウで推論とファインチューニングをサポートします。",
|
|
429
|
+
"doubao-lite-4k.description": "超高速応答と高いコストパフォーマンスを実現し、さまざまなシナリオに柔軟に対応可能です。4kのコンテキストウィンドウで推論とファインチューニングをサポートします。",
|
|
430
|
+
"doubao-pro-256k.description": "複雑なタスクに最適な最高性能のフラッグシップモデルで、参照型QA、要約、創作、テキスト分類、ロールプレイにおいて優れた成果を発揮します。256kのコンテキストウィンドウで推論とファインチューニングをサポートします。",
|
|
431
|
+
"doubao-pro-32k.description": "複雑なタスクに最適な最高性能のフラッグシップモデルで、参照型QA、要約、創作、テキスト分類、ロールプレイにおいて優れた成果を発揮します。32kのコンテキストウィンドウで推論とファインチューニングをサポートします。",
|
|
432
|
+
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash は、TPOTが10msと非常に低い超高速マルチモーダル深層推論モデルです。テキストと画像の両方に対応し、テキスト理解では従来のliteモデルを上回り、視覚では競合のproモデルに匹敵します。256kのコンテキストウィンドウと最大16kの出力トークンに対応します。",
|
|
433
|
+
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite は、新しいマルチモーダル深層推論モデルで、推論の強度(最小、低、中、高)を調整可能です。一般的なタスクにおいて高いコストパフォーマンスを発揮し、最大256kのコンテキストウィンドウに対応します。",
|
|
434
|
+
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6-thinking は、Doubao-1.5-thinking-pro に比べてコーディング、数学、論理推論の中核能力をさらに強化し、視覚理解も追加されています。256kのコンテキストウィンドウと最大16kの出力トークンに対応します。",
|
|
435
|
+
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision は、教育、画像レビュー、検査・セキュリティ、AI検索QAなどにおいて、より強力なマルチモーダル理解と推論を提供する視覚的深層推論モデルです。256kのコンテキストウィンドウと最大64kの出力トークンに対応します。",
|
|
436
|
+
"doubao-seed-1.6.description": "Doubao-Seed-1.6 は、自動、思考、非思考モードを備えた新しいマルチモーダル深層推論モデルです。非思考モードでは、Doubao-1.5-pro/250115 を大きく上回る性能を発揮します。256kのコンテキストウィンドウと最大16kの出力トークンに対応します。",
|
|
437
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 は、より強力なマルチモーダル理解能力とエージェント機能を備え、テキスト/画像/動画入力およびコンテキストキャッシュに対応し、複雑なタスクにおいて優れた性能を発揮します。",
|
|
438
|
+
"doubao-seed-code.description": "Doubao-Seed-Code は、エージェント型コーディングに最適化されたモデルで、マルチモーダル入力(テキスト/画像/動画)と256kのコンテキストウィンドウに対応し、Anthropic APIと互換性があります。コーディング、視覚理解、エージェントワークフローに適しています。",
|
|
439
|
+
"doubao-seededit-3-0-i2i-250628.description": "ByteDance Seed の Doubao 画像モデルは、テキストと画像入力に対応し、高品質かつ制御性の高い画像生成を実現します。テキストによる画像編集をサポートし、出力サイズは長辺512〜1536の範囲に対応します。",
|
|
440
|
+
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 は ByteDance Seed による画像生成モデルで、テキストと画像入力に対応し、高品質かつ制御性の高い画像生成を実現します。テキストプロンプトから画像を生成します。",
|
|
441
|
+
"doubao-seedream-4-0-250828.description": "Seedream 4.0 は ByteDance Seed による画像生成モデルで、テキストと画像入力に対応し、高品質かつ制御性の高い画像生成を実現します。テキストプロンプトから画像を生成します。",
|
|
442
|
+
"doubao-vision-lite-32k.description": "Doubao-vision は、画像理解と推論に優れ、正確な指示追従が可能な Doubao のマルチモーダルモデルです。画像とテキストの抽出や画像ベースの推論タスクにおいて高い性能を発揮し、より複雑で広範な視覚QAシナリオを実現します。",
|
|
443
|
+
"doubao-vision-pro-32k.description": "Doubao-vision は、画像理解と推論に優れ、正確な指示追従が可能な Doubao のマルチモーダルモデルです。画像とテキストの抽出や画像ベースの推論タスクにおいて高い性能を発揮し、より複雑で広範な視覚QAシナリオを実現します。",
|
|
444
|
+
"emohaa.description": "Emohaa は、専門的なカウンセリング能力を備えたメンタルヘルスモデルで、ユーザーが感情的な問題を理解するのを支援します。",
|
|
417
445
|
"gemini-flash-latest.description": "Gemini Flash の最新リリース",
|
|
418
446
|
"gemini-flash-lite-latest.description": "Gemini Flash-Lite の最新リリース",
|
|
419
447
|
"gemini-pro-latest.description": "Gemini Pro の最新リリース",
|
|
@@ -127,6 +127,10 @@
|
|
|
127
127
|
"llm.proxyUrl.title": "APIプロキシアドレス",
|
|
128
128
|
"llm.waitingForMore": "さらに多くのモデルが <1>計画されています</1>。お楽しみに",
|
|
129
129
|
"llm.waitingForMoreLinkAriaLabel": "モデルプロバイダー接続リクエストフォームを開く",
|
|
130
|
+
"marketPublish.forkConfirm.by": "{{author}} による",
|
|
131
|
+
"marketPublish.forkConfirm.confirm": "公開を確認",
|
|
132
|
+
"marketPublish.forkConfirm.description": "コミュニティ内の既存エージェントを元にした派生バージョンを公開しようとしています。新しいエージェントはマーケットプレイスに別のエントリとして作成されます。",
|
|
133
|
+
"marketPublish.forkConfirm.title": "派生エージェントの公開",
|
|
130
134
|
"marketPublish.modal.changelog.extra": "このバージョンの主な変更点と改善点を記述してください",
|
|
131
135
|
"marketPublish.modal.changelog.label": "変更ログ",
|
|
132
136
|
"marketPublish.modal.changelog.maxLengthError": "変更ログは500文字以内で入力してください",
|
|
@@ -524,6 +528,9 @@
|
|
|
524
528
|
"tools.klavis.servers": "台のサーバー",
|
|
525
529
|
"tools.klavis.tools": "個のツール",
|
|
526
530
|
"tools.klavis.verifyAuth": "認証を完了しました",
|
|
531
|
+
"tools.lobehubSkill.authorize": "認証する",
|
|
532
|
+
"tools.lobehubSkill.connect": "接続する",
|
|
533
|
+
"tools.lobehubSkill.error": "エラー",
|
|
527
534
|
"tools.notInstalled": "未インストール",
|
|
528
535
|
"tools.notInstalledWarning": "このスキルはまだインストールされておらず、アシスタントの使用に影響する可能性があります",
|
|
529
536
|
"tools.plugins.enabled": "{{num}} が有効",
|
|
@@ -99,6 +99,7 @@
|
|
|
99
99
|
"ModelSwitchPanel.goToSettings": "설정으로 이동",
|
|
100
100
|
"ModelSwitchPanel.manageProvider": "제공자 관리",
|
|
101
101
|
"ModelSwitchPanel.provider": "서비스 제공자",
|
|
102
|
+
"ModelSwitchPanel.searchPlaceholder": "모델 검색...",
|
|
102
103
|
"ModelSwitchPanel.title": "모델",
|
|
103
104
|
"ModelSwitchPanel.useModelFrom": "다음에서 이 모델 사용:",
|
|
104
105
|
"MultiImagesUpload.actions.uploadMore": "클릭하거나 끌어다 놓아 더 많은 이미지 업로드",
|
package/locales/ko-KR/file.json
CHANGED
|
@@ -37,6 +37,7 @@
|
|
|
37
37
|
"header.actions.notionGuide.title": "Notion 콘텐츠 가져오기",
|
|
38
38
|
"header.actions.uploadFile": "파일 업로드",
|
|
39
39
|
"header.actions.uploadFolder": "폴더 업로드",
|
|
40
|
+
"header.actions.uploadFolder.creatingFolders": "폴더 구조를 생성하는 중...",
|
|
40
41
|
"header.newPageButton": "새 문서 만들기",
|
|
41
42
|
"header.uploadButton": "업로드",
|
|
42
43
|
"home.getStarted": "시작하기",
|
|
@@ -119,6 +120,8 @@
|
|
|
119
120
|
"title": "리소스",
|
|
120
121
|
"toggleLeftPanel": "왼쪽 패널 표시/숨기기",
|
|
121
122
|
"uploadDock.body.collapse": "접기",
|
|
123
|
+
"uploadDock.body.item.cancel": "취소",
|
|
124
|
+
"uploadDock.body.item.cancelled": "취소됨",
|
|
122
125
|
"uploadDock.body.item.done": "업로드 완료",
|
|
123
126
|
"uploadDock.body.item.error": "업로드 실패, 다시 시도해 주세요",
|
|
124
127
|
"uploadDock.body.item.pending": "업로드 준비 중...",
|
|
@@ -126,6 +129,7 @@
|
|
|
126
129
|
"uploadDock.body.item.restTime": "남은 시간 {{time}}",
|
|
127
130
|
"uploadDock.fileQueueInfo": "{{count}}개 파일을 업로드 중이며, 나머지 {{remaining}}개 파일은 대기 중입니다",
|
|
128
131
|
"uploadDock.totalCount": "총 {{count}}개 항목",
|
|
132
|
+
"uploadDock.uploadStatus.cancelled": "업로드가 취소되었습니다",
|
|
129
133
|
"uploadDock.uploadStatus.error": "업로드 오류",
|
|
130
134
|
"uploadDock.uploadStatus.pending": "업로드 대기 중",
|
|
131
135
|
"uploadDock.uploadStatus.processing": "업로드 중",
|
|
@@ -413,6 +413,43 @@
|
|
|
413
413
|
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B는 Llama-3.3-70B-Instruct에서 경량화된 모델입니다. DeepSeek-R1 시리즈의 일환으로, DeepSeek-R1이 생성한 샘플을 기반으로 파인튜닝되어 수학, 코딩, 추론에서 강력한 성능을 보입니다.",
|
|
414
414
|
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B는 Qwen2.5-14B에서 경량화된 모델로, DeepSeek-R1이 생성한 80만 개의 정제된 샘플을 기반으로 파인튜닝되어 강력한 추론 능력을 제공합니다.",
|
|
415
415
|
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B는 Qwen2.5-32B에서 경량화된 모델로, DeepSeek-R1이 생성한 80만 개의 정제된 샘플을 기반으로 파인튜닝되어 수학, 코딩, 추론에서 뛰어난 성능을 발휘합니다.",
|
|
416
|
+
"devstral-2:123b.description": "Devstral 2 123B는 도구를 활용한 코드베이스 탐색, 다중 파일 편집, 소프트웨어 엔지니어링 에이전트 지원에 탁월한 성능을 발휘합니다.",
|
|
417
|
+
"doubao-1.5-lite-32k.description": "Doubao-1.5-lite는 초고속 응답을 제공하는 새로운 경량 모델로, 최고 수준의 품질과 지연 시간을 자랑합니다.",
|
|
418
|
+
"doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k는 Doubao-1.5-Pro의 전면적인 업그레이드 버전으로, 전체 성능이 10% 향상되었습니다. 256k 컨텍스트 윈도우와 최대 12k 출력 토큰을 지원하여 더 높은 성능, 더 넓은 윈도우, 다양한 활용 사례에 적합한 가치를 제공합니다.",
|
|
419
|
+
"doubao-1.5-pro-32k.description": "Doubao-1.5-pro는 지식, 코딩, 추론 전반에서 뛰어난 성능을 보이는 차세대 플래그십 모델입니다.",
|
|
420
|
+
"doubao-1.5-thinking-pro-m.description": "Doubao-1.5는 수학, 코딩, 과학적 추론, 창의적 글쓰기와 같은 일반 작업에 뛰어난 성능을 보이는 새로운 심층 추론 모델입니다. m 버전은 멀티모달 심층 추론을 기본으로 포함합니다. AIME 2024, Codeforces, GPQA 등의 벤치마크에서 최고 수준의 결과를 달성하거나 근접하며, 128k 컨텍스트 윈도우와 16k 출력 토큰을 지원합니다.",
|
|
421
|
+
"doubao-1.5-thinking-pro.description": "Doubao-1.5는 수학, 코딩, 과학적 추론, 창의적 글쓰기와 같은 일반 작업에 뛰어난 성능을 보이는 새로운 심층 추론 모델입니다. AIME 2024, Codeforces, GPQA 등의 벤치마크에서 최고 수준의 결과를 달성하거나 근접하며, 128k 컨텍스트 윈도우와 16k 출력 토큰을 지원합니다.",
|
|
422
|
+
"doubao-1.5-thinking-vision-pro.description": "더 강력한 멀티모달 이해 및 추론 능력을 갖춘 새로운 시각 심층 추론 모델로, 59개의 공개 벤치마크 중 37개에서 SOTA 성능을 달성했습니다.",
|
|
423
|
+
"doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS는 GUI 중심의 네이티브 에이전트 모델로, 인간과 유사한 인지, 추론, 행동을 통해 인터페이스와 자연스럽게 상호작용합니다.",
|
|
424
|
+
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite는 모든 해상도 및 극단적인 종횡비의 이미지를 지원하는 업그레이드된 멀티모달 모델로, 시각적 추론, 문서 인식, 세부 이해, 지시 따르기 능력을 향상시킵니다. 128k 컨텍스트 윈도우와 최대 16k 출력 토큰을 지원합니다.",
|
|
425
|
+
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro는 모든 해상도 및 극단적인 종횡비의 이미지를 지원하는 업그레이드된 멀티모달 모델로, 시각적 추론, 문서 인식, 세부 이해, 지시 따르기 능력을 향상시킵니다.",
|
|
426
|
+
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro는 모든 해상도 및 극단적인 종횡비의 이미지를 지원하는 업그레이드된 멀티모달 모델로, 시각적 추론, 문서 인식, 세부 이해, 지시 따르기 능력을 향상시킵니다.",
|
|
427
|
+
"doubao-lite-128k.description": "초고속 응답과 뛰어난 가성비를 제공하며 다양한 상황에서 유연한 선택이 가능합니다. 128k 컨텍스트 윈도우를 지원하며 추론 및 파인튜닝이 가능합니다.",
|
|
428
|
+
"doubao-lite-32k.description": "초고속 응답과 뛰어난 가성비를 제공하며 다양한 상황에서 유연한 선택이 가능합니다. 32k 컨텍스트 윈도우를 지원하며 추론 및 파인튜닝이 가능합니다.",
|
|
429
|
+
"doubao-lite-4k.description": "초고속 응답과 뛰어난 가성비를 제공하며 다양한 상황에서 유연한 선택이 가능합니다. 4k 컨텍스트 윈도우를 지원하며 추론 및 파인튜닝이 가능합니다.",
|
|
430
|
+
"doubao-pro-256k.description": "복잡한 작업에 최적화된 최고 성능의 플래그십 모델로, 참조 기반 QA, 요약, 창작, 텍스트 분류, 롤플레이에서 강력한 성능을 보입니다. 256k 컨텍스트 윈도우를 지원하며 추론 및 파인튜닝이 가능합니다.",
|
|
431
|
+
"doubao-pro-32k.description": "복잡한 작업에 최적화된 최고 성능의 플래그십 모델로, 참조 기반 QA, 요약, 창작, 텍스트 분류, 롤플레이에서 강력한 성능을 보입니다. 32k 컨텍스트 윈도우를 지원하며 추론 및 파인튜닝이 가능합니다.",
|
|
432
|
+
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash는 TPOT가 10ms에 불과한 초고속 멀티모달 심층 추론 모델입니다. 텍스트와 비전을 모두 지원하며, 텍스트 이해는 이전 lite 모델을 능가하고, 비전 성능은 경쟁 pro 모델과 동등합니다. 256k 컨텍스트 윈도우와 최대 16k 출력 토큰을 지원합니다.",
|
|
433
|
+
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite는 추론 강도를 조절할 수 있는 새로운 멀티모달 심층 추론 모델로, 일반 작업에 적합한 뛰어난 가성비를 제공합니다. 최대 256k 컨텍스트 윈도우를 지원합니다.",
|
|
434
|
+
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6-thinking은 Doubao-1.5-thinking-pro보다 코딩, 수학, 논리 추론의 핵심 능력을 더욱 강화하고, 비전 이해 기능을 추가한 모델입니다. 256k 컨텍스트 윈도우와 최대 16k 출력 토큰을 지원합니다.",
|
|
435
|
+
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision은 교육, 이미지 리뷰, 검사/보안, AI 검색 QA 등에서 강력한 멀티모달 이해 및 추론을 제공하는 시각 심층 추론 모델입니다. 256k 컨텍스트 윈도우와 최대 64k 출력 토큰을 지원합니다.",
|
|
436
|
+
"doubao-seed-1.6.description": "Doubao-Seed-1.6은 자동, 추론, 비추론 모드를 지원하는 새로운 멀티모달 심층 추론 모델입니다. 비추론 모드에서는 Doubao-1.5-pro/250115보다 현저히 뛰어난 성능을 보입니다. 256k 컨텍스트 윈도우와 최대 16k 출력 토큰을 지원합니다.",
|
|
437
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8은 더 강력한 멀티모달 이해 능력과 에이전트 기능을 갖추고 있으며, 텍스트/이미지/비디오 입력과 컨텍스트 캐싱을 지원하여 복잡한 작업에서 뛰어난 성능을 발휘합니다.",
|
|
438
|
+
"doubao-seed-code.description": "Doubao-Seed-Code는 에이전트 기반 코딩에 최적화된 모델로, 멀티모달 입력(텍스트/이미지/비디오)과 256k 컨텍스트 윈도우를 지원하며, Anthropic API와 호환됩니다. 코딩, 비전 이해, 에이전트 워크플로우에 적합합니다.",
|
|
439
|
+
"doubao-seededit-3-0-i2i-250628.description": "ByteDance Seed의 Doubao 이미지 모델은 텍스트 및 이미지 입력을 지원하며, 고품질의 이미지 생성과 높은 제어력을 제공합니다. 텍스트 기반 이미지 편집을 지원하며, 출력 크기는 긴 변 기준 512~1536 사이입니다.",
|
|
440
|
+
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0은 ByteDance Seed의 이미지 생성 모델로, 텍스트 및 이미지 입력을 지원하며, 고품질의 이미지 생성과 높은 제어력을 제공합니다. 텍스트 프롬프트로부터 이미지를 생성합니다.",
|
|
441
|
+
"doubao-seedream-4-0-250828.description": "Seedream 4.0은 ByteDance Seed의 이미지 생성 모델로, 텍스트 및 이미지 입력을 지원하며, 고품질의 이미지 생성과 높은 제어력을 제공합니다. 텍스트 프롬프트로부터 이미지를 생성합니다.",
|
|
442
|
+
"doubao-vision-lite-32k.description": "Doubao-vision은 강력한 이미지 이해 및 추론 능력과 정확한 지시 따르기를 갖춘 Doubao의 멀티모달 모델입니다. 이미지-텍스트 추출 및 이미지 기반 추론 작업에서 뛰어난 성능을 발휘하며, 더 복잡하고 다양한 시각 QA 시나리오를 가능하게 합니다.",
|
|
443
|
+
"doubao-vision-pro-32k.description": "Doubao-vision은 강력한 이미지 이해 및 추론 능력과 정확한 지시 따르기를 갖춘 Doubao의 멀티모달 모델입니다. 이미지-텍스트 추출 및 이미지 기반 추론 작업에서 뛰어난 성능을 발휘하며, 더 복잡하고 다양한 시각 QA 시나리오를 가능하게 합니다.",
|
|
444
|
+
"emohaa.description": "Emohaa는 전문 상담 능력을 갖춘 정신 건강 모델로, 사용자가 감정 문제를 이해하도록 돕습니다.",
|
|
445
|
+
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B는 로컬 및 맞춤형 배포를 위한 오픈소스 경량 모델입니다.",
|
|
446
|
+
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B는 더 강력한 이해 및 생성 능력을 갖춘 오픈소스 대규모 파라미터 모델입니다.",
|
|
447
|
+
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B는 Baidu ERNIE의 초대형 MoE 모델로, 뛰어난 추론 능력을 자랑합니다.",
|
|
448
|
+
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview는 ERNIE 4.5의 8K 컨텍스트 프리뷰 모델로, 평가용으로 사용됩니다.",
|
|
449
|
+
"ernie-4.5-turbo-128k-preview.description": "ERNIE 4.5 Turbo 128K Preview는 릴리스 수준의 기능을 갖춘 모델로, 통합 및 카나리아 테스트에 적합합니다.",
|
|
450
|
+
"ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K는 QA, 코딩, 에이전트 시나리오를 위한 검색 보강 및 도구 호출 기능을 갖춘 고성능 범용 모델입니다.",
|
|
451
|
+
"ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K는 QA, 지식 기반 검색, 다중 턴 대화를 위한 중간 길이 컨텍스트 버전입니다.",
|
|
452
|
+
"ernie-4.5-turbo-latest.description": "최신 ERNIE 4.5 Turbo는 전반적인 성능이 최적화되어 주력 프로덕션 모델로 이상적입니다.",
|
|
416
453
|
"gemini-flash-latest.description": "Gemini Flash 최신 버전",
|
|
417
454
|
"gemini-flash-lite-latest.description": "Gemini Flash-Lite 최신 버전",
|
|
418
455
|
"gemini-pro-latest.description": "Gemini Pro 최신 버전",
|
|
@@ -127,6 +127,10 @@
|
|
|
127
127
|
"llm.proxyUrl.title": "API 프록시 주소",
|
|
128
128
|
"llm.waitingForMore": "더 많은 모델이 <1>도입 예정</1>입니다. 기대해 주세요.",
|
|
129
129
|
"llm.waitingForMoreLinkAriaLabel": "모델 서비스 제공업체 접속 요청 양식 열기",
|
|
130
|
+
"marketPublish.forkConfirm.by": "{{author}} 작성",
|
|
131
|
+
"marketPublish.forkConfirm.confirm": "게시 확인",
|
|
132
|
+
"marketPublish.forkConfirm.description": "커뮤니티의 기존 에이전트를 기반으로 파생 버전을 게시하려고 합니다. 새 에이전트는 마켓플레이스에 별도의 항목으로 생성됩니다.",
|
|
133
|
+
"marketPublish.forkConfirm.title": "파생 에이전트 게시",
|
|
130
134
|
"marketPublish.modal.changelog.extra": "이 버전의 주요 변경 사항과 개선 사항을 설명하세요",
|
|
131
135
|
"marketPublish.modal.changelog.label": "변경 로그",
|
|
132
136
|
"marketPublish.modal.changelog.maxLengthError": "변경 로그는 500자 이내여야 합니다",
|
|
@@ -524,6 +528,9 @@
|
|
|
524
528
|
"tools.klavis.servers": "개의 서버",
|
|
525
529
|
"tools.klavis.tools": "개의 도구",
|
|
526
530
|
"tools.klavis.verifyAuth": "인증을 완료했습니다",
|
|
531
|
+
"tools.lobehubSkill.authorize": "권한 부여",
|
|
532
|
+
"tools.lobehubSkill.connect": "연결",
|
|
533
|
+
"tools.lobehubSkill.error": "오류",
|
|
527
534
|
"tools.notInstalled": "설치되지 않음",
|
|
528
535
|
"tools.notInstalledWarning": "현재 기능이 설치되지 않아 도우미 사용에 영향을 줄 수 있습니다",
|
|
529
536
|
"tools.plugins.enabled": "활성화됨 {{num}}",
|
|
@@ -99,6 +99,7 @@
|
|
|
99
99
|
"ModelSwitchPanel.goToSettings": "Ga naar instellingen",
|
|
100
100
|
"ModelSwitchPanel.manageProvider": "Beheer aanbieder",
|
|
101
101
|
"ModelSwitchPanel.provider": "Provider",
|
|
102
|
+
"ModelSwitchPanel.searchPlaceholder": "Modellen zoeken...",
|
|
102
103
|
"ModelSwitchPanel.title": "Model",
|
|
103
104
|
"ModelSwitchPanel.useModelFrom": "Gebruik dit model van:",
|
|
104
105
|
"MultiImagesUpload.actions.uploadMore": "Klik of sleep om meer te uploaden",
|
package/locales/nl-NL/file.json
CHANGED
|
@@ -37,6 +37,7 @@
|
|
|
37
37
|
"header.actions.notionGuide.title": "Importeren vanuit Notion",
|
|
38
38
|
"header.actions.uploadFile": "Bestand uploaden",
|
|
39
39
|
"header.actions.uploadFolder": "Map uploaden",
|
|
40
|
+
"header.actions.uploadFolder.creatingFolders": "Mapstructuur wordt aangemaakt...",
|
|
40
41
|
"header.newPageButton": "Nieuwe pagina",
|
|
41
42
|
"header.uploadButton": "Uploaden",
|
|
42
43
|
"home.getStarted": "Aan de slag",
|
|
@@ -119,6 +120,8 @@
|
|
|
119
120
|
"title": "Bronnen",
|
|
120
121
|
"toggleLeftPanel": "Zijpaneel tonen/verbergen",
|
|
121
122
|
"uploadDock.body.collapse": "Inklappen",
|
|
123
|
+
"uploadDock.body.item.cancel": "Annuleren",
|
|
124
|
+
"uploadDock.body.item.cancelled": "Geannuleerd",
|
|
122
125
|
"uploadDock.body.item.done": "Geüpload",
|
|
123
126
|
"uploadDock.body.item.error": "Upload mislukt, probeer opnieuw",
|
|
124
127
|
"uploadDock.body.item.pending": "Voorbereiden op upload...",
|
|
@@ -126,6 +129,7 @@
|
|
|
126
129
|
"uploadDock.body.item.restTime": "Resterend: {{time}}",
|
|
127
130
|
"uploadDock.fileQueueInfo": "Eerste {{count}} bestanden worden geüpload, {{remaining}} in wachtrij",
|
|
128
131
|
"uploadDock.totalCount": "Totaal {{count}} items",
|
|
132
|
+
"uploadDock.uploadStatus.cancelled": "Upload geannuleerd",
|
|
129
133
|
"uploadDock.uploadStatus.error": "Uploadfout",
|
|
130
134
|
"uploadDock.uploadStatus.pending": "Wacht op upload",
|
|
131
135
|
"uploadDock.uploadStatus.processing": "Bezig met uploaden",
|