@lobehub/lobehub 2.0.10 → 2.0.11
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/Dockerfile +44 -52
- package/changelog/v2.json +9 -0
- package/locales/ar/chat.json +4 -0
- package/locales/ar/models.json +65 -0
- package/locales/bg-BG/chat.json +4 -0
- package/locales/bg-BG/models.json +10 -0
- package/locales/de-DE/chat.json +4 -0
- package/locales/de-DE/models.json +41 -0
- package/locales/en-US/chat.json +4 -0
- package/locales/es-ES/chat.json +4 -0
- package/locales/es-ES/models.json +50 -0
- package/locales/fa-IR/chat.json +4 -0
- package/locales/fa-IR/models.json +39 -0
- package/locales/fr-FR/chat.json +4 -0
- package/locales/fr-FR/models.json +9 -0
- package/locales/it-IT/chat.json +4 -0
- package/locales/it-IT/models.json +62 -0
- package/locales/ja-JP/chat.json +4 -0
- package/locales/ja-JP/models.json +40 -0
- package/locales/ko-KR/chat.json +4 -0
- package/locales/ko-KR/models.json +31 -0
- package/locales/nl-NL/chat.json +4 -0
- package/locales/nl-NL/models.json +52 -0
- package/locales/pl-PL/chat.json +4 -0
- package/locales/pl-PL/models.json +43 -0
- package/locales/pt-BR/chat.json +4 -0
- package/locales/pt-BR/models.json +92 -0
- package/locales/ru-RU/chat.json +4 -0
- package/locales/ru-RU/models.json +34 -0
- package/locales/tr-TR/chat.json +4 -0
- package/locales/tr-TR/models.json +55 -0
- package/locales/vi-VN/chat.json +4 -0
- package/locales/vi-VN/models.json +31 -0
- package/locales/zh-CN/chat.json +4 -0
- package/locales/zh-TW/chat.json +4 -0
- package/package.json +1 -1
- package/packages/agent-runtime/src/groupOrchestration/GroupOrchestrationSupervisor.ts +18 -1
- package/packages/agent-runtime/src/groupOrchestration/__tests__/GroupOrchestrationSupervisor.test.ts +76 -5
- package/packages/agent-runtime/src/groupOrchestration/types.ts +3 -3
- package/packages/builtin-tool-group-management/src/client/Intervention/ExecuteTask.tsx +11 -11
- package/packages/builtin-tool-group-management/src/client/Intervention/ExecuteTasks.tsx +78 -79
- package/packages/builtin-tool-group-management/src/client/Render/ExecuteTask/index.tsx +3 -3
- package/packages/builtin-tool-group-management/src/client/Render/ExecuteTasks/index.tsx +61 -63
- package/packages/builtin-tool-group-management/src/client/Streaming/ExecuteTask/index.tsx +3 -3
- package/packages/builtin-tool-group-management/src/executor.test.ts +7 -9
- package/packages/builtin-tool-group-management/src/executor.ts +3 -3
- package/packages/builtin-tool-group-management/src/manifest.ts +49 -50
- package/packages/builtin-tool-group-management/src/systemRole.ts +153 -5
- package/packages/builtin-tool-group-management/src/types.ts +3 -2
- package/packages/builtin-tool-gtd/src/systemRole.ts +4 -4
- package/packages/context-engine/src/processors/TasksFlatten.ts +7 -5
- package/packages/context-engine/src/processors/__tests__/TasksFlatten.test.ts +164 -0
- package/packages/conversation-flow/src/__tests__/fixtures/inputs/agentGroup/index.ts +4 -0
- package/packages/conversation-flow/src/__tests__/fixtures/inputs/agentGroup/supervisor-after-multi-tasks.json +91 -0
- package/packages/conversation-flow/src/__tests__/fixtures/inputs/agentGroup/supervisor-content-only.json +74 -0
- package/packages/conversation-flow/src/__tests__/parse.test.ts +37 -0
- package/packages/conversation-flow/src/transformation/FlatListBuilder.ts +70 -4
- package/packages/conversation-flow/src/transformation/__tests__/FlatListBuilder.test.ts +147 -0
- package/packages/types/src/message/ui/chat.ts +2 -0
- package/packages/types/src/tool/builtin.ts +5 -5
- package/src/features/Conversation/ChatItem/components/Title.tsx +1 -1
- package/src/features/Conversation/ChatList/index.tsx +0 -1
- package/src/features/Conversation/Messages/GroupTasks/TaskItem/ClientTaskItem.tsx +183 -0
- package/src/features/Conversation/Messages/GroupTasks/TaskItem/ServerTaskItem.tsx +94 -0
- package/src/features/Conversation/Messages/GroupTasks/TaskItem/TaskTitle.tsx +177 -0
- package/src/features/Conversation/Messages/GroupTasks/TaskItem/index.tsx +26 -0
- package/src/features/Conversation/Messages/GroupTasks/TaskItem/useClientTaskStats.ts +93 -0
- package/src/features/Conversation/Messages/GroupTasks/index.tsx +151 -0
- package/src/features/Conversation/Messages/Supervisor/index.tsx +7 -1
- package/src/features/Conversation/Messages/Task/ClientTaskDetail/index.tsx +72 -91
- package/src/features/Conversation/Messages/Task/TaskDetailPanel/StatusContent.tsx +46 -17
- package/src/features/Conversation/Messages/Tasks/TaskItem/ClientTaskItem.tsx +9 -24
- package/src/features/Conversation/Messages/Tasks/TaskItem/ServerTaskItem.tsx +18 -38
- package/src/features/Conversation/Messages/Tasks/shared/ErrorState.tsx +45 -2
- package/src/features/Conversation/Messages/Tasks/shared/InitializingState.tsx +16 -1
- package/src/features/Conversation/Messages/Tasks/shared/TaskContent.tsx +68 -0
- package/src/features/Conversation/Messages/Tasks/shared/TaskMessages.tsx +383 -0
- package/src/features/Conversation/Messages/Tasks/shared/index.ts +4 -0
- package/src/features/Conversation/Messages/Tasks/shared/useTaskPolling.ts +48 -0
- package/src/features/Conversation/Messages/index.tsx +5 -0
- package/src/locales/default/chat.ts +4 -0
- package/src/server/modules/AgentRuntime/RuntimeExecutors.ts +4 -0
- package/src/server/modules/AgentRuntime/__tests__/RuntimeExecutors.test.ts +106 -1
- package/src/server/services/aiAgent/__tests__/execAgent.threadId.test.ts +2 -2
- package/src/server/utils/truncateToolResult.ts +1 -4
- package/src/store/chat/agents/GroupOrchestration/__tests__/batch-exec-async-tasks.test.ts +15 -15
- package/src/store/chat/agents/GroupOrchestration/createGroupOrchestrationExecutors.ts +22 -15
- package/src/store/chat/agents/__tests__/createAgentExecutors/exec-tasks.test.ts +21 -10
- package/src/store/chat/agents/createAgentExecutors.ts +2 -0
- package/src/store/chat/slices/aiAgent/actions/groupOrchestration.ts +10 -7
- package/src/features/Conversation/Messages/Task/ClientTaskDetail/CompletedState.tsx +0 -108
- package/src/features/Conversation/Messages/Task/ClientTaskDetail/InstructionAccordion.tsx +0 -63
- package/src/features/Conversation/Messages/Task/ClientTaskDetail/ProcessingState.tsx +0 -123
|
@@ -1049,6 +1049,29 @@
|
|
|
1049
1049
|
"qwen/qwen3-235b-a22b.description": "Qwen3-235B-A22B یک مدل MoE با ۲۳۵ میلیارد پارامتر از Qwen است که در هر عبور رو به جلو ۲۲ میلیارد پارامتر فعال دارد. این مدل بین حالت تفکر (برای استدلال پیچیده، ریاضی و کدنویسی) و حالت غیرتفکر (برای چت کارآمد) جابجا میشود. از استدلال قوی، پشتیبانی چندزبانه (بیش از ۱۰۰ زبان/گویش)، پیروی پیشرفته از دستورالعملها و استفاده از ابزارهای عامل پشتیبانی میکند. بهصورت بومی از حافظه متنی ۳۲ هزار توکن پشتیبانی میکند و با YaRN تا ۱۳۱ هزار توکن گسترش مییابد.",
|
|
1050
1050
|
"qwen/qwen3-235b-a22b:free.description": "Qwen3-235B-A22B یک مدل MoE با ۲۳۵ میلیارد پارامتر از Qwen است که در هر عبور رو به جلو ۲۲ میلیارد پارامتر فعال دارد. این مدل بین حالت تفکر (برای استدلال پیچیده، ریاضی و کدنویسی) و حالت غیرتفکر (برای چت کارآمد) جابجا میشود. از استدلال قوی، پشتیبانی چندزبانه (بیش از ۱۰۰ زبان/گویش)، پیروی پیشرفته از دستورالعملها و استفاده از ابزارهای عامل پشتیبانی میکند. بهصورت بومی از حافظه متنی ۳۲ هزار توکن پشتیبانی میکند و با YaRN تا ۱۳۱ هزار توکن گسترش مییابد.",
|
|
1051
1051
|
"qwen/qwen3-30b-a3b.description": "Qwen3 جدیدترین نسل مدلهای LLM Qwen با معماریهای متراکم و MoE است که در استدلال، پشتیبانی چندزبانه و وظایف پیشرفته عامل بسیار توانمند است. توانایی منحصربهفرد آن در جابجایی بین حالت تفکر برای استدلال پیچیده و حالت غیرتفکر برای چت کارآمد، عملکردی همهجانبه و با کیفیت بالا را تضمین میکند.\n\nQwen3 بهطور قابلتوجهی از مدلهای قبلی مانند QwQ و Qwen2.5 پیشی میگیرد و عملکردی عالی در ریاضی، برنامهنویسی، استدلال عقل سلیم، نوشتن خلاقانه و چت تعاملی ارائه میدهد. نسخه Qwen3-30B-A3B دارای ۳۰.۵ میلیارد پارامتر (۳.۳ میلیارد فعال)، ۴۸ لایه، ۱۲۸ متخصص (۸ فعال در هر وظیفه) است و از حافظه متنی تا ۱۳۱ هزار توکن با YaRN پشتیبانی میکند و استاندارد جدیدی برای مدلهای متنباز تعیین میکند.",
|
|
1052
|
+
"qwen/qwen3-30b-a3b:free.description": "Qwen3 جدیدترین نسل مدلهای زبانی Qwen با معماریهای متراکم و MoE است که در استدلال، پشتیبانی چندزبانه و وظایف پیشرفته عاملها عملکردی برجسته دارد. توانایی منحصربهفرد آن در جابجایی بین حالت تفکر برای استدلال پیچیده و حالت بدون تفکر برای گفتوگوی سریع، عملکردی همهجانبه و با کیفیت بالا را تضمین میکند.\n\nQwen3 بهطور قابلتوجهی از مدلهای قبلی مانند QwQ و Qwen2.5 پیشی میگیرد و در ریاضیات، برنامهنویسی، استدلال عقل سلیم، نویسندگی خلاق و گفتوگوی تعاملی عملکردی عالی دارد. نسخه Qwen3-30B-A3B دارای ۳۰.۵ میلیارد پارامتر (۳.۳ میلیارد فعال)، ۴۸ لایه، ۱۲۸ کارشناس (۸ فعال در هر وظیفه) است و با پشتیبانی از زمینه تا ۱۳۱ هزار توکن با استفاده از YaRN، استاندارد جدیدی برای مدلهای باز ایجاد کرده است.",
|
|
1053
|
+
"qwen/qwen3-32b.description": "Qwen3-32B یک مدل زبانی علّی متراکم با ۳۲.۸ میلیارد پارامتر است که برای استدلال پیچیده و گفتوگوی کارآمد بهینهسازی شده است. این مدل بین حالت تفکر برای ریاضی، برنامهنویسی و منطق و حالت بدون تفکر برای گفتوگوی عمومی سریع جابجا میشود. در پیروی از دستورالعملها، استفاده از ابزارهای عامل و نویسندگی خلاق در بیش از ۱۰۰ زبان و گویش عملکردی قوی دارد. بهصورت بومی از زمینه ۳۲ هزار توکن پشتیبانی میکند و با YaRN تا ۱۳۱ هزار توکن گسترش مییابد.",
|
|
1054
|
+
"qwen/qwen3-32b:free.description": "Qwen3-32B یک مدل زبانی علّی متراکم با ۳۲.۸ میلیارد پارامتر است که برای استدلال پیچیده و گفتوگوی کارآمد بهینهسازی شده است. این مدل بین حالت تفکر برای ریاضی، برنامهنویسی و منطق و حالت بدون تفکر برای گفتوگوی عمومی سریع جابجا میشود. در پیروی از دستورالعملها، استفاده از ابزارهای عامل و نویسندگی خلاق در بیش از ۱۰۰ زبان و گویش عملکردی قوی دارد. بهصورت بومی از زمینه ۳۲ هزار توکن پشتیبانی میکند و با YaRN تا ۱۳۱ هزار توکن گسترش مییابد.",
|
|
1055
|
+
"qwen/qwen3-8b:free.description": "Qwen3-8B یک مدل زبانی علّی متراکم با ۸.۲ میلیارد پارامتر است که برای وظایف مبتنی بر استدلال و گفتوگوی کارآمد طراحی شده است. این مدل بین حالت تفکر برای ریاضی، برنامهنویسی و منطق و حالت بدون تفکر برای گفتوگوی عمومی جابجا میشود. برای پیروی از دستورالعملها، یکپارچهسازی با عاملها و نویسندگی خلاق در بیش از ۱۰۰ زبان و گویش بهخوبی تنظیم شده است. بهصورت بومی از زمینه ۳۲ هزار توکن پشتیبانی میکند و با YaRN تا ۱۳۱ هزار توکن گسترش مییابد.",
|
|
1056
|
+
"qwen/qwen3-coder-plus.description": "Qwen3-Coder-Plus یک مدل عامل برنامهنویسی از سری Qwen است که برای استفاده از ابزارهای پیچیدهتر و جلسات طولانی بهینهسازی شده است.",
|
|
1057
|
+
"qwen/qwen3-coder.description": "Qwen3-Coder خانواده تولید کد Qwen3 است که در درک و تولید کد در اسناد طولانی عملکردی قوی دارد.",
|
|
1058
|
+
"qwen/qwen3-max-preview.description": "Qwen3 Max (پیشنمایش) نسخه Max برای استدلال پیشرفته و یکپارچهسازی ابزارها است.",
|
|
1059
|
+
"qwen/qwen3-max.description": "Qwen3 Max مدل استدلال سطح بالا در سری Qwen3 برای استدلال چندزبانه و یکپارچهسازی ابزارها است.",
|
|
1060
|
+
"qwen/qwen3-vl-plus.description": "Qwen3 VL-Plus نسخه تقویتشده Qwen3 با قابلیتهای بینایی است که در استدلال چندوجهی و پردازش ویدئو بهبود یافته است.",
|
|
1061
|
+
"qwen2.5-14b-instruct-1m.description": "مدل متنباز Qwen2.5 با ۷۲ میلیارد پارامتر.",
|
|
1062
|
+
"qwen2.5-14b-instruct.description": "مدل متنباز Qwen2.5 با ۱۴ میلیارد پارامتر.",
|
|
1063
|
+
"qwen2.5-32b-instruct.description": "مدل متنباز Qwen2.5 با ۳۲ میلیارد پارامتر.",
|
|
1064
|
+
"qwen2.5-72b-instruct.description": "مدل متنباز Qwen2.5 با ۷۲ میلیارد پارامتر.",
|
|
1065
|
+
"qwen2.5-7b-instruct.description": "Qwen2.5 7B Instruct یک مدل متنباز بالغ برای گفتوگو و تولید در سناریوهای مختلف است.",
|
|
1066
|
+
"qwen2.5-coder-1.5b-instruct.description": "مدل برنامهنویسی متنباز Qwen.",
|
|
1067
|
+
"qwen2.5-coder-14b-instruct.description": "مدل برنامهنویسی متنباز Qwen.",
|
|
1068
|
+
"qwen2.5-coder-32b-instruct.description": "مدل برنامهنویسی متنباز Qwen.",
|
|
1069
|
+
"qwen2.5-coder-7b-instruct.description": "مدل برنامهنویسی متنباز Qwen.",
|
|
1070
|
+
"qwen2.5-coder-instruct.description": "Qwen2.5-Coder جدیدترین مدل متمرکز بر کدنویسی در خانواده Qwen (قبلاً با نام CodeQwen شناخته میشد) است.",
|
|
1071
|
+
"qwen2.5-instruct.description": "Qwen2.5 جدیدترین سری مدلهای زبانی Qwen است که شامل مدلهای پایه و تنظیمشده برای دستورالعملها با اندازههایی از ۰.۵ تا ۷۲ میلیارد پارامتر میباشد.",
|
|
1072
|
+
"qwen2.5-math-1.5b-instruct.description": "Qwen-Math در حل مسائل ریاضی عملکردی قوی دارد.",
|
|
1073
|
+
"qwen2.5-math-72b-instruct.description": "Qwen-Math در حل مسائل ریاضی عملکردی قوی دارد.",
|
|
1074
|
+
"qwen2.5-math-7b-instruct.description": "Qwen-Math در حل مسائل ریاضی عملکردی قوی دارد.",
|
|
1052
1075
|
"qwen2.5-omni-7b.description": "مدلهای Qwen-Omni از ورودیهای چندرسانهای (ویدیو، صدا، تصویر، متن) پشتیبانی میکنند و خروجی آنها به صورت صوتی و متنی است.",
|
|
1053
1076
|
"qwen2.5-vl-32b-instruct.description": "Qwen2.5 VL 32B Instruct یک مدل چندرسانهای متنباز است که برای استقرار خصوصی و استفاده در سناریوهای مختلف مناسب میباشد.",
|
|
1054
1077
|
"qwen2.5-vl-72b-instruct.description": "بهبود در پیروی از دستورالعملها، ریاضیات، حل مسئله و برنامهنویسی، با توانایی قویتر در شناسایی اشیاء عمومی. از مکانیابی دقیق عناصر بصری در قالبهای مختلف، درک ویدیوهای طولانی (تا ۱۰ دقیقه) با زمانبندی رویداد در سطح ثانیه، ترتیب زمانی و درک سرعت، و عاملهایی که میتوانند سیستمعامل یا موبایل را از طریق تجزیه و تحلیل و مکانیابی کنترل کنند، پشتیبانی میکند. استخراج اطلاعات کلیدی قوی و خروجی JSON. این نسخه ۷۲B، قویترین نسخه در این سری است.",
|
|
@@ -1100,6 +1123,22 @@
|
|
|
1100
1123
|
"qwq-plus.description": "مدل استدلال QwQ که بر پایه Qwen2.5 آموزش دیده و با استفاده از یادگیری تقویتی (RL) توانایی استدلال را بهطور چشمگیری بهبود داده است. در معیارهای اصلی ریاضی/کد (AIME 24/25، LiveCodeBench) و برخی معیارهای عمومی (IFEval، LiveBench) به سطح کامل DeepSeek-R1 رسیده است.",
|
|
1101
1124
|
"qwq.description": "QwQ یک مدل استدلال در خانواده Qwen است. در مقایسه با مدلهای تنظیمشده با دستورالعمل استاندارد، توانایی تفکر و استدلال آن عملکرد پاییندستی را بهویژه در مسائل دشوار بهطور قابل توجهی بهبود میبخشد. QwQ-32B یک مدل استدلال میانرده است که با مدلهای برتر مانند DeepSeek-R1 و o1-mini رقابت میکند.",
|
|
1102
1125
|
"qwq_32b.description": "مدل استدلال میانرده در خانواده Qwen. در مقایسه با مدلهای تنظیمشده با دستورالعمل استاندارد، توانایی تفکر و استدلال QwQ عملکرد پاییندستی را بهویژه در مسائل دشوار بهطور قابل توجهی بهبود میبخشد.",
|
|
1126
|
+
"r1-1776.description": "R1-1776 نسخه پسآموزشی مدل DeepSeek R1 است که برای ارائه اطلاعات واقعی، بدون سانسور و بیطرف طراحی شده است.",
|
|
1127
|
+
"solar-mini-ja.description": "Solar Mini (ژاپنی) نسخهای از Solar Mini با تمرکز بر زبان ژاپنی است که در عین حال عملکرد قوی و کارآمدی در زبانهای انگلیسی و کرهای حفظ میکند.",
|
|
1128
|
+
"solar-mini.description": "Solar Mini یک مدل زبانی فشرده است که عملکردی بهتر از GPT-3.5 دارد و با پشتیبانی چندزبانه قوی از زبانهای انگلیسی و کرهای، راهحلی کارآمد با حجم کم ارائه میدهد.",
|
|
1129
|
+
"solar-pro.description": "Solar Pro یک مدل زبانی هوشمند از Upstage است که برای پیروی از دستورالعملها روی یک GPU طراحی شده و امتیاز IFEval بالای ۸۰ دارد. در حال حاضر از زبان انگلیسی پشتیبانی میکند؛ انتشار کامل آن برای نوامبر ۲۰۲۴ با پشتیبانی زبانی گستردهتر و زمینه طولانیتر برنامهریزی شده است.",
|
|
1130
|
+
"sonar-deep-research.description": "Deep Research پژوهشی جامع در سطح تخصصی انجام داده و آن را به گزارشهایی قابلفهم و قابلاقدام تبدیل میکند.",
|
|
1131
|
+
"sonar-pro.description": "یک محصول جستجوی پیشرفته با پشتیبانی از جستجوی مبتنی بر زمینه برای پرسوجوهای پیچیده و پیگیریها.",
|
|
1132
|
+
"sonar-reasoning-pro.description": "یک محصول جستجوی پیشرفته با پشتیبانی از جستجوی مبتنی بر زمینه برای پرسوجوهای پیچیده و پیگیریها.",
|
|
1133
|
+
"sonar-reasoning.description": "یک محصول جستجوی پیشرفته با پشتیبانی از جستجوی مبتنی بر زمینه برای پرسوجوهای پیچیده و پیگیریها.",
|
|
1134
|
+
"sonar.description": "یک محصول سبکوزن با جستجوی مبتنی بر زمینه، سریعتر و ارزانتر از Sonar Pro.",
|
|
1135
|
+
"spark-x.description": "بهروزرسانیهای X1.5: (۱) افزودن حالت تفکر پویا با کنترل از طریق فیلد `thinking`؛ (۲) طول زمینه بزرگتر با ورودی ۶۴K و خروجی ۶۴K؛ (۳) پشتیبانی از FunctionCall.",
|
|
1136
|
+
"stable-diffusion-3-medium.description": "جدیدترین مدل تبدیل متن به تصویر از Stability AI. این نسخه کیفیت تصویر، درک متن و تنوع سبک را بهطور قابلتوجهی بهبود میبخشد، دستورات زبان طبیعی پیچیده را دقیقتر تفسیر کرده و تصاویر متنوعتری تولید میکند.",
|
|
1137
|
+
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo از تکنیک تقطیر انتشار خصمانه (ADD) برای افزایش سرعت در stable-diffusion-3.5-large استفاده میکند.",
|
|
1138
|
+
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large یک مدل تبدیل متن به تصویر MMDiT با ۸۰۰ میلیون پارامتر است که کیفیت بالا و تطابق دقیق با دستورات را ارائه میدهد و از تصاویر ۱ مگاپیکسلی و اجرای کارآمد روی سختافزار مصرفی پشتیبانی میکند.",
|
|
1139
|
+
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 از نقطه بازیابی v1.2 آغاز شده و به مدت ۵۹۵ هزار مرحله روی مجموعه «laion-aesthetics v2 5+» با وضوح ۵۱۲x۵۱۲ آموزش دیده است. با کاهش ۱۰٪ در شرطبندی متنی، نمونهگیری بدون طبقهبندی را بهبود میبخشد.",
|
|
1140
|
+
"stable-diffusion-xl-base-1.0.description": "یک مدل متنباز تبدیل متن به تصویر از Stability AI با قابلیتهای خلاقانه پیشرو در صنعت. درک قوی از دستورالعملها دارد و از تعریف معکوس دستورات برای تولید دقیق پشتیبانی میکند.",
|
|
1141
|
+
"stable-diffusion-xl.description": "stable-diffusion-xl بهبودهای عمدهای نسبت به نسخه v1.5 دارد و با بهترین نتایج متنباز تبدیل متن به تصویر برابری میکند. بهبودها شامل ستون فقرات UNet سه برابر بزرگتر، ماژول پالایش برای کیفیت بهتر تصویر و تکنیکهای آموزشی کارآمدتر است.",
|
|
1103
1142
|
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct با استفاده از ۸۰ میلیارد پارامتر کلی و ۱۳ میلیارد پارامتر فعال، عملکردی همتراز با مدلهای بزرگتر ارائه میدهد. این مدل از استدلال ترکیبی سریع/کند، درک پایدار متون بلند و توانایی پیشرو در عاملها در آزمونهای BFCL-v3 و τ-Bench پشتیبانی میکند. فرمتهای GQA و چندکوانتیزهسازی، استنتاج کارآمد را ممکن میسازند.",
|
|
1104
1143
|
"tencent/Hunyuan-MT-7B.description": "مدل ترجمه Hunyuan شامل Hunyuan-MT-7B و مدل ترکیبی Hunyuan-MT-Chimera است. Hunyuan-MT-7B یک مدل ترجمه سبک با ۷ میلیارد پارامتر است که از ۳۳ زبان بهعلاوه ۵ زبان اقلیت چینی پشتیبانی میکند. در رقابت WMT25، در ۳۰ جفتزبان از ۳۱ مورد، رتبه اول را کسب کرد. Hunyuan از یک زنجیره کامل آموزش شامل پیشآموزش، SFT، تقویت یادگیری ترجمه و تقویت یادگیری ترکیبی استفاده میکند و با عملکردی پیشرو در اندازه خود، بهراحتی قابل استقرار است.",
|
|
1105
1144
|
"text-embedding-3-large.description": "قویترین مدل تعبیهسازی برای وظایف انگلیسی و غیرانگلیسی.",
|
package/locales/fr-FR/chat.json
CHANGED
|
@@ -338,6 +338,9 @@
|
|
|
338
338
|
"task.activity.toolCalling": "Appel de {{toolName}}...",
|
|
339
339
|
"task.activity.toolResult": "Résultat de {{toolName}} reçu",
|
|
340
340
|
"task.batchTasks": "{{count}} sous-tâches groupées",
|
|
341
|
+
"task.groupTasks": "{{count}} tâches parallèles",
|
|
342
|
+
"task.groupTasksTitle": "{{agents}} et {{count}} tâches d'agents",
|
|
343
|
+
"task.groupTasksTitleSimple": "{{agents}} {{count}} tâches",
|
|
341
344
|
"task.instruction": "Instruction de la tâche",
|
|
342
345
|
"task.intermediateSteps": "{{count}} étapes intermédiaires",
|
|
343
346
|
"task.metrics.duration": "(durée : {{duration}})",
|
|
@@ -345,6 +348,7 @@
|
|
|
345
348
|
"task.metrics.toolCallsShort": "utilisations d'outil",
|
|
346
349
|
"task.status.cancelled": "Tâche annulée",
|
|
347
350
|
"task.status.failed": "Échec de la tâche",
|
|
351
|
+
"task.status.fetchingDetails": "Récupération des détails...",
|
|
348
352
|
"task.status.initializing": "Initialisation de la tâche...",
|
|
349
353
|
"task.subtask": "Sous-tâche",
|
|
350
354
|
"thread.divider": "Sous-sujet",
|
|
@@ -817,6 +817,15 @@
|
|
|
817
817
|
"meta-llama/llama-3.1-70b-instruct.description": "La dernière série Llama 3.1 de Meta, la variante 70B ajustée par instruction, est optimisée pour des dialogues de haute qualité. Elle affiche de solides performances face aux modèles fermés leaders dans les évaluations industrielles. (Disponible uniquement pour les entités vérifiées en entreprise.)",
|
|
818
818
|
"meta-llama/llama-3.1-8b-instruct.description": "La dernière série Llama 3.1 de Meta, la variante 8B ajustée par instruction, est particulièrement rapide et efficace. Elle offre de solides performances dans les évaluations industrielles, surpassant de nombreux modèles fermés leaders. (Disponible uniquement pour les entités vérifiées en entreprise.)",
|
|
819
819
|
"meta-llama/llama-3.1-8b-instruct:free.description": "LLaMA 3.1 offre un support multilingue et fait partie des modèles génératifs les plus performants.",
|
|
820
|
+
"meta-llama/llama-3.2-11b-vision-instruct.description": "LLaMA 3.2 est conçu pour les tâches combinant vision et texte. Il excelle en légendage d’images et en questions-réponses visuelles, faisant le lien entre génération de langage et raisonnement visuel.",
|
|
821
|
+
"meta-llama/llama-3.2-3b-instruct.description": "meta-llama/llama-3.2-3b-instruct",
|
|
822
|
+
"meta-llama/llama-3.2-90b-vision-instruct.description": "LLaMA 3.2 est conçu pour les tâches combinant vision et texte. Il excelle en légendage d’images et en questions-réponses visuelles, faisant le lien entre génération de langage et raisonnement visuel.",
|
|
823
|
+
"meta-llama/llama-3.3-70b-instruct.description": "Llama 3.3 est le modèle Llama multilingue open source le plus avancé, offrant des performances proches de 405B à très faible coût. Basé sur l’architecture Transformer, il est amélioré par SFT et RLHF pour une meilleure utilité et sécurité. La version optimisée pour les instructions est conçue pour les conversations multilingues et surpasse de nombreux modèles ouverts et fermés selon les benchmarks industriels. Date de coupure des connaissances : décembre 2023.",
|
|
824
|
+
"meta-llama/llama-3.3-70b-instruct:free.description": "Llama 3.3 est le modèle Llama multilingue open source le plus avancé, offrant des performances proches de 405B à très faible coût. Basé sur l’architecture Transformer, il est amélioré par SFT et RLHF pour une meilleure utilité et sécurité. La version optimisée pour les instructions est conçue pour les conversations multilingues et surpasse de nombreux modèles ouverts et fermés selon les benchmarks industriels. Date de coupure des connaissances : décembre 2023.",
|
|
825
|
+
"meta.llama3-1-405b-instruct-v1:0.description": "Meta Llama 3.1 405B Instruct est le plus grand et le plus puissant modèle Llama 3.1 Instruct, conçu pour le raisonnement conversationnel et la génération de données synthétiques. Il constitue une base solide pour un pré-entraînement ou un ajustement spécifique à un domaine. Les LLMs multilingues Llama 3.1 sont des modèles de génération pré-entraînés et ajustés par instruction, disponibles en tailles 8B, 70B et 405B (texte en entrée/sortie). Les modèles ajustés sont optimisés pour le dialogue multilingue et surpassent de nombreux modèles de chat ouverts sur les benchmarks industriels. Llama 3.1 est destiné à un usage commercial et de recherche dans plusieurs langues. Les modèles ajustés conviennent aux assistants conversationnels, tandis que les modèles pré-entraînés sont adaptés à des tâches plus générales de génération de texte. Les sorties de Llama 3.1 peuvent également être utilisées pour améliorer d'autres modèles, notamment via la génération et le raffinement de données synthétiques. Llama 3.1 est un modèle Transformer autorégressif avec une architecture optimisée. Les versions ajustées utilisent un apprentissage supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF) pour s’aligner sur les préférences humaines en matière d’utilité et de sécurité.",
|
|
826
|
+
"meta.llama3-1-70b-instruct-v1:0.description": "Une version mise à jour de Meta Llama 3.1 70B Instruct avec une fenêtre de contexte étendue à 128K, un support multilingue et un raisonnement amélioré. Les LLMs multilingues Llama 3.1 sont des modèles de génération pré-entraînés et ajustés par instruction, disponibles en tailles 8B, 70B et 405B (texte en entrée/sortie). Les modèles ajustés sont optimisés pour le dialogue multilingue et surpassent de nombreux modèles de chat ouverts sur les benchmarks industriels. Llama 3.1 est destiné à un usage commercial et de recherche dans plusieurs langues. Les modèles ajustés conviennent aux assistants conversationnels, tandis que les modèles pré-entraînés sont adaptés à des tâches plus générales de génération de texte. Les sorties de Llama 3.1 peuvent également être utilisées pour améliorer d'autres modèles, notamment via la génération et le raffinement de données synthétiques. Llama 3.1 est un modèle Transformer autorégressif avec une architecture optimisée. Les versions ajustées utilisent un apprentissage supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF) pour s’aligner sur les préférences humaines en matière d’utilité et de sécurité.",
|
|
827
|
+
"meta.llama3-1-8b-instruct-v1:0.description": "Une version mise à jour de Meta Llama 3.1 8B Instruct avec une fenêtre de contexte de 128K, un support multilingue et un raisonnement amélioré. La famille Llama 3.1 comprend des modèles de texte ajustés par instruction en 8B, 70B et 405B, optimisés pour le chat multilingue et des performances solides sur les benchmarks. Conçu pour un usage commercial et de recherche dans plusieurs langues ; les modèles ajustés conviennent aux assistants conversationnels, tandis que les modèles pré-entraînés sont adaptés à des tâches de génération plus générales. Les sorties de Llama 3.1 peuvent également être utilisées pour améliorer d'autres modèles (par exemple, données synthétiques et raffinement). Il s'agit d'un modèle Transformer autorégressif, avec SFT et RLHF pour s’aligner sur l’utilité et la sécurité.",
|
|
828
|
+
"meta.llama3-70b-instruct-v1:0.description": "Meta Llama 3 est un LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable leurs idées en IA générative. En tant que fondation pour l’innovation communautaire mondiale, il est bien adapté à la création de contenu, à l’IA conversationnelle, à la compréhension du langage, à la R&D et aux applications d’entreprise.",
|
|
820
829
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
|
|
821
830
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
|
|
822
831
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",
|
package/locales/it-IT/chat.json
CHANGED
|
@@ -338,6 +338,9 @@
|
|
|
338
338
|
"task.activity.toolCalling": "Chiamata {{toolName}}...",
|
|
339
339
|
"task.activity.toolResult": "Risultato {{toolName}} ricevuto",
|
|
340
340
|
"task.batchTasks": "{{count}} sottocompiti in batch",
|
|
341
|
+
"task.groupTasks": "{{count}} Attività Parallele",
|
|
342
|
+
"task.groupTasksTitle": "{{agents}} e {{count}} attività degli agenti",
|
|
343
|
+
"task.groupTasksTitleSimple": "{{agents}} {{count}} attività",
|
|
341
344
|
"task.instruction": "Istruzioni dell'attività",
|
|
342
345
|
"task.intermediateSteps": "{{count}} passaggi intermedi",
|
|
343
346
|
"task.metrics.duration": "(durata: {{duration}})",
|
|
@@ -345,6 +348,7 @@
|
|
|
345
348
|
"task.metrics.toolCallsShort": "usi strumento",
|
|
346
349
|
"task.status.cancelled": "Attività annullata",
|
|
347
350
|
"task.status.failed": "Attività non riuscita",
|
|
351
|
+
"task.status.fetchingDetails": "Recupero dei dettagli in corso...",
|
|
348
352
|
"task.status.initializing": "Inizializzazione attività...",
|
|
349
353
|
"task.subtask": "Sottocompito",
|
|
350
354
|
"thread.divider": "Sottotema",
|
|
@@ -760,6 +760,68 @@
|
|
|
760
760
|
"learnlm-1.5-pro-experimental.description": "LearnLM è un modello sperimentale e specifico per compiti, addestrato secondo i principi della scienza dell'apprendimento per seguire istruzioni di sistema in scenari di insegnamento/apprendimento, agendo come un tutor esperto.",
|
|
761
761
|
"learnlm-2.0-flash-experimental.description": "LearnLM è un modello sperimentale e specifico per compiti, addestrato secondo i principi della scienza dell'apprendimento per seguire istruzioni di sistema in scenari di insegnamento/apprendimento, agendo come un tutor esperto.",
|
|
762
762
|
"lite.description": "Spark Lite è un LLM leggero con latenza ultra-bassa ed elaborazione efficiente. È completamente gratuito e supporta la ricerca web in tempo reale. Le sue risposte rapide si comportano bene su dispositivi a bassa potenza e per il fine-tuning dei modelli, offrendo un'esperienza intelligente e conveniente, soprattutto per domande e risposte, generazione di contenuti e scenari di ricerca.",
|
|
763
|
+
"llama-3.1-70b-versatile.description": "Llama 3.1 70B offre un ragionamento AI avanzato per applicazioni complesse, supportando carichi computazionali elevati con alta efficienza e precisione.",
|
|
764
|
+
"llama-3.1-8b-instant.description": "Llama 3.1 8B è un modello ad alta efficienza con generazione di testo rapida, ideale per applicazioni su larga scala e a basso costo.",
|
|
765
|
+
"llama-3.1-instruct.description": "Il modello Llama 3.1 ottimizzato per istruzioni è progettato per chat e supera molti modelli open source nei benchmark di settore.",
|
|
766
|
+
"llama-3.2-11b-vision-instruct.description": "Potente ragionamento visivo su immagini ad alta risoluzione, ideale per applicazioni di comprensione visiva.",
|
|
767
|
+
"llama-3.2-11b-vision-preview.description": "Llama 3.2 è progettato per compiti che combinano visione e testo, eccellendo in didascalie di immagini e domande e risposte visive, unendo generazione linguistica e ragionamento visivo.",
|
|
768
|
+
"llama-3.2-90b-vision-instruct.description": "Ragionamento visivo avanzato per applicazioni di agenti con comprensione visiva.",
|
|
769
|
+
"llama-3.2-90b-vision-preview.description": "Llama 3.2 è progettato per compiti che combinano visione e testo, eccellendo in didascalie di immagini e domande e risposte visive, unendo generazione linguistica e ragionamento visivo.",
|
|
770
|
+
"llama-3.2-vision-instruct.description": "Il modello Llama 3.2-Vision ottimizzato per istruzioni è progettato per riconoscimento visivo, ragionamento su immagini, generazione di didascalie e domande e risposte generali su immagini.",
|
|
771
|
+
"llama-3.3-70b-versatile.description": "Meta Llama 3.3 è un LLM multilingue con 70 miliardi di parametri (input/output testuale), disponibile in versioni pre-addestrate e ottimizzate per istruzioni. Il modello testuale ottimizzato per istruzioni è pensato per dialoghi multilingue e supera molti modelli open e closed nei benchmark di settore.",
|
|
772
|
+
"llama-3.3-70b.description": "Llama 3.3 70B: un modello Llama di dimensioni medio-grandi che bilancia ragionamento e throughput.",
|
|
773
|
+
"llama-3.3-instruct.description": "Il modello Llama 3.3 ottimizzato per istruzioni è progettato per chat e supera molti modelli open source nei benchmark di settore.",
|
|
774
|
+
"llama3-70b-8192.description": "Meta Llama 3 70B offre una gestione eccezionale della complessità per progetti impegnativi.",
|
|
775
|
+
"llama3-8b-8192.description": "Meta Llama 3 8B garantisce prestazioni di ragionamento solide in scenari diversificati.",
|
|
776
|
+
"llama3-groq-70b-8192-tool-use-preview.description": "Llama 3 Groq 70B Tool Use offre un uso efficiente degli strumenti per la gestione di compiti complessi.",
|
|
777
|
+
"llama3-groq-8b-8192-tool-use-preview.description": "Llama 3 Groq 8B Tool Use è ottimizzato per un uso efficiente degli strumenti con calcolo parallelo veloce.",
|
|
778
|
+
"llama3.1-8b.description": "Llama 3.1 8B: una variante Llama compatta e a bassa latenza per inferenza online leggera e chat.",
|
|
779
|
+
"llama3.1.description": "Llama 3.1 è il modello di punta di Meta, scalabile fino a 405 miliardi di parametri per dialoghi complessi, traduzioni multilingue e analisi dei dati.",
|
|
780
|
+
"llama3.1:405b.description": "Llama 3.1 è il modello di punta di Meta, scalabile fino a 405 miliardi di parametri per dialoghi complessi, traduzioni multilingue e analisi dei dati.",
|
|
781
|
+
"llama3.1:70b.description": "Llama 3.1 è il modello di punta di Meta, scalabile fino a 405 miliardi di parametri per dialoghi complessi, traduzioni multilingue e analisi dei dati.",
|
|
782
|
+
"llava-v1.5-7b-4096-preview.description": "LLaVA 1.5 7B integra l'elaborazione visiva per generare output complessi da input visivi.",
|
|
783
|
+
"llava.description": "LLaVA è un modello multimodale che combina un encoder visivo e Vicuna per una solida comprensione visione-linguaggio.",
|
|
784
|
+
"llava:13b.description": "LLaVA è un modello multimodale che combina un encoder visivo e Vicuna per una solida comprensione visione-linguaggio.",
|
|
785
|
+
"llava:34b.description": "LLaVA è un modello multimodale che combina un encoder visivo e Vicuna per una solida comprensione visione-linguaggio.",
|
|
786
|
+
"magistral-medium-latest.description": "Magistral Medium 1.2 è un modello di ragionamento avanzato di Mistral AI (settembre 2025) con supporto visivo.",
|
|
787
|
+
"magistral-small-2509.description": "Magistral Small 1.2 è un modello open source compatto di Mistral AI (settembre 2025) con supporto visivo.",
|
|
788
|
+
"mathstral.description": "MathΣtral è progettato per la ricerca scientifica e il ragionamento matematico, con forti capacità di calcolo e spiegazione.",
|
|
789
|
+
"max-32k.description": "Spark Max 32K offre elaborazione di contesti estesi con una comprensione logica e contestuale avanzata, supportando input fino a 32.000 token per lettura di documenti lunghi e domande su conoscenze private.",
|
|
790
|
+
"megrez-3b-instruct.description": "Megrez 3B Instruct è un modello compatto ed efficiente sviluppato da Wuwen Xinqiong.",
|
|
791
|
+
"meituan/longcat-flash-chat.description": "Un modello base open source non riflessivo di Meituan, ottimizzato per dialoghi e compiti agentici, eccellente nell'uso di strumenti e interazioni complesse multi-turno.",
|
|
792
|
+
"meta-llama-3-70b-instruct.description": "Un potente modello da 70 miliardi di parametri che eccelle nel ragionamento, nella programmazione e nei compiti linguistici generali.",
|
|
793
|
+
"meta-llama-3-8b-instruct.description": "Un modello versatile da 8 miliardi di parametri ottimizzato per chat e generazione di testo.",
|
|
794
|
+
"meta-llama-3.1-405b-instruct.description": "Modello testuale Llama 3.1 ottimizzato per istruzioni, progettato per chat multilingue, con prestazioni elevate nei benchmark di settore tra i modelli open e closed.",
|
|
795
|
+
"meta-llama-3.1-70b-instruct.description": "Modello testuale Llama 3.1 ottimizzato per istruzioni, progettato per chat multilingue, con prestazioni elevate nei benchmark di settore tra i modelli open e closed.",
|
|
796
|
+
"meta-llama-3.1-8b-instruct.description": "Modello testuale Llama 3.1 ottimizzato per istruzioni, progettato per chat multilingue, con prestazioni elevate nei benchmark di settore tra i modelli open e closed.",
|
|
797
|
+
"meta-llama/Llama-2-13b-chat-hf.description": "LLaMA-2 Chat (13B) offre una solida gestione linguistica e un'esperienza di chat affidabile.",
|
|
798
|
+
"meta-llama/Llama-2-70b-hf.description": "LLaMA-2 offre una solida gestione linguistica e un'interazione fluida.",
|
|
799
|
+
"meta-llama/Llama-3-70b-chat-hf.description": "Llama 3 70B Instruct Reference è un potente modello di chat per dialoghi complessi.",
|
|
800
|
+
"meta-llama/Llama-3-8b-chat-hf.description": "Llama 3 8B Instruct Reference offre supporto multilingue e conoscenza su ampi domini.",
|
|
801
|
+
"meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo.description": "LLaMA 3.2 è progettato per compiti che combinano visione e testo. Eccelle in didascalie di immagini e domande e risposte visive, unendo generazione linguistica e ragionamento visivo.",
|
|
802
|
+
"meta-llama/Llama-3.2-3B-Instruct-Turbo.description": "LLaMA 3.2 è progettato per compiti che combinano visione e testo. Eccelle in didascalie di immagini e domande e risposte visive, unendo generazione linguistica e ragionamento visivo.",
|
|
803
|
+
"meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo.description": "LLaMA 3.2 è progettato per compiti che combinano visione e testo. Eccelle in didascalie di immagini e domande e risposte visive, unendo generazione linguistica e ragionamento visivo.",
|
|
804
|
+
"meta-llama/Llama-3.3-70B-Instruct-Turbo.description": "Meta Llama 3.3 è un LLM multilingue da 70B (input/output testuale), pre-addestrato e ottimizzato per istruzioni. La versione testuale ottimizzata per istruzioni è pensata per chat multilingue e supera molti modelli open e closed nei benchmark di settore.",
|
|
805
|
+
"meta-llama/Llama-Vision-Free.description": "LLaMA 3.2 è progettato per compiti che combinano visione e testo. Eccelle in didascalie di immagini e domande e risposte visive, unendo generazione linguistica e ragionamento visivo.",
|
|
806
|
+
"meta-llama/Meta-Llama-3-70B-Instruct-Lite.description": "Llama 3 70B Instruct Lite è progettato per alte prestazioni con bassa latenza.",
|
|
807
|
+
"meta-llama/Meta-Llama-3-70B-Instruct-Turbo.description": "Llama 3 70B Instruct Turbo offre comprensione e generazione avanzate per i carichi di lavoro più esigenti.",
|
|
808
|
+
"meta-llama/Meta-Llama-3-8B-Instruct-Lite.description": "Llama 3 8B Instruct Lite bilancia prestazioni e risorse per ambienti con vincoli.",
|
|
809
|
+
"meta-llama/Meta-Llama-3-8B-Instruct-Turbo.description": "Llama 3 8B Instruct Turbo è un LLM ad alte prestazioni per un'ampia gamma di casi d'uso.",
|
|
810
|
+
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo.description": "Il modello Llama 3.1 Turbo da 405B offre una capacità di contesto enorme per l'elaborazione di big data ed eccelle in applicazioni AI su scala ultra.",
|
|
811
|
+
"meta-llama/Meta-Llama-3.1-405B-Instruct.description": "Llama 3.1 è la famiglia di modelli di punta di Meta, scalabile fino a 405 miliardi di parametri per dialoghi complessi, traduzioni multilingue e analisi dei dati.",
|
|
812
|
+
"meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo.description": "Llama 3.1 70B è finemente ottimizzato per applicazioni ad alto carico; la quantizzazione FP8 garantisce calcolo efficiente e precisione in scenari complessi.",
|
|
813
|
+
"meta-llama/Meta-Llama-3.1-70B.description": "Llama 3.1 è la famiglia di modelli di punta di Meta, scalabile fino a 405 miliardi di parametri per dialoghi complessi, traduzioni multilingue e analisi dei dati.",
|
|
814
|
+
"meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo.description": "Llama 3.1 8B utilizza quantizzazione FP8, supporta fino a 131.072 token di contesto e si posiziona tra i migliori modelli open per compiti complessi su numerosi benchmark.",
|
|
815
|
+
"meta-llama/llama-3-70b-instruct.description": "Llama 3 70B Instruct è ottimizzato per dialoghi di alta qualità e mostra ottime prestazioni nelle valutazioni umane.",
|
|
816
|
+
"meta-llama/llama-3-8b-instruct.description": "Llama 3 8B Instruct è ottimizzato per dialoghi di alta qualità, superando molti modelli closed.",
|
|
817
|
+
"meta-llama/llama-3.1-70b-instruct.description": "La serie Llama 3.1 più recente di Meta, variante da 70B ottimizzata per istruzioni e dialoghi di alta qualità. Nei benchmark di settore, mostra prestazioni elevate rispetto ai principali modelli closed. (Disponibile solo per entità verificate aziendalmente.)",
|
|
818
|
+
"meta-llama/llama-3.1-8b-instruct.description": "La serie Llama 3.1 più recente di Meta, variante da 8B ottimizzata per istruzioni, particolarmente veloce ed efficiente. Nei benchmark di settore, offre prestazioni elevate, superando molti modelli closed. (Disponibile solo per entità verificate aziendalmente.)",
|
|
819
|
+
"meta-llama/llama-3.1-8b-instruct:free.description": "LLaMA 3.1 offre supporto multilingue ed è uno dei principali modelli generativi.",
|
|
820
|
+
"meta-llama/llama-3.2-11b-vision-instruct.description": "LLaMA 3.2 è progettato per compiti che combinano visione e testo. Eccelle in didascalie di immagini e domande e risposte visive, unendo generazione linguistica e ragionamento visivo.",
|
|
821
|
+
"meta-llama/llama-3.2-3b-instruct.description": "meta-llama/llama-3.2-3b-instruct",
|
|
822
|
+
"meta-llama/llama-3.2-90b-vision-instruct.description": "LLaMA 3.2 è progettato per compiti che combinano visione e testo. Eccelle in didascalie di immagini e domande e risposte visive, unendo generazione linguistica e ragionamento visivo.",
|
|
823
|
+
"meta-llama/llama-3.3-70b-instruct.description": "Llama 3.3 è il modello Llama open source multilingue più avanzato, con prestazioni vicine a quelle dei modelli da 405B a costi molto contenuti. Basato su Transformer, è migliorato con SFT e RLHF per utilità e sicurezza. La versione ottimizzata per istruzioni è pensata per chat multilingue e supera molti modelli open e closed nei benchmark di settore. Data di cutoff: dicembre 2023.",
|
|
824
|
+
"meta-llama/llama-3.3-70b-instruct:free.description": "Llama 3.3 è il modello Llama open source multilingue più avanzato, con prestazioni vicine a quelle dei modelli da 405B a costi molto contenuti. Basato su Transformer, è migliorato con SFT e RLHF per utilità e sicurezza. La versione ottimizzata per istruzioni è pensata per chat multilingue e supera molti modelli open e closed nei benchmark di settore. Data di cutoff: dicembre 2023.",
|
|
763
825
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 è un LLM open-source pensato per sviluppatori, ricercatori e aziende, progettato per supportare la creazione, la sperimentazione e la scalabilità responsabile di idee basate su IA generativa. Parte integrante dell’ecosistema globale per l’innovazione comunitaria, è ideale per ambienti con risorse limitate, dispositivi edge e tempi di addestramento ridotti.",
|
|
764
826
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Solido ragionamento visivo su immagini ad alta risoluzione, ideale per applicazioni di comprensione visiva.",
|
|
765
827
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Ragionamento visivo avanzato per applicazioni agenti di comprensione visiva.",
|
package/locales/ja-JP/chat.json
CHANGED
|
@@ -338,6 +338,9 @@
|
|
|
338
338
|
"task.activity.toolCalling": "{{toolName}} を呼び出し中…",
|
|
339
339
|
"task.activity.toolResult": "{{toolName}} の結果を取得しました",
|
|
340
340
|
"task.batchTasks": "{{count}} 件のバッチサブタスク",
|
|
341
|
+
"task.groupTasks": "{{count}} 個の並列タスク",
|
|
342
|
+
"task.groupTasksTitle": "{{agents}} と {{count}} 件のエージェントタスク",
|
|
343
|
+
"task.groupTasksTitleSimple": "{{agents}} {{count}} 件のタスク",
|
|
341
344
|
"task.instruction": "タスクの指示",
|
|
342
345
|
"task.intermediateSteps": "{{count}} 件の中間ステップ",
|
|
343
346
|
"task.metrics.duration": "(所要時間:{{duration}})",
|
|
@@ -345,6 +348,7 @@
|
|
|
345
348
|
"task.metrics.toolCallsShort": "回のスキル呼び出し",
|
|
346
349
|
"task.status.cancelled": "タスクがキャンセルされました",
|
|
347
350
|
"task.status.failed": "タスクが失敗しました",
|
|
351
|
+
"task.status.fetchingDetails": "詳細を取得中...",
|
|
348
352
|
"task.status.initializing": "タスクを起動中…",
|
|
349
353
|
"task.subtask": "サブタスク",
|
|
350
354
|
"thread.divider": "サブトピック",
|
|
@@ -827,6 +827,7 @@
|
|
|
827
827
|
"meta.llama3-1-8b-instruct-v1:0.description": "Meta Llama 3.1 8B Instructのアップデート版で、128Kのコンテキストウィンドウ、多言語対応、推論能力の向上を備えています。Llama 3.1ファミリーには、8B、70B、405Bの命令調整テキストモデルが含まれ、多言語チャットと高いベンチマーク性能に最適化されています。商用および研究用途に対応し、命令調整モデルはアシスタント型チャットに、事前学習モデルはより広範な生成タスクに適しています。Llama 3.1の出力は、合成データ生成や精緻化など、他のモデルの改善にも活用可能です。自己回帰型Transformerモデルであり、SFTとRLHFにより有用性と安全性を実現しています。",
|
|
828
828
|
"meta.llama3-70b-instruct-v1:0.description": "Meta Llama 3は、開発者、研究者、企業向けのオープンLLMであり、生成AIのアイデアを構築・実験・拡張するための基盤です。グローバルなコミュニティによるイノベーションの基礎として、コンテンツ生成、対話型AI、言語理解、研究開発、企業アプリケーションに最適です。",
|
|
829
829
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3は、開発者、研究者、企業向けのオープンLLMであり、生成AIのアイデアを構築・実験・拡張するための基盤です。限られた計算資源やエッジデバイス、短時間のトレーニングに適しており、効率的な運用が可能です。",
|
|
830
|
+
"meta/Llama-3.2-11B-Vision-Instruct.description": "高解像度画像における優れた画像推論能力を持ち、視覚理解アプリケーションに最適です。",
|
|
830
831
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "視覚理解エージェント向けの高度な画像推論機能。",
|
|
831
832
|
"meta/Llama-3.3-70B-Instruct.description": "Llama 3.3 は、最先端の多言語対応オープンソース Llama モデルであり、非常に低コストで 405B に近い性能を実現します。Transformer ベースで、SFT および RLHF により有用性と安全性が向上しています。命令調整版は多言語チャットに最適化されており、業界ベンチマークで多くのオープン・クローズドチャットモデルを上回ります。知識カットオフ:2023年12月。",
|
|
832
833
|
"meta/Meta-Llama-3-70B-Instruct.description": "推論、コーディング、幅広い言語タスクに優れた 70B パラメータの強力なモデル。",
|
|
@@ -863,9 +864,48 @@
|
|
|
863
864
|
"microsoft/Phi-3.5-vision-instruct.description": "Phi-3-vision モデルの更新版。",
|
|
864
865
|
"microsoft/WizardLM-2-8x22B.description": "WizardLM 2 は Microsoft AI による言語モデルで、複雑な対話、多言語タスク、推論、アシスタントに優れています。",
|
|
865
866
|
"microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B は Microsoft AI による最先端の Wizard モデルで、非常に競争力のある性能を発揮します。",
|
|
867
|
+
"mimo-v2-flash.description": "MiMo-V2-Flash:推論、コーディング、エージェント基盤に特化した高効率モデルです。",
|
|
866
868
|
"minicpm-v.description": "MiniCPM-V は OpenBMB の次世代マルチモーダルモデルで、OCR とマルチモーダル理解に優れ、幅広い用途に対応します。",
|
|
869
|
+
"minimax-m2.1.description": "MiniMax-M2.1はMiniMaxシリーズの最新バージョンで、多言語プログラミングや現実世界の複雑なタスクに最適化されています。AIネイティブモデルとして、モデル性能、エージェントフレームワークのサポート、多様なシナリオへの適応性において大幅な向上を実現し、企業や個人がAIネイティブな働き方やライフスタイルをより迅速に実現できるよう支援します。",
|
|
870
|
+
"minimax-m2.description": "MiniMax M2は、コーディングやエージェントワークフローに特化して構築された高効率な大規模言語モデルです。",
|
|
871
|
+
"minimax/minimax-m2.1.description": "MiniMax-M2.1は、コーディング、プロキシワークフロー、現代的なアプリ開発に最適化された軽量かつ最先端の大規模言語モデルで、より簡潔で明瞭な出力と高速な応答を提供します。",
|
|
867
872
|
"minimax/minimax-m2.description": "MiniMax-M2 は、エンジニアリングシナリオにおけるコーディングとエージェントタスクに優れた高価値モデルです。",
|
|
868
873
|
"minimaxai/minimax-m2.description": "MiniMax-M2 は、230B 総パラメータ中 10B アクティブのコンパクトで高速、コスト効率の高い MoE モデルで、マルチファイル編集、コード実行・修正ループ、テスト検証、複雑なツールチェーンに優れた性能を発揮します。",
|
|
874
|
+
"ministral-3b-latest.description": "Ministral 3Bは、Mistralの最上位エッジモデルです。",
|
|
875
|
+
"ministral-8b-latest.description": "Ministral 8Bは、Mistralによる高コストパフォーマンスのエッジモデルです。",
|
|
876
|
+
"mistral-ai/Mistral-Large-2411.description": "Mistralのフラッグシップモデルで、大規模な推論や専門性を要する複雑なタスク(合成テキスト生成、コード生成、RAG、エージェントなど)に対応します。",
|
|
877
|
+
"mistral-ai/Mistral-Nemo.description": "Mistral Nemoは、同サイズ帯で最先端の推論力、世界知識、コーディング能力を備えた先進的なLLMです。",
|
|
878
|
+
"mistral-ai/mistral-small-2503.description": "Mistral Smallは、高効率かつ低遅延を求めるあらゆる言語タスクに適しています。",
|
|
879
|
+
"mistral-large-instruct.description": "Mistral-Large-Instruct-2407は、123Bパラメータを持つ高密度LLMで、最先端の推論力、知識、コーディング能力を備えています。",
|
|
880
|
+
"mistral-large-latest.description": "Mistral Largeは、マルチリンガルタスク、複雑な推論、コード生成に強く、高度なアプリケーションに最適なフラッグシップモデルです。",
|
|
881
|
+
"mistral-large.description": "Mixtral Largeは、Mistralのフラッグシップモデルで、コード生成、数学、推論を128Kのコンテキストウィンドウで実現します。",
|
|
882
|
+
"mistral-medium-latest.description": "Mistral Medium 3は、8倍のコスト削減で最先端の性能を提供し、企業導入を簡素化します。",
|
|
883
|
+
"mistral-nemo-instruct.description": "Mistral-Nemo-Instruct-2407は、Mistral-Nemo-Base-2407の命令調整版です。",
|
|
884
|
+
"mistral-nemo.description": "Mistral Nemoは、Mistral AIとNVIDIAによる高効率な12Bモデルです。",
|
|
885
|
+
"mistral-small-latest.description": "Mistral Smallは、翻訳、要約、感情分析においてコスト効率が高く、迅速かつ信頼性の高い選択肢です。",
|
|
886
|
+
"mistral-small.description": "Mistral Smallは、高効率かつ低遅延を求めるあらゆる言語タスクに適しています。",
|
|
887
|
+
"mistral.description": "Mistralは、Mistral AIによる7Bモデルで、多様な言語タスクに対応します。",
|
|
888
|
+
"mistral/codestral-embed.description": "コードベースやリポジトリの埋め込みに対応したコード埋め込みモデルで、コーディングアシスタントを支援します。",
|
|
889
|
+
"mistral/codestral.description": "Mistral Codestral 25.01は、低遅延・高頻度利用に最適化された最先端のコーディングモデルで、80以上の言語をサポートし、FIM、コード修正、テスト生成に優れています。",
|
|
890
|
+
"mistral/devstral-small.description": "Devstralは、ソフトウェアエンジニアリングタスク向けのエージェント型LLMで、ソフトウェアエンジニアリングエージェントに最適です。",
|
|
891
|
+
"mistral/magistral-medium.description": "深い理解に基づく複雑な思考を支援し、透明性のある推論を提供します。タスク中でも言語間で高精度な推論を維持します。",
|
|
892
|
+
"mistral/magistral-small.description": "深い理解に基づく複雑な思考を支援し、透明性のある推論を提供します。タスク中でも言語間で高精度な推論を維持します。",
|
|
893
|
+
"mistral/ministral-3b.description": "アシスタントやローカル分析などのオンデバイスタスク向けのコンパクトで高効率なモデルで、低遅延性能を実現します。",
|
|
894
|
+
"mistral/ministral-8b.description": "より高性能でメモリ効率の良い推論を実現し、複雑なワークフローや高負荷なエッジアプリケーションに最適です。",
|
|
895
|
+
"mistral/mistral-embed.description": "意味検索、類似性評価、クラスタリング、RAGワークフローに対応した汎用テキスト埋め込みモデルです。",
|
|
896
|
+
"mistral/mistral-large.description": "Mistral Largeは、合成テキスト生成、コード生成、RAG、エージェントなど、強力な推論や専門性を要する複雑なタスクに最適です。",
|
|
897
|
+
"mistral/mistral-small.description": "Mistral Smallは、分類、カスタマーサポート、テキスト生成などのシンプルでバッチ処理可能なタスクに最適で、手頃な価格で優れた性能を発揮します。",
|
|
898
|
+
"mistral/mixtral-8x22b-instruct.description": "8x22B Instructモデル。8x22Bは、Mistralが提供するオープンなMoEモデルです。",
|
|
899
|
+
"mistral/pixtral-12b.description": "画像理解とテキスト処理を備えた12Bモデルです。",
|
|
900
|
+
"mistral/pixtral-large.description": "Pixtral Largeは、マルチモーダルファミリーの第2弾で、最先端の画像理解を備えています。文書、チャート、自然画像を処理しつつ、Mistral Large 2の優れたテキスト理解力を維持します。",
|
|
901
|
+
"mistralai/Mistral-7B-Instruct-v0.1.description": "Mistral(7B)Instructは、多くの言語タスクで優れた性能を発揮します。",
|
|
902
|
+
"mistralai/Mistral-7B-Instruct-v0.2.description": "Mistral(7B)Instruct v0.2は、命令処理と結果の正確性を向上させています。",
|
|
903
|
+
"mistralai/Mistral-7B-Instruct-v0.3.description": "Mistral(7B)Instruct v0.3は、効率的な計算と優れた言語理解を提供し、多様な用途に対応します。",
|
|
904
|
+
"mistralai/Mistral-7B-v0.1.description": "Mistral 7Bはコンパクトながら高性能で、分類やテキスト生成などのバッチ処理やシンプルなタスクに強く、堅実な推論力を備えています。",
|
|
905
|
+
"mistralai/Mixtral-8x22B-Instruct-v0.1.description": "Mixtral-8x22B Instruct(141B)は、大規模なワークロードに対応する非常に大きなLLMです。",
|
|
906
|
+
"mistralai/Mixtral-8x7B-Instruct-v0.1.description": "Mixtral-8x7B Instruct(46.7B)は、大規模データ処理に対応する高容量モデルです。",
|
|
907
|
+
"mistralai/Mixtral-8x7B-v0.1.description": "Mixtral 8x7Bは、推論速度を向上させるスパースMoEモデルで、多言語およびコード生成タスクに適しています。",
|
|
908
|
+
"mistralai/mistral-nemo.description": "Mistral Nemoは、マルチリンガル対応と優れたコーディング性能を備えた7.3Bモデルです。",
|
|
869
909
|
"moonshot-v1-32k.description": "Moonshot V1 32Kは、32,768トークンの中程度の長さのコンテキストをサポートし、長文ドキュメントや複雑な対話に最適で、コンテンツ制作、レポート、チャットシステムに適しています。",
|
|
870
910
|
"moonshot-v1-8k-vision-preview.description": "Kimi Visionモデル(moonshot-v1-8k-vision-preview、moonshot-v1-32k-vision-preview、moonshot-v1-128k-vision-previewを含む)は、テキスト、色、物体の形状などの画像内容を理解できます。",
|
|
871
911
|
"moonshot-v1-8k.description": "Moonshot V1 8Kは、短文生成に最適化されており、効率的なパフォーマンスで8,192トークンを処理し、短いチャット、メモ、迅速なコンテンツ作成に適しています。",
|
package/locales/ko-KR/chat.json
CHANGED
|
@@ -338,6 +338,9 @@
|
|
|
338
338
|
"task.activity.toolCalling": "{{toolName}} 호출 중…",
|
|
339
339
|
"task.activity.toolResult": "{{toolName}} 결과를 가져왔습니다",
|
|
340
340
|
"task.batchTasks": "{{count}}개의 일괄 하위 작업",
|
|
341
|
+
"task.groupTasks": "{{count}}개의 병렬 작업",
|
|
342
|
+
"task.groupTasksTitle": "{{agents}} 및 {{count}}명의 에이전트 작업",
|
|
343
|
+
"task.groupTasksTitleSimple": "{{agents}} {{count}}개의 작업",
|
|
341
344
|
"task.instruction": "작업 지침",
|
|
342
345
|
"task.intermediateSteps": "{{count}}단계 중간 과정",
|
|
343
346
|
"task.metrics.duration": "(소요 시간: {{duration}})",
|
|
@@ -345,6 +348,7 @@
|
|
|
345
348
|
"task.metrics.toolCallsShort": "회 기능 호출",
|
|
346
349
|
"task.status.cancelled": "작업이 취소되었습니다",
|
|
347
350
|
"task.status.failed": "작업에 실패했습니다",
|
|
351
|
+
"task.status.fetchingDetails": "세부 정보를 불러오는 중...",
|
|
348
352
|
"task.status.initializing": "작업 시작 중…",
|
|
349
353
|
"task.subtask": "하위 작업",
|
|
350
354
|
"thread.divider": "하위 주제",
|
|
@@ -822,6 +822,12 @@
|
|
|
822
822
|
"meta-llama/llama-3.2-90b-vision-instruct.description": "LLaMA 3.2는 시각과 텍스트를 결합한 작업을 위해 설계되었으며, 이미지 캡셔닝과 시각적 질의응답에 탁월합니다.",
|
|
823
823
|
"meta-llama/llama-3.3-70b-instruct.description": "Llama 3.3은 가장 진보된 다국어 오픈소스 Llama 모델로, 매우 낮은 비용으로 405B에 근접한 성능을 제공합니다. Transformer 기반이며, SFT 및 RLHF를 통해 유용성과 안전성이 향상되었습니다. 인스트럭션 튜닝 버전은 다국어 채팅에 최적화되어 있으며, 업계 벤치마크에서 많은 오픈 및 클로즈드 챗 모델을 능가합니다. 지식 기준일: 2023년 12월",
|
|
824
824
|
"meta-llama/llama-3.3-70b-instruct:free.description": "Llama 3.3은 가장 진보된 다국어 오픈소스 Llama 모델로, 매우 낮은 비용으로 405B에 근접한 성능을 제공합니다. Transformer 기반이며, SFT 및 RLHF를 통해 유용성과 안전성이 향상되었습니다. 인스트럭션 튜닝 버전은 다국어 채팅에 최적화되어 있으며, 업계 벤치마크에서 많은 오픈 및 클로즈드 챗 모델을 능가합니다. 지식 기준일: 2023년 12월",
|
|
825
|
+
"meta.llama3-1-405b-instruct-v1:0.description": "Meta Llama 3.1 405B Instruct는 Llama 3.1 Instruct 모델 중 가장 크고 강력한 모델로, 대화 추론 및 합성 데이터 생성에 특화된 고급 모델입니다. 도메인 특화 사전 학습 또는 파인튜닝의 강력한 기반이 됩니다. Llama 3.1 다국어 LLM은 8B, 70B, 405B 크기로 사전 학습 및 지시 기반 튜닝된 생성 모델 세트이며, 텍스트 입력/출력을 지원합니다. 이 지시 기반 텍스트 모델은 다국어 대화에 최적화되어 있으며, 업계 표준 벤치마크에서 많은 오픈 챗 모델을 능가합니다. Llama 3.1은 상업적 및 연구 목적으로 다양한 언어에서 사용 가능하도록 설계되었습니다. 지시 기반 모델은 어시스턴트 스타일의 채팅에 적합하며, 사전 학습 모델은 보다 일반적인 자연어 생성 작업에 적합합니다. Llama 3.1의 출력은 합성 데이터 생성 및 정제 등 다른 모델의 성능 향상에도 활용될 수 있습니다. Llama 3.1은 최적화된 아키텍처를 갖춘 자기회귀 Transformer 모델이며, 튜닝된 버전은 SFT(지도형 파인튜닝)와 RLHF(인간 피드백 기반 강화 학습)를 통해 유용성과 안전성 측면에서 인간의 선호에 맞춰 조정됩니다.",
|
|
826
|
+
"meta.llama3-1-70b-instruct-v1:0.description": "Meta Llama 3.1 70B Instruct는 128K 컨텍스트 윈도우 확장, 다국어 지원, 향상된 추론 능력을 갖춘 최신 버전입니다. Llama 3.1 다국어 LLM은 8B, 70B, 405B 크기의 사전 학습 및 지시 기반 튜닝된 생성 모델 세트로, 텍스트 입력/출출을 지원합니다. 이 지시 기반 텍스트 모델은 다국어 대화에 최적화되어 있으며, 업계 표준 벤치마크에서 많은 오픈 챗 모델을 능가합니다. Llama 3.1은 다양한 언어에서 상업적 및 연구 목적으로 사용되도록 설계되었습니다. 지시 기반 모델은 어시스턴트 스타일의 채팅에 적합하며, 사전 학습 모델은 보다 일반적인 자연어 생성 작업에 적합합니다. Llama 3.1의 출력은 합성 데이터 생성 및 정제 등 다른 모델의 성능 향상에도 활용될 수 있습니다. Llama 3.1은 최적화된 아키텍처를 갖춘 자기회귀 Transformer 모델이며, 튜닝된 버전은 SFT(지도형 파인튜닝)와 RLHF(인간 피드백 기반 강화 학습)를 통해 유용성과 안전성 측면에서 인간의 선호에 맞춰 조정됩니다.",
|
|
827
|
+
"meta.llama3-1-8b-instruct-v1:0.description": "Meta Llama 3.1 8B Instruct는 128K 컨텍스트 윈도우, 다국어 지원, 향상된 추론 능력을 갖춘 최신 버전입니다. Llama 3.1 제품군은 8B, 70B, 405B 크기의 지시 기반 튜닝된 텍스트 모델로, 다국어 채팅과 강력한 벤치마크 성능에 최적화되어 있습니다. 다양한 언어에서 상업적 및 연구 목적으로 사용되며, 지시 기반 모델은 어시스턴트 스타일의 채팅에 적합하고, 사전 학습 모델은 보다 일반적인 생성 작업에 적합합니다. Llama 3.1의 출력은 합성 데이터 생성 및 정제 등 다른 모델의 성능 향상에도 활용될 수 있습니다. 이 모델은 자기회귀 Transformer 구조를 기반으로 하며, SFT와 RLHF를 통해 유용성과 안전성에 맞춰 조정됩니다.",
|
|
828
|
+
"meta.llama3-70b-instruct-v1:0.description": "Meta Llama 3는 개발자, 연구자, 기업을 위한 오픈 LLM으로, 생성형 AI 아이디어를 구축하고 실험하며 책임감 있게 확장할 수 있도록 설계되었습니다. 글로벌 커뮤니티 혁신의 기반으로서 콘텐츠 생성, 대화형 AI, 언어 이해, 연구 개발, 기업용 애플리케이션에 적합합니다.",
|
|
829
|
+
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3는 개발자, 연구자, 기업을 위한 오픈 LLM으로, 생성형 AI 아이디어를 구축하고 실험하며 책임감 있게 확장할 수 있도록 설계되었습니다. 제한된 컴퓨팅 자원, 엣지 디바이스, 빠른 학습 시간에 적합한 모델입니다.",
|
|
830
|
+
"meta/Llama-3.2-11B-Vision-Instruct.description": "고해상도 이미지에 대한 강력한 이미지 추론 능력을 갖춘 모델로, 시각적 이해 애플리케이션에 적합합니다.",
|
|
825
831
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "시각 이해 에이전트 애플리케이션을 위한 고급 이미지 추론 기능.",
|
|
826
832
|
"meta/Llama-3.3-70B-Instruct.description": "Llama 3.3은 가장 진보된 다국어 오픈소스 Llama 모델로, 매우 낮은 비용으로 405B에 근접한 성능을 제공합니다. Transformer 기반이며, 유용성과 안전성을 위해 SFT 및 RLHF로 개선되었습니다. 명령어 튜닝 버전은 다국어 채팅에 최적화되어 있으며, 산업 벤치마크에서 많은 오픈 및 클로즈드 채팅 모델을 능가합니다. 지식 기준일: 2023년 12월.",
|
|
827
833
|
"meta/Meta-Llama-3-70B-Instruct.description": "추론, 코딩, 다양한 언어 작업에 뛰어난 성능을 보이는 강력한 70B 파라미터 모델.",
|
|
@@ -858,7 +864,11 @@
|
|
|
858
864
|
"microsoft/Phi-3.5-vision-instruct.description": "Phi-3-vision 모델의 업데이트 버전.",
|
|
859
865
|
"microsoft/WizardLM-2-8x22B.description": "WizardLM 2는 Microsoft AI의 언어 모델로, 복잡한 대화, 다국어 작업, 추론, 어시스턴트에 뛰어납니다.",
|
|
860
866
|
"microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B는 Microsoft AI의 가장 진보된 Wizard 모델로, 매우 경쟁력 있는 성능을 제공합니다.",
|
|
867
|
+
"mimo-v2-flash.description": "MiMo-V2-Flash: 추론, 코딩, 에이전트 기반 작업에 최적화된 효율적인 모델입니다.",
|
|
861
868
|
"minicpm-v.description": "MiniCPM-V는 OpenBMB의 차세대 멀티모달 모델로, 광범위한 사용 사례에 대해 뛰어난 OCR 및 멀티모달 이해력을 제공합니다.",
|
|
869
|
+
"minimax-m2.1.description": "MiniMax-M2.1은 MiniMax 시리즈의 최신 버전으로, 다국어 프로그래밍 및 실제 복잡한 작업에 최적화되어 있습니다. AI-네이티브 모델로서 모델 성능, 에이전트 프레임워크 지원, 다중 시나리오 적응력에서 큰 향상을 이루었으며, 기업과 개인이 AI-기반의 업무 및 라이프스타일을 더 빠르게 실현할 수 있도록 돕습니다.",
|
|
870
|
+
"minimax-m2.description": "MiniMax M2는 코딩 및 에이전트 워크플로우에 특화된 효율적인 대형 언어 모델입니다.",
|
|
871
|
+
"minimax/minimax-m2.1.description": "MiniMax-M2.1은 코딩, 프록시 워크플로우, 최신 애플리케이션 개발에 최적화된 경량 고성능 대형 언어 모델로, 더 간결하고 깔끔한 출력과 빠른 반응 속도를 제공합니다.",
|
|
862
872
|
"minimax/minimax-m2.description": "MiniMax-M2는 다양한 엔지니어링 시나리오에서 코딩 및 에이전트 작업에 뛰어난 고가치 모델입니다.",
|
|
863
873
|
"minimaxai/minimax-m2.description": "MiniMax-M2는 컴팩트하고 빠르며 비용 효율적인 MoE 모델(총 230B, 활성 10B)로, 다중 파일 편집, 코드 실행-수정 루프, 테스트 검증, 복잡한 툴체인에서 뛰어난 성능을 발휘하며 강력한 일반 지능을 유지합니다.",
|
|
864
874
|
"ministral-3b-latest.description": "Ministral 3B는 Mistral의 최고급 엣지 모델입니다.",
|
|
@@ -875,6 +885,27 @@
|
|
|
875
885
|
"mistral-small-latest.description": "Mistral Small은 번역, 요약, 감정 분석에 적합한 비용 효율적이고 빠르며 신뢰할 수 있는 옵션입니다.",
|
|
876
886
|
"mistral-small.description": "Mistral Small은 고효율 및 낮은 지연 시간이 필요한 모든 언어 기반 작업에 적합합니다.",
|
|
877
887
|
"mistral.description": "Mistral은 다양한 언어 작업에 적합한 Mistral AI의 7B 모델입니다.",
|
|
888
|
+
"mistral/codestral-embed.description": "코드베이스 및 저장소 임베딩을 위한 코드 임베딩 모델로, 코딩 어시스턴트를 지원합니다.",
|
|
889
|
+
"mistral/codestral.description": "Mistral Codestral 25.01은 저지연, 고빈도 사용에 최적화된 최첨단 코딩 모델입니다. 80개 이상의 언어를 지원하며, FIM, 코드 수정, 테스트 생성에 뛰어납니다.",
|
|
890
|
+
"mistral/devstral-small.description": "Devstral은 소프트웨어 엔지니어링 작업을 위한 에이전트형 LLM으로, 소프트웨어 엔지니어링 에이전트에 적합한 강력한 선택지입니다.",
|
|
891
|
+
"mistral/magistral-medium.description": "깊은 이해를 바탕으로 한 복잡한 사고를 지원하며, 투명한 추론 과정을 따라가고 검증할 수 있습니다. 작업 중에도 언어 간 고정밀 추론을 유지합니다.",
|
|
892
|
+
"mistral/magistral-small.description": "깊은 이해를 바탕으로 한 복잡한 사고를 지원하며, 투명한 추론 과정을 따라가고 검증할 수 있습니다. 작업 중에도 언어 간 고정밀 추론을 유지합니다.",
|
|
893
|
+
"mistral/ministral-3b.description": "어시스턴트 및 로컬 분석과 같은 온디바이스 작업에 적합한 컴팩트하고 효율적인 모델로, 저지연 성능을 제공합니다.",
|
|
894
|
+
"mistral/ministral-8b.description": "더 강력한 성능과 메모리 효율적인 추론을 제공하는 모델로, 복잡한 워크플로우 및 고성능 엣지 애플리케이션에 이상적입니다.",
|
|
895
|
+
"mistral/mistral-embed.description": "의미 기반 검색, 유사도 분석, 클러스터링, RAG 워크플로우를 위한 범용 텍스트 임베딩 모델입니다.",
|
|
896
|
+
"mistral/mistral-large.description": "Mistral Large는 강력한 추론 또는 전문화가 필요한 복잡한 작업에 이상적입니다. 예: 합성 텍스트 생성, 코드 생성, RAG, 에이전트 등.",
|
|
897
|
+
"mistral/mistral-small.description": "Mistral Small은 분류, 고객 지원, 텍스트 생성과 같은 단순하고 일괄 처리 가능한 작업에 적합하며, 합리적인 가격에 뛰어난 성능을 제공합니다.",
|
|
898
|
+
"mistral/mixtral-8x22b-instruct.description": "8x22B Instruct 모델. 8x22B는 Mistral이 제공하는 오픈 MoE 모델입니다.",
|
|
899
|
+
"mistral/pixtral-12b.description": "이미지 이해 및 텍스트 처리를 지원하는 12B 모델입니다.",
|
|
900
|
+
"mistral/pixtral-large.description": "Pixtral Large는 Mistral의 멀티모달 제품군 중 두 번째 모델로, 최첨단 이미지 이해 능력을 갖추고 있습니다. 문서, 차트, 자연 이미지를 처리하면서도 Mistral Large 2의 뛰어난 텍스트 이해력을 유지합니다.",
|
|
901
|
+
"mistralai/Mistral-7B-Instruct-v0.1.description": "Mistral (7B) Instruct는 다양한 언어 작업에서 강력한 성능을 발휘하는 것으로 알려져 있습니다.",
|
|
902
|
+
"mistralai/Mistral-7B-Instruct-v0.2.description": "Mistral (7B) Instruct v0.2는 지시 처리 능력과 결과 정확도를 향상시켰습니다.",
|
|
903
|
+
"mistralai/Mistral-7B-Instruct-v0.3.description": "Mistral (7B) Instruct v0.3는 효율적인 연산과 강력한 언어 이해력을 제공하여 다양한 사용 사례에 적합합니다.",
|
|
904
|
+
"mistralai/Mistral-7B-v0.1.description": "Mistral 7B는 컴팩트하지만 고성능을 자랑하며, 분류 및 텍스트 생성과 같은 단순 작업과 일괄 처리에 강력한 추론 능력을 제공합니다.",
|
|
905
|
+
"mistralai/Mixtral-8x22B-Instruct-v0.1.description": "Mixtral-8x22B Instruct (141B)는 대규모 작업 부하를 처리할 수 있는 초대형 LLM입니다.",
|
|
906
|
+
"mistralai/Mixtral-8x7B-Instruct-v0.1.description": "Mixtral-8x7B Instruct (46.7B)는 대규모 데이터 처리에 적합한 높은 용량을 제공합니다.",
|
|
907
|
+
"mistralai/Mixtral-8x7B-v0.1.description": "Mixtral 8x7B는 추론 속도를 높이는 희소 MoE 모델로, 다국어 및 코드 생성 작업에 적합합니다.",
|
|
908
|
+
"mistralai/mistral-nemo.description": "Mistral Nemo는 7.3B 모델로, 다국어 지원과 강력한 코딩 성능을 제공합니다.",
|
|
878
909
|
"morph/morph-v3-large.description": "Morph는 최첨단 모델(예: Claude 또는 GPT-4o)이 제안한 코드 변경 사항을 기존 파일에 빠르게 적용할 수 있도록 특화된 모델입니다. 초당 2500개 이상의 토큰 처리 속도를 자랑하며, AI 코딩 워크플로우의 마지막 단계로 16K 입력/출력 토큰을 지원합니다.",
|
|
879
910
|
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B는 Nous Hermes 2의 최신 버전으로, 내부에서 개발한 최신 데이터셋을 기반으로 업데이트되었습니다.",
|
|
880
911
|
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B는 NVIDIA가 사용자 응답의 유용성을 향상시키기 위해 맞춤 제작한 LLM입니다. Arena Hard, AlpacaEval 2 LC, GPT-4-Turbo MT-Bench에서 모두 1위를 기록하며, 2024년 10월 1일 기준 자동 정렬 벤치마크에서 최고의 성능을 보입니다. 이 모델은 Llama-3.1-70B-Instruct를 기반으로 RLHF(REINFORCE), Llama-3.1-Nemotron-70B-Reward, HelpSteer2-Preference 프롬프트를 활용해 학습되었습니다.",
|
package/locales/nl-NL/chat.json
CHANGED
|
@@ -338,6 +338,9 @@
|
|
|
338
338
|
"task.activity.toolCalling": "{{toolName}} wordt aangeroepen...",
|
|
339
339
|
"task.activity.toolResult": "{{toolName}} resultaat ontvangen",
|
|
340
340
|
"task.batchTasks": "{{count}} batch-subtaken",
|
|
341
|
+
"task.groupTasks": "{{count}} Parallelle Taken",
|
|
342
|
+
"task.groupTasksTitle": "{{agents}} en {{count}} taken van agenten",
|
|
343
|
+
"task.groupTasksTitleSimple": "{{agents}} {{count}} taken",
|
|
341
344
|
"task.instruction": "Taakinstructie",
|
|
342
345
|
"task.intermediateSteps": "{{count}} tussenstappen",
|
|
343
346
|
"task.metrics.duration": "(duurde {{duration}})",
|
|
@@ -345,6 +348,7 @@
|
|
|
345
348
|
"task.metrics.toolCallsShort": "toolgebruik",
|
|
346
349
|
"task.status.cancelled": "Taak geannuleerd",
|
|
347
350
|
"task.status.failed": "Taak mislukt",
|
|
351
|
+
"task.status.fetchingDetails": "Details ophalen...",
|
|
348
352
|
"task.status.initializing": "Taak initialiseren...",
|
|
349
353
|
"task.subtask": "Subtaak",
|
|
350
354
|
"thread.divider": "Subonderwerp",
|
|
@@ -854,6 +854,58 @@
|
|
|
854
854
|
"meta/llama-3.3-70b.description": "Een perfecte balans tussen prestaties en efficiëntie. Ontworpen voor hoogwaardige conversatie-AI in contentcreatie, zakelijke toepassingen en onderzoek, met sterk taalbegrip voor samenvattingen, classificatie, sentimentanalyse en codegeneratie.",
|
|
855
855
|
"meta/llama-4-maverick.description": "De Llama 4-familie is een native multimodaal AI-model dat tekst- en multimodale ervaringen ondersteunt, met gebruik van MoE voor toonaangevend tekst- en beeldbegrip. Llama 4 Maverick is een 17B-model met 128 experts, aangeboden door DeepInfra.",
|
|
856
856
|
"meta/llama-4-scout.description": "De Llama 4-familie is een native multimodaal AI-model dat tekst- en multimodale ervaringen ondersteunt, met gebruik van MoE voor toonaangevend tekst- en beeldbegrip. Llama 4 Scout is een 17B-model met 16 experts, aangeboden door DeepInfra.",
|
|
857
|
+
"microsoft/Phi-3-medium-128k-instruct.description": "Hetzelfde Phi-3-medium model met een groter contextvenster voor RAG- of few-shot prompts.",
|
|
858
|
+
"microsoft/Phi-3-medium-4k-instruct.description": "Een model met 14 miljard parameters van hogere kwaliteit dan Phi-3-mini, gericht op hoogwaardige, redeneerintensieve data.",
|
|
859
|
+
"microsoft/Phi-3-mini-128k-instruct.description": "Hetzelfde Phi-3-mini model met een groter contextvenster voor RAG- of few-shot prompts.",
|
|
860
|
+
"microsoft/Phi-3-mini-4k-instruct.description": "Het kleinste lid van de Phi-3-familie, geoptimaliseerd voor kwaliteit en lage latentie.",
|
|
861
|
+
"microsoft/Phi-3-small-128k-instruct.description": "Hetzelfde Phi-3-small model met een groter contextvenster voor RAG- of few-shot prompts.",
|
|
862
|
+
"microsoft/Phi-3-small-8k-instruct.description": "Een model met 7 miljard parameters van hogere kwaliteit dan Phi-3-mini, gericht op hoogwaardige, redeneerintensieve data.",
|
|
863
|
+
"microsoft/Phi-3.5-mini-instruct.description": "Een bijgewerkte versie van het Phi-3-mini model.",
|
|
864
|
+
"microsoft/Phi-3.5-vision-instruct.description": "Een bijgewerkte versie van het Phi-3-vision model.",
|
|
865
|
+
"microsoft/WizardLM-2-8x22B.description": "WizardLM 2 is een taalmodel van Microsoft AI dat uitblinkt in complexe dialogen, meertalige taken, redeneren en assistenttoepassingen.",
|
|
866
|
+
"microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B is Microsoft AI’s meest geavanceerde Wizard-model met zeer concurrerende prestaties.",
|
|
867
|
+
"mimo-v2-flash.description": "MiMo-V2-Flash: Een efficiënt model voor redeneren, programmeren en agentfundamenten.",
|
|
868
|
+
"minicpm-v.description": "MiniCPM-V is het volgende generatie multimodale model van OpenBMB met uitstekende OCR- en multimodale begripscapaciteiten voor uiteenlopende toepassingen.",
|
|
869
|
+
"minimax-m2.1.description": "MiniMax-M2.1 is de nieuwste versie in de MiniMax-serie, geoptimaliseerd voor meertalige programmering en complexe real-world taken. Als AI-native model biedt MiniMax-M2.1 aanzienlijke verbeteringen in modelprestaties, ondersteuning voor agentframeworks en aanpassing aan meerdere scenario’s, met als doel bedrijven en individuen sneller te helpen bij het vinden van AI-native werk- en levensstijlen.",
|
|
870
|
+
"minimax-m2.description": "MiniMax M2 is een efficiënt groot taalmodel dat speciaal is ontwikkeld voor programmeer- en agentworkflows.",
|
|
871
|
+
"minimax/minimax-m2.1.description": "MiniMax-M2.1 is een lichtgewicht, geavanceerd groot taalmodel geoptimaliseerd voor programmeren, proxyworkflows en moderne applicatieontwikkeling, met schonere, beknoptere output en snellere reactietijden.",
|
|
872
|
+
"minimax/minimax-m2.description": "MiniMax-M2 is een waardevol model dat uitblinkt in programmeer- en agenttaken voor veel technische scenario’s.",
|
|
873
|
+
"minimaxai/minimax-m2.description": "MiniMax-M2 is een compact, snel en kosteneffectief MoE-model (230B totaal, 10B actief) gebouwd voor topprestaties in programmeren en agenttaken, met behoud van sterke algemene intelligentie. Het blinkt uit in bewerkingen over meerdere bestanden, code-uitvoerings- en correctielussen, testvalidatie en complexe toolchains.",
|
|
874
|
+
"ministral-3b-latest.description": "Ministral 3B is het topmodel voor edge-toepassingen van Mistral.",
|
|
875
|
+
"ministral-8b-latest.description": "Ministral 8B is een zeer kosteneffectief edge-model van Mistral.",
|
|
876
|
+
"mistral-ai/Mistral-Large-2411.description": "Het vlaggenschipmodel van Mistral voor complexe taken die grootschalig redeneren of specialisatie vereisen (synthetische tekstgeneratie, codegeneratie, RAG of agents).",
|
|
877
|
+
"mistral-ai/Mistral-Nemo.description": "Mistral Nemo is een geavanceerd LLM met toonaangevend redeneervermogen, wereldkennis en programmeercapaciteiten voor zijn formaat.",
|
|
878
|
+
"mistral-ai/mistral-small-2503.description": "Mistral Small is geschikt voor elke taaltaak die hoge efficiëntie en lage latentie vereist.",
|
|
879
|
+
"mistral-large-instruct.description": "Mistral-Large-Instruct-2407 is een geavanceerd dense LLM met 123 miljard parameters en toonaangevend redeneervermogen, kennis en programmeercapaciteiten.",
|
|
880
|
+
"mistral-large-latest.description": "Mistral Large is het vlaggenschipmodel, sterk in meertalige taken, complexe redenering en codegeneratie—ideaal voor hoogwaardige toepassingen.",
|
|
881
|
+
"mistral-large.description": "Mixtral Large is het vlaggenschipmodel van Mistral, dat codegeneratie, wiskunde en redenering combineert met een contextvenster van 128K.",
|
|
882
|
+
"mistral-medium-latest.description": "Mistral Medium 3 levert toonaangevende prestaties tegen 8× lagere kosten en vereenvoudigt implementatie in ondernemingen.",
|
|
883
|
+
"mistral-nemo-instruct.description": "Mistral-Nemo-Instruct-2407 is de instructie-afgestemde versie van Mistral-Nemo-Base-2407.",
|
|
884
|
+
"mistral-nemo.description": "Mistral Nemo is een efficiënt 12B-model van Mistral AI en NVIDIA.",
|
|
885
|
+
"mistral-small-latest.description": "Mistral Small is een kosteneffectieve, snelle en betrouwbare optie voor vertaling, samenvatting en sentimentanalyse.",
|
|
886
|
+
"mistral-small.description": "Mistral Small is geschikt voor elke taaltaak die hoge efficiëntie en lage latentie vereist.",
|
|
887
|
+
"mistral.description": "Mistral is het 7B-model van Mistral AI, geschikt voor uiteenlopende taaltaken.",
|
|
888
|
+
"mistral/codestral-embed.description": "Een code-embeddingmodel voor het embedden van codebases en repositories ter ondersteuning van programmeerassistenten.",
|
|
889
|
+
"mistral/codestral.description": "Mistral Codestral 25.01 is een geavanceerd programmeermodel geoptimaliseerd voor lage latentie en veelvuldig gebruik. Het ondersteunt meer dan 80 talen en blinkt uit in FIM, codecorrectie en testgeneratie.",
|
|
890
|
+
"mistral/devstral-small.description": "Devstral is een agentisch LLM voor software-engineeringtaken, waardoor het een sterke keuze is voor softwareagents.",
|
|
891
|
+
"mistral/magistral-medium.description": "Complex denken ondersteund door diep begrip met transparante redenering die je kunt volgen en verifiëren. Behoudt nauwkeurige redenering over talen heen, zelfs midden in een taak.",
|
|
892
|
+
"mistral/magistral-small.description": "Complex denken ondersteund door diep begrip met transparante redenering die je kunt volgen en verifiëren. Behoudt nauwkeurige redenering over talen heen, zelfs midden in een taak.",
|
|
893
|
+
"mistral/ministral-3b.description": "Een compact, efficiënt model voor on-device taken zoals assistenten en lokale analyses, met lage latentieprestaties.",
|
|
894
|
+
"mistral/ministral-8b.description": "Een krachtiger model met snellere, geheugenefficiënte inferentie, ideaal voor complexe workflows en veeleisende edge-toepassingen.",
|
|
895
|
+
"mistral/mistral-embed.description": "Een algemeen tekst-embeddingmodel voor semantisch zoeken, gelijkenis, clustering en RAG-workflows.",
|
|
896
|
+
"mistral/mistral-large.description": "Mistral Large is ideaal voor complexe taken die sterk redeneervermogen of specialisatie vereisen—synthetische tekstgeneratie, codegeneratie, RAG of agents.",
|
|
897
|
+
"mistral/mistral-small.description": "Mistral Small is ideaal voor eenvoudige, batchbare taken zoals classificatie, klantenservice of tekstgeneratie, met uitstekende prestaties tegen een betaalbare prijs.",
|
|
898
|
+
"mistral/mixtral-8x22b-instruct.description": "8x22B Instruct model. 8x22B is een open MoE-model aangeboden door Mistral.",
|
|
899
|
+
"mistral/pixtral-12b.description": "Een 12B-model met beeldbegrip en tekstverwerking.",
|
|
900
|
+
"mistral/pixtral-large.description": "Pixtral Large is het tweede model in onze multimodale familie met geavanceerd beeldbegrip. Het verwerkt documenten, grafieken en natuurlijke beelden en behoudt het toonaangevende tekstbegrip van Mistral Large 2.",
|
|
901
|
+
"mistralai/Mistral-7B-Instruct-v0.1.description": "Mistral (7B) Instruct staat bekend om sterke prestaties bij veel taaltaken.",
|
|
902
|
+
"mistralai/Mistral-7B-Instruct-v0.2.description": "Mistral (7B) Instruct v0.2 verbetert instructieverwerking en nauwkeurigheid van resultaten.",
|
|
903
|
+
"mistralai/Mistral-7B-Instruct-v0.3.description": "Mistral (7B) Instruct v0.3 biedt efficiënte verwerking en sterk taalbegrip voor uiteenlopende toepassingen.",
|
|
904
|
+
"mistralai/Mistral-7B-v0.1.description": "Mistral 7B is compact maar krachtig, sterk in batchverwerking en eenvoudige taken zoals classificatie en tekstgeneratie, met solide redeneervermogen.",
|
|
905
|
+
"mistralai/Mixtral-8x22B-Instruct-v0.1.description": "Mixtral-8x22B Instruct (141B) is een zeer groot LLM voor zware werklasten.",
|
|
906
|
+
"mistralai/Mixtral-8x7B-Instruct-v0.1.description": "Mixtral-8x7B Instruct (46.7B) biedt hoge capaciteit voor grootschalige gegevensverwerking.",
|
|
907
|
+
"mistralai/Mixtral-8x7B-v0.1.description": "Mixtral 8x7B is een spars MoE-model dat de inferentiesnelheid verhoogt, geschikt voor meertalige en codegeneratietaken.",
|
|
908
|
+
"mistralai/mistral-nemo.description": "Mistral Nemo is een 7.3B-model met meertalige ondersteuning en sterke programmeerprestaties.",
|
|
857
909
|
"moonshot-v1-128k-vision-preview.description": "Kimi vision-modellen (waaronder moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) begrijpen beeldinhoud zoals tekst, kleuren en objectvormen.",
|
|
858
910
|
"moonshot-v1-128k.description": "Moonshot V1 128K biedt een ultralange context voor het genereren van zeer lange teksten, met ondersteuning tot 128.000 tokens voor onderzoeks-, academische en grootschalige documenttoepassingen.",
|
|
859
911
|
"moonshot-v1-32k-vision-preview.description": "Kimi vision-modellen (waaronder moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) begrijpen beeldinhoud zoals tekst, kleuren en objectvormen.",
|
package/locales/pl-PL/chat.json
CHANGED
|
@@ -338,6 +338,9 @@
|
|
|
338
338
|
"task.activity.toolCalling": "Wywoływanie {{toolName}}...",
|
|
339
339
|
"task.activity.toolResult": "Otrzymano wynik {{toolName}}",
|
|
340
340
|
"task.batchTasks": "{{count}} zadań zbiorczych",
|
|
341
|
+
"task.groupTasks": "{{count}} równoległych zadań",
|
|
342
|
+
"task.groupTasksTitle": "{{agents}} i {{count}} zadań agentów",
|
|
343
|
+
"task.groupTasksTitleSimple": "{{agents}} {{count}} zadań",
|
|
341
344
|
"task.instruction": "Instrukcja zadania",
|
|
342
345
|
"task.intermediateSteps": "{{count}} kroków pośrednich",
|
|
343
346
|
"task.metrics.duration": "(zajęło {{duration}})",
|
|
@@ -345,6 +348,7 @@
|
|
|
345
348
|
"task.metrics.toolCallsShort": "użycia narzędzi",
|
|
346
349
|
"task.status.cancelled": "Zadanie anulowane",
|
|
347
350
|
"task.status.failed": "Zadanie nie powiodło się",
|
|
351
|
+
"task.status.fetchingDetails": "Pobieranie szczegółów...",
|
|
348
352
|
"task.status.initializing": "Inicjalizacja zadania...",
|
|
349
353
|
"task.subtask": "Podzadanie",
|
|
350
354
|
"thread.divider": "Podtemat",
|