@lobehub/lobehub 2.0.0-next.264 → 2.0.0-next.266
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.github/workflows/manual-build-desktop.yml +16 -37
- package/CHANGELOG.md +52 -0
- package/apps/desktop/native-deps.config.mjs +19 -3
- package/apps/desktop/src/main/controllers/__tests__/SystemCtr.test.ts +13 -0
- package/apps/desktop/src/main/utils/permissions.ts +86 -22
- package/changelog/v1.json +18 -0
- package/locales/ar/chat.json +1 -0
- package/locales/ar/modelProvider.json +20 -0
- package/locales/ar/models.json +33 -10
- package/locales/ar/plugin.json +1 -0
- package/locales/ar/providers.json +1 -0
- package/locales/ar/setting.json +2 -0
- package/locales/bg-BG/chat.json +1 -0
- package/locales/bg-BG/modelProvider.json +20 -0
- package/locales/bg-BG/models.json +27 -7
- package/locales/bg-BG/plugin.json +1 -0
- package/locales/bg-BG/providers.json +1 -0
- package/locales/bg-BG/setting.json +2 -0
- package/locales/de-DE/chat.json +1 -0
- package/locales/de-DE/modelProvider.json +20 -0
- package/locales/de-DE/models.json +44 -10
- package/locales/de-DE/plugin.json +1 -0
- package/locales/de-DE/providers.json +1 -0
- package/locales/de-DE/setting.json +2 -0
- package/locales/en-US/chat.json +1 -0
- package/locales/en-US/modelProvider.json +20 -0
- package/locales/en-US/models.json +10 -10
- package/locales/en-US/providers.json +1 -0
- package/locales/en-US/setting.json +2 -1
- package/locales/es-ES/chat.json +1 -0
- package/locales/es-ES/modelProvider.json +20 -0
- package/locales/es-ES/models.json +53 -10
- package/locales/es-ES/plugin.json +1 -0
- package/locales/es-ES/providers.json +1 -0
- package/locales/es-ES/setting.json +2 -0
- package/locales/fa-IR/chat.json +1 -0
- package/locales/fa-IR/modelProvider.json +20 -0
- package/locales/fa-IR/models.json +33 -10
- package/locales/fa-IR/plugin.json +1 -0
- package/locales/fa-IR/providers.json +1 -0
- package/locales/fa-IR/setting.json +2 -0
- package/locales/fr-FR/chat.json +1 -0
- package/locales/fr-FR/modelProvider.json +20 -0
- package/locales/fr-FR/models.json +27 -7
- package/locales/fr-FR/plugin.json +1 -0
- package/locales/fr-FR/providers.json +1 -0
- package/locales/fr-FR/setting.json +2 -0
- package/locales/it-IT/chat.json +1 -0
- package/locales/it-IT/modelProvider.json +20 -0
- package/locales/it-IT/models.json +10 -10
- package/locales/it-IT/plugin.json +1 -0
- package/locales/it-IT/providers.json +1 -0
- package/locales/it-IT/setting.json +2 -0
- package/locales/ja-JP/chat.json +1 -0
- package/locales/ja-JP/modelProvider.json +20 -0
- package/locales/ja-JP/models.json +5 -10
- package/locales/ja-JP/plugin.json +1 -0
- package/locales/ja-JP/providers.json +1 -0
- package/locales/ja-JP/setting.json +2 -0
- package/locales/ko-KR/chat.json +1 -0
- package/locales/ko-KR/modelProvider.json +20 -0
- package/locales/ko-KR/models.json +36 -10
- package/locales/ko-KR/plugin.json +1 -0
- package/locales/ko-KR/providers.json +1 -0
- package/locales/ko-KR/setting.json +2 -0
- package/locales/nl-NL/chat.json +1 -0
- package/locales/nl-NL/modelProvider.json +20 -0
- package/locales/nl-NL/models.json +35 -4
- package/locales/nl-NL/plugin.json +1 -0
- package/locales/nl-NL/providers.json +1 -0
- package/locales/nl-NL/setting.json +2 -0
- package/locales/pl-PL/chat.json +1 -0
- package/locales/pl-PL/modelProvider.json +20 -0
- package/locales/pl-PL/models.json +37 -7
- package/locales/pl-PL/plugin.json +1 -0
- package/locales/pl-PL/providers.json +1 -0
- package/locales/pl-PL/setting.json +2 -0
- package/locales/pt-BR/chat.json +1 -0
- package/locales/pt-BR/modelProvider.json +20 -0
- package/locales/pt-BR/models.json +51 -9
- package/locales/pt-BR/plugin.json +1 -0
- package/locales/pt-BR/providers.json +1 -0
- package/locales/pt-BR/setting.json +2 -0
- package/locales/ru-RU/chat.json +1 -0
- package/locales/ru-RU/modelProvider.json +20 -0
- package/locales/ru-RU/models.json +48 -7
- package/locales/ru-RU/plugin.json +1 -0
- package/locales/ru-RU/providers.json +1 -0
- package/locales/ru-RU/setting.json +2 -0
- package/locales/tr-TR/chat.json +1 -0
- package/locales/tr-TR/modelProvider.json +20 -0
- package/locales/tr-TR/models.json +48 -7
- package/locales/tr-TR/plugin.json +1 -0
- package/locales/tr-TR/providers.json +1 -0
- package/locales/tr-TR/setting.json +2 -0
- package/locales/vi-VN/chat.json +1 -0
- package/locales/vi-VN/modelProvider.json +20 -0
- package/locales/vi-VN/models.json +5 -5
- package/locales/vi-VN/plugin.json +1 -0
- package/locales/vi-VN/providers.json +1 -0
- package/locales/vi-VN/setting.json +2 -0
- package/locales/zh-CN/modelProvider.json +20 -20
- package/locales/zh-CN/models.json +49 -8
- package/locales/zh-CN/providers.json +1 -0
- package/locales/zh-CN/setting.json +2 -1
- package/locales/zh-TW/chat.json +1 -0
- package/locales/zh-TW/modelProvider.json +20 -0
- package/locales/zh-TW/models.json +29 -10
- package/locales/zh-TW/plugin.json +1 -0
- package/locales/zh-TW/providers.json +1 -0
- package/locales/zh-TW/setting.json +2 -0
- package/package.json +2 -2
- package/packages/database/src/models/__tests__/agent.test.ts +165 -4
- package/packages/database/src/models/agent.ts +46 -0
- package/packages/database/src/repositories/agentGroup/index.test.ts +498 -0
- package/packages/database/src/repositories/agentGroup/index.ts +150 -0
- package/packages/database/src/repositories/home/__tests__/index.test.ts +113 -1
- package/packages/database/src/repositories/home/index.ts +48 -67
- package/pnpm-workspace.yaml +1 -0
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Body.tsx +1 -1
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Cron/CronTopicGroup.tsx +84 -0
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/{Topic/CronTopicList → Cron}/CronTopicItem.tsx +1 -1
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/{Topic/CronTopicList → Cron}/index.tsx +23 -33
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/List/Item/Editing.tsx +12 -49
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/List/index.tsx +3 -1
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/TopicListContent/ThreadList/ThreadItem/Editing.tsx +12 -40
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/hooks/useTopicNavigation.ts +5 -1
- package/src/app/[variants]/(main)/agent/features/Conversation/MainChatInput/index.tsx +2 -2
- package/src/app/[variants]/(main)/agent/profile/features/AgentCronJobs/CronJobCards.tsx +1 -1
- package/src/app/[variants]/(main)/agent/profile/features/AgentCronJobs/CronJobForm.tsx +1 -1
- package/src/app/[variants]/(main)/group/_layout/Sidebar/AddGroupMemberModal/AvailableAgentList.tsx +0 -1
- package/src/app/[variants]/(main)/group/_layout/Sidebar/AddGroupMemberModal/index.tsx +5 -1
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentGroupItem/index.tsx +2 -6
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentGroupItem/useDropdownMenu.tsx +100 -0
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentItem/index.tsx +2 -4
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/AgentItem/useDropdownMenu.tsx +149 -0
- package/src/app/[variants]/(main)/home/_layout/hooks/index.ts +0 -1
- package/src/app/[variants]/(main)/home/features/InputArea/index.tsx +1 -1
- package/src/components/InlineRename/index.tsx +121 -0
- package/src/features/ChatInput/InputEditor/index.tsx +1 -0
- package/src/features/EditorCanvas/DiffAllToolbar.tsx +1 -1
- package/src/features/NavPanel/components/NavItem.tsx +1 -1
- package/src/locales/default/setting.ts +2 -0
- package/src/server/routers/lambda/agent.ts +15 -0
- package/src/server/routers/lambda/agentGroup.ts +16 -0
- package/src/services/agent.ts +11 -0
- package/src/services/chatGroup/index.ts +11 -0
- package/src/store/agent/slices/cron/action.ts +108 -0
- package/src/store/agent/slices/cron/index.ts +1 -0
- package/src/store/agent/store.ts +3 -0
- package/src/store/home/slices/sidebarUI/action.test.ts +23 -22
- package/src/store/home/slices/sidebarUI/action.ts +37 -9
- package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/CronTopicList/CronTopicGroup.tsx +0 -74
- package/src/app/[variants]/(main)/group/features/ChangelogModal.tsx +0 -11
- package/src/app/[variants]/(main)/home/_layout/Body/Agent/List/Item/useDropdownMenu.tsx +0 -62
- package/src/app/[variants]/(main)/home/_layout/hooks/useSessionItemMenuItems.tsx +0 -238
- package/src/hooks/useFetchCronTopicsWithJobInfo.ts +0 -56
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 고객 지원, 교육, 기술 지원과 같은 대규모 활용 사례를 위한 강력한 이해 및 생성 능력을 결합합니다.",
|
|
272
272
|
"claude-2.0.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
|
|
273
273
|
"claude-2.1.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른 모델로, 다양한 기술에서 향상되었으며 이전 플래그십 모델인 Claude 3 Opus를 여러 벤치마크에서 능가합니다.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku는 가벼운 작업에 빠른 응답을 제공하는 모델입니다.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7은 Anthropic의 가장 지능적인 모델로, 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답부터 심화 사고까지 세밀한 제어가 가능하며, 다양한 상황에 유연하게 대응합니다.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 빠르고 정확한 성능으로 즉각적인 응답을 위해 설계되었습니다.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet은 엔터프라이즈 워크로드를 위한 지능과 속도의 균형을 제공하며, 낮은 비용으로 높은 효용성과 안정적인 대규모 배포를 지원합니다.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 심화 사고 기능을 갖추고 있습니다.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking은 자신의 추론 과정을 드러낼 수 있는 고급 변형 모델입니다.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 탁월한 성능, 지능, 유창성, 이해력을
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 탁월한 성능, 지능, 유창성, 이해력을 발휘합니다.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5는 Anthropic의 플래그십 모델로, 탁월한 지능과 확장 가능한 성능을 결합하여 최고 품질의 응답과 추론이 필요한 복잡한 작업에 이상적입니다.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking은 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 사고를 생성할 수 있습니다.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는 지금까지 출시된 Anthropic 모델 중 가장 지능적인 모델로, API 사용자에게 세밀한 제어를 제공하며 즉각적인 응답 또는 단계별 사고를 지원합니다.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 Anthropic이 지금까지 개발한 가장 지능적인 모델입니다.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4는 다국어 Q&A 및 코드 자동 완성을 지원하여 개발자의 생산성을 높이는 강력한 AI 코딩 도우미입니다.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B는 코드 자동 완성 및 생성, 코드 인터프리터, 웹 검색, 함수 호출, 저장소 수준의 코드 Q&A를 지원하는 다국어 코드 생성 모델로, 다양한 소프트웨어 개발 시나리오를 포괄합니다. 10B 미만 파라미터 중 최고 수준의 코드 모델입니다.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2는 DeepSeekMoE-27B 기반의 MoE 비전-언어 모델로, 희소 활성화를 통해 4.5B 활성 파라미터만으로도 뛰어난 성능을 발휘합니다. 시각적 QA, OCR, 문서/표/차트 이해, 시각적 정렬에 탁월합니다.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2는 일상적인 질의응답 및 에이전트 작업을 위해 추론 능력과 출력 길이의 균형을 맞춘 모델입니다. 공개 벤치마크에서 GPT-5 수준에 도달했으며, 도구 사용에 사고 과정을 통합한 최초의 모델로, 오픈소스 에이전트 평가에서 선도적인 성과를 보입니다.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B는 2T 토큰(코드 87%, 중/영문 텍스트 13%)으로 학습된 코드 언어 모델입니다. 16K 문맥 창과 중간 채우기(fit-in-the-middle) 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 보완을 지원합니다.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1의 빠른 전체 버전으로, 실시간 웹 검색을 지원하며 671B 규모의 성능과 빠른 응답을 결합합니다.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 전체 버전은 671B 파라미터와 실시간 웹 검색을 지원하여 더 강력한 이해 및 생성 능력을 제공합니다.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1은 강화 학습 전 콜드 스타트 데이터를 사용하며, 수학, 코딩, 추론에서 OpenAI-o1과 유사한 성능을 보입니다.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking은 출력 전에 사고 과정을 생성하여 정확도를 높이는 심화 추론 모델입니다. 주요 대회에서 우수한 성적을 거두었으며, Gemini-3.0-Pro에 필적하는 추론 능력을 보유하고 있습니다.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2는 비용 효율적인 처리를 위한 고효율 MoE 모델입니다.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B는 코드 생성에 강점을 가진 DeepSeek의 코드 특화 모델입니다.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324는 671B 파라미터의 MoE 모델로, 프로그래밍 및 기술 역량, 문맥 이해, 장문 처리에서 뛰어난 성능을 보입니다.",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K는 간단한 질의응답, 분류, 저비용 추론에 적합한 초경량 모델입니다.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K는 복잡한 추론 및 다중 턴 대화를 위한 32K 컨텍스트의 고속 사고 모델입니다.",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview는 평가 및 테스트를 위한 사고 모델 프리뷰입니다.",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "ByteDance Seed에서 개발한 Seedream 4.0은 텍스트 및 이미지 입력을 지원하며, 프롬프트 기반의 고품질 이미지 생성을 정밀하게 제어할 수 있습니다.",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 모델은 이미지 편집에 중점을 두며, 텍스트와 이미지 입력을 지원합니다.",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro]는 텍스트와 참조 이미지를 입력으로 받아, 국소 편집과 복잡한 장면 변환을 정밀하게 수행할 수 있습니다.",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev]는 보다 사실적이고 자연스러운 이미지 스타일에 중점을 둔 이미지 생성 모델입니다.",
|
|
@@ -479,8 +479,8 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "강력한 네이티브 멀티모달 이미지 생성 모델입니다.",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "Google에서 개발한 고품질 이미지 생성 모델입니다.",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "Qwen
|
|
483
|
-
"fal-ai/qwen-image.description": "Qwen
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Qwen 팀이 개발한 전문 이미지 편집 모델로, 의미 기반 및 외형 편집, 정확한 중/영문 텍스트 편집, 스타일 전환, 회전 등 다양한 기능을 지원합니다.",
|
|
483
|
+
"fal-ai/qwen-image.description": "Qwen 팀이 개발한 강력한 이미지 생성 모델로, 뛰어난 중국어 텍스트 렌더링과 다양한 시각 스타일을 제공합니다.",
|
|
484
484
|
"flux-1-schnell.description": "Black Forest Labs에서 개발한 120억 파라미터 텍스트-이미지 모델로, 잠재 적대 확산 증류를 사용하여 1~4단계 내에 고품질 이미지를 생성합니다. Apache-2.0 라이선스로 개인, 연구, 상업적 사용이 가능합니다.",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev]는 오픈 가중치 증류 모델로, 비상업적 사용을 위해 설계되었습니다. 전문가 수준의 이미지 품질과 지시 따르기를 유지하면서도 더 효율적으로 작동하며, 동일 크기의 표준 모델보다 자원을 더 잘 활용합니다.",
|
|
486
486
|
"flux-kontext-max.description": "최첨단 문맥 기반 이미지 생성 및 편집 모델로, 텍스트와 이미지를 결합하여 정밀하고 일관된 결과를 생성합니다.",
|
|
@@ -512,9 +512,35 @@
|
|
|
512
512
|
"gemini-2.0-flash-lite-001.description": "비용 효율성과 낮은 지연 시간에 최적화된 Gemini 2.0 Flash 변형입니다.",
|
|
513
513
|
"gemini-2.0-flash-lite.description": "비용 효율성과 낮은 지연 시간에 최적화된 Gemini 2.0 Flash 변형입니다.",
|
|
514
514
|
"gemini-2.0-flash.description": "Gemini 2.0 Flash는 탁월한 속도, 네이티브 도구 사용, 멀티모달 생성, 100만 토큰 문맥 창 등 차세대 기능을 제공합니다.",
|
|
515
|
+
"gemini-2.5-flash-image-preview.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
|
|
516
|
+
"gemini-2.5-flash-image-preview:image.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
|
|
517
|
+
"gemini-2.5-flash-image.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
|
|
518
|
+
"gemini-2.5-flash-image:image.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
|
|
519
|
+
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview는 Google의 가장 작고 가성비 높은 모델로, 대규모 사용을 위해 설계되었습니다.",
|
|
520
|
+
"gemini-2.5-flash-lite-preview-09-2025.description": "Gemini 2.5 Flash-Lite의 2025년 9월 25일자 프리뷰 릴리스입니다.",
|
|
521
|
+
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite는 Google의 가장 작고 가성비 높은 모델로, 대규모 사용을 위해 설계되었습니다.",
|
|
522
|
+
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview는 Google의 가성비 최고의 모델로, 모든 기능을 갖추고 있습니다.",
|
|
523
|
+
"gemini-2.5-flash-preview-09-2025.description": "Gemini 2.5 Flash의 2025년 9월 25일자 프리뷰 릴리스입니다.",
|
|
524
|
+
"gemini-2.5-flash.description": "Gemini 2.5 Flash는 Google의 가성비 최고의 모델로, 모든 기능을 갖추고 있습니다.",
|
|
525
|
+
"gemini-2.5-flash:image.description": "Gemini 2.5 Flash는 Google의 가성비 최고의 모델로, 모든 기능을 갖추고 있습니다.",
|
|
526
|
+
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview는 Google의 가장 진보된 추론 모델로, 코드, 수학, STEM 문제에 대한 추론과 대규모 데이터셋, 코드베이스, 문서 분석을 장기 문맥 내에서 수행할 수 있습니다.",
|
|
527
|
+
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview는 Google의 가장 진보된 추론 모델로, 코드, 수학, STEM 문제에 대한 추론과 대규모 데이터셋, 코드베이스, 문서 분석을 장기 문맥 내에서 수행할 수 있습니다.",
|
|
528
|
+
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview는 Google의 가장 진보된 추론 모델로, 코드, 수학, STEM 문제에 대한 추론과 대규모 데이터셋, 코드베이스, 문서 분석을 장기 문맥 내에서 수행할 수 있습니다.",
|
|
529
|
+
"gemini-2.5-pro.description": "Gemini 2.5 Pro는 Google의 플래그십 추론 모델로, 복잡한 작업을 위한 장기 문맥 지원을 제공합니다.",
|
|
530
|
+
"gemini-3-flash-preview.description": "Gemini 3 Flash는 속도를 위해 설계된 가장 지능적인 모델로, 최첨단 지능과 뛰어난 검색 기반을 결합합니다.",
|
|
531
|
+
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)는 Google의 이미지 생성 모델로, 멀티모달 대화도 지원합니다.",
|
|
532
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)는 Google의 이미지 생성 모델로, 멀티모달 대화도 지원합니다.",
|
|
533
|
+
"gemini-3-pro-preview.description": "Gemini 3 Pro는 Google의 가장 강력한 에이전트 및 바이브 코딩 모델로, 최첨단 추론 위에 풍부한 시각적 표현과 깊은 상호작용을 제공합니다.",
|
|
515
534
|
"gemini-flash-latest.description": "Gemini Flash 최신 버전",
|
|
516
535
|
"gemini-flash-lite-latest.description": "Gemini Flash-Lite 최신 버전",
|
|
517
536
|
"gemini-pro-latest.description": "Gemini Pro 최신 버전",
|
|
537
|
+
"gemma-7b-it.description": "Gemma 7B는 소규모에서 중간 규모 작업에 적합한 비용 효율적인 모델입니다.",
|
|
538
|
+
"gemma2-9b-it.description": "Gemma 2 9B는 특정 작업 및 도구 통합에 최적화된 모델입니다.",
|
|
539
|
+
"gemma2.description": "Gemma 2는 Google의 효율적인 모델로, 소형 앱부터 복잡한 데이터 처리까지 다양한 사용 사례를 지원합니다.",
|
|
540
|
+
"gemma2:27b.description": "Gemma 2는 Google의 효율적인 모델로, 소형 앱부터 복잡한 데이터 처리까지 다양한 사용 사례를 지원합니다.",
|
|
541
|
+
"gemma2:2b.description": "Gemma 2는 Google의 효율적인 모델로, 소형 앱부터 복잡한 데이터 처리까지 다양한 사용 사례를 지원합니다.",
|
|
542
|
+
"generalv3.5.description": "Spark Max는 웹 검색과 다양한 내장 플러그인을 지원하는 가장 완전한 기능의 버전입니다. 최적화된 핵심 기능, 시스템 역할, 함수 호출을 통해 복잡한 애플리케이션 시나리오에서도 뛰어난 성능을 발휘합니다.",
|
|
543
|
+
"generalv3.description": "Spark Pro는 수학, 프로그래밍, 의료, 교육 등 전문 분야에 최적화된 고성능 LLM입니다. 웹 검색과 날씨, 날짜 등 내장 플러그인을 지원하며, 복잡한 지식 질의응답, 언어 이해, 고급 텍스트 생성에서 강력한 성능과 효율성을 제공합니다. 전문가용 사용 사례에 이상적입니다.",
|
|
518
544
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "시각 이해 에이전트 애플리케이션을 위한 고급 이미지 추론 기능.",
|
|
519
545
|
"meta/Llama-3.3-70B-Instruct.description": "Llama 3.3은 가장 진보된 다국어 오픈소스 Llama 모델로, 매우 낮은 비용으로 405B에 근접한 성능을 제공합니다. Transformer 기반이며, 유용성과 안전성을 위해 SFT 및 RLHF로 개선되었습니다. 명령어 튜닝 버전은 다국어 채팅에 최적화되어 있으며, 산업 벤치마크에서 많은 오픈 및 클로즈드 채팅 모델을 능가합니다. 지식 기준일: 2023년 12월.",
|
|
520
546
|
"meta/Meta-Llama-3-70B-Instruct.description": "추론, 코딩, 다양한 언어 작업에 뛰어난 성능을 보이는 강력한 70B 파라미터 모델.",
|
|
@@ -92,6 +92,7 @@
|
|
|
92
92
|
"builtins.lobe-local-system.inspector.noResults": "결과 없음",
|
|
93
93
|
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
94
94
|
"builtins.lobe-local-system.title": "로컬 시스템",
|
|
95
|
+
"builtins.lobe-notebook.actions.collapse": "접기",
|
|
95
96
|
"builtins.lobe-notebook.actions.copy": "복사",
|
|
96
97
|
"builtins.lobe-notebook.actions.creating": "문서 생성 중...",
|
|
97
98
|
"builtins.lobe-notebook.actions.edit": "편집",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "InternLM은 대규모 모델 연구 및 도구 개발에 집중하는 오픈소스 조직으로, 최신 모델과 알고리즘을 누구나 쉽게 사용할 수 있도록 효율적인 플랫폼을 제공합니다.",
|
|
30
30
|
"jina.description": "2020년에 설립된 Jina AI는 선도적인 검색 AI 기업으로, 벡터 모델, 재정렬기, 소형 언어 모델을 포함한 검색 스택을 통해 신뢰성 높고 고품질의 생성형 및 멀티모달 검색 앱을 구축합니다.",
|
|
31
31
|
"lmstudio.description": "LM Studio는 데스크탑에서 LLM을 개발하고 실험할 수 있는 애플리케이션입니다.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud는 공식 API를 사용하여 AI 모델에 접근하며, 모델 토큰에 연동된 크레딧을 통해 사용량을 측정합니다.",
|
|
32
33
|
"minimax.description": "2021년에 설립된 MiniMax는 텍스트, 음성, 비전 등 멀티모달 기반의 범용 AI를 개발하며, 조 단위 파라미터의 MoE 텍스트 모델과 Hailuo AI와 같은 앱을 제공합니다.",
|
|
33
34
|
"mistral.description": "Mistral은 복잡한 추론, 다국어 작업, 코드 생성에 적합한 고급 범용, 특화, 연구용 모델을 제공하며, 사용자 정의 통합을 위한 함수 호출 기능도 지원합니다.",
|
|
34
35
|
"modelscope.description": "ModelScope는 Alibaba Cloud의 모델 서비스 플랫폼으로, 다양한 AI 모델과 추론 서비스를 제공합니다.",
|
|
@@ -33,6 +33,7 @@
|
|
|
33
33
|
"agentCronJobs.maxExecutions": "최대 실행 횟수",
|
|
34
34
|
"agentCronJobs.name": "작업 이름",
|
|
35
35
|
"agentCronJobs.never": "없음",
|
|
36
|
+
"agentCronJobs.noExecutionResults": "실행 결과 없음",
|
|
36
37
|
"agentCronJobs.remainingExecutions": "남은 횟수: {{count}}",
|
|
37
38
|
"agentCronJobs.save": "저장",
|
|
38
39
|
"agentCronJobs.schedule": "일정",
|
|
@@ -42,6 +43,7 @@
|
|
|
42
43
|
"agentCronJobs.timeRange": "시간 범위",
|
|
43
44
|
"agentCronJobs.title": "예약 작업",
|
|
44
45
|
"agentCronJobs.unlimited": "무제한",
|
|
46
|
+
"agentCronJobs.unnamedTask": "이름 없는 작업",
|
|
45
47
|
"agentCronJobs.updateSuccess": "예약 작업이 성공적으로 업데이트되었습니다",
|
|
46
48
|
"agentCronJobs.weekdays": "평일",
|
|
47
49
|
"agentInfoDescription.basic.avatar": "아바타",
|
package/locales/nl-NL/chat.json
CHANGED
|
@@ -63,6 +63,7 @@
|
|
|
63
63
|
"extendParams.reasoningEffort.title": "Denkintensiteit",
|
|
64
64
|
"extendParams.textVerbosity.title": "Detailniveau Tekstoutput",
|
|
65
65
|
"extendParams.thinking.title": "Schakel Diep Denken in",
|
|
66
|
+
"extendParams.thinkingBudget.title": "Denkbudget",
|
|
66
67
|
"extendParams.thinkingLevel.title": "Denkniveau",
|
|
67
68
|
"extendParams.title": "Modeluitbreidingsfuncties",
|
|
68
69
|
"extendParams.urlContext.desc": "Indien ingeschakeld, worden webkoppelingen automatisch geanalyseerd om de inhoud van de webpagina op te halen",
|
|
@@ -194,6 +194,26 @@
|
|
|
194
194
|
"providerModels.item.modelConfig.deployName.title": "Modelimplementatienaam",
|
|
195
195
|
"providerModels.item.modelConfig.displayName.placeholder": "Voer de weergavenaam van het model in, bijv. ChatGPT, GPT-4, enz.",
|
|
196
196
|
"providerModels.item.modelConfig.displayName.title": "Modelweergavenaam",
|
|
197
|
+
"providerModels.item.modelConfig.extendParams.extra": "Kies uitgebreide parameters die door het model worden ondersteund. Beweeg met de muis over een optie om de instellingen te bekijken. Onjuiste configuraties kunnen leiden tot fouten bij het uitvoeren van verzoeken.",
|
|
198
|
+
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Voor Claude-modellen; kan kosten verlagen en reacties versnellen.",
|
|
199
|
+
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Voor Claude-, DeepSeek- en andere redeneermodellen; activeert diepgaander denken.",
|
|
200
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Voor GPT-5-serie; regelt de intensiteit van het redeneren.",
|
|
201
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Voor GPT-5.1-serie; regelt de intensiteit van het redeneren.",
|
|
202
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "Voor GPT-5.2 Pro-serie; regelt de intensiteit van het redeneren.",
|
|
203
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "Voor GPT-5.2-serie; regelt de intensiteit van het redeneren.",
|
|
204
|
+
"providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "Voor Gemini-afbeeldingsgeneratiemodellen; regelt de beeldverhouding van gegenereerde afbeeldingen.",
|
|
205
|
+
"providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "Voor Gemini 3-afbeeldingsgeneratiemodellen; regelt de resolutie van gegenereerde afbeeldingen.",
|
|
206
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "Voor Claude, Qwen3 en vergelijkbare modellen; regelt het tokenbudget voor redeneren.",
|
|
207
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "Voor OpenAI en andere redeneermodellen; regelt de inspanning voor redeneren.",
|
|
208
|
+
"providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "Voor GPT-5+-serie; regelt de uitvoerige aard van de output.",
|
|
209
|
+
"providerModels.item.modelConfig.extendParams.options.thinking.hint": "Voor sommige Doubao-modellen; laat het model beslissen of diep nadenken nodig is.",
|
|
210
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Voor Gemini-serie; regelt het denkbudget.",
|
|
211
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Voor Gemini 3 Flash Preview-modellen; regelt de diepgang van het denken.",
|
|
212
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Voor Gemini 3 Pro Preview-modellen; regelt de diepgang van het denken.",
|
|
213
|
+
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Voor Gemini-serie; ondersteunt het aanleveren van URL-context.",
|
|
214
|
+
"providerModels.item.modelConfig.extendParams.placeholder": "Selecteer uit te schakelen uitgebreide parameters",
|
|
215
|
+
"providerModels.item.modelConfig.extendParams.previewFallback": "Voorbeeld niet beschikbaar",
|
|
216
|
+
"providerModels.item.modelConfig.extendParams.title": "Uitgebreide parameters",
|
|
197
217
|
"providerModels.item.modelConfig.files.extra": "De huidige bestandsupload is een tijdelijke oplossing, beperkt tot eigen experimenten. Wacht op volledige uploadfunctionaliteit in toekomstige versies.",
|
|
198
218
|
"providerModels.item.modelConfig.files.title": "Ondersteuning voor bestandsupload",
|
|
199
219
|
"providerModels.item.modelConfig.functionCall.extra": "Deze configuratie stelt het model in staat om tools te gebruiken. Of het model dit daadwerkelijk kan, hangt volledig af van het model zelf. Test dit zelf.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt en sterke begrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic, met verbeterde vaardigheden en betere prestaties dan de vorige vlaggenschip Claude 3 Opus op veel benchmarks.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku levert snelle reacties voor lichte taken.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is het intelligentste model van Anthropic en het eerste hybride redeneermodel op de markt, met ondersteuning voor directe reacties of diepgaand denken met nauwkeurige controle.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met hoge bruikbaarheid tegen lagere kosten en betrouwbare grootschalige inzet.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle reacties en uitgebreide denkvermogens.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
284
284
|
"claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 is tot nu toe het intelligentste model van Anthropic, met directe reacties of stapsgewijs denken en nauwkeurige controle voor API-gebruikers.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 is een krachtige AI-codeassistent die meertalige Q&A en codeaanvulling ondersteunt om de productiviteit van ontwikkelaars te verhogen.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat codeaanvulling en -generatie, code-interpreter, webzoekopdrachten, functieaanroepen en Q&A op repo-niveau ondersteunt. Het dekt een breed scala aan softwareontwikkelingsscenario’s en is een topmodel onder de 10 miljard parameters.",
|
|
@@ -355,6 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is een MoE vision-language model gebaseerd op DeepSeekMoE-27B met sparse activatie, dat sterke prestaties levert met slechts 4,5B actieve parameters. Het blinkt uit in visuele QA, OCR, document-/tabel-/grafiekbegrip en visuele verankering.",
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2 biedt een evenwicht tussen redeneervermogen en outputlengte voor dagelijkse vraag-en-antwoord- en agenttaken. Publieke benchmarks bereiken GPT-5-niveau, en het is het eerste model dat denken integreert in het gebruik van tools, wat leidt tot toonaangevende prestaties in open-source agentbeoordelingen.",
|
|
358
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is een codeertaalmodel getraind op 2 biljoen tokens (87% code, 13% Chinees/Engels tekst). Het introduceert een contextvenster van 16K en 'fill-in-the-middle'-taken, wat projectniveau codeaanvulling en fragmentinvoeging mogelijk maakt.",
|
|
359
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
|
|
360
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
|
|
@@ -377,6 +378,7 @@
|
|
|
377
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 snelle volledige versie met realtime webzoekfunctie, combineert 671B-capaciteit met snellere reacties.",
|
|
378
379
|
"deepseek-r1-online.description": "DeepSeek R1 volledige versie met 671B parameters en realtime webzoekfunctie, biedt sterkere begrip- en generatiecapaciteiten.",
|
|
379
380
|
"deepseek-r1.description": "DeepSeek-R1 gebruikt cold-start data vóór versterkingsleren en presteert vergelijkbaar met OpenAI-o1 op wiskunde, programmeren en redenering.",
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking is een geavanceerd redeneermodel dat eerst een denkproces genereert voor hogere nauwkeurigheid. Het behaalt topprestaties in competities en redeneert op het niveau van Gemini-3.0-Pro.",
|
|
380
382
|
"deepseek-v2.description": "DeepSeek V2 is een efficiënt MoE-model voor kosteneffectieve verwerking.",
|
|
381
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s codegerichte model met sterke codegeneratie.",
|
|
382
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is een MoE-model met 671B parameters en uitmuntende prestaties in programmeren, technische vaardigheden, contextbegrip en verwerking van lange teksten.",
|
|
@@ -440,6 +442,35 @@
|
|
|
440
442
|
"doubao-vision-lite-32k.description": "Doubao-vision is een multimodaal model van Doubao met sterk beeldbegrip en redenering, plus nauwkeurige instructieopvolging. Het presteert goed bij beeld-tekstextractie en op beeld gebaseerde redeneertaken, waardoor complexere en bredere visuele vraag-en-antwoordscenario's mogelijk zijn.",
|
|
441
443
|
"doubao-vision-pro-32k.description": "Doubao-vision is een multimodaal model van Doubao met sterk beeldbegrip en redenering, plus nauwkeurige instructieopvolging. Het presteert goed bij beeld-tekstextractie en op beeld gebaseerde redeneertaken, waardoor complexere en bredere visuele vraag-en-antwoordscenario's mogelijk zijn.",
|
|
442
444
|
"emohaa.description": "Emohaa is een mentaal gezondheidsmodel met professionele begeleidingsvaardigheden om gebruikers te helpen emotionele problemen te begrijpen.",
|
|
445
|
+
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B is een lichtgewicht open-source model voor lokale en aangepaste implementatie.",
|
|
446
|
+
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B is een open-source model met veel parameters en verbeterde begrips- en generatiecapaciteiten.",
|
|
447
|
+
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B is het ultra-grote MoE-model van Baidu ERNIE met uitstekende redeneercapaciteiten.",
|
|
448
|
+
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview is een previewmodel met 8K context voor het evalueren van ERNIE 4.5.",
|
|
449
|
+
"ernie-4.5-turbo-128k-preview.description": "ERNIE 4.5 Turbo 128K Preview met capaciteiten op productieniveau, geschikt voor integratie en canary-tests.",
|
|
450
|
+
"ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K is een krachtig algemeen model met zoekverrijking en toolgebruik voor vraag-en-antwoord, codering en agenttoepassingen.",
|
|
451
|
+
"ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K is een versie met middellange context voor vraag-en-antwoord, kennisopvraging en meerstapsdialogen.",
|
|
452
|
+
"ernie-4.5-turbo-latest.description": "De nieuwste ERNIE 4.5 Turbo met geoptimaliseerde algehele prestaties, ideaal als primair productiemodel.",
|
|
453
|
+
"ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview is een multimodale preview met 32K context voor het evalueren van visuele capaciteiten op lange termijn.",
|
|
454
|
+
"ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K is een multimodale versie met middellange context voor gecombineerd begrip van lange documenten en afbeeldingen.",
|
|
455
|
+
"ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest is de nieuwste multimodale versie met verbeterd beeld-tekstbegrip en redeneervermogen.",
|
|
456
|
+
"ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview is een multimodaal previewmodel voor beeld-tekstbegrip en -generatie, geschikt voor visuele vraag-en-antwoord en inhoudsbegrip.",
|
|
457
|
+
"ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL is een volwassen multimodaal model voor productiegericht beeld-tekstbegrip en herkenning.",
|
|
458
|
+
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B is een open-source multimodaal model voor beeld-tekstbegrip en redenatie.",
|
|
459
|
+
"ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking is een native full-modale vlaggenschipmodel met geïntegreerde tekst-, beeld-, audio- en videomodellering. Het biedt brede capaciteitsverbeteringen voor complexe vraag-en-antwoord, creatie en agenttoepassingen.",
|
|
460
|
+
"ernie-5.0-thinking-preview.description": "Wenxin 5.0 Thinking Preview is een native full-modale vlaggenschipmodel met geïntegreerde tekst-, beeld-, audio- en videomodellering. Het biedt brede capaciteitsverbeteringen voor complexe vraag-en-antwoord, creatie en agenttoepassingen.",
|
|
461
|
+
"ernie-char-8k.description": "ERNIE Character 8K is een persoonlijk dialoogmodel voor het opbouwen van IP-personages en langdurige gezelschapschat.",
|
|
462
|
+
"ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview is een previewmodel voor personage- en plotcreatie, bedoeld voor functietests en evaluatie.",
|
|
463
|
+
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K is een personagegericht model voor romans en plotontwikkeling, geschikt voor het genereren van lange verhalen.",
|
|
464
|
+
"ernie-irag-edit.description": "ERNIE iRAG Edit is een afbeeldingsbewerkingsmodel dat wissen, herschilderen en variantgeneratie ondersteunt.",
|
|
465
|
+
"ernie-lite-8k.description": "ERNIE Lite 8K is een lichtgewicht algemeen model voor kostengevoelige dagelijkse vraag-en-antwoord en inhoudsgeneratie.",
|
|
466
|
+
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K is een lichtgewicht model met hoge prestaties voor scenario's met lage latentie en kosten.",
|
|
467
|
+
"ernie-novel-8k.description": "ERNIE Novel 8K is ontworpen voor lange romans en IP-verhalen met meerdere personages.",
|
|
468
|
+
"ernie-speed-128k.description": "ERNIE Speed 128K is een model zonder I/O-kosten voor begrip van lange teksten en grootschalige tests.",
|
|
469
|
+
"ernie-speed-8k.description": "ERNIE Speed 8K is een gratis, snel model voor dagelijkse gesprekken en lichte teksttaken.",
|
|
470
|
+
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K is een model met hoge gelijktijdigheid en hoge waarde voor grootschalige online diensten en zakelijke toepassingen.",
|
|
471
|
+
"ernie-tiny-8k.description": "ERNIE Tiny 8K is een ultralicht model voor eenvoudige vraag-en-antwoord, classificatie en goedkope inferentie.",
|
|
472
|
+
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is een snel denkend model met 32K context voor complexe redenatie en meerstapsgesprekken.",
|
|
473
|
+
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is een preview van een denkmodel voor evaluatie en testen.",
|
|
443
474
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 is een open LLM voor ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoord opschalen van generatieve AI-ideeën. Als onderdeel van de basis voor wereldwijde gemeenschapsinnovatie is het goed geschikt voor beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden.",
|
|
444
475
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Sterke beeldredenering op afbeeldingen met hoge resolutie, geschikt voor toepassingen voor visueel begrip.",
|
|
445
476
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Geavanceerde beeldredenering voor toepassingen met visueel begrip en agentfunctionaliteit.",
|
|
@@ -92,6 +92,7 @@
|
|
|
92
92
|
"builtins.lobe-local-system.inspector.noResults": "Geen resultaten",
|
|
93
93
|
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
94
94
|
"builtins.lobe-local-system.title": "Lokaal Systeem",
|
|
95
|
+
"builtins.lobe-notebook.actions.collapse": "Samenvouwen",
|
|
95
96
|
"builtins.lobe-notebook.actions.copy": "Kopiëren",
|
|
96
97
|
"builtins.lobe-notebook.actions.creating": "Document wordt aangemaakt...",
|
|
97
98
|
"builtins.lobe-notebook.actions.edit": "Bewerken",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Een open-source organisatie gericht op grootschalig modelonderzoek en tooling, met een efficiënt en gebruiksvriendelijk platform dat geavanceerde modellen en algoritmen toegankelijk maakt.",
|
|
30
30
|
"jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.",
|
|
31
31
|
"lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLM’s op je eigen computer.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud gebruikt officiële API's om toegang te krijgen tot AI-modellen en meet het gebruik met Credits die gekoppeld zijn aan modeltokens.",
|
|
32
33
|
"minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral biedt geavanceerde algemene, gespecialiseerde en onderzoeksmodellen voor complexe redenering, meertalige taken en codegeneratie, met functie-aanroepen voor aangepaste integraties.",
|
|
34
35
|
"modelscope.description": "ModelScope is het model-as-a-service platform van Alibaba Cloud, met een breed scala aan AI-modellen en inferentiediensten.",
|
|
@@ -33,6 +33,7 @@
|
|
|
33
33
|
"agentCronJobs.maxExecutions": "Maximale Uitvoeringen",
|
|
34
34
|
"agentCronJobs.name": "Taaknaam",
|
|
35
35
|
"agentCronJobs.never": "Nooit",
|
|
36
|
+
"agentCronJobs.noExecutionResults": "Geen uitvoeringsresultaten",
|
|
36
37
|
"agentCronJobs.remainingExecutions": "Resterend: {{count}}",
|
|
37
38
|
"agentCronJobs.save": "Opslaan",
|
|
38
39
|
"agentCronJobs.schedule": "Schema",
|
|
@@ -42,6 +43,7 @@
|
|
|
42
43
|
"agentCronJobs.timeRange": "Tijdspanne",
|
|
43
44
|
"agentCronJobs.title": "Geplande Taken",
|
|
44
45
|
"agentCronJobs.unlimited": "Onbeperkt",
|
|
46
|
+
"agentCronJobs.unnamedTask": "Naamloze taak",
|
|
45
47
|
"agentCronJobs.updateSuccess": "Geplande taak succesvol bijgewerkt",
|
|
46
48
|
"agentCronJobs.weekdays": "Weekdagen",
|
|
47
49
|
"agentInfoDescription.basic.avatar": "Avatar",
|
package/locales/pl-PL/chat.json
CHANGED
|
@@ -63,6 +63,7 @@
|
|
|
63
63
|
"extendParams.reasoningEffort.title": "Intensywność rozumowania",
|
|
64
64
|
"extendParams.textVerbosity.title": "Poziom szczegółowości tekstu",
|
|
65
65
|
"extendParams.thinking.title": "Przełącznik głębokiego myślenia",
|
|
66
|
+
"extendParams.thinkingBudget.title": "Budżet na przemyślenia",
|
|
66
67
|
"extendParams.thinkingLevel.title": "Poziom myślenia",
|
|
67
68
|
"extendParams.title": "Funkcje rozszerzenia modelu",
|
|
68
69
|
"extendParams.urlContext.desc": "Po włączeniu, linki internetowe będą automatycznie analizowane w celu pobrania treści strony",
|
|
@@ -194,6 +194,26 @@
|
|
|
194
194
|
"providerModels.item.modelConfig.deployName.title": "Nazwa wdrożenia modelu",
|
|
195
195
|
"providerModels.item.modelConfig.displayName.placeholder": "Wprowadź nazwę wyświetlaną modelu, np. ChatGPT, GPT-4 itp.",
|
|
196
196
|
"providerModels.item.modelConfig.displayName.title": "Nazwa wyświetlana modelu",
|
|
197
|
+
"providerModels.item.modelConfig.extendParams.extra": "Wybierz rozszerzone parametry obsługiwane przez model. Najedź kursorem na opcję, aby zobaczyć podgląd ustawień. Nieprawidłowa konfiguracja może spowodować błędy żądania.",
|
|
198
|
+
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Dla modeli Claude; może obniżyć koszty i przyspieszyć odpowiedzi.",
|
|
199
|
+
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Dla modeli Claude, DeepSeek i innych wspierających rozumowanie; odblokowuje głębsze myślenie.",
|
|
200
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Dla serii GPT-5; kontroluje intensywność rozumowania.",
|
|
201
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Dla serii GPT-5.1; kontroluje intensywność rozumowania.",
|
|
202
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "Dla serii GPT-5.2 Pro; kontroluje intensywność rozumowania.",
|
|
203
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "Dla serii GPT-5.2; kontroluje intensywność rozumowania.",
|
|
204
|
+
"providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "Dla modeli generujących obrazy Gemini; kontroluje proporcje generowanych obrazów.",
|
|
205
|
+
"providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "Dla modeli generujących obrazy Gemini 3; kontroluje rozdzielczość generowanych obrazów.",
|
|
206
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "Dla modeli Claude, Qwen3 i podobnych; kontroluje budżet tokenów na rozumowanie.",
|
|
207
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "Dla modeli OpenAI i innych wspierających rozumowanie; kontroluje nakład rozumowania.",
|
|
208
|
+
"providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "Dla serii GPT-5+; kontroluje szczegółowość odpowiedzi.",
|
|
209
|
+
"providerModels.item.modelConfig.extendParams.options.thinking.hint": "Dla niektórych modeli Doubao; pozwala modelowi zdecydować, czy myśleć głębiej.",
|
|
210
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Dla serii Gemini; kontroluje budżet na myślenie.",
|
|
211
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Dla modeli Gemini 3 Flash Preview; kontroluje głębokość myślenia.",
|
|
212
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Dla modeli Gemini 3 Pro Preview; kontroluje głębokość myślenia.",
|
|
213
|
+
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Dla serii Gemini; umożliwia podanie kontekstu w postaci adresu URL.",
|
|
214
|
+
"providerModels.item.modelConfig.extendParams.placeholder": "Wybierz parametry rozszerzone do włączenia",
|
|
215
|
+
"providerModels.item.modelConfig.extendParams.previewFallback": "Podgląd niedostępny",
|
|
216
|
+
"providerModels.item.modelConfig.extendParams.title": "Parametry rozszerzone",
|
|
197
217
|
"providerModels.item.modelConfig.files.extra": "Obecna implementacja przesyłania plików to tymczasowe rozwiązanie, ograniczone do testów własnych. Pełna funkcjonalność zostanie dodana w przyszłości.",
|
|
198
218
|
"providerModels.item.modelConfig.files.title": "Obsługa przesyłania plików",
|
|
199
219
|
"providerModels.item.modelConfig.functionCall.extra": "Ta konfiguracja umożliwia modelowi korzystanie z narzędzi. Jednak faktyczna możliwość ich użycia zależy od samego modelu – przetestuj samodzielnie.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym, łączący silne rozumienie i generowanie treści w zastosowaniach na dużą skalę, takich jak obsługa klienta, edukacja i wsparcie techniczne.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic, oferujący ulepszone umiejętności i przewyższający poprzedni flagowy model Claude 3 Opus w wielu testach porównawczych.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku zapewnia szybkie odpowiedzi w lekkich zadaniach.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 to najbardziej inteligentny model Anthropic i pierwszy na rynku model hybrydowego rozumowania, zapewniający błyskawiczne odpowiedzi lub pogłębione myślenie z precyzyjną kontrolą.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model firmy Anthropic, zaprojektowany do natychmiastowych odpowiedzi z szybką i dokładną wydajnością.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus to najpotężniejszy model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet łączy inteligencję i szybkość dla obciążeń korporacyjnych, oferując wysoką użyteczność przy niższych kosztach i niezawodnym wdrażaniu na dużą skalę.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najbardziej inteligentny model Haiku od Anthropic, łączący błyskawiczne działanie z możliwością pogłębionego rozumowania.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking to zaawansowany wariant, który może ujawniać swój proces rozumowania.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący wyjątkową inteligencję z wydajnością na dużą skalę, idealny do złożonych zadań wymagających najwyższej jakości odpowiedzi i rozumowania.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking może generować natychmiastowe odpowiedzi lub rozszerzone rozumowanie krok po kroku z widocznym procesem.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 to najbardziej inteligentny model Anthropic, oferujący błyskawiczne odpowiedzi lub rozbudowane, krok po kroku rozumowanie z precyzyjną kontrolą dla użytkowników API.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to najbardziej inteligentny model firmy Anthropic do tej pory.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 to potężny asystent programistyczny AI, obsługujący wielojęzyczne pytania i uzupełnianie kodu w celu zwiększenia produktywności programistów.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B to wielojęzyczny model generowania kodu obsługujący uzupełnianie i generowanie kodu, interpretację kodu, wyszukiwanie w sieci, wywoływanie funkcji i pytania na poziomie repozytorium. Obejmuje szeroki zakres scenariuszy programistycznych i jest jednym z najlepszych modeli kodu poniżej 10B parametrów.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 to model językowo-wizualny MoE oparty na DeepSeekMoE-27B z rzadką aktywacją, osiągający wysoką wydajność przy zaledwie 4,5B aktywnych parametrów. Wyróżnia się w zadaniach QA wizualnych, OCR, rozumieniu dokumentów/tabel/wykresów i ugruntowaniu wizualnym.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2 równoważy rozumowanie i długość odpowiedzi w codziennych zadaniach QA i agentowych. W testach publicznych osiąga poziom GPT-5 i jako pierwszy integruje myślenie z użyciem narzędzi, prowadząc w ocenach agentów open-source.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B to model języka kodu wytrenowany na 2T tokenach (87% kod, 13% tekst chiński/angielski). Wprowadza okno kontekstu 16K i zadania uzupełniania w środku, oferując uzupełnianie kodu na poziomie projektu i wypełnianie fragmentów.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Szybka pełna wersja DeepSeek R1 z wyszukiwaniem w czasie rzeczywistym, łącząca możliwości modelu 671B z szybszymi odpowiedziami.",
|
|
379
379
|
"deepseek-r1-online.description": "Pełna wersja DeepSeek R1 z 671 miliardami parametrów i wyszukiwaniem w czasie rzeczywistym, oferująca lepsze rozumienie i generowanie.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 wykorzystuje dane startowe przed RL i osiąga wyniki porównywalne z OpenAI-o1 w zadaniach matematycznych, programistycznych i logicznych.",
|
|
381
|
-
"deepseek-reasoner.description": "
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking to model głębokiego rozumowania, który generuje łańcuch myśli przed odpowiedzią dla większej precyzji. Osiąga czołowe wyniki w konkursach i rozumowaniu porównywalnym z Gemini-3.0-Pro.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 to wydajny model MoE zoptymalizowany pod kątem efektywności kosztowej.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B to model skoncentrowany na kodzie, oferujący zaawansowane generowanie kodu.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 to model MoE z 671 miliardami parametrów, wyróżniający się w programowaniu, rozumieniu kontekstu i obsłudze długich tekstów.",
|
|
@@ -471,6 +471,36 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K to ultralekki model do prostych QA, klasyfikacji i wnioskowania przy niskim koszcie.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K to szybki model rozumowania z kontekstem 32K do złożonego rozumowania i dialogów wieloetapowych.",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview to podgląd modelu rozumowania do oceny i testów.",
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, stworzony przez ByteDance Seed, obsługuje wejścia tekstowe i obrazowe, umożliwiając precyzyjne i wysokiej jakości generowanie obrazów na podstawie promptów.",
|
|
475
|
+
"fal-ai/flux-kontext/dev.description": "Model FLUX.1 skoncentrowany na edycji obrazów, obsługujący wejścia tekstowe i obrazowe.",
|
|
476
|
+
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] przyjmuje tekst i obrazy referencyjne jako dane wejściowe, umożliwiając lokalne edycje i złożone transformacje sceny.",
|
|
477
|
+
"fal-ai/flux/krea.description": "Flux Krea [dev] to model generowania obrazów z estetycznym ukierunkowaniem na bardziej realistyczne, naturalne obrazy.",
|
|
478
|
+
"fal-ai/flux/schnell.description": "FLUX.1 [schnell] to model generowania obrazów z 12 miliardami parametrów, zaprojektowany do szybkiego i wysokiej jakości generowania.",
|
|
479
|
+
"fal-ai/hunyuan-image/v3.description": "Potężny natywny model multimodalny do generowania obrazów.",
|
|
480
|
+
"fal-ai/imagen4/preview.description": "Model generowania obrazów wysokiej jakości od Google.",
|
|
481
|
+
"fal-ai/nano-banana.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający generowanie i edycję obrazów w rozmowie.",
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Profesjonalny model edycji obrazów od zespołu Qwen, obsługujący edycję semantyczną i wyglądu, precyzyjną edycję tekstu w języku chińskim/angielskim, transfer stylu, obrót i inne.",
|
|
483
|
+
"fal-ai/qwen-image.description": "Potężny model generowania obrazów od zespołu Qwen z silnym renderowaniem tekstu chińskiego i różnorodnymi stylami wizualnymi.",
|
|
484
|
+
"flux-1-schnell.description": "Model tekst-na-obraz z 12 miliardami parametrów od Black Forest Labs, wykorzystujący latent adversarial diffusion distillation do generowania wysokiej jakości obrazów w 1–4 krokach. Dorównuje zamkniętym alternatywom i jest dostępny na licencji Apache-2.0 do użytku osobistego, badawczego i komercyjnego.",
|
|
485
|
+
"flux-dev.description": "FLUX.1 [dev] to model z otwartymi wagami do użytku niekomercyjnego. Zachowuje jakość obrazu zbliżoną do wersji pro i przestrzeganie instrukcji, działając przy tym wydajniej niż standardowe modele o podobnym rozmiarze.",
|
|
486
|
+
"flux-kontext-max.description": "Najnowocześniejsze generowanie i edycja obrazów kontekstowych, łączące tekst i obrazy dla precyzyjnych, spójnych wyników.",
|
|
487
|
+
"flux-kontext-pro.description": "Najnowocześniejsze generowanie i edycja obrazów kontekstowych, łączące tekst i obrazy dla precyzyjnych, spójnych wyników.",
|
|
488
|
+
"flux-merged.description": "FLUX.1-merged łączy głębokie funkcje z wersji „DEV” z szybkością „Schnell”, rozszerzając granice wydajności i zastosowań.",
|
|
489
|
+
"flux-pro-1.1-ultra.description": "Generowanie obrazów w ultra wysokiej rozdzielczości z wyjściem 4MP, tworzące ostre obrazy w 10 sekund.",
|
|
490
|
+
"flux-pro-1.1.description": "Ulepszony model generowania obrazów klasy profesjonalnej z doskonałą jakością i precyzyjnym przestrzeganiem promptów.",
|
|
491
|
+
"flux-pro.description": "Model generowania obrazów klasy komercyjnej najwyższej jakości, oferujący niezrównaną jakość i różnorodność wyników.",
|
|
492
|
+
"flux-schnell.description": "FLUX.1 [schnell] to najbardziej zaawansowany open-source’owy model kilkuetapowy, przewyższający konkurencję, a nawet silne modele niedestylowane jak Midjourney v6.0 i DALL-E 3 (HD). Zoptymalizowany pod kątem zachowania różnorodności pretreningu, znacznie poprawia jakość wizualną, przestrzeganie instrukcji, obsługę rozmiarów/aspektów, czcionek i różnorodność wyników.",
|
|
493
|
+
"flux.1-schnell.description": "FLUX.1-schnell to model generowania obrazów o wysokiej wydajności, zapewniający szybkie wyniki w różnych stylach.",
|
|
494
|
+
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) zapewnia stabilną, konfigurowalną wydajność w złożonych zadaniach.",
|
|
495
|
+
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) oferuje silne wsparcie multimodalne dla złożonych zadań.",
|
|
496
|
+
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro to wysokowydajny model AI od Google, zaprojektowany do skalowania szerokiego zakresu zadań.",
|
|
497
|
+
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 to wydajny model multimodalny do szerokiego zastosowania.",
|
|
498
|
+
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 to wydajny model multimodalny zaprojektowany do szerokiego wdrożenia.",
|
|
499
|
+
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 to najnowszy model eksperymentalny z zauważalnymi ulepszeniami w zastosowaniach tekstowych i multimodalnych.",
|
|
500
|
+
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B to wydajny model multimodalny zaprojektowany do szerokiego wdrożenia.",
|
|
501
|
+
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B to wydajny model multimodalny do szerokiego zastosowania.",
|
|
502
|
+
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 zapewnia zoptymalizowane przetwarzanie multimodalne dla złożonych zadań.",
|
|
503
|
+
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash to najnowszy model AI od Google z szybkim przetwarzaniem, obsługujący wejścia tekstowe, obrazowe i wideo, umożliwiając efektywne skalowanie zadań.",
|
|
474
504
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
|
|
475
505
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
|
|
476
506
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
|
|
@@ -92,6 +92,7 @@
|
|
|
92
92
|
"builtins.lobe-local-system.inspector.noResults": "Brak wyników",
|
|
93
93
|
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
94
94
|
"builtins.lobe-local-system.title": "System Lokalny",
|
|
95
|
+
"builtins.lobe-notebook.actions.collapse": "Zwiń",
|
|
95
96
|
"builtins.lobe-notebook.actions.copy": "Kopiuj",
|
|
96
97
|
"builtins.lobe-notebook.actions.creating": "Tworzenie dokumentu...",
|
|
97
98
|
"builtins.lobe-notebook.actions.edit": "Edytuj",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Organizacja open-source skupiona na badaniach nad dużymi modelami i narzędziach, oferująca wydajną i łatwą w użyciu platformę udostępniającą najnowsze modele i algorytmy.",
|
|
30
30
|
"jina.description": "Założona w 2020 roku, Jina AI to wiodąca firma zajmująca się wyszukiwaniem AI. Jej stos wyszukiwania obejmuje modele wektorowe, rerankery i małe modele językowe do tworzenia niezawodnych, wysokiej jakości aplikacji generatywnych i multimodalnych.",
|
|
31
31
|
"lmstudio.description": "LM Studio to aplikacja desktopowa do tworzenia i testowania LLM-ów na własnym komputerze.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud korzysta z oficjalnych interfejsów API do uzyskiwania dostępu do modeli AI i mierzy zużycie za pomocą Kredytów powiązanych z tokenami modeli.",
|
|
32
33
|
"minimax.description": "Założona w 2021 roku, MiniMax tworzy AI ogólnego przeznaczenia z multimodalnymi modelami bazowymi, w tym tekstowymi modelami MoE z bilionami parametrów, modelami mowy i wizji oraz aplikacjami takimi jak Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral oferuje zaawansowane modele ogólne, specjalistyczne i badawcze do złożonego rozumowania, zadań wielojęzycznych i generowania kodu, z obsługą wywołań funkcji do niestandardowych integracji.",
|
|
34
35
|
"modelscope.description": "ModelScope to platforma model-as-a-service Alibaba Cloud, oferująca szeroki wybór modeli AI i usług inferencyjnych.",
|
|
@@ -33,6 +33,7 @@
|
|
|
33
33
|
"agentCronJobs.maxExecutions": "Maksymalna liczba uruchomień",
|
|
34
34
|
"agentCronJobs.name": "Nazwa zadania",
|
|
35
35
|
"agentCronJobs.never": "Nigdy",
|
|
36
|
+
"agentCronJobs.noExecutionResults": "Brak wyników wykonania",
|
|
36
37
|
"agentCronJobs.remainingExecutions": "Pozostało: {{count}}",
|
|
37
38
|
"agentCronJobs.save": "Zapisz",
|
|
38
39
|
"agentCronJobs.schedule": "Harmonogram",
|
|
@@ -42,6 +43,7 @@
|
|
|
42
43
|
"agentCronJobs.timeRange": "Zakres czasu",
|
|
43
44
|
"agentCronJobs.title": "Zadania cykliczne",
|
|
44
45
|
"agentCronJobs.unlimited": "Nieograniczone",
|
|
46
|
+
"agentCronJobs.unnamedTask": "Zadanie bez nazwy",
|
|
45
47
|
"agentCronJobs.updateSuccess": "Zadanie cykliczne zostało pomyślnie zaktualizowane",
|
|
46
48
|
"agentCronJobs.weekdays": "Dni robocze",
|
|
47
49
|
"agentInfoDescription.basic.avatar": "Awatar",
|
package/locales/pt-BR/chat.json
CHANGED
|
@@ -63,6 +63,7 @@
|
|
|
63
63
|
"extendParams.reasoningEffort.title": "Intensidade do Raciocínio",
|
|
64
64
|
"extendParams.textVerbosity.title": "Nível de Detalhamento do Texto",
|
|
65
65
|
"extendParams.thinking.title": "Chave de Pensamento Profundo",
|
|
66
|
+
"extendParams.thinkingBudget.title": "Orçamento de Ideias",
|
|
66
67
|
"extendParams.thinkingLevel.title": "Nível de Pensamento",
|
|
67
68
|
"extendParams.title": "Recursos Estendidos do Modelo",
|
|
68
69
|
"extendParams.urlContext.desc": "Quando ativado, links da web serão automaticamente analisados para recuperar o conteúdo real da página",
|
|
@@ -194,6 +194,26 @@
|
|
|
194
194
|
"providerModels.item.modelConfig.deployName.title": "Nome de Implantação do Modelo",
|
|
195
195
|
"providerModels.item.modelConfig.displayName.placeholder": "Insira o nome de exibição do modelo, por exemplo, ChatGPT, GPT-4, etc.",
|
|
196
196
|
"providerModels.item.modelConfig.displayName.title": "Nome de Exibição do Modelo",
|
|
197
|
+
"providerModels.item.modelConfig.extendParams.extra": "Escolha os parâmetros estendidos compatíveis com o modelo. Passe o mouse sobre uma opção para visualizar os controles. Configurações incorretas podem causar falhas na solicitação.",
|
|
198
|
+
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Para modelos Claude; pode reduzir custos e acelerar as respostas.",
|
|
199
|
+
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Para modelos Claude, DeepSeek e outros com raciocínio; ativa um pensamento mais profundo.",
|
|
200
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Para a série GPT-5; controla a intensidade do raciocínio.",
|
|
201
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Para a série GPT-5.1; controla a intensidade do raciocínio.",
|
|
202
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ProReasoningEffort.hint": "Para a série GPT-5.2 Pro; controla a intensidade do raciocínio.",
|
|
203
|
+
"providerModels.item.modelConfig.extendParams.options.gpt5_2ReasoningEffort.hint": "Para a série GPT-5.2; controla a intensidade do raciocínio.",
|
|
204
|
+
"providerModels.item.modelConfig.extendParams.options.imageAspectRatio.hint": "Para modelos de geração de imagem Gemini; controla a proporção da imagem gerada.",
|
|
205
|
+
"providerModels.item.modelConfig.extendParams.options.imageResolution.hint": "Para modelos de geração de imagem Gemini 3; controla a resolução das imagens geradas.",
|
|
206
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningBudgetToken.hint": "Para Claude, Qwen3 e similares; controla o orçamento de tokens para raciocínio.",
|
|
207
|
+
"providerModels.item.modelConfig.extendParams.options.reasoningEffort.hint": "Para modelos da OpenAI e outros com capacidade de raciocínio; controla o esforço de raciocínio.",
|
|
208
|
+
"providerModels.item.modelConfig.extendParams.options.textVerbosity.hint": "Para a série GPT-5+; controla a verbosidade da saída.",
|
|
209
|
+
"providerModels.item.modelConfig.extendParams.options.thinking.hint": "Para alguns modelos Doubao; permite que o modelo decida se deve pensar profundamente.",
|
|
210
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Para a série Gemini; controla o orçamento de pensamento.",
|
|
211
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Para modelos Gemini 3 Flash Preview; controla a profundidade do pensamento.",
|
|
212
|
+
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Para modelos Gemini 3 Pro Preview; controla a profundidade do pensamento.",
|
|
213
|
+
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Para a série Gemini; permite fornecer contexto via URL.",
|
|
214
|
+
"providerModels.item.modelConfig.extendParams.placeholder": "Selecione os parâmetros estendidos a serem ativados",
|
|
215
|
+
"providerModels.item.modelConfig.extendParams.previewFallback": "Pré-visualização indisponível",
|
|
216
|
+
"providerModels.item.modelConfig.extendParams.title": "Parâmetros Estendidos",
|
|
197
217
|
"providerModels.item.modelConfig.files.extra": "A implementação atual de upload de arquivos é apenas uma solução temporária, limitada a testes próprios. Aguarde por funcionalidades completas de upload em futuras versões.",
|
|
198
218
|
"providerModels.item.modelConfig.files.title": "Suporte a Upload de Arquivos",
|
|
199
219
|
"providerModels.item.modelConfig.functionCall.extra": "Esta configuração apenas habilita a capacidade do modelo de usar ferramentas, permitindo a adição de habilidades do tipo ferramenta. No entanto, a real capacidade de uso depende inteiramente do modelo; teste por conta própria.",
|