@lobehub/lobehub 2.0.0-next.241 → 2.0.0-next.243
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.cursor/rules/desktop-feature-implementation.mdc +2 -2
- package/.cursor/rules/desktop-local-tools-implement.mdc +2 -2
- package/.github/workflows/test.yml +13 -5
- package/CHANGELOG.md +52 -0
- package/apps/desktop/Development.md +1 -6
- package/apps/desktop/README.md +2 -17
- package/apps/desktop/README.zh-CN.md +1 -15
- package/apps/desktop/build/Icon-beta.Assets.car +0 -0
- package/apps/desktop/build/Icon-beta.icns +0 -0
- package/apps/desktop/build/icon-beta.ico +0 -0
- package/apps/desktop/build/icon-beta.png +0 -0
- package/apps/desktop/src/main/controllers/index.ts +1 -1
- package/apps/desktop/src/main/controllers/registry.ts +0 -9
- package/apps/desktop/src/main/core/App.ts +1 -11
- package/apps/desktop/src/main/core/browser/Browser.ts +278 -457
- package/apps/desktop/src/main/core/browser/WindowStateManager.ts +180 -0
- package/apps/desktop/src/main/core/browser/WindowThemeManager.ts +167 -0
- package/apps/desktop/src/main/core/browser/__tests__/WindowStateManager.test.ts +237 -0
- package/apps/desktop/src/main/core/browser/__tests__/WindowThemeManager.test.ts +240 -0
- package/apps/desktop/src/main/exports.d.ts +1 -1
- package/apps/desktop/src/main/exports.ts +1 -1
- package/apps/desktop/src/main/utils/__tests__/http-headers.test.ts +131 -0
- package/apps/desktop/src/main/utils/http-headers.ts +61 -0
- package/apps/desktop/src/main/utils/ipc/__tests__/base.test.ts +1 -22
- package/apps/desktop/src/main/utils/ipc/base.ts +0 -20
- package/apps/desktop/src/main/utils/ipc/index.ts +1 -9
- package/changelog/v1.json +10 -0
- package/locales/ar/models.json +48 -7
- package/locales/ar/plugin.json +9 -0
- package/locales/ar/providers.json +1 -0
- package/locales/bg-BG/models.json +35 -7
- package/locales/bg-BG/plugin.json +9 -0
- package/locales/bg-BG/providers.json +1 -0
- package/locales/de-DE/models.json +26 -6
- package/locales/de-DE/plugin.json +9 -0
- package/locales/de-DE/providers.json +1 -0
- package/locales/en-US/models.json +10 -10
- package/locales/en-US/oauth.json +0 -1
- package/locales/en-US/providers.json +1 -0
- package/locales/en-US/subscription.json +2 -2
- package/locales/es-ES/models.json +42 -7
- package/locales/es-ES/plugin.json +9 -0
- package/locales/es-ES/providers.json +1 -0
- package/locales/fa-IR/models.json +52 -10
- package/locales/fa-IR/plugin.json +9 -0
- package/locales/fa-IR/providers.json +1 -0
- package/locales/fr-FR/models.json +36 -7
- package/locales/fr-FR/plugin.json +9 -0
- package/locales/fr-FR/providers.json +1 -0
- package/locales/it-IT/models.json +42 -7
- package/locales/it-IT/plugin.json +9 -0
- package/locales/it-IT/providers.json +1 -0
- package/locales/ja-JP/models.json +35 -6
- package/locales/ja-JP/plugin.json +9 -0
- package/locales/ja-JP/providers.json +1 -0
- package/locales/ko-KR/models.json +28 -7
- package/locales/ko-KR/plugin.json +9 -0
- package/locales/ko-KR/providers.json +1 -0
- package/locales/nl-NL/models.json +35 -6
- package/locales/nl-NL/plugin.json +9 -0
- package/locales/nl-NL/providers.json +1 -0
- package/locales/pl-PL/models.json +36 -7
- package/locales/pl-PL/plugin.json +9 -0
- package/locales/pl-PL/providers.json +1 -0
- package/locales/pt-BR/models.json +35 -6
- package/locales/pt-BR/plugin.json +9 -0
- package/locales/pt-BR/providers.json +1 -0
- package/locales/ru-RU/models.json +35 -7
- package/locales/ru-RU/plugin.json +9 -0
- package/locales/ru-RU/providers.json +1 -0
- package/locales/tr-TR/models.json +5 -7
- package/locales/tr-TR/plugin.json +9 -0
- package/locales/tr-TR/providers.json +1 -0
- package/locales/vi-VN/models.json +5 -5
- package/locales/vi-VN/plugin.json +9 -0
- package/locales/vi-VN/providers.json +1 -0
- package/locales/zh-CN/models.json +48 -6
- package/locales/zh-CN/oauth.json +0 -1
- package/locales/zh-CN/providers.json +1 -0
- package/locales/zh-CN/subscription.json +1 -1
- package/locales/zh-TW/models.json +10 -10
- package/locales/zh-TW/plugin.json +9 -0
- package/locales/zh-TW/providers.json +1 -0
- package/package.json +1 -1
- package/src/features/ChatInput/InputEditor/Placeholder.tsx +4 -1
- package/src/locales/default/subscription.ts +2 -3
- package/src/server/services/memory/userMemory/extract.ts +46 -6
- package/apps/desktop/src/main/controllers/UploadFileServerCtr.ts +0 -33
- package/apps/desktop/src/main/controllers/__tests__/UploadFileServerCtr.test.ts +0 -55
- package/src/server/modules/ElectronIPCClient/index.ts +0 -92
|
@@ -92,6 +92,15 @@
|
|
|
92
92
|
"builtins.lobe-local-system.inspector.noResults": "結果が見つかりません",
|
|
93
93
|
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
94
94
|
"builtins.lobe-local-system.title": "ローカルシステム",
|
|
95
|
+
"builtins.lobe-notebook.actions.copy": "コピー",
|
|
96
|
+
"builtins.lobe-notebook.actions.creating": "ドキュメントを作成中...",
|
|
97
|
+
"builtins.lobe-notebook.actions.edit": "編集",
|
|
98
|
+
"builtins.lobe-notebook.actions.expand": "展開",
|
|
99
|
+
"builtins.lobe-notebook.apiName.createDocument": "ドキュメントを作成",
|
|
100
|
+
"builtins.lobe-notebook.apiName.deleteDocument": "ドキュメントを削除",
|
|
101
|
+
"builtins.lobe-notebook.apiName.getDocument": "ドキュメントを取得",
|
|
102
|
+
"builtins.lobe-notebook.apiName.updateDocument": "ドキュメントを更新",
|
|
103
|
+
"builtins.lobe-notebook.title": "ノートブック",
|
|
95
104
|
"builtins.lobe-page-agent.apiName.batchUpdate": "ノードを一括更新",
|
|
96
105
|
"builtins.lobe-page-agent.apiName.compareSnapshots": "スナップショットを比較",
|
|
97
106
|
"builtins.lobe-page-agent.apiName.convertToList": "リストに変換",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "InternLMは、大規模モデルの研究とツール開発に特化したオープンソース組織で、最先端のモデルとアルゴリズムを誰でも使いやすく提供します。",
|
|
30
30
|
"jina.description": "Jina AIは2020年に設立された検索AIのリーディングカンパニーで、ベクトルモデル、リランカー、小型言語モデルを含む検索スタックにより、高品質な生成・マルチモーダル検索アプリを構築できます。",
|
|
31
31
|
"lmstudio.description": "LM Studioは、ローカルPC上でLLMの開発と実験ができるデスクトップアプリです。",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud は、公式 API を使用して AI モデルにアクセスし、モデルのトークンに基づいたクレジットで使用量を測定します。",
|
|
32
33
|
"minimax.description": "MiniMaxは2021年に設立され、マルチモーダル基盤モデルを用いた汎用AIを開発しています。兆単位パラメータのMoEテキストモデル、音声モデル、ビジョンモデル、Hailuo AIなどのアプリを提供します。",
|
|
33
34
|
"mistral.description": "Mistralは、複雑な推論、多言語タスク、コード生成に対応した高度な汎用・専門・研究モデルを提供し、関数呼び出しによるカスタム統合も可能です。",
|
|
34
35
|
"modelscope.description": "ModelScopeは、Alibaba Cloudが提供するモデル・アズ・ア・サービス(MaaS)プラットフォームで、幅広いAIモデルと推論サービスを提供します。",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 고객 지원, 교육, 기술 지원과 같은 대규모 활용 사례를 위한 강력한 이해 및 생성 능력을 결합합니다.",
|
|
272
272
|
"claude-2.0.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
|
|
273
273
|
"claude-2.1.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른 모델로, 다양한 기술에서 향상된 성능을 보이며 이전 플래그십 모델인 Claude 3 Opus를 여러 벤치마크에서 능가합니다.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku는 가벼운 작업에 빠른 응답을 제공하는 모델입니다.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7은 Anthropic의 가장 지능적인 모델로, 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답부터 심화 사고까지 세밀한 제어가 가능하여 다양한 상황에 유연하게 대응합니다.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 빠르고 정확한 성능으로 즉각적인 응답을 위해 설계되었습니다.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet은 엔터프라이즈 워크로드를 위한 지능과 속도의 균형을 제공하며, 낮은 비용으로 높은 효용성과 안정적인 대규모 배포를 지원합니다.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 심화 사고 능력을 갖추고 있습니다.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking은 자신의 추론 과정을 드러낼 수 있는 고급 변형 모델입니다.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 탁월한 성능, 지능, 유창성, 이해력을
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 탁월한 성능, 지능, 유창성, 이해력을 발휘합니다.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5는 Anthropic의 플래그십 모델로, 탁월한 지능과 확장 가능한 성능을 결합하여 최고 품질의 응답과 추론이 필요한 복잡한 작업에 이상적입니다.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking은 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 사고를 생성할 수 있습니다.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는 Anthropic이 지금까지 개발한 가장 지능적인 모델로, API 사용자에게 세밀한 제어를 제공하며 즉각적인 응답 또는 단계별 사고를 지원합니다.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 Anthropic이 지금까지 개발한 가장 지능적인 모델입니다.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4는 다국어 Q&A 및 코드 자동 완성을 지원하여 개발자의 생산성을 높이는 강력한 AI 코딩 도우미입니다.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B는 코드 자동 완성 및 생성, 코드 인터프리터, 웹 검색, 함수 호출, 저장소 수준의 코드 Q&A를 지원하는 다국어 코드 생성 모델로, 다양한 소프트웨어 개발 시나리오를 포괄합니다. 10B 미만 파라미터 중 최고 수준의 코드 모델입니다.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2는 DeepSeekMoE-27B 기반의 MoE 비전-언어 모델로, 희소 활성화를 통해 4.5B 활성 파라미터만으로도 뛰어난 성능을 발휘합니다. 시각적 QA, OCR, 문서/표/차트 이해, 시각적 정렬에 탁월합니다.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2는 일상적인 질의응답 및 에이전트 작업을 위해 추론 능력과 출력 길이의 균형을 맞춘 모델입니다. 공개 벤치마크에서 GPT-5 수준에 도달했으며, 도구 사용에 사고 과정을 통합한 최초의 모델로, 오픈소스 에이전트 평가에서 선도적인 성과를 보입니다.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B는 2T 토큰(코드 87%, 중/영문 텍스트 13%)으로 학습된 코드 언어 모델입니다. 16K 문맥 창과 중간 채우기(fit-in-the-middle) 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 보완을 지원합니다.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1의 빠른 전체 버전으로, 실시간 웹 검색을 지원하며 671B 규모의 성능과 빠른 응답을 결합합니다.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 전체 버전은 671B 파라미터와 실시간 웹 검색을 지원하여 더 강력한 이해 및 생성 능력을 제공합니다.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1은 강화 학습 전 콜드 스타트 데이터를 사용하며, 수학, 코딩, 추론에서 OpenAI-o1과 유사한 성능을 보입니다.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2 사고
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking은 출력 전에 사고 과정을 생성하여 정확도를 높이는 심화 추론 모델입니다. 주요 대회에서 우수한 성적을 거두었으며, Gemini-3.0-Pro에 필적하는 추론 능력을 보입니다.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2는 비용 효율적인 처리를 위한 고효율 MoE 모델입니다.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B는 코드 생성에 강점을 가진 DeepSeek의 코드 특화 모델입니다.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324는 671B 파라미터의 MoE 모델로, 프로그래밍 및 기술 역량, 문맥 이해, 장문 처리에서 뛰어난 성능을 보입니다.",
|
|
@@ -450,6 +450,27 @@
|
|
|
450
450
|
"ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K는 QA, 코딩, 에이전트 시나리오를 위한 검색 보강 및 도구 호출 기능을 갖춘 고성능 범용 모델입니다.",
|
|
451
451
|
"ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K는 QA, 지식 기반 검색, 다중 턴 대화를 위한 중간 길이 컨텍스트 버전입니다.",
|
|
452
452
|
"ernie-4.5-turbo-latest.description": "최신 ERNIE 4.5 Turbo는 전반적인 성능이 최적화되어 주력 프로덕션 모델로 이상적입니다.",
|
|
453
|
+
"ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview는 장문 맥락의 시각적 이해 능력을 평가하기 위한 32K 멀티모달 프리뷰 모델입니다.",
|
|
454
|
+
"ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K는 장문 문서와 이미지의 통합 이해를 위한 중장기 멀티모달 버전입니다.",
|
|
455
|
+
"ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest는 이미지-텍스트 이해 및 추론 능력이 향상된 최신 멀티모달 버전입니다.",
|
|
456
|
+
"ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview는 이미지-텍스트 이해 및 생성에 적합한 멀티모달 프리뷰 모델로, 시각적 질의응답 및 콘텐츠 이해에 적합합니다.",
|
|
457
|
+
"ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL은 이미지-텍스트 이해 및 인식에 최적화된 성숙한 멀티모달 모델로, 실제 서비스에 적합합니다.",
|
|
458
|
+
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B는 이미지-텍스트 이해 및 추론을 위한 오픈소스 멀티모달 모델입니다.",
|
|
459
|
+
"ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking은 텍스트, 이미지, 오디오, 비디오를 통합 모델링하는 네이티브 풀모달 플래그십 모델로, 복잡한 질의응답, 창작, 에이전트 시나리오에서 전반적인 성능을 대폭 향상시킵니다.",
|
|
460
|
+
"ernie-5.0-thinking-preview.description": "Wenxin 5.0 Thinking Preview는 텍스트, 이미지, 오디오, 비디오를 통합 모델링하는 네이티브 풀모달 플래그십 모델로, 복잡한 질의응답, 창작, 에이전트 시나리오에서 전반적인 성능을 대폭 향상시킵니다.",
|
|
461
|
+
"ernie-char-8k.description": "ERNIE Character 8K는 IP 캐릭터 구축 및 장기 동반자형 대화를 위한 페르소나 대화 모델입니다.",
|
|
462
|
+
"ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview는 캐릭터 및 스토리 창작 기능을 평가하고 테스트하기 위한 프리뷰 모델입니다.",
|
|
463
|
+
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K는 장편 소설 및 스토리 창작에 적합한 페르소나 모델로, 다채로운 이야기 생성에 최적화되어 있습니다.",
|
|
464
|
+
"ernie-irag-edit.description": "ERNIE iRAG Edit는 이미지 지우기, 다시 그리기, 변형 생성 등을 지원하는 이미지 편집 모델입니다.",
|
|
465
|
+
"ernie-lite-8k.description": "ERNIE Lite 8K는 비용에 민감한 일상 질의응답 및 콘텐츠 생성을 위한 경량 범용 모델입니다.",
|
|
466
|
+
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K는 지연 시간과 비용에 민감한 시나리오에 적합한 고성능 경량 모델입니다.",
|
|
467
|
+
"ernie-novel-8k.description": "ERNIE Novel 8K는 다수의 캐릭터가 등장하는 장편 소설 및 IP 스토리 창작을 위해 설계되었습니다.",
|
|
468
|
+
"ernie-speed-128k.description": "ERNIE Speed 128K는 입출력 요금이 없는 모델로, 장문 이해 및 대규모 테스트에 적합합니다.",
|
|
469
|
+
"ernie-speed-8k.description": "ERNIE Speed 8K는 일상 대화 및 간단한 텍스트 작업에 적합한 무료 고속 모델입니다.",
|
|
470
|
+
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K는 대규모 온라인 서비스 및 기업용 애플리케이션을 위한 고동시성, 고가치 모델입니다.",
|
|
471
|
+
"ernie-tiny-8k.description": "ERNIE Tiny 8K는 간단한 질의응답, 분류, 저비용 추론에 적합한 초경량 모델입니다.",
|
|
472
|
+
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K는 복잡한 추론 및 다중 턴 대화를 위한 32K 컨텍스트의 고속 사고 모델입니다.",
|
|
473
|
+
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview는 평가 및 테스트를 위한 사고 모델 프리뷰입니다.",
|
|
453
474
|
"gemini-flash-latest.description": "Gemini Flash 최신 버전",
|
|
454
475
|
"gemini-flash-lite-latest.description": "Gemini Flash-Lite 최신 버전",
|
|
455
476
|
"gemini-pro-latest.description": "Gemini Pro 최신 버전",
|
|
@@ -92,6 +92,15 @@
|
|
|
92
92
|
"builtins.lobe-local-system.inspector.noResults": "결과 없음",
|
|
93
93
|
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
94
94
|
"builtins.lobe-local-system.title": "로컬 시스템",
|
|
95
|
+
"builtins.lobe-notebook.actions.copy": "복사",
|
|
96
|
+
"builtins.lobe-notebook.actions.creating": "문서 생성 중...",
|
|
97
|
+
"builtins.lobe-notebook.actions.edit": "편집",
|
|
98
|
+
"builtins.lobe-notebook.actions.expand": "확장",
|
|
99
|
+
"builtins.lobe-notebook.apiName.createDocument": "문서 생성",
|
|
100
|
+
"builtins.lobe-notebook.apiName.deleteDocument": "문서 삭제",
|
|
101
|
+
"builtins.lobe-notebook.apiName.getDocument": "문서 가져오기",
|
|
102
|
+
"builtins.lobe-notebook.apiName.updateDocument": "문서 업데이트",
|
|
103
|
+
"builtins.lobe-notebook.title": "노트북",
|
|
95
104
|
"builtins.lobe-page-agent.apiName.batchUpdate": "노드 일괄 업데이트",
|
|
96
105
|
"builtins.lobe-page-agent.apiName.compareSnapshots": "스냅샷 비교",
|
|
97
106
|
"builtins.lobe-page-agent.apiName.convertToList": "목록으로 변환",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "InternLM은 대규모 모델 연구 및 도구 개발에 집중하는 오픈소스 조직으로, 최신 모델과 알고리즘을 누구나 쉽게 사용할 수 있도록 효율적인 플랫폼을 제공합니다.",
|
|
30
30
|
"jina.description": "2020년에 설립된 Jina AI는 선도적인 검색 AI 기업으로, 벡터 모델, 재정렬기, 소형 언어 모델을 포함한 검색 스택을 통해 신뢰성 높고 고품질의 생성형 및 멀티모달 검색 앱을 구축합니다.",
|
|
31
31
|
"lmstudio.description": "LM Studio는 데스크탑에서 LLM을 개발하고 실험할 수 있는 애플리케이션입니다.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud는 공식 API를 사용하여 AI 모델에 접근하며, 모델 토큰에 연동된 크레딧을 통해 사용량을 측정합니다.",
|
|
32
33
|
"minimax.description": "2021년에 설립된 MiniMax는 텍스트, 음성, 비전 등 멀티모달 기반의 범용 AI를 개발하며, 조 단위 파라미터의 MoE 텍스트 모델과 Hailuo AI와 같은 앱을 제공합니다.",
|
|
33
34
|
"mistral.description": "Mistral은 복잡한 추론, 다국어 작업, 코드 생성에 적합한 고급 범용, 특화, 연구용 모델을 제공하며, 사용자 정의 통합을 위한 함수 호출 기능도 지원합니다.",
|
|
34
35
|
"modelscope.description": "ModelScope는 Alibaba Cloud의 모델 서비스 플랫폼으로, 다양한 AI 모델과 추론 서비스를 제공합니다.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt en sterke begrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic, met verbeterde vaardigheden en betere prestaties dan het vorige vlaggenschip Claude 3 Opus op veel benchmarks.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku levert snelle reacties voor lichte taken.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het biedt vrijwel directe reacties of uitgebreide denkprocessen met nauwkeurige controle.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met hoge bruikbaarheid tegen lagere kosten en betrouwbare grootschalige inzet.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en meest intelligente Haiku-model van Anthropic, met bliksemsnelle prestaties en diepgaand denkvermogen.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
284
284
|
"claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 is tot nu toe het meest intelligente model van Anthropic. Het biedt vrijwel directe reacties of stapsgewijze denkprocessen met nauwkeurige controle voor API-gebruikers.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 is een krachtige AI-codeassistent die meertalige Q&A en codeaanvulling ondersteunt om de productiviteit van ontwikkelaars te verhogen.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat codeaanvulling en -generatie, code-interpreter, webzoekopdrachten, functieaanroepen en Q&A op repo-niveau ondersteunt. Het dekt een breed scala aan softwareontwikkelingsscenario’s en is een topmodel onder de 10 miljard parameters.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is een MoE vision-language model gebaseerd op DeepSeekMoE-27B met sparse activatie, dat sterke prestaties levert met slechts 4,5B actieve parameters. Het blinkt uit in visuele QA, OCR, document-/tabel-/grafiekbegrip en visuele verankering.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2 biedt een evenwicht tussen redeneervermogen en outputlengte voor dagelijkse vraag-en-antwoord- en agenttaken. Publieke benchmarks bereiken GPT-5-niveau, en het is het eerste model dat denken integreert in het gebruik van tools, wat leidt tot toonaangevende open-source agentbeoordelingen.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is een codeertaalmodel getraind op 2 biljoen tokens (87% code, 13% Chinees/Engels tekst). Het introduceert een contextvenster van 16K en 'fill-in-the-middle'-taken, wat projectniveau codeaanvulling en fragmentinvoeging mogelijk maakt.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 snelle volledige versie met realtime webzoekfunctie, combineert 671B-capaciteit met snellere reacties.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 volledige versie met 671B parameters en realtime webzoekfunctie, biedt sterkere begrip- en generatiecapaciteiten.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 gebruikt cold-start data vóór versterkingsleren en presteert vergelijkbaar met OpenAI-o1 op wiskunde, programmeren en redenering.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking is een diep redeneermodel dat eerst een denkproces genereert voordat het een antwoord geeft, wat zorgt voor hogere nauwkeurigheid. Het behaalt topprestaties in competities en redeneert op het niveau van Gemini-3.0-Pro.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 is een efficiënt MoE-model voor kosteneffectieve verwerking.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s codegerichte model met sterke codegeneratie.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is een MoE-model met 671B parameters en uitmuntende prestaties in programmeren, technische vaardigheden, contextbegrip en verwerking van lange teksten.",
|
|
@@ -413,6 +413,35 @@
|
|
|
413
413
|
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B is gedistilleerd van Llama-3.3-70B-Instruct. Als onderdeel van de DeepSeek-R1-serie is het fijn-afgestemd op door DeepSeek-R1 gegenereerde voorbeelden en presteert het sterk in wiskunde, codering en redeneren.",
|
|
414
414
|
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B is gedistilleerd van Qwen2.5-14B en fijn-afgestemd op 800K zorgvuldig geselecteerde voorbeelden gegenereerd door DeepSeek-R1, met sterk redeneervermogen.",
|
|
415
415
|
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B is gedistilleerd van Qwen2.5-32B en fijn-afgestemd op 800K zorgvuldig geselecteerde voorbeelden gegenereerd door DeepSeek-R1, en blinkt uit in wiskunde, codering en redeneren.",
|
|
416
|
+
"devstral-2:123b.description": "Devstral 2 123B blinkt uit in het gebruik van tools om codebases te verkennen, meerdere bestanden te bewerken en software engineering agents te ondersteunen.",
|
|
417
|
+
"doubao-1.5-lite-32k.description": "Doubao-1.5-lite is een nieuw lichtgewicht model met ultrasnelle reacties en levert topkwaliteit met lage latentie.",
|
|
418
|
+
"doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k is een uitgebreide upgrade van Doubao-1.5-Pro, met een prestatieverbetering van 10%. Het ondersteunt een contextvenster van 256k en tot 12k outputtokens, wat zorgt voor hogere prestaties, een groter bereik en sterke waarde voor bredere toepassingen.",
|
|
419
|
+
"doubao-1.5-pro-32k.description": "Doubao-1.5-pro is een vlaggenschipmodel van de nieuwe generatie met algehele verbeteringen, uitblinkend in kennis, codering en redeneervermogen.",
|
|
420
|
+
"doubao-1.5-thinking-pro-m.description": "Doubao-1.5 is een nieuw diep redeneermodel (de m-versie ondersteunt native multimodale diepe redenering) dat uitblinkt in wiskunde, codering, wetenschappelijke redenering en algemene taken zoals creatief schrijven. Het behaalt of benadert topprestaties op benchmarks zoals AIME 2024, Codeforces en GPQA. Het ondersteunt een contextvenster van 128k en 16k output.",
|
|
421
|
+
"doubao-1.5-thinking-pro.description": "Doubao-1.5 is een nieuw diep redeneermodel dat uitblinkt in wiskunde, codering, wetenschappelijke redenering en algemene taken zoals creatief schrijven. Het behaalt of benadert topprestaties op benchmarks zoals AIME 2024, Codeforces en GPQA. Het ondersteunt een contextvenster van 128k en 16k output.",
|
|
422
|
+
"doubao-1.5-thinking-vision-pro.description": "Een nieuw visueel diep redeneermodel met sterkere multimodale interpretatie en redenering, met SOTA-resultaten op 37 van de 59 openbare benchmarks.",
|
|
423
|
+
"doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS is een native GUI-georiënteerd agentmodel dat naadloos met interfaces communiceert via mensachtige waarneming, redenering en actie.",
|
|
424
|
+
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite is een geüpgraded multimodaal model dat afbeeldingen ondersteunt in elke resolutie en extreme beeldverhoudingen. Het verbetert visuele redenering, documentherkenning, detailbegrip en instructieopvolging. Het ondersteunt een contextvenster van 128k en tot 16k outputtokens.",
|
|
425
|
+
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro is een geüpgraded multimodaal model dat afbeeldingen ondersteunt in elke resolutie en extreme beeldverhoudingen. Het verbetert visuele redenering, documentherkenning, detailbegrip en instructieopvolging.",
|
|
426
|
+
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro is een geüpgraded multimodaal model dat afbeeldingen ondersteunt in elke resolutie en extreme beeldverhoudingen. Het verbetert visuele redenering, documentherkenning, detailbegrip en instructieopvolging.",
|
|
427
|
+
"doubao-lite-128k.description": "Ultrasnelle reacties met betere waarde, biedt flexibelere keuzes voor verschillende scenario's. Ondersteunt redenering en fine-tuning met een contextvenster van 128k.",
|
|
428
|
+
"doubao-lite-32k.description": "Ultrasnelle reacties met betere waarde, biedt flexibelere keuzes voor verschillende scenario's. Ondersteunt redenering en fine-tuning met een contextvenster van 32k.",
|
|
429
|
+
"doubao-lite-4k.description": "Ultrasnelle reacties met betere waarde, biedt flexibelere keuzes voor verschillende scenario's. Ondersteunt redenering en fine-tuning met een contextvenster van 4k.",
|
|
430
|
+
"doubao-pro-256k.description": "Het best presterende vlaggenschipmodel voor complexe taken, met sterke resultaten in referentievragen, samenvattingen, creatie, tekstclassificatie en rollenspel. Ondersteunt redenering en fine-tuning met een contextvenster van 256k.",
|
|
431
|
+
"doubao-pro-32k.description": "Het best presterende vlaggenschipmodel voor complexe taken, met sterke resultaten in referentievragen, samenvattingen, creatie, tekstclassificatie en rollenspel. Ondersteunt redenering en fine-tuning met een contextvenster van 32k.",
|
|
432
|
+
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash is een ultrasnel multimodaal diep redeneermodel met een TPOT van slechts 10ms. Het ondersteunt zowel tekst als visuele input, overtreft het vorige lite-model in tekstbegrip en evenaart concurrerende pro-modellen in visuele prestaties. Het ondersteunt een contextvenster van 256k en tot 16k outputtokens.",
|
|
433
|
+
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite is een nieuw multimodaal diep redeneermodel met instelbare redeneerinspanning (Minimaal, Laag, Gemiddeld, Hoog), biedt betere waarde en is een sterke keuze voor algemene taken, met een contextvenster tot 256k.",
|
|
434
|
+
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 versterkt het redeneervermogen aanzienlijk, verbetert de kernvaardigheden in codering, wiskunde en logica ten opzichte van Doubao-1.5-thinking-pro, en voegt visueel begrip toe. Het ondersteunt een contextvenster van 256k en tot 16k outputtokens.",
|
|
435
|
+
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision is een visueel diep redeneermodel dat sterkere multimodale interpretatie en redenering biedt voor onderwijs, beeldbeoordeling, inspectie/beveiliging en AI-zoekvragen. Het ondersteunt een contextvenster van 256k en tot 64k outputtokens.",
|
|
436
|
+
"doubao-seed-1.6.description": "Doubao-Seed-1.6 is een nieuw multimodaal diep redeneermodel met automatische, denkende en niet-denkende modi. In de niet-denkende modus presteert het aanzienlijk beter dan Doubao-1.5-pro/250115. Het ondersteunt een contextvenster van 256k en tot 16k outputtokens.",
|
|
437
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 beschikt over sterkere multimodale interpretatie en agentvaardigheden, ondersteunt tekst-/afbeelding-/video-invoer en contextuele caching, en levert uitstekende prestaties bij complexe taken.",
|
|
438
|
+
"doubao-seed-code.description": "Doubao-Seed-Code is geoptimaliseerd voor agentmatige codering, ondersteunt multimodale input (tekst/afbeelding/video) en een contextvenster van 256k, is compatibel met de Anthropic API en geschikt voor codering, visueel begrip en agentworkflows.",
|
|
439
|
+
"doubao-seededit-3-0-i2i-250628.description": "Het Doubao-beeldmodel van ByteDance Seed ondersteunt tekst- en afbeeldingsinvoer met zeer controleerbare, hoogwaardige beeldgeneratie. Het ondersteunt tekstgestuurde beeldbewerking, met uitvoerformaten tussen 512 en 1536 aan de lange zijde.",
|
|
440
|
+
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 is een beeldgeneratiemodel van ByteDance Seed dat tekst- en afbeeldingsinvoer ondersteunt voor zeer controleerbare, hoogwaardige beeldgeneratie. Het genereert beelden op basis van tekstprompts.",
|
|
441
|
+
"doubao-seedream-4-0-250828.description": "Seedream 4.0 is een beeldgeneratiemodel van ByteDance Seed dat tekst- en afbeeldingsinvoer ondersteunt voor zeer controleerbare, hoogwaardige beeldgeneratie. Het genereert beelden op basis van tekstprompts.",
|
|
442
|
+
"doubao-vision-lite-32k.description": "Doubao-vision is een multimodaal model van Doubao met sterk beeldbegrip en redenering, plus nauwkeurige instructieopvolging. Het presteert goed bij beeld-tekstextractie en op beeld gebaseerde redeneertaken, waardoor complexere en bredere visuele vraag-en-antwoordscenario's mogelijk zijn.",
|
|
443
|
+
"doubao-vision-pro-32k.description": "Doubao-vision is een multimodaal model van Doubao met sterk beeldbegrip en redenering, plus nauwkeurige instructieopvolging. Het presteert goed bij beeld-tekstextractie en op beeld gebaseerde redeneertaken, waardoor complexere en bredere visuele vraag-en-antwoordscenario's mogelijk zijn.",
|
|
444
|
+
"emohaa.description": "Emohaa is een mentaal gezondheidsmodel met professionele begeleidingsvaardigheden om gebruikers te helpen emotionele problemen te begrijpen.",
|
|
416
445
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 is een open LLM voor ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoord opschalen van generatieve AI-ideeën. Als onderdeel van de basis voor wereldwijde gemeenschapsinnovatie is het goed geschikt voor beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden.",
|
|
417
446
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Sterke beeldredenering op afbeeldingen met hoge resolutie, geschikt voor toepassingen voor visueel begrip.",
|
|
418
447
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Geavanceerde beeldredenering voor toepassingen met visueel begrip en agentfunctionaliteit.",
|
|
@@ -92,6 +92,15 @@
|
|
|
92
92
|
"builtins.lobe-local-system.inspector.noResults": "Geen resultaten",
|
|
93
93
|
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
94
94
|
"builtins.lobe-local-system.title": "Lokaal Systeem",
|
|
95
|
+
"builtins.lobe-notebook.actions.copy": "Kopiëren",
|
|
96
|
+
"builtins.lobe-notebook.actions.creating": "Document wordt aangemaakt...",
|
|
97
|
+
"builtins.lobe-notebook.actions.edit": "Bewerken",
|
|
98
|
+
"builtins.lobe-notebook.actions.expand": "Uitvouwen",
|
|
99
|
+
"builtins.lobe-notebook.apiName.createDocument": "Document aanmaken",
|
|
100
|
+
"builtins.lobe-notebook.apiName.deleteDocument": "Document verwijderen",
|
|
101
|
+
"builtins.lobe-notebook.apiName.getDocument": "Document ophalen",
|
|
102
|
+
"builtins.lobe-notebook.apiName.updateDocument": "Document bijwerken",
|
|
103
|
+
"builtins.lobe-notebook.title": "Notitieboek",
|
|
95
104
|
"builtins.lobe-page-agent.apiName.batchUpdate": "Meerdere knooppunten bijwerken",
|
|
96
105
|
"builtins.lobe-page-agent.apiName.compareSnapshots": "Momentopnamen vergelijken",
|
|
97
106
|
"builtins.lobe-page-agent.apiName.convertToList": "Converteren naar lijst",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Een open-source organisatie gericht op grootschalig modelonderzoek en tooling, met een efficiënt en gebruiksvriendelijk platform dat geavanceerde modellen en algoritmen toegankelijk maakt.",
|
|
30
30
|
"jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.",
|
|
31
31
|
"lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLM’s op je eigen computer.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud gebruikt officiële API's om toegang te krijgen tot AI-modellen en meet het gebruik met Credits die gekoppeld zijn aan modeltokens.",
|
|
32
33
|
"minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral biedt geavanceerde algemene, gespecialiseerde en onderzoeksmodellen voor complexe redenering, meertalige taken en codegeneratie, met functie-aanroepen voor aangepaste integraties.",
|
|
34
35
|
"modelscope.description": "ModelScope is het model-as-a-service platform van Alibaba Cloud, met een breed scala aan AI-modellen en inferentiediensten.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym, łączący silne rozumienie i generowanie treści w zastosowaniach na dużą skalę, takich jak obsługa klienta, edukacja i wsparcie techniczne.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic, oferujący ulepszone umiejętności i przewyższający poprzedni flagowy model Claude 3 Opus w wielu testach porównawczych.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku zapewnia szybkie odpowiedzi w lekkich zadaniach.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 to najbardziej zaawansowany model Anthropic i pierwszy na rynku model hybrydowego rozumowania, umożliwiający błyskawiczne odpowiedzi lub pogłębione myślenie z precyzyjną kontrolą.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model firmy Anthropic, zaprojektowany do natychmiastowych odpowiedzi z szybką i dokładną wydajnością.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus to najpotężniejszy model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet łączy inteligencję i szybkość dla obciążeń korporacyjnych, oferując wysoką użyteczność przy niższych kosztach i niezawodnym wdrażaniu na dużą skalę.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najbardziej inteligentny model Haiku od Anthropic, łączący błyskawiczne działanie z pogłębionym rozumowaniem.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking to zaawansowany wariant, który może ujawniać swój proces rozumowania.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic, stworzony do realizacji wysoce złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący wyjątkową inteligencję z wydajnością na dużą skalę, idealny do złożonych zadań wymagających najwyższej jakości odpowiedzi i rozumowania.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking może generować natychmiastowe odpowiedzi lub rozszerzone rozumowanie krok po kroku z widocznym procesem.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 to najbardziej inteligentny model Anthropic do tej pory, oferujący błyskawiczne odpowiedzi lub rozbudowane, krok po kroku rozumowanie z precyzyjną kontrolą dla użytkowników API.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to najbardziej inteligentny model firmy Anthropic do tej pory.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 to potężny asystent programistyczny AI, obsługujący wielojęzyczne pytania i uzupełnianie kodu w celu zwiększenia produktywności programistów.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B to wielojęzyczny model generowania kodu obsługujący uzupełnianie i generowanie kodu, interpretację kodu, wyszukiwanie w sieci, wywoływanie funkcji i pytania na poziomie repozytorium. Obejmuje szeroki zakres scenariuszy programistycznych i jest jednym z najlepszych modeli kodu poniżej 10B parametrów.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 to model językowo-wizualny MoE oparty na DeepSeekMoE-27B z rzadką aktywacją, osiągający wysoką wydajność przy zaledwie 4,5B aktywnych parametrów. Wyróżnia się w zadaniach QA wizualnych, OCR, rozumieniu dokumentów/tabel/wykresów i ugruntowaniu wizualnym.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2 zapewnia równowagę między rozumowaniem a długością odpowiedzi w codziennych zadaniach QA i agentowych. W testach publicznych osiąga poziom GPT-5 i jako pierwszy integruje myślenie z użyciem narzędzi, prowadząc w ocenach agentów open-source.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B to model języka kodu wytrenowany na 2T tokenach (87% kod, 13% tekst chiński/angielski). Wprowadza okno kontekstu 16K i zadania uzupełniania w środku, oferując uzupełnianie kodu na poziomie projektu i wypełnianie fragmentów.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Szybka pełna wersja DeepSeek R1 z wyszukiwaniem w czasie rzeczywistym, łącząca możliwości modelu 671B z szybszymi odpowiedziami.",
|
|
379
379
|
"deepseek-r1-online.description": "Pełna wersja DeepSeek R1 z 671 miliardami parametrów i wyszukiwaniem w czasie rzeczywistym, oferująca lepsze rozumienie i generowanie.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 wykorzystuje dane startowe przed RL i osiąga wyniki porównywalne z OpenAI-o1 w zadaniach matematycznych, programistycznych i logicznych.",
|
|
381
|
-
"deepseek-reasoner.description": "
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking to model głębokiego rozumowania, który generuje łańcuch myśli przed odpowiedzią dla większej precyzji. Osiąga czołowe wyniki w konkursach i rozumowaniu porównywalnym z Gemini-3.0-Pro.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 to wydajny model MoE zoptymalizowany pod kątem efektywności kosztowej.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B to model skoncentrowany na kodzie, oferujący zaawansowane generowanie kodu.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 to model MoE z 671 miliardami parametrów, wyróżniający się w programowaniu, rozumieniu kontekstu i obsłudze długich tekstów.",
|
|
@@ -413,6 +413,35 @@
|
|
|
413
413
|
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B to model odchudzony z Llama-3.3-70B-Instruct. Jako część serii DeepSeek-R1, został dostrojony na próbkach wygenerowanych przez DeepSeek-R1 i osiąga wysokie wyniki w matematyce, programowaniu i rozumowaniu.",
|
|
414
414
|
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B to model odchudzony z Qwen2.5-14B, dostrojony na 800 tysiącach starannie wyselekcjonowanych próbek wygenerowanych przez DeepSeek-R1, zapewniający silne zdolności rozumowania.",
|
|
415
415
|
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B to model odchudzony z Qwen2.5-32B, dostrojony na 800 tysiącach starannie wyselekcjonowanych próbek wygenerowanych przez DeepSeek-R1, wyróżniający się w matematyce, programowaniu i rozumowaniu.",
|
|
416
|
+
"devstral-2:123b.description": "Devstral 2 123B doskonale wykorzystuje narzędzia do eksploracji baz kodu, edycji wielu plików i wspierania agentów inżynierii oprogramowania.",
|
|
417
|
+
"doubao-1.5-lite-32k.description": "Doubao-1.5-lite to nowy, lekki model o ultrabłyskawicznej odpowiedzi, oferujący najwyższą jakość i niskie opóźnienia.",
|
|
418
|
+
"doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k to kompleksowa aktualizacja modelu Doubao-1.5-Pro, poprawiająca ogólną wydajność o 10%. Obsługuje kontekst do 256k i do 12k tokenów wyjściowych, oferując wyższą wydajność, większe okno i dużą wartość dla szerokiego zakresu zastosowań.",
|
|
419
|
+
"doubao-1.5-pro-32k.description": "Doubao-1.5-pro to flagowy model nowej generacji z kompleksowymi ulepszeniami, wyróżniający się w wiedzy, kodowaniu i rozumowaniu.",
|
|
420
|
+
"doubao-1.5-thinking-pro-m.description": "Doubao-1.5 to nowy model głębokiego rozumowania (wersja m obejmuje natywne multimodalne rozumowanie), który doskonale radzi sobie z matematyką, kodowaniem, rozumowaniem naukowym i ogólnymi zadaniami, takimi jak twórcze pisanie. Osiąga lub zbliża się do wyników najwyższej klasy w testach takich jak AIME 2024, Codeforces i GPQA. Obsługuje kontekst 128k i 16k tokenów wyjściowych.",
|
|
421
|
+
"doubao-1.5-thinking-pro.description": "Doubao-1.5 to nowy model głębokiego rozumowania, który doskonale radzi sobie z matematyką, kodowaniem, rozumowaniem naukowym i ogólnymi zadaniami, takimi jak twórcze pisanie. Osiąga lub zbliża się do wyników najwyższej klasy w testach takich jak AIME 2024, Codeforces i GPQA. Obsługuje kontekst 128k i 16k tokenów wyjściowych.",
|
|
422
|
+
"doubao-1.5-thinking-vision-pro.description": "Nowy model wizualnego głębokiego rozumowania z silniejszym multimodalnym zrozumieniem i rozumowaniem, osiągający SOTA na 37 z 59 publicznych benchmarków.",
|
|
423
|
+
"doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS to natywny model agenta GUI, który płynnie współdziała z interfejsami dzięki percepcji, rozumowaniu i działaniu zbliżonym do ludzkiego.",
|
|
424
|
+
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite to ulepszony model multimodalny obsługujący obrazy w dowolnej rozdzielczości i ekstremalnych proporcjach, poprawiający rozumowanie wizualne, rozpoznawanie dokumentów, zrozumienie szczegółów i wykonywanie instrukcji. Obsługuje kontekst 128k i do 16k tokenów wyjściowych.",
|
|
425
|
+
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro to ulepszony model multimodalny obsługujący obrazy w dowolnej rozdzielczości i ekstremalnych proporcjach, poprawiający rozumowanie wizualne, rozpoznawanie dokumentów, zrozumienie szczegółów i wykonywanie instrukcji.",
|
|
426
|
+
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro to ulepszony model multimodalny obsługujący obrazy w dowolnej rozdzielczości i ekstremalnych proporcjach, poprawiający rozumowanie wizualne, rozpoznawanie dokumentów, zrozumienie szczegółów i wykonywanie instrukcji.",
|
|
427
|
+
"doubao-lite-128k.description": "Ultraszybka odpowiedź i lepsza wartość, oferująca bardziej elastyczne opcje w różnych scenariuszach. Obsługuje rozumowanie i dostrajanie z kontekstem 128k.",
|
|
428
|
+
"doubao-lite-32k.description": "Ultraszybka odpowiedź i lepsza wartość, oferująca bardziej elastyczne opcje w różnych scenariuszach. Obsługuje rozumowanie i dostrajanie z kontekstem 32k.",
|
|
429
|
+
"doubao-lite-4k.description": "Ultraszybka odpowiedź i lepsza wartość, oferująca bardziej elastyczne opcje w różnych scenariuszach. Obsługuje rozumowanie i dostrajanie z kontekstem 4k.",
|
|
430
|
+
"doubao-pro-256k.description": "Najlepszy flagowy model do złożonych zadań, z doskonałymi wynikami w QA z odniesieniami, streszczaniu, tworzeniu treści, klasyfikacji tekstu i odgrywaniu ról. Obsługuje rozumowanie i dostrajanie z kontekstem 256k.",
|
|
431
|
+
"doubao-pro-32k.description": "Najlepszy flagowy model do złożonych zadań, z doskonałymi wynikami w QA z odniesieniami, streszczaniu, tworzeniu treści, klasyfikacji tekstu i odgrywaniu ról. Obsługuje rozumowanie i dostrajanie z kontekstem 32k.",
|
|
432
|
+
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash to ultraszybki multimodalny model głębokiego rozumowania z TPOT na poziomie 10 ms. Obsługuje tekst i obraz, przewyższa poprzedni model lite w rozumieniu tekstu i dorównuje konkurencyjnym modelom pro w wizji. Obsługuje kontekst 256k i do 16k tokenów wyjściowych.",
|
|
433
|
+
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite to nowy multimodalny model głębokiego rozumowania z regulowanym wysiłkiem rozumowania (Minimalny, Niski, Średni, Wysoki), oferujący lepszą wartość i silny wybór do typowych zadań, z kontekstem do 256k.",
|
|
434
|
+
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 znacząco wzmacnia rozumowanie, dodatkowo poprawiając kluczowe umiejętności w kodowaniu, matematyce i logice względem Doubao-1.5-thinking-pro, dodając jednocześnie rozumienie wizji. Obsługuje kontekst 256k i do 16k tokenów wyjściowych.",
|
|
435
|
+
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision to model wizualnego głębokiego rozumowania, oferujący silniejsze multimodalne zrozumienie i rozumowanie dla edukacji, przeglądu obrazów, inspekcji/bezpieczeństwa i QA z wykorzystaniem AI. Obsługuje kontekst 256k i do 64k tokenów wyjściowych.",
|
|
436
|
+
"doubao-seed-1.6.description": "Doubao-Seed-1.6 to nowy multimodalny model głębokiego rozumowania z trybami auto, thinking i non-thinking. W trybie non-thinking znacznie przewyższa Doubao-1.5-pro/250115. Obsługuje kontekst 256k i do 16k tokenów wyjściowych.",
|
|
437
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 oferuje silniejsze możliwości multimodalnego rozumienia i działania agentów, obsługuje wejścia tekstowe/obrazowe/wideo oraz buforowanie kontekstu, zapewniając lepsze wyniki w złożonych zadaniach.",
|
|
438
|
+
"doubao-seed-code.description": "Doubao-Seed-Code jest głęboko zoptymalizowany pod kątem kodowania agentowego, obsługuje wejścia multimodalne (tekst/obraz/wideo) i kontekst 256k, jest kompatybilny z API Anthropic i nadaje się do kodowania, rozumienia wizji i przepływów pracy agentów.",
|
|
439
|
+
"doubao-seededit-3-0-i2i-250628.description": "Model obrazowy Doubao z ByteDance Seed obsługuje wejścia tekstowe i obrazowe z wysoką kontrolą i jakością generowania obrazów. Obsługuje edycję obrazów kierowaną tekstem, z rozmiarami wyjściowymi od 512 do 1536 po dłuższym boku.",
|
|
440
|
+
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 to model generowania obrazów od ByteDance Seed, obsługujący wejścia tekstowe i obrazowe z wysoką kontrolą i jakością. Generuje obrazy na podstawie tekstowych promptów.",
|
|
441
|
+
"doubao-seedream-4-0-250828.description": "Seedream 4.0 to model generowania obrazów od ByteDance Seed, obsługujący wejścia tekstowe i obrazowe z wysoką kontrolą i jakością. Generuje obrazy na podstawie tekstowych promptów.",
|
|
442
|
+
"doubao-vision-lite-32k.description": "Doubao-vision to multimodalny model od Doubao z silnym rozumieniem obrazów i rozumowaniem oraz precyzyjnym wykonywaniem instrukcji. Dobrze radzi sobie z ekstrakcją tekstu z obrazów i zadaniami rozumowania obrazowego, umożliwiając bardziej złożone i szerokie scenariusze QA wizualnego.",
|
|
443
|
+
"doubao-vision-pro-32k.description": "Doubao-vision to multimodalny model od Doubao z silnym rozumieniem obrazów i rozumowaniem oraz precyzyjnym wykonywaniem instrukcji. Dobrze radzi sobie z ekstrakcją tekstu z obrazów i zadaniami rozumowania obrazowego, umożliwiając bardziej złożone i szerokie scenariusze QA wizualnego.",
|
|
444
|
+
"emohaa.description": "Emohaa to model zdrowia psychicznego z profesjonalnymi umiejętnościami doradczymi, pomagający użytkownikom zrozumieć problemy emocjonalne.",
|
|
416
445
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
|
|
417
446
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
|
|
418
447
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
|
|
@@ -92,6 +92,15 @@
|
|
|
92
92
|
"builtins.lobe-local-system.inspector.noResults": "Brak wyników",
|
|
93
93
|
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
94
94
|
"builtins.lobe-local-system.title": "System Lokalny",
|
|
95
|
+
"builtins.lobe-notebook.actions.copy": "Kopiuj",
|
|
96
|
+
"builtins.lobe-notebook.actions.creating": "Tworzenie dokumentu...",
|
|
97
|
+
"builtins.lobe-notebook.actions.edit": "Edytuj",
|
|
98
|
+
"builtins.lobe-notebook.actions.expand": "Rozwiń",
|
|
99
|
+
"builtins.lobe-notebook.apiName.createDocument": "Utwórz dokument",
|
|
100
|
+
"builtins.lobe-notebook.apiName.deleteDocument": "Usuń dokument",
|
|
101
|
+
"builtins.lobe-notebook.apiName.getDocument": "Pobierz dokument",
|
|
102
|
+
"builtins.lobe-notebook.apiName.updateDocument": "Zaktualizuj dokument",
|
|
103
|
+
"builtins.lobe-notebook.title": "Notatnik",
|
|
95
104
|
"builtins.lobe-page-agent.apiName.batchUpdate": "Zbiorcza aktualizacja węzłów",
|
|
96
105
|
"builtins.lobe-page-agent.apiName.compareSnapshots": "Porównaj migawki",
|
|
97
106
|
"builtins.lobe-page-agent.apiName.convertToList": "Konwertuj na listę",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Organizacja open-source skupiona na badaniach nad dużymi modelami i narzędziach, oferująca wydajną i łatwą w użyciu platformę udostępniającą najnowsze modele i algorytmy.",
|
|
30
30
|
"jina.description": "Założona w 2020 roku, Jina AI to wiodąca firma zajmująca się wyszukiwaniem AI. Jej stos wyszukiwania obejmuje modele wektorowe, rerankery i małe modele językowe do tworzenia niezawodnych, wysokiej jakości aplikacji generatywnych i multimodalnych.",
|
|
31
31
|
"lmstudio.description": "LM Studio to aplikacja desktopowa do tworzenia i testowania LLM-ów na własnym komputerze.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud korzysta z oficjalnych interfejsów API do uzyskiwania dostępu do modeli AI i mierzy zużycie za pomocą Kredytów powiązanych z tokenami modeli.",
|
|
32
33
|
"minimax.description": "Założona w 2021 roku, MiniMax tworzy AI ogólnego przeznaczenia z multimodalnymi modelami bazowymi, w tym tekstowymi modelami MoE z bilionami parametrów, modelami mowy i wizji oraz aplikacjami takimi jak Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral oferuje zaawansowane modele ogólne, specjalistyczne i badawcze do złożonego rozumowania, zadań wielojęzycznych i generowania kodu, z obsługą wywołań funkcji do niestandardowych integracji.",
|
|
34
35
|
"modelscope.description": "ModelScope to platforma model-as-a-service Alibaba Cloud, oferująca szeroki wybór modeli AI i usług inferencyjnych.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic, com melhorias em diversas habilidades e superando o antigo carro-chefe Claude 3 Opus em muitos benchmarks.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku oferece respostas rápidas para tarefas leves.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado, oferecendo respostas quase instantâneas ou pensamento prolongado com controle refinado.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligência e velocidade para cargas de trabalho empresariais, oferecendo alta utilidade com menor custo e implantação confiável em larga escala.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e raciocínio estendido.",
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e capacidade de raciocínio estendido.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking é uma variante avançada que pode revelar seu processo de raciocínio.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
|
|
284
284
|
"claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com desempenho excepcional em inteligência, fluência e compreensão.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 é o modelo mais inteligente da Anthropic até o momento, oferecendo respostas quase instantâneas ou raciocínio passo a passo com controle refinado para usuários de API.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 é um assistente de codificação com IA poderoso que oferece suporte a perguntas e respostas multilíngues e autocompletar código para aumentar a produtividade dos desenvolvedores.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue que oferece suporte a autocompletar e geração de código, interpretação de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo uma ampla gama de cenários de desenvolvimento de software. É um modelo de código de alto nível com menos de 10 bilhões de parâmetros.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "O DeepSeek-VL2 é um modelo de visão e linguagem MoE baseado no DeepSeekMoE-27B com ativação esparsa, alcançando alto desempenho com apenas 4,5B de parâmetros ativos. Destaca-se em QA visual, OCR, compreensão de documentos/tabelas/gráficos e ancoragem visual.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2 equilibra raciocínio e comprimento de saída para tarefas diárias de perguntas e respostas e agentes. Os benchmarks públicos atingem níveis do GPT-5, sendo o primeiro a integrar raciocínio ao uso de ferramentas, liderando avaliações de agentes de código aberto.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "O DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento intermediário, oferecendo preenchimento de código em nível de projeto e inserção de trechos.",
|
|
360
360
|
"deepseek-coder-v2.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Versão completa e rápida do DeepSeek R1 com busca em tempo real na web, combinando capacidade de 671B com respostas mais ágeis.",
|
|
379
379
|
"deepseek-r1-online.description": "Versão completa do DeepSeek R1 com 671B de parâmetros e busca em tempo real na web, oferecendo compreensão e geração mais robustas.",
|
|
380
380
|
"deepseek-r1.description": "O DeepSeek-R1 usa dados de inicialização a frio antes do RL e apresenta desempenho comparável ao OpenAI-o1 em matemática, programação e raciocínio.",
|
|
381
|
-
"deepseek-reasoner.description": "
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking é um modelo de raciocínio profundo que gera cadeias de pensamento antes das respostas para maior precisão, com resultados de ponta em competições e raciocínio comparável ao Gemini-3.0-Pro.",
|
|
382
382
|
"deepseek-v2.description": "O DeepSeek V2 é um modelo MoE eficiente para processamento econômico.",
|
|
383
383
|
"deepseek-v2:236b.description": "O DeepSeek V2 236B é o modelo da DeepSeek focado em código com forte geração de código.",
|
|
384
384
|
"deepseek-v3-0324.description": "O DeepSeek-V3-0324 é um modelo MoE com 671B de parâmetros, com destaque em programação, capacidade técnica, compreensão de contexto e manipulação de textos longos.",
|
|
@@ -442,6 +442,35 @@
|
|
|
442
442
|
"doubao-vision-lite-32k.description": "O Doubao-vision é um modelo multimodal da Doubao com forte compreensão e raciocínio de imagens, além de seguir instruções com precisão. Tem bom desempenho em tarefas de extração imagem-texto e raciocínio baseado em imagem, permitindo cenários de QA visual mais complexos e amplos.",
|
|
443
443
|
"doubao-vision-pro-32k.description": "O Doubao-vision é um modelo multimodal da Doubao com forte compreensão e raciocínio de imagens, além de seguir instruções com precisão. Tem bom desempenho em tarefas de extração imagem-texto e raciocínio baseado em imagem, permitindo cenários de QA visual mais complexos e amplos.",
|
|
444
444
|
"emohaa.description": "O Emohaa é um modelo voltado para saúde mental com habilidades profissionais de aconselhamento para ajudar os usuários a compreender questões emocionais.",
|
|
445
|
+
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B é um modelo leve de código aberto para implantação local e personalizada.",
|
|
446
|
+
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B é um modelo de código aberto com grande número de parâmetros, com melhor compreensão e geração.",
|
|
447
|
+
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B é o modelo MoE ultra-grande da Baidu ERNIE, com excelente capacidade de raciocínio.",
|
|
448
|
+
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview é um modelo de pré-visualização com contexto de 8K para avaliação do ERNIE 4.5.",
|
|
449
|
+
"ernie-4.5-turbo-128k-preview.description": "Pré-visualização do ERNIE 4.5 Turbo 128K com capacidades de nível de lançamento, ideal para integração e testes canário.",
|
|
450
|
+
"ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K é um modelo geral de alto desempenho com aumento por busca e uso de ferramentas para perguntas e respostas, programação e cenários com agentes.",
|
|
451
|
+
"ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K é uma versão com contexto médio para perguntas e respostas, recuperação de base de conhecimento e diálogos de múltiplas interações.",
|
|
452
|
+
"ernie-4.5-turbo-latest.description": "Última versão do ERNIE 4.5 Turbo com desempenho geral otimizado, ideal como modelo principal de produção.",
|
|
453
|
+
"ernie-4.5-turbo-vl-32k-preview.description": "Pré-visualização multimodal do ERNIE 4.5 Turbo VL 32K para avaliação da capacidade de visão em contexto longo.",
|
|
454
|
+
"ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K é uma versão multimodal de contexto médio-longo para compreensão combinada de documentos longos e imagens.",
|
|
455
|
+
"ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest é a versão multimodal mais recente com melhor compreensão e raciocínio entre imagem e texto.",
|
|
456
|
+
"ernie-4.5-turbo-vl-preview.description": "Pré-visualização do ERNIE 4.5 Turbo VL, modelo multimodal para compreensão e geração de imagem-texto, ideal para perguntas visuais e compreensão de conteúdo.",
|
|
457
|
+
"ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL é um modelo multimodal maduro para compreensão e reconhecimento de imagem-texto em produção.",
|
|
458
|
+
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B é um modelo multimodal de código aberto para compreensão e raciocínio de imagem-texto.",
|
|
459
|
+
"ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking é um modelo nativo multimodal de ponta com modelagem unificada de texto, imagem, áudio e vídeo. Oferece amplas melhorias de capacidade para perguntas e respostas complexas, criação e cenários com agentes.",
|
|
460
|
+
"ernie-5.0-thinking-preview.description": "Pré-visualização do Wenxin 5.0 Thinking, modelo nativo multimodal de ponta com modelagem unificada de texto, imagem, áudio e vídeo. Oferece amplas melhorias de capacidade para perguntas e respostas complexas, criação e cenários com agentes.",
|
|
461
|
+
"ernie-char-8k.description": "ERNIE Character 8K é um modelo de diálogo com personalidade para construção de personagens IP e conversas de companhia de longo prazo.",
|
|
462
|
+
"ernie-char-fiction-8k-preview.description": "Pré-visualização do ERNIE Character Fiction 8K, modelo para criação de personagens e enredos, voltado para avaliação e testes de recursos.",
|
|
463
|
+
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K é um modelo de personagem para romances e criação de enredos, adequado para geração de histórias longas.",
|
|
464
|
+
"ernie-irag-edit.description": "ERNIE iRAG Edit é um modelo de edição de imagem que suporta apagar, repintar e gerar variantes.",
|
|
465
|
+
"ernie-lite-8k.description": "ERNIE Lite 8K é um modelo geral leve para perguntas e respostas diárias e geração de conteúdo com foco em custo.",
|
|
466
|
+
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K é um modelo leve de alto desempenho para cenários sensíveis à latência e ao custo.",
|
|
467
|
+
"ernie-novel-8k.description": "ERNIE Novel 8K é projetado para romances longos e enredos de IP com narrativas de múltiplos personagens.",
|
|
468
|
+
"ernie-speed-128k.description": "ERNIE Speed 128K é um modelo sem custo de I/O para compreensão de textos longos e testes em larga escala.",
|
|
469
|
+
"ernie-speed-8k.description": "ERNIE Speed 8K é um modelo gratuito e rápido para bate-papo diário e tarefas leves de texto.",
|
|
470
|
+
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K é um modelo de alto valor e alta concorrência para serviços online em larga escala e aplicativos corporativos.",
|
|
471
|
+
"ernie-tiny-8k.description": "ERNIE Tiny 8K é um modelo ultra leve para perguntas e respostas simples, classificação e inferência de baixo custo.",
|
|
472
|
+
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K é um modelo de raciocínio rápido com contexto de 32K para raciocínio complexo e bate-papo de múltiplas interações.",
|
|
473
|
+
"ernie-x1.1-preview.description": "Pré-visualização do modelo de raciocínio ERNIE X1.1 para avaliação e testes.",
|
|
445
474
|
"meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.",
|
|
446
475
|
"mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.",
|
|
447
476
|
"mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.",
|
|
@@ -92,6 +92,15 @@
|
|
|
92
92
|
"builtins.lobe-local-system.inspector.noResults": "Nenhum resultado",
|
|
93
93
|
"builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
|
|
94
94
|
"builtins.lobe-local-system.title": "Sistema Local",
|
|
95
|
+
"builtins.lobe-notebook.actions.copy": "Copiar",
|
|
96
|
+
"builtins.lobe-notebook.actions.creating": "Criando documento...",
|
|
97
|
+
"builtins.lobe-notebook.actions.edit": "Editar",
|
|
98
|
+
"builtins.lobe-notebook.actions.expand": "Expandir",
|
|
99
|
+
"builtins.lobe-notebook.apiName.createDocument": "Criar documento",
|
|
100
|
+
"builtins.lobe-notebook.apiName.deleteDocument": "Excluir documento",
|
|
101
|
+
"builtins.lobe-notebook.apiName.getDocument": "Obter documento",
|
|
102
|
+
"builtins.lobe-notebook.apiName.updateDocument": "Atualizar documento",
|
|
103
|
+
"builtins.lobe-notebook.title": "Bloco de Notas",
|
|
95
104
|
"builtins.lobe-page-agent.apiName.batchUpdate": "Atualizar nós em lote",
|
|
96
105
|
"builtins.lobe-page-agent.apiName.compareSnapshots": "Comparar versões",
|
|
97
106
|
"builtins.lobe-page-agent.apiName.convertToList": "Converter em lista",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Uma organização open-source focada em pesquisa e ferramentas para grandes modelos, oferecendo uma plataforma eficiente e fácil de usar que torna modelos e algoritmos de ponta acessíveis.",
|
|
30
30
|
"jina.description": "Fundada em 2020, a Jina AI é uma empresa líder em busca com IA. Sua pilha de busca inclui modelos vetoriais, reranqueadores e pequenos modelos de linguagem para construir aplicativos generativos e multimodais confiáveis e de alta qualidade.",
|
|
31
31
|
"lmstudio.description": "O LM Studio é um aplicativo de desktop para desenvolver e experimentar com LLMs no seu computador.",
|
|
32
|
+
"lobehub.description": "O LobeHub Cloud utiliza APIs oficiais para acessar modelos de IA e mede o uso com Créditos vinculados aos tokens dos modelos.",
|
|
32
33
|
"minimax.description": "Fundada em 2021, a MiniMax desenvolve IA de uso geral com modelos fundamentais multimodais, incluindo modelos de texto com trilhões de parâmetros, modelos de fala e visão, além de aplicativos como o Hailuo AI.",
|
|
33
34
|
"mistral.description": "A Mistral oferece modelos avançados gerais, especializados e de pesquisa para raciocínio complexo, tarefas multilíngues e geração de código, com suporte a chamadas de função para integrações personalizadas.",
|
|
34
35
|
"modelscope.description": "O ModelScope é a plataforma de modelo como serviço da Alibaba Cloud, oferecendo uma ampla gama de modelos de IA e serviços de inferência.",
|