@lobehub/chat 1.81.3 → 1.81.4
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +33 -0
- package/changelog/v1.json +12 -0
- package/locales/ar/common.json +2 -0
- package/locales/ar/electron.json +32 -0
- package/locales/ar/models.json +126 -3
- package/locales/ar/plugin.json +1 -0
- package/locales/ar/tool.json +25 -0
- package/locales/bg-BG/common.json +2 -0
- package/locales/bg-BG/electron.json +32 -0
- package/locales/bg-BG/models.json +126 -3
- package/locales/bg-BG/plugin.json +1 -0
- package/locales/bg-BG/tool.json +25 -0
- package/locales/de-DE/common.json +2 -0
- package/locales/de-DE/electron.json +32 -0
- package/locales/de-DE/models.json +126 -3
- package/locales/de-DE/plugin.json +1 -0
- package/locales/de-DE/tool.json +25 -0
- package/locales/en-US/common.json +2 -0
- package/locales/en-US/electron.json +32 -0
- package/locales/en-US/models.json +126 -3
- package/locales/en-US/plugin.json +1 -0
- package/locales/en-US/tool.json +25 -0
- package/locales/es-ES/common.json +2 -0
- package/locales/es-ES/electron.json +32 -0
- package/locales/es-ES/models.json +126 -3
- package/locales/es-ES/plugin.json +1 -0
- package/locales/es-ES/tool.json +25 -0
- package/locales/fa-IR/common.json +2 -0
- package/locales/fa-IR/electron.json +32 -0
- package/locales/fa-IR/models.json +126 -3
- package/locales/fa-IR/plugin.json +1 -0
- package/locales/fa-IR/tool.json +25 -0
- package/locales/fr-FR/common.json +2 -0
- package/locales/fr-FR/electron.json +32 -0
- package/locales/fr-FR/models.json +126 -3
- package/locales/fr-FR/plugin.json +1 -0
- package/locales/fr-FR/tool.json +25 -0
- package/locales/it-IT/common.json +2 -0
- package/locales/it-IT/electron.json +32 -0
- package/locales/it-IT/models.json +126 -3
- package/locales/it-IT/plugin.json +1 -0
- package/locales/it-IT/tool.json +25 -0
- package/locales/ja-JP/common.json +2 -0
- package/locales/ja-JP/electron.json +32 -0
- package/locales/ja-JP/models.json +126 -3
- package/locales/ja-JP/plugin.json +1 -0
- package/locales/ja-JP/tool.json +25 -0
- package/locales/ko-KR/common.json +2 -0
- package/locales/ko-KR/electron.json +32 -0
- package/locales/ko-KR/models.json +126 -3
- package/locales/ko-KR/plugin.json +1 -0
- package/locales/ko-KR/tool.json +25 -0
- package/locales/nl-NL/common.json +2 -0
- package/locales/nl-NL/electron.json +32 -0
- package/locales/nl-NL/models.json +126 -3
- package/locales/nl-NL/plugin.json +1 -0
- package/locales/nl-NL/tool.json +25 -0
- package/locales/pl-PL/common.json +2 -0
- package/locales/pl-PL/electron.json +32 -0
- package/locales/pl-PL/models.json +126 -3
- package/locales/pl-PL/plugin.json +1 -0
- package/locales/pl-PL/tool.json +25 -0
- package/locales/pt-BR/common.json +2 -0
- package/locales/pt-BR/electron.json +32 -0
- package/locales/pt-BR/models.json +126 -3
- package/locales/pt-BR/plugin.json +1 -0
- package/locales/pt-BR/tool.json +25 -0
- package/locales/ru-RU/common.json +2 -0
- package/locales/ru-RU/electron.json +32 -0
- package/locales/ru-RU/models.json +126 -3
- package/locales/ru-RU/plugin.json +1 -0
- package/locales/ru-RU/tool.json +25 -0
- package/locales/tr-TR/common.json +2 -0
- package/locales/tr-TR/electron.json +32 -0
- package/locales/tr-TR/models.json +126 -3
- package/locales/tr-TR/plugin.json +1 -0
- package/locales/tr-TR/tool.json +25 -0
- package/locales/vi-VN/common.json +2 -0
- package/locales/vi-VN/electron.json +32 -0
- package/locales/vi-VN/models.json +126 -3
- package/locales/vi-VN/plugin.json +1 -0
- package/locales/vi-VN/tool.json +25 -0
- package/locales/zh-CN/common.json +2 -0
- package/locales/zh-CN/electron.json +32 -0
- package/locales/zh-CN/models.json +131 -8
- package/locales/zh-CN/plugin.json +1 -0
- package/locales/zh-CN/tool.json +25 -0
- package/locales/zh-TW/common.json +2 -0
- package/locales/zh-TW/electron.json +32 -0
- package/locales/zh-TW/models.json +126 -3
- package/locales/zh-TW/plugin.json +1 -0
- package/locales/zh-TW/tool.json +25 -0
- package/package.json +3 -2
- package/packages/electron-client-ipc/src/events/index.ts +5 -5
- package/packages/electron-client-ipc/src/events/localFile.ts +22 -0
- package/packages/electron-client-ipc/src/events/{file.ts → upload.ts} +1 -1
- package/packages/electron-client-ipc/src/types/index.ts +2 -1
- package/packages/electron-client-ipc/src/types/localFile.ts +52 -0
- package/scripts/prebuild.mts +5 -1
- package/src/app/(backend)/trpc/desktop/[trpc]/route.ts +26 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/ObjectEntity.tsx +81 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/ValueCell.tsx +43 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/index.tsx +120 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Render/CustomRender.tsx +75 -2
- package/src/features/Conversation/Messages/Assistant/Tool/Render/KeyValueEditor.tsx +214 -0
- package/src/features/User/UserPanel/useMenu.tsx +8 -1
- package/src/libs/agent-runtime/google/index.ts +3 -0
- package/src/libs/trpc/client/desktop.ts +14 -0
- package/src/locales/default/common.ts +2 -0
- package/src/locales/default/electron.ts +34 -0
- package/src/locales/default/index.ts +2 -0
- package/src/locales/default/tool.ts +25 -0
- package/src/server/routers/desktop/index.ts +9 -0
- package/src/server/routers/desktop/pgTable.ts +43 -0
- package/src/services/electron/autoUpdate.ts +17 -0
- package/src/services/electron/file.ts +31 -0
- package/src/services/electron/localFileService.ts +39 -0
- package/src/services/electron/remoteServer.ts +40 -0
- package/src/store/chat/index.ts +1 -1
- package/src/store/chat/slices/builtinTool/actions/index.ts +3 -1
- package/src/store/chat/slices/builtinTool/actions/localFile.ts +129 -0
- package/src/store/chat/slices/builtinTool/initialState.ts +2 -0
- package/src/store/chat/slices/builtinTool/selectors.ts +2 -0
- package/src/store/chat/slices/plugin/action.ts +3 -3
- package/src/store/chat/store.ts +2 -0
- package/src/store/electron/actions/sync.ts +117 -0
- package/src/store/electron/index.ts +1 -0
- package/src/store/electron/initialState.ts +18 -0
- package/src/store/electron/selectors/index.ts +1 -0
- package/src/store/electron/selectors/sync.ts +9 -0
- package/src/store/electron/store.ts +29 -0
- package/src/tools/index.ts +8 -0
- package/src/tools/local-files/Render/ListFiles/Result.tsx +42 -0
- package/src/tools/local-files/Render/ListFiles/index.tsx +68 -0
- package/src/tools/local-files/Render/ReadLocalFile/ReadFileSkeleton.tsx +50 -0
- package/src/tools/local-files/Render/ReadLocalFile/ReadFileView.tsx +197 -0
- package/src/tools/local-files/Render/ReadLocalFile/index.tsx +31 -0
- package/src/tools/local-files/Render/ReadLocalFile/style.ts +37 -0
- package/src/tools/local-files/Render/SearchFiles/Result.tsx +42 -0
- package/src/tools/local-files/Render/SearchFiles/SearchQuery/SearchView.tsx +77 -0
- package/src/tools/local-files/Render/SearchFiles/SearchQuery/index.tsx +72 -0
- package/src/tools/local-files/Render/SearchFiles/index.tsx +32 -0
- package/src/tools/local-files/Render/index.tsx +36 -0
- package/src/tools/local-files/components/FileItem.tsx +117 -0
- package/src/tools/local-files/index.ts +149 -0
- package/src/tools/local-files/systemRole.ts +46 -0
- package/src/tools/local-files/type.ts +33 -0
- package/src/tools/renders.ts +3 -0
- package/packages/electron-client-ipc/src/events/search.ts +0 -4
- package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments.tsx +0 -165
- /package/packages/electron-client-ipc/src/types/{file.ts → upload.ts} +0 -0
@@ -5,9 +5,15 @@
|
|
5
5
|
"01-ai/yi-1.5-9b-chat": {
|
6
6
|
"description": "제로일 만물, 최신 오픈 소스 미세 조정 모델로, 90억 개의 매개변수를 가지고 있으며, 다양한 대화 시나리오를 지원하는 미세 조정, 고품질 훈련 데이터, 인간의 선호에 맞춘 조정을 제공합니다."
|
7
7
|
},
|
8
|
+
"360/deepseek-r1": {
|
9
|
+
"description": "【360 배포판】DeepSeek-R1은 후 훈련 단계에서 대규모로 강화 학습 기술을 사용하여, 극히 적은 주석 데이터로도 모델 추론 능력을 크게 향상시켰습니다. 수학, 코드, 자연어 추론 등의 작업에서 OpenAI o1 정식 버전과 동등한 성능을 자랑합니다."
|
10
|
+
},
|
8
11
|
"360gpt-pro": {
|
9
12
|
"description": "360GPT Pro는 360 AI 모델 시리즈의 중요한 구성원으로, 다양한 자연어 응용 시나리오에 맞춘 효율적인 텍스트 처리 능력을 갖추고 있으며, 긴 텍스트 이해 및 다중 회화 기능을 지원합니다."
|
10
13
|
},
|
14
|
+
"360gpt-pro-trans": {
|
15
|
+
"description": "번역 전용 모델로, 깊이 있는 미세 조정 최적화가 이루어져 있으며, 번역 효과가 뛰어납니다."
|
16
|
+
},
|
11
17
|
"360gpt-turbo": {
|
12
18
|
"description": "360GPT Turbo는 강력한 계산 및 대화 능력을 제공하며, 뛰어난 의미 이해 및 생성 효율성을 갖추고 있어 기업 및 개발자에게 이상적인 스마트 어시스턴트 솔루션입니다."
|
13
19
|
},
|
@@ -62,6 +68,18 @@
|
|
62
68
|
"DeepSeek-R1-Distill-Qwen-7B": {
|
63
69
|
"description": "Qwen2.5-Math-7B를 기반으로 한 DeepSeek-R1 증류 모델로, 강화 학습과 콜드 스타트 데이터를 통해 추론 성능을 최적화하며, 오픈 소스 모델로 다중 작업 기준을 갱신합니다."
|
64
70
|
},
|
71
|
+
"DeepSeek-V3": {
|
72
|
+
"description": "DeepSeek-V3는 심층 탐색 회사에서 자체 개발한 MoE 모델입니다. DeepSeek-V3는 여러 평가에서 Qwen2.5-72B 및 Llama-3.1-405B와 같은 다른 오픈 소스 모델을 초월하며, 성능 면에서 세계 최고의 폐쇄형 모델인 GPT-4o 및 Claude-3.5-Sonnet과 동등합니다."
|
73
|
+
},
|
74
|
+
"Doubao-1.5-thinking-pro": {
|
75
|
+
"description": "Doubao-1.5는 새로운 깊은 사고 모델로, 수학, 프로그래밍, 과학 추론 등 전문 분야 및 창의적 작문 등 일반 작업에서 뛰어난 성능을 발휘하며, AIME 2024, Codeforces, GPQA 등 여러 권위 있는 기준에서 업계 1위 수준에 도달하거나 근접합니다. 128k 문맥 창을 지원하며, 16k 출력을 제공합니다."
|
76
|
+
},
|
77
|
+
"Doubao-1.5-thinking-pro-vision": {
|
78
|
+
"description": "Doubao-1.5는 새로운 깊은 사고 모델로, 수학, 프로그래밍, 과학 추론 등 전문 분야 및 창의적 작문 등 일반 작업에서 뛰어난 성능을 발휘하며, AIME 2024, Codeforces, GPQA 등 여러 권위 있는 기준에서 업계 1위 수준에 도달하거나 근접합니다. 128k 문맥 창을 지원하며, 16k 출력을 제공합니다."
|
79
|
+
},
|
80
|
+
"Doubao-1.5-vision-pro": {
|
81
|
+
"description": "Doubao-1.5-vision-pro는 새롭게 업그레이드된 다중 모드 대모델로, 임의의 해상도와 극단적인 가로 세로 비율의 이미지 인식을 지원하며, 시각적 추론, 문서 인식, 세부 정보 이해 및 지시 준수 능력을 강화합니다."
|
82
|
+
},
|
65
83
|
"Doubao-1.5-vision-pro-32k": {
|
66
84
|
"description": "Doubao-1.5-vision-pro는 새롭게 업그레이드된 다중 모달 대형 모델로, 임의의 해상도와 극단적인 가로 세로 비율의 이미지 인식을 지원하며, 시각적 추론, 문서 인식, 세부 정보 이해 및 지시 준수 능력을 강화했습니다."
|
67
85
|
},
|
@@ -341,6 +359,15 @@
|
|
341
359
|
"SenseChat-Vision": {
|
342
360
|
"description": "최신 버전 모델(V5.5)로, 다중 이미지 입력을 지원하며, 모델의 기본 능력 최적화를 전면적으로 구현하여 객체 속성 인식, 공간 관계, 동작 사건 인식, 장면 이해, 감정 인식, 논리 상식 추론 및 텍스트 이해 생성에서 큰 향상을 이루었습니다."
|
343
361
|
},
|
362
|
+
"SenseNova-V6-Pro": {
|
363
|
+
"description": "이미지, 텍스트, 비디오 기능의 원주율 통합을 실현하여 전통적인 다중 모드의 분리 한계를 극복하고, OpenCompass와 SuperCLUE 평가에서 두 개의 챔피언을 차지했습니다."
|
364
|
+
},
|
365
|
+
"SenseNova-V6-Reasoner": {
|
366
|
+
"description": "시각과 언어의 깊이 있는 추론을 동시에 고려하여, 느린 사고와 깊이 있는 추론을 실현하고, 완전한 사고 과정의 연쇄를 제시합니다."
|
367
|
+
},
|
368
|
+
"SenseNova-V6-Turbo": {
|
369
|
+
"description": "이미지, 텍스트, 비디오 기능의 원주율 통합을 실현하여 전통적인 다중 모드의 분리 한계를 극복하고, 다중 모드 기본 능력, 언어 기본 능력 등 핵심 차원에서 전면적으로 앞서며, 문리 겸수하여 여러 평가에서 국내외 1위 수준에 여러 차례 올라섰습니다."
|
370
|
+
},
|
344
371
|
"Skylark2-lite-8k": {
|
345
372
|
"description": "구름제비(Skylark) 2세대 모델로, Skylark2-lite 모델은 높은 응답 속도를 자랑하며, 실시간 요구가 높은, 비용에 민감하고, 모델 정확도에 대한 요구가 낮은 장면에 적합하며, 컨텍스트 윈도우 길이는 8k입니다."
|
346
373
|
},
|
@@ -356,6 +383,21 @@
|
|
356
383
|
"Skylark2-pro-turbo-8k": {
|
357
384
|
"description": "구름제비(Skylark) 2세대 모델로, Skylark2-pro-turbo-8k는 더 빠른 추론과 낮은 비용을 자랑하며, 컨텍스트 윈도우 길이는 8k입니다."
|
358
385
|
},
|
386
|
+
"THUDM/GLM-4-32B-0414": {
|
387
|
+
"description": "GLM-4-32B-0414는 GLM 시리즈의 차세대 오픈 소스 모델로, 320억 개의 매개변수를 가지고 있습니다. 이 모델은 OpenAI의 GPT 시리즈 및 DeepSeek의 V3/R1 시리즈와 성능이 비슷합니다."
|
388
|
+
},
|
389
|
+
"THUDM/GLM-4-9B-0414": {
|
390
|
+
"description": "GLM-4-9B-0414는 GLM 시리즈의 소형 모델로, 90억 개의 매개변수를 가지고 있습니다. 이 모델은 GLM-4-32B 시리즈의 기술적 특징을 계승하면서도 더 경량화된 배포 옵션을 제공합니다. 규모가 작음에도 불구하고, GLM-4-9B-0414는 코드 생성, 웹 디자인, SVG 그래픽 생성 및 검색 기반 작문 등 작업에서 뛰어난 능력을 보여줍니다."
|
391
|
+
},
|
392
|
+
"THUDM/GLM-Z1-32B-0414": {
|
393
|
+
"description": "GLM-Z1-32B-0414는 깊은 사고 능력을 갖춘 추론 모델로, GLM-4-32B-0414를 기반으로 냉각 시작 및 확장 강화 학습을 통해 개발되었으며, 수학, 코드 및 논리 작업에서 추가 훈련을 받았습니다. 기본 모델에 비해 GLM-Z1-32B-0414는 수학 능력과 복잡한 작업 해결 능력이 크게 향상되었습니다."
|
394
|
+
},
|
395
|
+
"THUDM/GLM-Z1-9B-0414": {
|
396
|
+
"description": "GLM-Z1-9B-0414는 GLM 시리즈의 소형 모델로, 90억 개의 매개변수를 가지고 있지만 오픈 소스 전통을 유지하면서도 놀라운 능력을 보여줍니다. 규모가 작음에도 불구하고, 이 모델은 수학 추론 및 일반 작업에서 여전히 뛰어난 성능을 발휘하며, 동등한 규모의 오픈 소스 모델 중에서 선두 수준에 있습니다."
|
397
|
+
},
|
398
|
+
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
399
|
+
"description": "GLM-Z1-Rumination-32B-0414는 깊은 추론 능력을 갖춘 모델로(OpenAI의 Deep Research와 비교됨), 전형적인 깊은 사고 모델과는 달리, 더 긴 시간 동안 깊은 사고를 통해 더 개방적이고 복잡한 문제를 해결합니다."
|
400
|
+
},
|
359
401
|
"THUDM/chatglm3-6b": {
|
360
402
|
"description": "ChatGLM3-6B는 Zhizhu AI가 개발한 ChatGLM 시리즈의 오픈 소스 모델입니다. 이 모델은 이전 모델의 우수한 특성을 유지하면서 대화의 유창함과 배포 장벽을 낮추는 새로운 기능을 도입했습니다. 더 다양한 훈련 데이터, 충분한 훈련 단계 및 합리적인 훈련 전략을 채택하여 10B 이하의 사전 훈련 모델 중에서 뛰어난 성능을 보입니다. ChatGLM3-6B는 다중 회전 대화, 도구 호출, 코드 실행 및 에이전트 작업과 같은 복잡한 시나리오를 지원합니다. 대화 모델 외에도 기본 모델 ChatGLM-6B-Base 및 긴 텍스트 대화 모델 ChatGLM3-6B-32K도 오픈 소스되었습니다. 이 모델은 학술 연구에 완전히 개방되어 있으며, 등록 후 무료 상업적 사용도 허용됩니다."
|
361
403
|
},
|
@@ -521,6 +563,9 @@
|
|
521
563
|
"charglm-3": {
|
522
564
|
"description": "CharGLM-3는 역할 수행 및 감정 동반을 위해 설계된 모델로, 초장 다회 기억 및 개인화된 대화를 지원하여 광범위하게 사용됩니다."
|
523
565
|
},
|
566
|
+
"charglm-4": {
|
567
|
+
"description": "CharGLM-4는 역할 놀이 및 감정 동반을 위해 설계되었으며, 초장기 다중 회상 및 개인화된 대화를 지원하여 광범위하게 활용됩니다."
|
568
|
+
},
|
524
569
|
"chatglm3": {
|
525
570
|
"description": "ChatGLM3는 지품 AI와 청화 KEG 연구실에서 발표한 폐원 모델로, 대량의 중영 식별자 사전 학습과 인간 선호도 맞춤 학습을 거쳤습니다. 1세대 모델에 비해 MMLU, C-Eval, GSM8K에서 각각 16%, 36%, 280%의 향상을 이루었으며, 중국어 작업 차트 C-Eval에서 1위를 차지했습니다. 이 모델은 지식량, 추론 능력, 창의력이 요구되는 상황, 예를 들어 광고 문안, 소설 작성, 지식 기반 작문, 코드 생성 등에 적합합니다."
|
526
571
|
},
|
@@ -632,9 +677,18 @@
|
|
632
677
|
"command-r-plus-04-2024": {
|
633
678
|
"description": "Command R+는 지시를 따르는 대화 모델로, 언어 작업에서 더 높은 품질과 신뢰성을 제공하며, 이전 모델에 비해 더 긴 컨텍스트 길이를 가지고 있습니다. 복잡한 RAG 워크플로우와 다단계 도구 사용에 가장 적합합니다."
|
634
679
|
},
|
680
|
+
"command-r-plus-08-2024": {
|
681
|
+
"description": "Command R+는 지시를 따르는 대화 모델로, 언어 작업에서 더 높은 품질과 신뢰성을 제공하며, 이전 모델에 비해 더 긴 문맥 길이를 지원합니다. 복잡한 RAG 워크플로우와 다단계 도구 사용에 가장 적합합니다."
|
682
|
+
},
|
635
683
|
"command-r7b-12-2024": {
|
636
684
|
"description": "command-r7b-12-2024는 소형이면서도 효율적인 업데이트 버전으로, 2024년 12월에 출시되었습니다. RAG, 도구 사용, 에이전트 등 복잡한 추론과 다단계 처리가 필요한 작업에서 뛰어난 성능을 발휘합니다."
|
637
685
|
},
|
686
|
+
"compound-beta": {
|
687
|
+
"description": "Compound-beta는 GroqCloud에서 지원하는 여러 개방형 모델로 구성된 복합 AI 시스템으로, 사용자의 쿼리에 답변하기 위해 도구를 지능적으로 선택적으로 사용할 수 있습니다."
|
688
|
+
},
|
689
|
+
"compound-beta-mini": {
|
690
|
+
"description": "Compound-beta-mini는 GroqCloud에서 지원하는 공개 가능한 모델로 구성된 복합 AI 시스템으로, 사용자의 쿼리에 답변하기 위해 도구를 지능적으로 선택적으로 사용할 수 있습니다."
|
691
|
+
},
|
638
692
|
"dall-e-2": {
|
639
693
|
"description": "2세대 DALL·E 모델로, 더 사실적이고 정확한 이미지 생성을 지원하며, 해상도는 1세대의 4배입니다."
|
640
694
|
},
|
@@ -779,6 +833,18 @@
|
|
779
833
|
"deepseek/deepseek-v3/community": {
|
780
834
|
"description": "DeepSeek-V3는 추론 속도에서 이전 모델에 비해 중대한 돌파구를 이루었습니다. 오픈 소스 모델 중 1위를 차지하며, 세계에서 가장 진보된 폐쇄형 모델과 견줄 수 있습니다. DeepSeek-V3는 다중 헤드 잠재 주의(Multi-Head Latent Attention, MLA)와 DeepSeekMoE 아키텍처를 채택하였으며, 이 아키텍처는 DeepSeek-V2에서 철저히 검증되었습니다. 또한, DeepSeek-V3는 부하 균형을 위한 보조 무손실 전략을 개척하고, 더 강력한 성능을 위해 다중 레이블 예측 훈련 목표를 설정했습니다."
|
781
835
|
},
|
836
|
+
"deepseek_r1": {
|
837
|
+
"description": "DeepSeek-R1은 강화 학습(RL) 기반의 추론 모델로, 모델 내의 반복성과 가독성 문제를 해결합니다. RL 이전에 DeepSeek-R1은 냉각 시작 데이터를 도입하여 추론 성능을 더욱 최적화했습니다. 수학, 코드 및 추론 작업에서 OpenAI-o1과 동등한 성능을 보이며, 정교하게 설계된 훈련 방법을 통해 전체적인 효과를 향상시켰습니다."
|
838
|
+
},
|
839
|
+
"deepseek_r1_distill_llama_70b": {
|
840
|
+
"description": "DeepSeek-R1-Distill-Llama-70B는 Llama-3.3-70B-Instruct를 기반으로 증류 훈련을 통해 얻어진 모델입니다. 이 모델은 DeepSeek-R1 시리즈의 일부로, DeepSeek-R1이 생성한 샘플을 사용하여 미세 조정되어 수학, 프로그래밍 및 추론 등 여러 분야에서 뛰어난 성능을 보여줍니다."
|
841
|
+
},
|
842
|
+
"deepseek_r1_distill_qwen_14b": {
|
843
|
+
"description": "DeepSeek-R1-Distill-Qwen-14B는 Qwen2.5-14B를 기반으로 지식 증류를 통해 얻어진 모델입니다. 이 모델은 DeepSeek-R1이 생성한 80만 개의 선별된 샘플을 사용하여 미세 조정되어 뛰어난 추론 능력을 보여줍니다."
|
844
|
+
},
|
845
|
+
"deepseek_r1_distill_qwen_32b": {
|
846
|
+
"description": "DeepSeek-R1-Distill-Qwen-32B는 Qwen2.5-32B를 기반으로 지식 증류를 통해 얻어진 모델입니다. 이 모델은 DeepSeek-R1이 생성한 80만 개의 선별된 샘플을 사용하여 미세 조정되어, 수학, 프로그래밍 및 추론 등 여러 분야에서 뛰어난 성능을 발휘합니다."
|
847
|
+
},
|
782
848
|
"doubao-1.5-lite-32k": {
|
783
849
|
"description": "Doubao-1.5-lite는 전혀 새로운 세대의 경량 모델로, 극한의 응답 속도를 자랑하며, 효과와 지연 모두 세계 최고 수준에 도달했습니다."
|
784
850
|
},
|
@@ -788,6 +854,9 @@
|
|
788
854
|
"doubao-1.5-pro-32k": {
|
789
855
|
"description": "Doubao-1.5-pro는 전혀 새로운 세대의 주력 모델로, 성능이 전면적으로 업그레이드되어 지식, 코드, 추론 등 여러 분야에서 뛰어난 성능을 발휘합니다."
|
790
856
|
},
|
857
|
+
"doubao-1.5-vision-lite": {
|
858
|
+
"description": "Doubao-1.5-vision-lite는 새롭게 업그레이드된 다중 모드 대모델로, 임의의 해상도와 극단적인 가로 세로 비율의 이미지 인식을 지원하며, 시각적 추론, 문서 인식, 세부 정보 이해 및 지시 준수 능력을 강화합니다. 128k 문맥 창을 지원하며, 최대 16k 토큰의 출력 길이를 지원합니다."
|
859
|
+
},
|
791
860
|
"emohaa": {
|
792
861
|
"description": "Emohaa는 심리 모델로, 전문 상담 능력을 갖추고 있어 사용자가 감정 문제를 이해하는 데 도움을 줍니다."
|
793
862
|
},
|
@@ -953,6 +1022,9 @@
|
|
953
1022
|
"glm-4-air": {
|
954
1023
|
"description": "GLM-4-Air는 가성비가 높은 버전으로, GLM-4에 가까운 성능을 제공하며 빠른 속도와 저렴한 가격을 자랑합니다."
|
955
1024
|
},
|
1025
|
+
"glm-4-air-250414": {
|
1026
|
+
"description": "GLM-4-Air는 가성비가 높은 버전으로, GLM-4에 가까운 성능을 제공하며, 빠른 속도와 저렴한 가격을 자랑합니다."
|
1027
|
+
},
|
956
1028
|
"glm-4-airx": {
|
957
1029
|
"description": "GLM-4-AirX는 GLM-4-Air의 효율적인 버전으로, 추론 속도가 최대 2.6배에 달합니다."
|
958
1030
|
},
|
@@ -962,6 +1034,9 @@
|
|
962
1034
|
"glm-4-flash": {
|
963
1035
|
"description": "GLM-4-Flash는 간단한 작업을 처리하는 데 이상적인 선택으로, 가장 빠른 속도와 가장 저렴한 가격을 자랑합니다."
|
964
1036
|
},
|
1037
|
+
"glm-4-flash-250414": {
|
1038
|
+
"description": "GLM-4-Flash는 간단한 작업을 처리하는 데 이상적인 선택으로, 가장 빠르고 무료입니다."
|
1039
|
+
},
|
965
1040
|
"glm-4-flashx": {
|
966
1041
|
"description": "GLM-4-FlashX는 Flash의 향상된 버전으로, 초고속 추론 속도를 자랑합니다."
|
967
1042
|
},
|
@@ -980,6 +1055,18 @@
|
|
980
1055
|
"glm-4v-plus": {
|
981
1056
|
"description": "GLM-4V-Plus는 비디오 콘텐츠 및 다수의 이미지에 대한 이해 능력을 갖추고 있어 다중 모드 작업에 적합합니다."
|
982
1057
|
},
|
1058
|
+
"glm-4v-plus-0111": {
|
1059
|
+
"description": "GLM-4V-Plus는 비디오 콘텐츠 및 여러 이미지에 대한 이해 능력을 갖추고 있어 다중 모드 작업에 적합합니다."
|
1060
|
+
},
|
1061
|
+
"glm-z1-air": {
|
1062
|
+
"description": "추론 모델: 강력한 추론 능력을 갖추고 있으며, 깊은 추론이 필요한 작업에 적합합니다."
|
1063
|
+
},
|
1064
|
+
"glm-z1-airx": {
|
1065
|
+
"description": "초고속 추론: 매우 빠른 추론 속도와 강력한 추론 효과를 제공합니다."
|
1066
|
+
},
|
1067
|
+
"glm-z1-flash": {
|
1068
|
+
"description": "GLM-Z1 시리즈는 강력한 복잡한 추론 능력을 갖추고 있으며, 논리 추론, 수학, 프로그래밍 등 분야에서 뛰어난 성능을 발휘합니다. 최대 문맥 길이는 32K입니다."
|
1069
|
+
},
|
983
1070
|
"glm-zero-preview": {
|
984
1071
|
"description": "GLM-Zero-Preview는 강력한 복잡한 추론 능력을 갖추고 있으며, 논리 추론, 수학, 프로그래밍 등 분야에서 우수한 성능을 발휘합니다."
|
985
1072
|
},
|
@@ -1199,12 +1286,15 @@
|
|
1199
1286
|
"hunyuan-turbos-20250226": {
|
1200
1287
|
"description": "hunyuan-TurboS pv2.1.2 고정 버전 사전 훈련 기반 훈련 토큰 수 업그레이드; 수학/논리/코드 등의 사고 능력 향상; 중문 및 영문 공통 경험 효과 향상, 텍스트 창작, 텍스트 이해, 지식 질문 응답, 잡담 등을 포함합니다."
|
1201
1288
|
},
|
1202
|
-
"hunyuan-turbos-20250313": {
|
1203
|
-
"description": "수학 문제 해결 단계를 통일하여 수학 다단계 질문 응답을 강화합니다. 텍스트 창작 최적화 답변 스타일로 AI 느낌을 제거하고 문학성을 높입니다."
|
1204
|
-
},
|
1205
1289
|
"hunyuan-turbos-latest": {
|
1206
1290
|
"description": "hunyuan-TurboS 혼원 플래그십 대모델 최신 버전으로, 더 강력한 사고 능력과 더 나은 경험 효과를 제공합니다."
|
1207
1291
|
},
|
1292
|
+
"hunyuan-turbos-longtext-128k-20250325": {
|
1293
|
+
"description": "문서 요약 및 문서 질문 응답과 같은 긴 문서 작업을 잘 처리하며, 일반 텍스트 생성 작업도 수행할 수 있는 능력을 갖추고 있습니다. 긴 텍스트 분석 및 생성에서 뛰어난 성능을 발휘하며, 복잡하고 상세한 긴 문서 내용 처리 요구에 효과적으로 대응할 수 있습니다."
|
1294
|
+
},
|
1295
|
+
"hunyuan-turbos-vision": {
|
1296
|
+
"description": "이 모델은 이미지와 텍스트 이해에 적합하며, 혼원 최신 turbos 기반의 차세대 비주얼 언어 플래그십 대모델로, 이미지 기반 개체 인식, 지식 질문 응답, 카피 작성, 사진 문제 해결 등 이미지와 관련된 작업에 집중하고 있으며, 이전 세대 모델에 비해 전반적으로 향상되었습니다."
|
1297
|
+
},
|
1208
1298
|
"hunyuan-vision": {
|
1209
1299
|
"description": "혼원 최신 다중 모달 모델로, 이미지와 텍스트 입력을 지원하여 텍스트 콘텐츠를 생성합니다."
|
1210
1300
|
},
|
@@ -1223,6 +1313,12 @@
|
|
1223
1313
|
"internlm3-latest": {
|
1224
1314
|
"description": "우리의 최신 모델 시리즈는 뛰어난 추론 성능을 가지고 있으며, 동급 오픈 소스 모델 중에서 선두를 달리고 있습니다. 기본적으로 최신 출시된 InternLM3 시리즈 모델을 가리킵니다."
|
1225
1315
|
},
|
1316
|
+
"jamba-large": {
|
1317
|
+
"description": "가장 강력하고 진보된 모델로, 기업급 복잡한 작업을 처리하도록 설계되었으며, 뛰어난 성능을 제공합니다."
|
1318
|
+
},
|
1319
|
+
"jamba-mini": {
|
1320
|
+
"description": "동급에서 가장 효율적인 모델로, 속도와 품질을 모두 갖추고 있으며, 더 작은 크기를 자랑합니다."
|
1321
|
+
},
|
1226
1322
|
"jina-deepsearch-v1": {
|
1227
1323
|
"description": "딥 서치는 웹 검색, 독서 및 추론을 결합하여 포괄적인 조사를 수행합니다. 연구 작업을 수용하는 에이전트로 생각할 수 있으며, 광범위한 검색을 수행하고 여러 번 반복한 후에야 답변을 제공합니다. 이 과정은 지속적인 연구, 추론 및 다양한 각도에서 문제를 해결하는 것을 포함합니다. 이는 사전 훈련된 데이터에서 직접 답변을 생성하는 표준 대형 모델 및 일회성 표면 검색에 의존하는 전통적인 RAG 시스템과 근본적으로 다릅니다."
|
1228
1324
|
},
|
@@ -1568,9 +1664,18 @@
|
|
1568
1664
|
"o1-preview": {
|
1569
1665
|
"description": "o1은 OpenAI의 새로운 추론 모델로, 광범위한 일반 지식이 필요한 복잡한 작업에 적합합니다. 이 모델은 128K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다."
|
1570
1666
|
},
|
1667
|
+
"o3": {
|
1668
|
+
"description": "o3는 다재다능한 강력한 모델로, 여러 분야에서 뛰어난 성능을 발휘합니다. 수학, 과학, 프로그래밍 및 시각적 추론 작업에서 새로운 기준을 세웠습니다. 기술 작문 및 지시 준수에도 능숙합니다. 사용자는 이를 통해 텍스트, 코드 및 이미지를 분석하고, 다단계 복잡한 문제를 해결할 수 있습니다."
|
1669
|
+
},
|
1571
1670
|
"o3-mini": {
|
1572
1671
|
"description": "o3-mini는 최신 소형 추론 모델로, o1-mini와 동일한 비용과 지연 목표에서 높은 지능을 제공합니다."
|
1573
1672
|
},
|
1673
|
+
"o3-mini-high": {
|
1674
|
+
"description": "o3-mini 고급 추론 버전으로, o1-mini와 동일한 비용 및 지연 목표에서 높은 지능을 제공합니다."
|
1675
|
+
},
|
1676
|
+
"o4-mini": {
|
1677
|
+
"description": "o4-mini는 최신 소형 o 시리즈 모델로, 빠르고 효율적인 추론을 위해 최적화되어 있으며, 코딩 및 시각적 작업에서 매우 높은 효율성과 성능을 자랑합니다."
|
1678
|
+
},
|
1574
1679
|
"open-codestral-mamba": {
|
1575
1680
|
"description": "Codestral Mamba는 코드 생성을 전문으로 하는 Mamba 2 언어 모델로, 고급 코드 및 추론 작업에 강력한 지원을 제공합니다."
|
1576
1681
|
},
|
@@ -1598,6 +1703,12 @@
|
|
1598
1703
|
"openai/o1-preview": {
|
1599
1704
|
"description": "o1은 OpenAI의 새로운 추론 모델로, 광범위한 일반 지식이 필요한 복잡한 작업에 적합합니다. 이 모델은 128K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다."
|
1600
1705
|
},
|
1706
|
+
"openai/o4-mini": {
|
1707
|
+
"description": "o4-mini는 빠르고 효율적인 추론을 위해 최적화되어 있으며, 코딩 및 시각적 작업에서 매우 높은 효율성과 성능을 자랑합니다."
|
1708
|
+
},
|
1709
|
+
"openai/o4-mini-high": {
|
1710
|
+
"description": "o4-mini 고급 추론 버전으로, 빠르고 효율적인 추론을 위해 최적화되어 있으며, 코딩 및 시각적 작업에서 매우 높은 효율성과 성능을 자랑합니다."
|
1711
|
+
},
|
1601
1712
|
"openrouter/auto": {
|
1602
1713
|
"description": "요청은 컨텍스트 길이, 주제 및 복잡성에 따라 Llama 3 70B Instruct, Claude 3.5 Sonnet(자기 조정) 또는 GPT-4o로 전송됩니다."
|
1603
1714
|
},
|
@@ -1793,6 +1904,9 @@
|
|
1793
1904
|
"qwq-plus-latest": {
|
1794
1905
|
"description": "Qwen2.5 모델을 기반으로 훈련된 QwQ 추론 모델로, 강화 학습을 통해 모델의 추론 능력을 크게 향상시켰습니다. 모델의 수학 코드 등 핵심 지표(AIME 24/25, LiveCodeBench) 및 일부 일반 지표(IFEval, LiveBench 등)는 DeepSeek-R1 풀 버전 수준에 도달했습니다."
|
1795
1906
|
},
|
1907
|
+
"qwq_32b": {
|
1908
|
+
"description": "Qwen 시리즈의 중간 규모 추론 모델입니다. 전통적인 지시 조정 모델에 비해 사고 및 추론 능력을 갖춘 QwQ는 하위 작업에서, 특히 문제 해결 시 성능을 크게 향상시킬 수 있습니다."
|
1909
|
+
},
|
1796
1910
|
"r1-1776": {
|
1797
1911
|
"description": "R1-1776은 DeepSeek R1 모델의 한 버전으로, 후속 훈련을 거쳐 검토되지 않은 편향 없는 사실 정보를 제공합니다."
|
1798
1912
|
},
|
@@ -1853,12 +1967,21 @@
|
|
1853
1967
|
"step-2-16k": {
|
1854
1968
|
"description": "대규모 컨텍스트 상호작용을 지원하며, 복잡한 대화 시나리오에 적합합니다."
|
1855
1969
|
},
|
1970
|
+
"step-2-16k-exp": {
|
1971
|
+
"description": "step-2 모델의 실험 버전으로, 최신 기능이 포함되어 있으며, 지속적으로 업데이트됩니다. 공식 생산 환경에서 사용을 권장하지 않습니다."
|
1972
|
+
},
|
1856
1973
|
"step-2-mini": {
|
1857
1974
|
"description": "신세대 자체 개발 Attention 아키텍처인 MFA를 기반으로 한 초고속 대형 모델로, 매우 낮은 비용으로 step1과 유사한 효과를 달성하면서도 더 높은 처리량과 더 빠른 응답 지연을 유지합니다. 일반적인 작업을 처리할 수 있으며, 코드 능력에 있어 특장점을 가지고 있습니다."
|
1858
1975
|
},
|
1976
|
+
"step-r1-v-mini": {
|
1977
|
+
"description": "이 모델은 강력한 이미지 이해 능력을 갖춘 추론 대모델로, 이미지와 텍스트 정보를 처리하며, 깊은 사고 후 텍스트를 생성합니다. 이 모델은 시각적 추론 분야에서 두드러진 성능을 보이며, 1차 대열의 수학, 코드, 텍스트 추론 능력을 갖추고 있습니다. 문맥 길이는 100k입니다."
|
1978
|
+
},
|
1859
1979
|
"taichu_llm": {
|
1860
1980
|
"description": "자이동 태초 언어 대모델은 뛰어난 언어 이해 능력과 텍스트 창작, 지식 질문 응답, 코드 프로그래밍, 수학 계산, 논리 추론, 감정 분석, 텍스트 요약 등의 능력을 갖추고 있습니다. 혁신적으로 대규모 데이터 사전 훈련과 다원적 풍부한 지식을 결합하여 알고리즘 기술을 지속적으로 다듬고, 방대한 텍스트 데이터에서 어휘, 구조, 문법, 의미 등의 새로운 지식을 지속적으로 흡수하여 모델 성능을 지속적으로 진화시킵니다. 사용자에게 보다 편리한 정보와 서비스, 그리고 더 지능적인 경험을 제공합니다."
|
1861
1981
|
},
|
1982
|
+
"taichu_o1": {
|
1983
|
+
"description": "taichu_o1은 차세대 추론 대모델로, 다중 모드 상호작용과 강화 학습을 통해 인간과 유사한 사고 체계를 구현하며, 복잡한 의사결정 시나리오를 지원합니다. 높은 정확도의 출력을 유지하면서도 모델 추론의 사고 경로를 보여주며, 전략 분석 및 깊은 사고와 같은 시나리오에 적합합니다."
|
1984
|
+
},
|
1862
1985
|
"taichu_vl": {
|
1863
1986
|
"description": "이미지 이해, 지식 이전, 논리 귀속 등의 능력을 통합하여, 이미지-텍스트 질문 응답 분야에서 뛰어난 성능을 보입니다."
|
1864
1987
|
},
|
package/locales/ko-KR/tool.json
CHANGED
@@ -7,6 +7,20 @@
|
|
7
7
|
"images": "이미지:",
|
8
8
|
"prompt": "알림 단어"
|
9
9
|
},
|
10
|
+
"localFiles": {
|
11
|
+
"file": "파일",
|
12
|
+
"folder": "폴더",
|
13
|
+
"open": "열기",
|
14
|
+
"openFile": "파일 열기",
|
15
|
+
"openFolder": "폴더 열기",
|
16
|
+
"read": {
|
17
|
+
"more": "더 보기"
|
18
|
+
},
|
19
|
+
"readFile": "파일 읽기",
|
20
|
+
"readFileError": "파일 읽기 실패, 파일 경로가 올바른지 확인하세요",
|
21
|
+
"readFiles": "파일 읽기",
|
22
|
+
"readFilesError": "파일 읽기 실패, 파일 경로가 올바른지 확인하세요"
|
23
|
+
},
|
10
24
|
"search": {
|
11
25
|
"createNewSearch": "새 검색 기록 만들기",
|
12
26
|
"emptyResult": "결과를 찾을 수 없습니다. 키워드를 수정한 후 다시 시도해 주세요.",
|
@@ -44,5 +58,16 @@
|
|
44
58
|
"summary": "요약",
|
45
59
|
"summaryTooltip": "현재 내용 요약",
|
46
60
|
"viewMoreResults": "{{results}}개의 결과 더 보기"
|
61
|
+
},
|
62
|
+
"updateArgs": {
|
63
|
+
"duplicateKeyError": "필드 키는 고유해야 합니다",
|
64
|
+
"form": {
|
65
|
+
"add": "항목 추가",
|
66
|
+
"key": "필드 키",
|
67
|
+
"value": "필드 값"
|
68
|
+
},
|
69
|
+
"formValidationFailed": "양식 검증 실패, 매개변수 형식을 확인하세요",
|
70
|
+
"keyRequired": "필드 키는 비워둘 수 없습니다",
|
71
|
+
"stringifyError": "매개변수를 직렬화할 수 없습니다, 매개변수 형식을 확인하세요"
|
47
72
|
}
|
48
73
|
}
|
@@ -0,0 +1,32 @@
|
|
1
|
+
{
|
2
|
+
"remoteServer": {
|
3
|
+
"authError": "Autorisatiefout: {{error}}",
|
4
|
+
"authPending": "Voltooi de autorisatie in de browser",
|
5
|
+
"configDesc": "Verbind met de externe LobeChat-server om gegevenssynchronisatie in te schakelen",
|
6
|
+
"configError": "Configuratiefout",
|
7
|
+
"configTitle": "Cloud-synchronisatie configureren",
|
8
|
+
"connect": "Verbinden en autoriseren",
|
9
|
+
"connected": "Verbonden",
|
10
|
+
"disconnect": "Verbinding verbreken",
|
11
|
+
"disconnectError": "Verbinding verbreken mislukt",
|
12
|
+
"disconnected": "Niet verbonden",
|
13
|
+
"fetchError": "Configuratie ophalen mislukt",
|
14
|
+
"invalidUrl": "Voer een geldige URL in",
|
15
|
+
"serverUrl": "Serveradres",
|
16
|
+
"statusConnected": "Verbonden",
|
17
|
+
"statusDisconnected": "Niet verbonden",
|
18
|
+
"urlRequired": "Voer het serveradres in"
|
19
|
+
},
|
20
|
+
"updater": {
|
21
|
+
"downloadingUpdate": "Update aan het downloaden",
|
22
|
+
"downloadingUpdateDesc": "De update wordt gedownload, even geduld...",
|
23
|
+
"later": "Later bijwerken",
|
24
|
+
"newVersionAvailable": "Nieuwe versie beschikbaar",
|
25
|
+
"newVersionAvailableDesc": "Nieuwe versie {{version}} gevonden, wilt u deze nu downloaden?",
|
26
|
+
"restartAndInstall": "Herstarten en installeren",
|
27
|
+
"updateError": "Updatefout",
|
28
|
+
"updateReady": "Update gereed",
|
29
|
+
"updateReadyDesc": "Lobe Chat {{version}} is gedownload, herstart de applicatie om de installatie te voltooien.",
|
30
|
+
"upgradeNow": "Nu bijwerken"
|
31
|
+
}
|
32
|
+
}
|