@lobehub/lobehub 2.0.0-next.309 → 2.0.0-next.310
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/e2e/src/steps/page/page-crud.steps.ts +119 -17
- package/locales/ar/auth.json +5 -0
- package/locales/ar/models.json +51 -0
- package/locales/ar/plugin.json +3 -0
- package/locales/bg-BG/auth.json +5 -0
- package/locales/bg-BG/models.json +41 -0
- package/locales/bg-BG/plugin.json +3 -0
- package/locales/de-DE/auth.json +5 -0
- package/locales/de-DE/models.json +39 -0
- package/locales/de-DE/plugin.json +3 -0
- package/locales/en-US/models.json +1 -0
- package/locales/es-ES/auth.json +5 -0
- package/locales/es-ES/models.json +48 -0
- package/locales/es-ES/plugin.json +3 -0
- package/locales/fa-IR/auth.json +5 -0
- package/locales/fa-IR/models.json +39 -0
- package/locales/fa-IR/plugin.json +3 -0
- package/locales/fr-FR/auth.json +5 -0
- package/locales/fr-FR/models.json +40 -0
- package/locales/fr-FR/plugin.json +3 -0
- package/locales/it-IT/auth.json +5 -0
- package/locales/it-IT/models.json +42 -0
- package/locales/it-IT/plugin.json +3 -0
- package/locales/ja-JP/auth.json +5 -0
- package/locales/ja-JP/models.json +39 -0
- package/locales/ja-JP/plugin.json +3 -0
- package/locales/ko-KR/auth.json +5 -0
- package/locales/ko-KR/models.json +41 -0
- package/locales/ko-KR/plugin.json +3 -0
- package/locales/nl-NL/auth.json +5 -0
- package/locales/nl-NL/models.json +51 -0
- package/locales/nl-NL/plugin.json +3 -0
- package/locales/pl-PL/auth.json +5 -0
- package/locales/pl-PL/models.json +41 -0
- package/locales/pl-PL/plugin.json +3 -0
- package/locales/pt-BR/auth.json +5 -0
- package/locales/pt-BR/models.json +44 -0
- package/locales/pt-BR/plugin.json +3 -0
- package/locales/ru-RU/auth.json +5 -0
- package/locales/ru-RU/models.json +41 -0
- package/locales/ru-RU/plugin.json +3 -0
- package/locales/tr-TR/auth.json +5 -0
- package/locales/tr-TR/models.json +41 -0
- package/locales/tr-TR/plugin.json +3 -0
- package/locales/vi-VN/auth.json +5 -0
- package/locales/vi-VN/models.json +20 -0
- package/locales/vi-VN/plugin.json +3 -0
- package/locales/zh-CN/models.json +42 -0
- package/locales/zh-TW/auth.json +5 -0
- package/locales/zh-TW/models.json +32 -0
- package/locales/zh-TW/plugin.json +3 -0
- package/package.json +1 -1
package/locales/ko-KR/auth.json
CHANGED
|
@@ -28,6 +28,11 @@
|
|
|
28
28
|
"apikey.list.columns.status": "활성 상태",
|
|
29
29
|
"apikey.list.title": "API 키 목록",
|
|
30
30
|
"apikey.validation.required": "내용을 비워둘 수 없습니다",
|
|
31
|
+
"authModal.description": "로그인 세션이 만료되었습니다. 클라우드 동기화 기능을 계속 사용하려면 다시 로그인해 주세요.",
|
|
32
|
+
"authModal.later": "나중에",
|
|
33
|
+
"authModal.signIn": "다시 로그인",
|
|
34
|
+
"authModal.signingIn": "로그인 중...",
|
|
35
|
+
"authModal.title": "세션 만료",
|
|
31
36
|
"betterAuth.errors.confirmPasswordRequired": "비밀번호 확인이 필요합니다",
|
|
32
37
|
"betterAuth.errors.emailExists": "이 이메일은 이미 등록되어 있습니다. 바로 로그인해 주세요.",
|
|
33
38
|
"betterAuth.errors.emailInvalid": "유효한 이메일 주소를 입력하세요",
|
|
@@ -355,6 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2는 DeepSeekMoE-27B 기반의 MoE 비전-언어 모델로, 희소 활성화를 통해 4.5B 활성 파라미터만으로도 뛰어난 성능을 발휘합니다. 시각적 QA, OCR, 문서/표/차트 이해, 시각적 정렬에 탁월합니다.",
|
|
358
|
+
"deepseek-chat.description": "일반 대화와 코드 능력을 결합한 새로운 오픈소스 모델입니다. 대화 모델의 자연스러운 대화 능력과 코드 모델의 강력한 코딩 성능을 유지하면서, 선호도 정렬이 더욱 향상되었습니다. DeepSeek-V2.5는 글쓰기와 지시 따르기 능력도 개선되었습니다.",
|
|
358
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B는 2T 토큰(코드 87%, 중/영문 텍스트 13%)으로 학습된 코드 언어 모델입니다. 16K 문맥 창과 중간 채우기(fit-in-the-middle) 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 보완을 지원합니다.",
|
|
359
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
|
|
360
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
|
|
@@ -377,6 +378,7 @@
|
|
|
377
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1의 빠른 전체 버전으로, 실시간 웹 검색을 지원하며 671B 규모의 성능과 빠른 응답을 결합합니다.",
|
|
378
379
|
"deepseek-r1-online.description": "DeepSeek R1 전체 버전은 671B 파라미터와 실시간 웹 검색을 지원하여 더 강력한 이해 및 생성 능력을 제공합니다.",
|
|
379
380
|
"deepseek-r1.description": "DeepSeek-R1은 강화 학습 전 콜드 스타트 데이터를 사용하며, 수학, 코딩, 추론에서 OpenAI-o1과 유사한 성능을 보입니다.",
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 사고 모드는 최종 답변 전에 사고 과정을 출력하여 정확도를 높입니다.",
|
|
380
382
|
"deepseek-v2.description": "DeepSeek V2는 비용 효율적인 처리를 위한 고효율 MoE 모델입니다.",
|
|
381
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B는 코드 생성에 강점을 가진 DeepSeek의 코드 특화 모델입니다.",
|
|
382
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324는 671B 파라미터의 MoE 모델로, 프로그래밍 및 기술 역량, 문맥 이해, 장문 처리에서 뛰어난 성능을 보입니다.",
|
|
@@ -386,6 +388,7 @@
|
|
|
386
388
|
"deepseek-v3.1:671b.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
|
|
387
389
|
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp는 희소 어텐션을 도입하여 장문 텍스트의 학습 및 추론 효율을 향상시키며, deepseek-v3.1보다 저렴한 비용으로 제공됩니다.",
|
|
388
390
|
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think는 더욱 강력한 장기 연쇄 추론을 지원하는 완전한 심층 사고 모델입니다.",
|
|
391
|
+
"deepseek-v3.2.description": "DeepSeek-V3.2는 DeepSeek의 첫 번째 하이브리드 추론 모델로, 사고 과정을 도구 사용에 통합합니다. 효율적인 아키텍처로 연산을 절감하고, 대규모 강화 학습으로 능력을 향상시키며, 대규모 합성 작업 데이터를 통해 일반화 능력을 강화합니다. 이 세 가지 요소의 결합으로 GPT-5-High에 필적하는 성능을 달성하면서 출력 길이를 크게 줄여 연산 부담과 사용자 대기 시간을 현저히 감소시킵니다.",
|
|
389
392
|
"deepseek-v3.description": "DeepSeek-V3는 총 671B 파라미터 중 토큰당 37B가 활성화되는 강력한 MoE 모델입니다.",
|
|
390
393
|
"deepseek-vl2-small.description": "DeepSeek VL2 Small은 자원이 제한되거나 동시 접속이 많은 환경을 위한 경량 멀티모달 모델입니다.",
|
|
391
394
|
"deepseek-vl2.description": "DeepSeek VL2는 이미지-텍스트 이해와 정밀한 시각적 질의응답을 위한 멀티모달 모델입니다.",
|
|
@@ -393,6 +396,7 @@
|
|
|
393
396
|
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3는 685B 파라미터의 MoE 모델로, DeepSeek의 대표 챗봇 시리즈의 최신 버전입니다.\n\n[DeepSeek V3](/deepseek/deepseek-chat-v3)를 기반으로 하며 다양한 작업에서 우수한 성능을 발휘합니다.",
|
|
394
397
|
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1은 DeepSeek의 장문 컨텍스트 하이브리드 추론 모델로, 사고/비사고 모드 전환과 도구 통합을 지원합니다.",
|
|
395
398
|
"deepseek/deepseek-chat.description": "DeepSeek-V3는 복잡한 작업과 도구 통합을 위한 DeepSeek의 고성능 하이브리드 추론 모델입니다.",
|
|
399
|
+
"deepseek/deepseek-math-v2.description": "DeepSeek Math V2는 수학적 추론 능력에서 획기적인 발전을 이룬 모델입니다. 핵심 혁신은 '자기 검증' 훈련 메커니즘에 있으며, 여러 국제 수학 대회에서 금메달 수준의 성과를 달성했습니다.",
|
|
396
400
|
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528은 공개 사용성과 심화된 추론 능력에 중점을 둔 업데이트 버전입니다.",
|
|
397
401
|
"deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1은 최소한의 라벨링 데이터로 추론 능력을 크게 향상시키며, 최종 답변 전 사고 과정을 출력하여 정확도를 높입니다.",
|
|
398
402
|
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B는 Llama 3.3 70B 기반의 경량화된 LLM으로, DeepSeek R1의 출력 데이터를 활용해 파인튜닝되어 대형 모델과 경쟁력 있는 성능을 보입니다.",
|
|
@@ -431,6 +435,7 @@
|
|
|
431
435
|
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6-thinking은 Doubao-1.5-thinking-pro보다 코딩, 수학, 논리 추론의 핵심 능력을 더욱 강화하고, 비전 이해 기능을 추가한 모델입니다. 256k 컨텍스트 윈도우와 최대 16k 출력 토큰을 지원합니다.",
|
|
432
436
|
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision은 교육, 이미지 리뷰, 검사/보안, AI 검색 QA 등에서 강력한 멀티모달 이해 및 추론을 제공하는 시각 심층 추론 모델입니다. 256k 컨텍스트 윈도우와 최대 64k 출력 토큰을 지원합니다.",
|
|
433
437
|
"doubao-seed-1.6.description": "Doubao-Seed-1.6은 자동, 추론, 비추론 모드를 지원하는 새로운 멀티모달 심층 추론 모델입니다. 비추론 모드에서는 Doubao-1.5-pro/250115보다 현저히 뛰어난 성능을 보입니다. 256k 컨텍스트 윈도우와 최대 16k 출력 토큰을 지원합니다.",
|
|
438
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8은 멀티모달 이해와 에이전트 기능이 강화되었으며, 텍스트/이미지/비디오 입력과 컨텍스트 캐싱을 지원하여 복잡한 작업에서도 뛰어난 성능을 발휘합니다.",
|
|
434
439
|
"doubao-seed-code.description": "Doubao-Seed-Code는 에이전트 기반 코딩에 최적화된 모델로, 멀티모달 입력(텍스트/이미지/비디오)과 256k 컨텍스트 윈도우를 지원하며, Anthropic API와 호환됩니다. 코딩, 비전 이해, 에이전트 워크플로우에 적합합니다.",
|
|
435
440
|
"doubao-seededit-3-0-i2i-250628.description": "ByteDance Seed의 Doubao 이미지 모델은 텍스트 및 이미지 입력을 지원하며, 고품질의 이미지 생성과 높은 제어력을 제공합니다. 텍스트 기반 이미지 편집을 지원하며, 출력 크기는 긴 변 기준 512~1536 사이입니다.",
|
|
436
441
|
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0은 ByteDance Seed의 이미지 생성 모델로, 텍스트 및 이미지 입력을 지원하며, 고품질의 이미지 생성과 높은 제어력을 제공합니다. 텍스트 프롬프트로부터 이미지를 생성합니다.",
|
|
@@ -467,6 +472,7 @@
|
|
|
467
472
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K는 간단한 질의응답, 분류, 저비용 추론에 적합한 초경량 모델입니다.",
|
|
468
473
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K는 복잡한 추론 및 다중 턴 대화를 위한 32K 컨텍스트의 고속 사고 모델입니다.",
|
|
469
474
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview는 평가 및 테스트를 위한 사고 모델 프리뷰입니다.",
|
|
475
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0은 ByteDance Seed에서 개발한 이미지 생성 모델로, 텍스트 및 이미지 입력을 지원하며, 고품질의 이미지 생성과 높은 제어 가능성을 제공합니다. 텍스트 프롬프트로부터 이미지를 생성합니다.",
|
|
470
476
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 모델은 이미지 편집에 중점을 두며, 텍스트와 이미지 입력을 지원합니다.",
|
|
471
477
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro]는 텍스트와 참조 이미지를 입력으로 받아, 국소 편집과 복잡한 장면 변환을 정밀하게 수행할 수 있습니다.",
|
|
472
478
|
"fal-ai/flux/krea.description": "Flux Krea [dev]는 보다 사실적이고 자연스러운 이미지 스타일에 중점을 둔 이미지 생성 모델입니다.",
|
|
@@ -474,6 +480,8 @@
|
|
|
474
480
|
"fal-ai/hunyuan-image/v3.description": "강력한 네이티브 멀티모달 이미지 생성 모델입니다.",
|
|
475
481
|
"fal-ai/imagen4/preview.description": "Google에서 개발한 고품질 이미지 생성 모델입니다.",
|
|
476
482
|
"fal-ai/nano-banana.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
|
|
483
|
+
"fal-ai/qwen-image-edit.description": "Qwen 팀에서 개발한 전문 이미지 편집 모델로, 의미 기반 및 외형 편집을 지원하며, 중국어와 영어 텍스트를 정밀하게 편집하고 스타일 전환, 객체 회전 등 고품질 편집이 가능합니다.",
|
|
484
|
+
"fal-ai/qwen-image.description": "Qwen 팀에서 개발한 강력한 이미지 생성 모델로, 중국어 텍스트 렌더링이 뛰어나며 다양한 시각 스타일을 제공합니다.",
|
|
477
485
|
"flux-1-schnell.description": "Black Forest Labs에서 개발한 120억 파라미터 텍스트-이미지 모델로, 잠재 적대 확산 증류를 사용하여 1~4단계 내에 고품질 이미지를 생성합니다. Apache-2.0 라이선스로 개인, 연구, 상업적 사용이 가능합니다.",
|
|
478
486
|
"flux-dev.description": "FLUX.1 [dev]는 오픈 가중치 증류 모델로, 비상업적 사용을 위해 설계되었습니다. 전문가 수준의 이미지 품질과 지시 따르기를 유지하면서도 더 효율적으로 작동하며, 동일 크기의 표준 모델보다 자원을 더 잘 활용합니다.",
|
|
479
487
|
"flux-kontext-max.description": "최첨단 문맥 기반 이미지 생성 및 편집 모델로, 텍스트와 이미지를 결합하여 정밀하고 일관된 결과를 생성합니다.",
|
|
@@ -519,6 +527,7 @@
|
|
|
519
527
|
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview는 Google의 가장 진보된 추론 모델로, 코드, 수학, STEM 문제에 대한 추론과 대규모 데이터셋, 코드베이스, 문서 분석을 장기 문맥 내에서 수행할 수 있습니다.",
|
|
520
528
|
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview는 Google의 가장 진보된 추론 모델로, 코드, 수학, STEM 문제에 대한 추론과 대규모 데이터셋, 코드베이스, 문서 분석을 장기 문맥 내에서 수행할 수 있습니다.",
|
|
521
529
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro는 Google의 플래그십 추론 모델로, 복잡한 작업을 위한 장기 문맥 지원을 제공합니다.",
|
|
530
|
+
"gemini-3-flash-preview.description": "Gemini 3 Flash는 속도를 위해 설계된 가장 스마트한 모델로, 최첨단 지능과 뛰어난 검색 기반을 결합합니다.",
|
|
522
531
|
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)는 Google의 이미지 생성 모델로, 멀티모달 대화도 지원합니다.",
|
|
523
532
|
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)는 Google의 이미지 생성 모델로, 멀티모달 대화도 지원합니다.",
|
|
524
533
|
"gemini-3-pro-preview.description": "Gemini 3 Pro는 Google의 가장 강력한 에이전트 및 바이브 코딩 모델로, 최첨단 추론 위에 풍부한 시각적 표현과 깊은 상호작용을 제공합니다.",
|
|
@@ -532,6 +541,38 @@
|
|
|
532
541
|
"gemma2:2b.description": "Gemma 2는 Google의 효율적인 모델로, 소형 앱부터 복잡한 데이터 처리까지 다양한 사용 사례를 지원합니다.",
|
|
533
542
|
"generalv3.5.description": "Spark Max는 웹 검색과 다양한 내장 플러그인을 지원하는 가장 완전한 기능의 버전입니다. 최적화된 핵심 기능, 시스템 역할, 함수 호출을 통해 복잡한 애플리케이션 시나리오에서도 뛰어난 성능을 발휘합니다.",
|
|
534
543
|
"generalv3.description": "Spark Pro는 수학, 프로그래밍, 의료, 교육 등 전문 분야에 최적화된 고성능 LLM입니다. 웹 검색과 날씨, 날짜 등 내장 플러그인을 지원하며, 복잡한 지식 질의응답, 언어 이해, 고급 텍스트 생성에서 강력한 성능과 효율성을 제공합니다. 전문가용 사용 사례에 이상적입니다.",
|
|
544
|
+
"glm-4-0520.description": "GLM-4-0520은 최신 버전의 모델로, 매우 복잡하고 다양한 작업을 위한 탁월한 성능을 제공합니다.",
|
|
545
|
+
"glm-4-32b-0414.description": "GLM-4 32B 0414는 다중 작업 텍스트 생성 및 이해를 지원하는 범용 GLM 모델입니다.",
|
|
546
|
+
"glm-4-9b-chat.description": "GLM-4-9B-Chat은 의미 이해, 수학, 추론, 코딩, 지식 등 다양한 영역에서 강력한 성능을 보입니다. 웹 브라우징, 코드 실행, 사용자 정의 도구 호출, 장문 추론을 지원하며, 일본어, 한국어, 독일어 등 26개 언어를 지원합니다.",
|
|
547
|
+
"glm-4-air-250414.description": "GLM-4-Air는 GLM-4에 근접한 성능을 제공하면서도 빠른 속도와 낮은 비용을 자랑하는 고가치 모델입니다.",
|
|
548
|
+
"glm-4-air.description": "GLM-4-Air는 GLM-4에 근접한 성능을 제공하면서도 빠른 속도와 낮은 비용을 자랑하는 고가치 모델입니다.",
|
|
549
|
+
"glm-4-airx.description": "GLM-4-AirX는 GLM-4-Air의 고속 버전으로, 최대 2.6배 빠른 추론 속도를 제공합니다.",
|
|
550
|
+
"glm-4-alltools.description": "GLM-4-AllTools는 웹 브라우징, 코드 설명, 텍스트 생성 등 복잡한 지시 계획과 도구 사용에 최적화된 다기능 에이전트 모델로, 다중 작업 실행에 적합합니다.",
|
|
551
|
+
"glm-4-flash-250414.description": "GLM-4-Flash는 단순 작업에 이상적인 모델로, 가장 빠르고 무료입니다.",
|
|
552
|
+
"glm-4-flash.description": "GLM-4-Flash는 단순 작업에 이상적인 모델로, 가장 빠르고 무료입니다.",
|
|
553
|
+
"glm-4-flashx.description": "GLM-4-FlashX는 초고속 추론을 제공하는 Flash의 향상된 버전입니다.",
|
|
554
|
+
"glm-4-long.description": "GLM-4-Long은 초장문 입력을 지원하여 기억 기반 작업 및 대규모 문서 처리에 적합합니다.",
|
|
555
|
+
"glm-4-plus.description": "GLM-4-Plus는 고지능 플래그십 모델로, 장문 및 복잡한 작업 처리에 강하며 전반적인 성능이 업그레이드되었습니다.",
|
|
556
|
+
"glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking은 약 100억 파라미터 규모의 가장 강력한 VLM으로, 영상 이해, 이미지 QA, 과목 문제 해결, OCR, 문서 및 차트 읽기, GUI 에이전트, 프론트엔드 코딩, 그라운딩 등 SOTA 작업을 포괄합니다. 고급 RL을 통해 사고 과정을 활용하여 정확성과 풍부함을 높이며, 전통적인 비사고 모델보다 결과와 설명력 모두에서 우수합니다.",
|
|
557
|
+
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking은 약 100억 파라미터 규모의 가장 강력한 VLM으로, 영상 이해, 이미지 QA, 과목 문제 해결, OCR, 문서 및 차트 읽기, GUI 에이전트, 프론트엔드 코딩, 그라운딩 등 SOTA 작업을 포괄합니다. 고급 RL을 통해 사고 과정을 활용하여 정확성과 풍부함을 높이며, 전통적인 비사고 모델보다 결과와 설명력 모두에서 우수합니다.",
|
|
558
|
+
"glm-4.5-air.description": "GLM-4.5 경량 버전으로, 성능과 비용의 균형을 이루며 유연한 하이브리드 사고 모드를 지원합니다.",
|
|
559
|
+
"glm-4.5-airx.description": "GLM-4.5-Air 고속 버전으로, 대규모 고속 사용에 적합한 빠른 응답을 제공합니다.",
|
|
560
|
+
"glm-4.5-flash.description": "GLM-4.5 무료 버전으로, 추론, 코딩, 에이전트 작업에서 강력한 성능을 발휘합니다.",
|
|
561
|
+
"glm-4.5-x.description": "GLM-4.5 고속 버전으로, 최대 초당 100토큰 생성 속도로 강력한 성능을 제공합니다.",
|
|
562
|
+
"glm-4.5.description": "Zhipu의 플래그십 모델로, 사고 모드 전환이 가능하며 오픈소스 SOTA 성능과 최대 128K 컨텍스트를 지원합니다.",
|
|
563
|
+
"glm-4.5v.description": "Zhipu의 차세대 MoE 비전 추론 모델로, 총 106B 파라미터 중 12B가 활성화되며, 이미지, 비디오, 문서 이해, GUI 작업 등에서 동급 오픈소스 멀티모달 모델 중 SOTA 성능을 달성합니다.",
|
|
564
|
+
"glm-4.6.description": "Zhipu의 최신 플래그십 모델 GLM-4.6 (355B)은 고급 코딩, 장문 처리, 추론, 에이전트 기능에서 전작을 완전히 능가합니다. 특히 Claude Sonnet 4와 유사한 프로그래밍 능력을 갖추어 중국 최고의 코딩 모델로 자리매김했습니다.",
|
|
565
|
+
"glm-4.7.description": "GLM-4.7은 Zhipu의 최신 플래그십 모델로, 에이전트 코딩 시나리오에 최적화되어 코딩 능력, 장기 작업 계획, 도구 협업이 향상되었습니다. 여러 공개 벤치마크에서 오픈소스 모델 중 선도적인 성능을 보이며, 일반 능력도 더 간결하고 자연스러운 응답과 몰입감 있는 글쓰기로 개선되었습니다. 복잡한 에이전트 작업에서는 도구 호출 시 지시 따르기 능력이 강화되었고, Artifacts 및 에이전트 코딩의 프론트엔드 미학과 장기 작업 완성 효율도 향상되었습니다.",
|
|
566
|
+
"glm-4.description": "GLM-4는 2024년 1월에 출시된 이전 플래그십 모델로, 현재는 더 강력한 GLM-4-0520으로 대체되었습니다.",
|
|
567
|
+
"glm-4v-flash.description": "GLM-4V-Flash는 단일 이미지 이해에 최적화되어 실시간 또는 배치 이미지 처리와 같은 빠른 분석 시나리오에 적합합니다.",
|
|
568
|
+
"glm-4v-plus-0111.description": "GLM-4V-Plus는 비디오 및 다중 이미지 이해가 가능하여 멀티모달 작업에 적합합니다.",
|
|
569
|
+
"glm-4v-plus.description": "GLM-4V-Plus는 비디오 및 다중 이미지 이해가 가능하여 멀티모달 작업에 적합합니다.",
|
|
570
|
+
"glm-4v.description": "GLM-4V는 시각 작업 전반에 걸쳐 강력한 이미지 이해 및 추론 능력을 제공합니다.",
|
|
571
|
+
"glm-z1-air.description": "깊은 추론이 필요한 작업에 적합한 강력한 추론 모델입니다.",
|
|
572
|
+
"glm-z1-airx.description": "고품질 추론을 제공하는 초고속 추론 모델입니다.",
|
|
573
|
+
"glm-z1-flash.description": "GLM-Z1 시리즈는 논리, 수학, 프로그래밍 등 복잡한 추론에서 뛰어난 성능을 발휘합니다.",
|
|
574
|
+
"glm-z1-flashx.description": "빠르고 저비용: 초고속 추론과 높은 동시성을 제공하는 Flash 향상 버전입니다.",
|
|
575
|
+
"glm-zero-preview.description": "GLM-Zero-Preview는 논리, 수학, 프로그래밍 등 복잡한 추론에서 뛰어난 성능을 발휘합니다.",
|
|
535
576
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "시각 이해 에이전트 애플리케이션을 위한 고급 이미지 추론 기능.",
|
|
536
577
|
"meta/Llama-3.3-70B-Instruct.description": "Llama 3.3은 가장 진보된 다국어 오픈소스 Llama 모델로, 매우 낮은 비용으로 405B에 근접한 성능을 제공합니다. Transformer 기반이며, 유용성과 안전성을 위해 SFT 및 RLHF로 개선되었습니다. 명령어 튜닝 버전은 다국어 채팅에 최적화되어 있으며, 산업 벤치마크에서 많은 오픈 및 클로즈드 채팅 모델을 능가합니다. 지식 기준일: 2023년 12월.",
|
|
537
578
|
"meta/Meta-Llama-3-70B-Instruct.description": "추론, 코딩, 다양한 언어 작업에 뛰어난 성능을 보이는 강력한 70B 파라미터 모델.",
|
|
@@ -40,6 +40,7 @@
|
|
|
40
40
|
"builtins.lobe-cloud-sandbox.title": "클라우드 샌드박스",
|
|
41
41
|
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "에이전트 일괄 생성",
|
|
42
42
|
"builtins.lobe-group-agent-builder.apiName.createAgent": "에이전트 생성",
|
|
43
|
+
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "구성원 정보 가져오기",
|
|
43
44
|
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "사용 가능한 모델 가져오기",
|
|
44
45
|
"builtins.lobe-group-agent-builder.apiName.installPlugin": "기능 설치",
|
|
45
46
|
"builtins.lobe-group-agent-builder.apiName.inviteAgent": "멤버 초대",
|
|
@@ -70,6 +71,8 @@
|
|
|
70
71
|
"builtins.lobe-group-management.apiName.summarize": "대화 요약",
|
|
71
72
|
"builtins.lobe-group-management.apiName.vote": "투표 시작",
|
|
72
73
|
"builtins.lobe-group-management.inspector.broadcast.title": "다음 에이전트가 말합니다:",
|
|
74
|
+
"builtins.lobe-group-management.inspector.executeAgentTask.assignTo": "할당",
|
|
75
|
+
"builtins.lobe-group-management.inspector.executeAgentTask.task": "작업:",
|
|
73
76
|
"builtins.lobe-group-management.inspector.executeAgentTasks.title": "작업 할당 대상:",
|
|
74
77
|
"builtins.lobe-group-management.inspector.speak.title": "지정된 에이전트가 말합니다:",
|
|
75
78
|
"builtins.lobe-group-management.title": "팀 조율",
|
package/locales/nl-NL/auth.json
CHANGED
|
@@ -28,6 +28,11 @@
|
|
|
28
28
|
"apikey.list.columns.status": "Status ingeschakeld",
|
|
29
29
|
"apikey.list.title": "Lijst van API-sleutels",
|
|
30
30
|
"apikey.validation.required": "Dit veld mag niet leeg zijn",
|
|
31
|
+
"authModal.description": "Je sessie is verlopen. Meld je opnieuw aan om de cloud-synchronisatiefuncties te blijven gebruiken.",
|
|
32
|
+
"authModal.later": "Later",
|
|
33
|
+
"authModal.signIn": "Opnieuw aanmelden",
|
|
34
|
+
"authModal.signingIn": "Bezig met aanmelden...",
|
|
35
|
+
"authModal.title": "Sessie verlopen",
|
|
31
36
|
"betterAuth.errors.confirmPasswordRequired": "Bevestig je wachtwoord",
|
|
32
37
|
"betterAuth.errors.emailExists": "Dit e-mailadres is al geregistreerd. Log in in plaats daarvan",
|
|
33
38
|
"betterAuth.errors.emailInvalid": "Voer een geldig e-mailadres of gebruikersnaam in",
|
|
@@ -396,6 +396,7 @@
|
|
|
396
396
|
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 is een MoE-model met 685B parameters en de nieuwste iteratie van DeepSeek’s vlaggenschip-chatserie.\n\nHet bouwt voort op [DeepSeek V3](/deepseek/deepseek-chat-v3) en presteert sterk over verschillende taken.",
|
|
397
397
|
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 is DeepSeek’s hybride redeneermodel met lange context, dat gemengde denk-/niet-denkmodi en toolintegratie ondersteunt.",
|
|
398
398
|
"deepseek/deepseek-chat.description": "DeepSeek-V3 is DeepSeek’s krachtige hybride redeneermodel voor complexe taken en toolintegratie.",
|
|
399
|
+
"deepseek/deepseek-math-v2.description": "DeepSeek Math V2 is een model dat baanbrekende vooruitgang heeft geboekt in wiskundige redeneervermogen. De kerninnovatie is het \"zelfverificatie\"-trainingsmechanisme, en het heeft op topniveau gepresteerd in meerdere prestigieuze wiskundewedstrijden.",
|
|
399
400
|
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 is een bijgewerkte variant gericht op open beschikbaarheid en diepere redenering.",
|
|
400
401
|
"deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 verbetert het redeneervermogen aanzienlijk met minimale gelabelde data en genereert een gedachtegang vóór het eindantwoord om de nauwkeurigheid te verhogen.",
|
|
401
402
|
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B is een gedistilleerd LLM gebaseerd op Llama 3.3 70B, fijngestemd met DeepSeek R1-uitvoer om concurrerende prestaties te leveren met grote frontiermodellen.",
|
|
@@ -592,6 +593,56 @@
|
|
|
592
593
|
"google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) is het beeldgeneratiemodel van Google met ondersteuning voor multimodale conversaties.",
|
|
593
594
|
"google/gemini-3-pro-preview-free.description": "Gemini 3 Pro Preview Free biedt hetzelfde multimodale begrip en redenering als de standaardversie, maar met quota- en snelheidsbeperkingen, waardoor het beter geschikt is voor tests en laagfrequent gebruik.",
|
|
594
595
|
"google/gemini-3-pro-preview.description": "Gemini 3 Pro is het multimodale redeneermodel van de volgende generatie binnen de Gemini-familie. Het begrijpt tekst, audio, afbeeldingen en video, en verwerkt complexe taken en grote codebases.",
|
|
596
|
+
"google/gemini-embedding-001.description": "Een geavanceerd embeddingmodel met sterke prestaties in Engels, meertalige en codeertaken.",
|
|
597
|
+
"google/gemini-flash-1.5.description": "Gemini 1.5 Flash biedt geoptimaliseerde multimodale verwerking voor een breed scala aan complexe taken.",
|
|
598
|
+
"google/gemini-pro-1.5.description": "Gemini 1.5 Pro combineert de nieuwste optimalisaties voor efficiëntere verwerking van multimodale gegevens.",
|
|
599
|
+
"google/gemma-2-27b-it.description": "Gemma 2 27B is een algemeen toepasbaar LLM met sterke prestaties in uiteenlopende scenario’s.",
|
|
600
|
+
"google/gemma-2-27b.description": "Gemma 2 is Google's efficiënte modelfamilie voor toepassingen van kleine apps tot complexe gegevensverwerking.",
|
|
601
|
+
"google/gemma-2-2b-it.description": "Een geavanceerd klein taalmodel ontworpen voor edge-toepassingen.",
|
|
602
|
+
"google/gemma-2-9b-it.description": "Gemma 2 9B, ontwikkeld door Google, biedt efficiënte instructieopvolging en solide algemene capaciteiten.",
|
|
603
|
+
"google/gemma-2-9b-it:free.description": "Gemma 2 is Google's lichtgewicht open-source tekstmodelfamilie.",
|
|
604
|
+
"google/gemma-2-9b.description": "Gemma 2 is Google's efficiënte modelfamilie voor toepassingen van kleine apps tot complexe gegevensverwerking.",
|
|
605
|
+
"google/gemma-2b-it.description": "Gemma Instruct (2B) biedt basisinstructieverwerking voor lichtgewicht toepassingen.",
|
|
606
|
+
"google/gemma-3-12b-it.description": "Gemma 3 12B is een open-source taalmodel van Google dat nieuwe maatstaven zet op het gebied van efficiëntie en prestaties.",
|
|
607
|
+
"google/gemma-3-27b-it.description": "Gemma 3 27B is een open-source taalmodel van Google dat nieuwe maatstaven zet op het gebied van efficiëntie en prestaties.",
|
|
608
|
+
"google/text-embedding-005.description": "Een op het Engels gericht tekstembeddingmodel, geoptimaliseerd voor code- en taalverwerkingstaken.",
|
|
609
|
+
"google/text-multilingual-embedding-002.description": "Een meertalig tekstembeddingmodel, geoptimaliseerd voor cross-linguale taken in vele talen.",
|
|
610
|
+
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo voor tekstgeneratie en -begrip; verwijst momenteel naar gpt-3.5-turbo-0125.",
|
|
611
|
+
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo voor tekstgeneratie en -begrip; verwijst momenteel naar gpt-3.5-turbo-0125.",
|
|
612
|
+
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo voor tekstgeneratie- en begrijptaken, geoptimaliseerd voor instructieopvolging.",
|
|
613
|
+
"gpt-3.5-turbo.description": "GPT 3.5 Turbo voor tekstgeneratie en -begrip; verwijst momenteel naar gpt-3.5-turbo-0125.",
|
|
614
|
+
"gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k is een model met hoge capaciteit voor complexe tekstgeneratietaken.",
|
|
615
|
+
"gpt-35-turbo.description": "GPT-3.5 Turbo is OpenAI’s efficiënte model voor chat en tekstgeneratie, met ondersteuning voor parallelle functieaanroepen.",
|
|
616
|
+
"gpt-4-0125-preview.description": "De nieuwste GPT-4 Turbo voegt visuele mogelijkheden toe. Visuele verzoeken ondersteunen JSON-modus en functieaanroepen. Het is een kosteneffectief multimodaal model dat nauwkeurigheid en efficiëntie in realtime toepassingen in balans brengt.",
|
|
617
|
+
"gpt-4-0613.description": "GPT-4 biedt een groter contextvenster om langere invoer te verwerken, geschikt voor brede informatie-integratie en data-analyse.",
|
|
618
|
+
"gpt-4-1106-preview.description": "De nieuwste GPT-4 Turbo voegt visuele mogelijkheden toe. Visuele verzoeken ondersteunen JSON-modus en functieaanroepen. Het is een kosteneffectief multimodaal model dat nauwkeurigheid en efficiëntie in realtime toepassingen in balans brengt.",
|
|
619
|
+
"gpt-4-32k-0613.description": "GPT-4 biedt een groter contextvenster om langere invoer te verwerken, geschikt voor brede informatie-integratie en data-analyse.",
|
|
620
|
+
"gpt-4-32k.description": "GPT-4 biedt een groter contextvenster om langere invoer te verwerken, geschikt voor brede informatie-integratie en data-analyse.",
|
|
621
|
+
"gpt-4-turbo-2024-04-09.description": "De nieuwste GPT-4 Turbo voegt visuele mogelijkheden toe. Visuele verzoeken ondersteunen JSON-modus en functieaanroepen. Het is een kosteneffectief multimodaal model dat nauwkeurigheid en efficiëntie in realtime toepassingen in balans brengt.",
|
|
622
|
+
"gpt-4-turbo-preview.description": "De nieuwste GPT-4 Turbo voegt visuele mogelijkheden toe. Visuele verzoeken ondersteunen JSON-modus en functieaanroepen. Het is een kosteneffectief multimodaal model dat nauwkeurigheid en efficiëntie in realtime toepassingen in balans brengt.",
|
|
623
|
+
"gpt-4-turbo.description": "De nieuwste GPT-4 Turbo voegt visuele mogelijkheden toe. Visuele verzoeken ondersteunen JSON-modus en functieaanroepen. Het is een kosteneffectief multimodaal model dat nauwkeurigheid en efficiëntie in realtime toepassingen in balans brengt.",
|
|
624
|
+
"gpt-4-vision-preview.description": "GPT-4 Vision preview, ontworpen voor beeldanalyse- en verwerkingstaken.",
|
|
625
|
+
"gpt-4.1-mini.description": "GPT-4.1 mini biedt een balans tussen intelligentie, snelheid en kosten, aantrekkelijk voor veel toepassingen.",
|
|
626
|
+
"gpt-4.1-nano.description": "GPT-4.1 nano is het snelste en meest kosteneffectieve GPT-4.1 model.",
|
|
627
|
+
"gpt-4.1.description": "GPT-4.1 is ons vlaggenschipmodel voor complexe taken en domeinoverstijgende probleemoplossing.",
|
|
628
|
+
"gpt-4.5-preview.description": "GPT-4.5-preview is het nieuwste algemene model met diepgaande wereldkennis en beter intentiebegrip, sterk in creatieve taken en agentplanning. De kennisgrens is oktober 2023.",
|
|
629
|
+
"gpt-4.description": "GPT-4 biedt een groter contextvenster om langere invoer te verwerken, geschikt voor brede informatie-integratie en data-analyse.",
|
|
630
|
+
"gpt-4o-2024-05-13.description": "ChatGPT-4o is een dynamisch model dat realtime wordt bijgewerkt en sterke taalbegrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
|
|
631
|
+
"gpt-4o-2024-08-06.description": "ChatGPT-4o is een dynamisch model dat realtime wordt bijgewerkt. Het combineert sterk taalbegrip en -generatie voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
|
|
632
|
+
"gpt-4o-2024-11-20.description": "ChatGPT-4o is een dynamisch model dat realtime wordt bijgewerkt en sterke taalbegrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
|
|
633
|
+
"gpt-4o-audio-preview.description": "GPT-4o Audio Preview-model met audio-invoer en -uitvoer.",
|
|
634
|
+
"gpt-4o-mini-audio-preview.description": "GPT-4o mini Audio-model met audio-invoer en -uitvoer.",
|
|
635
|
+
"gpt-4o-mini-realtime-preview.description": "GPT-4o-mini realtime-variant met realtime audio- en tekstinvoer/-uitvoer.",
|
|
636
|
+
"gpt-4o-mini-search-preview.description": "GPT-4o mini Search Preview is getraind om webzoekopdrachten te begrijpen en uit te voeren via de Chat Completions API. Webzoekopdrachten worden per toolaanroep gefactureerd, naast tokenkosten.",
|
|
637
|
+
"gpt-4o-mini-transcribe.description": "GPT-4o Mini Transcribe is een spraak-naar-tekstmodel dat audio transcribeert met GPT-4o, met verbeterde woordherkenning, taalidentificatie en nauwkeurigheid ten opzichte van het oorspronkelijke Whisper-model.",
|
|
638
|
+
"gpt-4o-mini-tts.description": "GPT-4o mini TTS is een tekst-naar-spraakmodel gebaseerd op GPT-4o mini, dat tekst omzet in natuurlijk klinkende spraak met een maximale invoer van 2000 tokens.",
|
|
639
|
+
"gpt-4o-mini.description": "GPT-4o mini is OpenAI’s nieuwste model na GPT-4 Omni, met ondersteuning voor tekst+beeldinvoer en tekstuitvoer. Het is hun meest geavanceerde kleine model, veel goedkoper dan recente topmodellen en meer dan 60% goedkoper dan GPT-3.5 Turbo, met behoud van topintelligentie (82% MMLU).",
|
|
640
|
+
"gpt-4o-realtime-preview-2024-10-01.description": "GPT-4o realtime-variant met realtime audio- en tekstinvoer/-uitvoer.",
|
|
641
|
+
"gpt-4o-realtime-preview-2025-06-03.description": "GPT-4o realtime-variant met realtime audio- en tekstinvoer/-uitvoer.",
|
|
642
|
+
"gpt-4o-realtime-preview.description": "GPT-4o realtime-variant met realtime audio- en tekstinvoer/-uitvoer.",
|
|
643
|
+
"gpt-4o-search-preview.description": "GPT-4o Search Preview is getraind om webzoekopdrachten te begrijpen en uit te voeren via de Chat Completions API. Webzoekopdrachten worden per toolaanroep gefactureerd, naast tokenkosten.",
|
|
644
|
+
"gpt-4o-transcribe.description": "GPT-4o Transcribe is een spraak-naar-tekstmodel dat audio transcribeert met GPT-4o, met verbeterde woordherkenning, taalidentificatie en nauwkeurigheid ten opzichte van het oorspronkelijke Whisper-model.",
|
|
645
|
+
"gpt-4o.description": "ChatGPT-4o is een dynamisch model dat realtime wordt bijgewerkt en sterke taalbegrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
|
|
595
646
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 is een open LLM voor ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoord opschalen van generatieve AI-ideeën. Als onderdeel van de basis voor wereldwijde gemeenschapsinnovatie is het goed geschikt voor beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden.",
|
|
596
647
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Sterke beeldredenering op afbeeldingen met hoge resolutie, geschikt voor toepassingen voor visueel begrip.",
|
|
597
648
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Geavanceerde beeldredenering voor toepassingen met visueel begrip en agentfunctionaliteit.",
|
|
@@ -40,6 +40,7 @@
|
|
|
40
40
|
"builtins.lobe-cloud-sandbox.title": "Cloud Sandbox",
|
|
41
41
|
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Meerdere agenten aanmaken",
|
|
42
42
|
"builtins.lobe-group-agent-builder.apiName.createAgent": "Agent aanmaken",
|
|
43
|
+
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "Ledeninformatie ophalen",
|
|
43
44
|
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Beschikbare modellen ophalen",
|
|
44
45
|
"builtins.lobe-group-agent-builder.apiName.installPlugin": "Skill installeren",
|
|
45
46
|
"builtins.lobe-group-agent-builder.apiName.inviteAgent": "Lid uitnodigen",
|
|
@@ -70,6 +71,8 @@
|
|
|
70
71
|
"builtins.lobe-group-management.apiName.summarize": "Gesprek samenvatten",
|
|
71
72
|
"builtins.lobe-group-management.apiName.vote": "Stemronde starten",
|
|
72
73
|
"builtins.lobe-group-management.inspector.broadcast.title": "Volgende Agents spreken:",
|
|
74
|
+
"builtins.lobe-group-management.inspector.executeAgentTask.assignTo": "Toewijzen",
|
|
75
|
+
"builtins.lobe-group-management.inspector.executeAgentTask.task": "taak:",
|
|
73
76
|
"builtins.lobe-group-management.inspector.executeAgentTasks.title": "Taken toewijzen aan:",
|
|
74
77
|
"builtins.lobe-group-management.inspector.speak.title": "Aangewezen Agent spreekt:",
|
|
75
78
|
"builtins.lobe-group-management.title": "Groepscoördinator",
|
package/locales/pl-PL/auth.json
CHANGED
|
@@ -28,6 +28,11 @@
|
|
|
28
28
|
"apikey.list.columns.status": "Status włączenia",
|
|
29
29
|
"apikey.list.title": "Lista kluczy API",
|
|
30
30
|
"apikey.validation.required": "To pole nie może być puste",
|
|
31
|
+
"authModal.description": "Twoja sesja logowania wygasła. Zaloguj się ponownie, aby kontynuować korzystanie z funkcji synchronizacji w chmurze.",
|
|
32
|
+
"authModal.later": "Później",
|
|
33
|
+
"authModal.signIn": "Zaloguj się ponownie",
|
|
34
|
+
"authModal.signingIn": "Trwa logowanie...",
|
|
35
|
+
"authModal.title": "Sesja wygasła",
|
|
31
36
|
"betterAuth.errors.confirmPasswordRequired": "Potwierdź swoje hasło",
|
|
32
37
|
"betterAuth.errors.emailExists": "Ten adres e-mail jest już zarejestrowany. Zaloguj się",
|
|
33
38
|
"betterAuth.errors.emailInvalid": "Wprowadź poprawny adres e-mail lub nazwę użytkownika",
|
|
@@ -388,6 +388,7 @@
|
|
|
388
388
|
"deepseek-v3.1:671b.description": "DeepSeek V3.1 to model nowej generacji do złożonego rozumowania i łańcuchów myślowych, odpowiedni do zadań wymagających głębokiej analizy.",
|
|
389
389
|
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp wprowadza rzadką uwagę (sparse attention), poprawiając efektywność trenowania i wnioskowania na długich tekstach przy niższej cenie niż deepseek-v3.1.",
|
|
390
390
|
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think to pełny model głębokiego rozumowania z silniejszymi zdolnościami do długich łańcuchów myślowych.",
|
|
391
|
+
"deepseek-v3.2.description": "DeepSeek-V3.2 to pierwszy hybrydowy model rozumowania od DeepSeek, który integruje myślenie z wykorzystaniem narzędzi. Wykorzystuje wydajną architekturę w celu oszczędności obliczeń, uczenie przez wzmocnienie na dużą skalę do zwiększenia możliwości oraz syntetyczne dane zadań do wzmocnienia uogólniania. Połączenie tych trzech elementów zapewnia wydajność porównywalną z GPT-5-High, przy znacznie krótszych odpowiedziach, co znacząco zmniejsza obciążenie obliczeniowe i czas oczekiwania użytkownika.",
|
|
391
392
|
"deepseek-v3.description": "DeepSeek-V3 to potężny model MoE z 671 miliardami parametrów ogółem i 37 miliardami aktywnymi na token.",
|
|
392
393
|
"deepseek-vl2-small.description": "DeepSeek VL2 Small to lekka wersja multimodalna do środowisk o ograniczonych zasobach i wysokiej równoczesności.",
|
|
393
394
|
"deepseek-vl2.description": "DeepSeek VL2 to model multimodalny do rozumienia obrazu i tekstu oraz precyzyjnych zadań wizualnych typu pytanie-odpowiedź.",
|
|
@@ -395,6 +396,7 @@
|
|
|
395
396
|
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 to model MoE z 685 miliardami parametrów i najnowsza wersja flagowej serii czatów DeepSeek.\n\nBazuje na [DeepSeek V3](/deepseek/deepseek-chat-v3) i osiąga wysokie wyniki w różnych zadaniach.",
|
|
396
397
|
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 to model hybrydowego rozumowania z długim kontekstem, obsługujący tryby myślenia i bezmyślenia oraz integrację z narzędziami.",
|
|
397
398
|
"deepseek/deepseek-chat.description": "DeepSeek-V3 to model hybrydowego rozumowania o wysokiej wydajności, przeznaczony do złożonych zadań i integracji z narzędziami.",
|
|
399
|
+
"deepseek/deepseek-math-v2.description": "DeepSeek Math V2 to model, który dokonał przełomu w zakresie matematycznego rozumowania. Jego kluczową innowacją jest mechanizm treningowy „samoweryfikacji”, a jego wyniki osiągają poziom złotego medalu w wielu czołowych konkursach matematycznych.",
|
|
398
400
|
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 to zaktualizowana wersja skoncentrowana na otwartej dostępności i głębszym rozumowaniu.",
|
|
399
401
|
"deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 znacznie poprawia rozumowanie przy minimalnej ilości oznaczonych danych i generuje łańcuch rozumowania przed odpowiedzią końcową, zwiększając trafność.",
|
|
400
402
|
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B to zdestylowany model LLM oparty na Llama 3.3 70B, dostrojony przy użyciu wyników DeepSeek R1, osiągający konkurencyjne wyniki względem czołowych modeli.",
|
|
@@ -433,6 +435,7 @@
|
|
|
433
435
|
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 znacząco wzmacnia rozumowanie, dodatkowo poprawiając kluczowe umiejętności w kodowaniu, matematyce i logice względem Doubao-1.5-thinking-pro, dodając jednocześnie rozumienie wizji. Obsługuje kontekst 256k i do 16k tokenów wyjściowych.",
|
|
434
436
|
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision to model wizualnego głębokiego rozumowania, oferujący silniejsze multimodalne zrozumienie i rozumowanie dla edukacji, przeglądu obrazów, inspekcji/bezpieczeństwa i QA z wykorzystaniem AI. Obsługuje kontekst 256k i do 64k tokenów wyjściowych.",
|
|
435
437
|
"doubao-seed-1.6.description": "Doubao-Seed-1.6 to nowy multimodalny model głębokiego rozumowania z trybami auto, thinking i non-thinking. W trybie non-thinking znacznie przewyższa Doubao-1.5-pro/250115. Obsługuje kontekst 256k i do 16k tokenów wyjściowych.",
|
|
438
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 oferuje lepsze zrozumienie multimodalne i możliwości Agenta, obsługuje wejścia tekstowe/obrazowe/wideo oraz buforowanie kontekstu, zapewniając doskonałą wydajność w złożonych zadaniach.",
|
|
436
439
|
"doubao-seed-code.description": "Doubao-Seed-Code jest głęboko zoptymalizowany pod kątem kodowania agentowego, obsługuje wejścia multimodalne (tekst/obraz/wideo) i kontekst 256k, jest kompatybilny z API Anthropic i nadaje się do kodowania, rozumienia wizji i przepływów pracy agentów.",
|
|
437
440
|
"doubao-seededit-3-0-i2i-250628.description": "Model obrazowy Doubao z ByteDance Seed obsługuje wejścia tekstowe i obrazowe z wysoką kontrolą i jakością generowania obrazów. Obsługuje edycję obrazów kierowaną tekstem, z rozmiarami wyjściowymi od 512 do 1536 po dłuższym boku.",
|
|
438
441
|
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 to model generowania obrazów od ByteDance Seed, obsługujący wejścia tekstowe i obrazowe z wysoką kontrolą i jakością. Generuje obrazy na podstawie tekstowych promptów.",
|
|
@@ -524,6 +527,44 @@
|
|
|
524
527
|
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview to najbardziej zaawansowany model rozumowania Google, zdolny do analizy kodu, matematyki i problemów STEM oraz dużych zbiorów danych, baz kodu i dokumentów z długim kontekstem.",
|
|
525
528
|
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview to najbardziej zaawansowany model rozumowania Google, zdolny do analizy kodu, matematyki i problemów STEM oraz dużych zbiorów danych, baz kodu i dokumentów z długim kontekstem.",
|
|
526
529
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro to flagowy model rozumowania Google z obsługą długiego kontekstu do złożonych zadań.",
|
|
530
|
+
"gemini-3-flash-preview.description": "Gemini 3 Flash to najszybszy i najinteligentniejszy model, łączący najnowsze osiągnięcia AI z doskonałym osadzeniem w wynikach wyszukiwania.",
|
|
531
|
+
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów od Google, który obsługuje również dialogi multimodalne.",
|
|
532
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów od Google, który obsługuje również czat multimodalny.",
|
|
533
|
+
"gemini-3-pro-preview.description": "Gemini 3 Pro to najpotężniejszy model agenta i kodowania nastrojów od Google, oferujący bogatsze wizualizacje i głębszą interakcję przy zaawansowanym rozumowaniu.",
|
|
534
|
+
"gemini-flash-latest.description": "Najnowsza wersja Gemini Flash",
|
|
535
|
+
"gemini-flash-lite-latest.description": "Najnowsza wersja Gemini Flash-Lite",
|
|
536
|
+
"gemini-pro-latest.description": "Najnowsza wersja Gemini Pro",
|
|
537
|
+
"gemma-7b-it.description": "Gemma 7B to opłacalny model do zadań małej i średniej skali.",
|
|
538
|
+
"gemma2-9b-it.description": "Gemma 2 9B jest zoptymalizowana pod kątem konkretnych zadań i integracji z narzędziami.",
|
|
539
|
+
"gemma2.description": "Gemma 2 to wydajny model Google, obejmujący zastosowania od małych aplikacji po złożone przetwarzanie danych.",
|
|
540
|
+
"gemma2:27b.description": "Gemma 2 to wydajny model Google, obejmujący zastosowania od małych aplikacji po złożone przetwarzanie danych.",
|
|
541
|
+
"gemma2:2b.description": "Gemma 2 to wydajny model Google, obejmujący zastosowania od małych aplikacji po złożone przetwarzanie danych.",
|
|
542
|
+
"generalv3.5.description": "Spark Max to najbardziej zaawansowana wersja, obsługująca wyszukiwanie w sieci i wiele wbudowanych wtyczek. W pełni zoptymalizowane możliwości rdzeniowe, role systemowe i wywoływanie funkcji zapewniają doskonałą wydajność w złożonych scenariuszach zastosowań.",
|
|
543
|
+
"generalv3.description": "Spark Pro to wysokowydajny model LLM zoptymalizowany pod kątem zastosowań profesjonalnych, koncentrujący się na matematyce, programowaniu, opiece zdrowotnej i edukacji. Obsługuje wyszukiwanie w sieci i wbudowane wtyczki, takie jak pogoda i data. Zapewnia wysoką wydajność i efektywność w złożonych pytaniach wiedzy, rozumieniu języka i zaawansowanym tworzeniu tekstu, co czyni go idealnym wyborem do zastosowań profesjonalnych.",
|
|
544
|
+
"glm-4-0520.description": "GLM-4-0520 to najnowsza wersja modelu, zaprojektowana do bardzo złożonych i różnorodnych zadań z doskonałą wydajnością.",
|
|
545
|
+
"glm-4-32b-0414.description": "GLM-4 32B 0414 to ogólny model GLM obsługujący generowanie i rozumienie tekstu w wielu zadaniach.",
|
|
546
|
+
"glm-4-9b-chat.description": "GLM-4-9B-Chat osiąga wysokie wyniki w semantyce, matematyce, rozumowaniu, kodzie i wiedzy. Obsługuje również przeglądanie sieci, wykonywanie kodu, wywoływanie niestandardowych narzędzi i rozumowanie na długich tekstach, z obsługą 26 języków, w tym japońskiego, koreańskiego i niemieckiego.",
|
|
547
|
+
"glm-4-air-250414.description": "GLM-4-Air to opłacalna opcja o wydajności zbliżonej do GLM-4, szybkim działaniu i niższych kosztach.",
|
|
548
|
+
"glm-4-air.description": "GLM-4-Air to opłacalna opcja o wydajności zbliżonej do GLM-4, szybkim działaniu i niższych kosztach.",
|
|
549
|
+
"glm-4-airx.description": "GLM-4-AirX to bardziej wydajna wersja GLM-4-Air, oferująca do 2,6x szybsze rozumowanie.",
|
|
550
|
+
"glm-4-alltools.description": "GLM-4-AllTools to wszechstronny model agenta zoptymalizowany do złożonego planowania instrukcji i użycia narzędzi, takich jak przeglądanie sieci, wyjaśnianie kodu i generowanie tekstu, odpowiedni do wykonywania wielu zadań.",
|
|
551
|
+
"glm-4-flash-250414.description": "GLM-4-Flash idealnie nadaje się do prostych zadań: najszybszy i darmowy.",
|
|
552
|
+
"glm-4-flash.description": "GLM-4-Flash idealnie nadaje się do prostych zadań: najszybszy i darmowy.",
|
|
553
|
+
"glm-4-flashx.description": "GLM-4-FlashX to ulepszona wersja Flash z ultraszybkim rozumowaniem.",
|
|
554
|
+
"glm-4-long.description": "GLM-4-Long obsługuje bardzo długie wejścia do zadań pamięciowych i przetwarzania dużych dokumentów.",
|
|
555
|
+
"glm-4-plus.description": "GLM-4-Plus to flagowy model o wysokiej inteligencji, z silnym wsparciem dla długich tekstów i złożonych zadań oraz ulepszoną ogólną wydajnością.",
|
|
556
|
+
"glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking to najmocniejszy znany model VLM (~10B), obsługujący zadania SOTA, takie jak rozumienie wideo, pytania o obrazy, rozwiązywanie zadań, OCR, czytanie dokumentów i wykresów, agenci GUI, kodowanie frontendowe i osadzanie. Przewyższa nawet 8x większy Qwen2.5-VL-72B w wielu zadaniach. Dzięki zaawansowanemu RL wykorzystuje rozumowanie łańcuchowe, aby poprawić dokładność i bogactwo, przewyższając tradycyjne modele bez myślenia zarówno pod względem wyników, jak i wyjaśnialności.",
|
|
557
|
+
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking to najmocniejszy znany model VLM (~10B), obsługujący zadania SOTA, takie jak rozumienie wideo, pytania o obrazy, rozwiązywanie zadań, OCR, czytanie dokumentów i wykresów, agenci GUI, kodowanie frontendowe i osadzanie. Przewyższa nawet 8x większy Qwen2.5-VL-72B w wielu zadaniach. Dzięki zaawansowanemu RL wykorzystuje rozumowanie łańcuchowe, aby poprawić dokładność i bogactwo, przewyższając tradycyjne modele bez myślenia zarówno pod względem wyników, jak i wyjaśnialności.",
|
|
558
|
+
"glm-4.5-air.description": "GLM-4.5 w wersji lekkiej, łączącej wydajność i koszty, z elastycznymi trybami myślenia hybrydowego.",
|
|
559
|
+
"glm-4.5-airx.description": "GLM-4.5-Air w wersji szybkiej, z szybszymi odpowiedziami do zastosowań na dużą skalę i wysoką prędkość.",
|
|
560
|
+
"glm-4.5-flash.description": "Darmowa wersja GLM-4.5 z silną wydajnością w rozumowaniu, kodowaniu i zadaniach agenta.",
|
|
561
|
+
"glm-4.5-x.description": "GLM-4.5 w wersji szybkiej, oferujący wysoką wydajność przy prędkości generowania do 100 tokenów/sek.",
|
|
562
|
+
"glm-4.5.description": "Flagowy model Zhipu z przełączanym trybem myślenia, oferujący SOTA open-source i kontekst do 128K.",
|
|
563
|
+
"glm-4.5v.description": "Następna generacja modelu rozumowania wizualnego MoE od Zhipu z 106B parametrami całkowitymi i 12B aktywnymi, osiągająca SOTA wśród podobnych modeli open-source w zadaniach obrazowych, wideo, dokumentów i GUI.",
|
|
564
|
+
"glm-4.6.description": "Najnowszy flagowy model Zhipu GLM-4.6 (355B) przewyższa poprzedników w zaawansowanym kodowaniu, przetwarzaniu długich tekstów, rozumowaniu i możliwościach agenta. Szczególnie dorównuje Claude Sonnet 4 w umiejętnościach programistycznych, stając się najlepszym modelem kodującym w Chinach.",
|
|
565
|
+
"glm-4.7.description": "GLM-4.7 to najnowszy flagowy model Zhipu, ulepszony pod kątem scenariuszy Agentic Coding z lepszymi możliwościami kodowania, planowaniem długoterminowym i współpracą z narzędziami. Osiąga czołowe wyniki wśród modeli open-source w wielu publicznych benchmarkach. Ogólne możliwości zostały ulepszone dzięki bardziej zwięzłym i naturalnym odpowiedziom oraz bardziej wciągającemu stylowi pisania. W przypadku złożonych zadań agenta, przestrzeganie instrukcji podczas wywołań narzędzi jest silniejsze, a estetyka interfejsu i efektywność realizacji zadań długoterminowych w Artifacts i Agentic Coding zostały dodatkowo ulepszone.",
|
|
566
|
+
"glm-4.description": "GLM-4 to starszy flagowy model wydany w styczniu 2024 r., obecnie zastąpiony przez silniejszy GLM-4-0520.",
|
|
567
|
+
"glm-4v-flash.description": "GLM-4V-Flash koncentruje się na efektywnym rozumieniu pojedynczych obrazów w scenariuszach szybkiej analizy, takich jak przetwarzanie obrazów w czasie rzeczywistym lub wsadowo.",
|
|
527
568
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
|
|
528
569
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
|
|
529
570
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
|
|
@@ -40,6 +40,7 @@
|
|
|
40
40
|
"builtins.lobe-cloud-sandbox.title": "Piaskownica w Chmurze",
|
|
41
41
|
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Utwórz wielu agentów",
|
|
42
42
|
"builtins.lobe-group-agent-builder.apiName.createAgent": "Utwórz agenta",
|
|
43
|
+
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "Pobierz informacje o członku",
|
|
43
44
|
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Pobierz dostępne modele",
|
|
44
45
|
"builtins.lobe-group-agent-builder.apiName.installPlugin": "Zainstaluj Umiejętność",
|
|
45
46
|
"builtins.lobe-group-agent-builder.apiName.inviteAgent": "Zaproś członka",
|
|
@@ -70,6 +71,8 @@
|
|
|
70
71
|
"builtins.lobe-group-management.apiName.summarize": "Podsumuj rozmowę",
|
|
71
72
|
"builtins.lobe-group-management.apiName.vote": "Rozpocznij głosowanie",
|
|
72
73
|
"builtins.lobe-group-management.inspector.broadcast.title": "Mówią następujący Agenci:",
|
|
74
|
+
"builtins.lobe-group-management.inspector.executeAgentTask.assignTo": "Przypisz",
|
|
75
|
+
"builtins.lobe-group-management.inspector.executeAgentTask.task": "zadanie:",
|
|
73
76
|
"builtins.lobe-group-management.inspector.executeAgentTasks.title": "Przypisywanie zadań do:",
|
|
74
77
|
"builtins.lobe-group-management.inspector.speak.title": "Mówi wyznaczony Agent:",
|
|
75
78
|
"builtins.lobe-group-management.title": "Koordynator Grupy",
|
package/locales/pt-BR/auth.json
CHANGED
|
@@ -28,6 +28,11 @@
|
|
|
28
28
|
"apikey.list.columns.status": "Status Ativado",
|
|
29
29
|
"apikey.list.title": "Lista de Chaves de API",
|
|
30
30
|
"apikey.validation.required": "Este campo não pode estar vazio",
|
|
31
|
+
"authModal.description": "Sua sessão de login expirou. Faça login novamente para continuar usando os recursos de sincronização na nuvem.",
|
|
32
|
+
"authModal.later": "Mais tarde",
|
|
33
|
+
"authModal.signIn": "Fazer login novamente",
|
|
34
|
+
"authModal.signingIn": "Fazendo login...",
|
|
35
|
+
"authModal.title": "Sessão expirada",
|
|
31
36
|
"betterAuth.errors.confirmPasswordRequired": "Por favor, confirme sua senha",
|
|
32
37
|
"betterAuth.errors.emailExists": "Este e-mail já está registrado. Faça login em vez disso",
|
|
33
38
|
"betterAuth.errors.emailInvalid": "Insira um endereço de e-mail ou nome de usuário válido",
|
|
@@ -396,6 +396,7 @@
|
|
|
396
396
|
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 é um modelo MoE com 685 bilhões de parâmetros e a mais recente iteração da série de chat principal da DeepSeek.\n\nBaseado no [DeepSeek V3](/deepseek/deepseek-chat-v3), apresenta excelente desempenho em diversas tarefas.",
|
|
397
397
|
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 é o modelo híbrido de raciocínio com longo contexto da DeepSeek, com suporte a modos mistos de pensamento/não pensamento e integração com ferramentas.",
|
|
398
398
|
"deepseek/deepseek-chat.description": "DeepSeek-V3 é o modelo híbrido de raciocínio de alto desempenho da DeepSeek para tarefas complexas e integração com ferramentas.",
|
|
399
|
+
"deepseek/deepseek-math-v2.description": "DeepSeek Math V2 é um modelo que alcançou avanços significativos em capacidades de raciocínio matemático. Sua principal inovação está no mecanismo de treinamento de \"autoverificação\", tendo conquistado níveis de medalha de ouro em diversas competições de matemática de alto nível.",
|
|
399
400
|
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 é uma variante atualizada com foco em disponibilidade aberta e raciocínio mais profundo.",
|
|
400
401
|
"deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 melhora significativamente o raciocínio com dados rotulados mínimos e gera uma cadeia de pensamento antes da resposta final para aumentar a precisão.",
|
|
401
402
|
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B é um LLM destilado baseado no Llama 3.3 70B, ajustado com saídas do DeepSeek R1 para alcançar desempenho competitivo com modelos de ponta.",
|
|
@@ -636,6 +637,49 @@
|
|
|
636
637
|
"gpt-4o-mini-transcribe.description": "GPT-4o Mini Transcribe é um modelo de transcrição de fala para texto que transcreve áudio com GPT-4o, melhorando a taxa de erro de palavras, identificação de idioma e precisão em relação ao modelo Whisper original.",
|
|
637
638
|
"gpt-4o-mini-tts.description": "GPT-4o mini TTS é um modelo de texto para fala baseado no GPT-4o mini, que converte texto em fala natural com entrada máxima de 2000 tokens.",
|
|
638
639
|
"gpt-4o-mini.description": "GPT-4o mini é o modelo mais recente da OpenAI após o GPT-4 Omni, com suporte a entrada de texto+imagem e saída de texto. É o modelo pequeno mais avançado da empresa, muito mais barato que os modelos de ponta recentes e mais de 60% mais barato que o GPT-3.5 Turbo, mantendo inteligência de alto nível (82% MMLU).",
|
|
640
|
+
"gpt-4o-realtime-preview-2024-10-01.description": "Variante em tempo real do GPT-4o com entrada e saída de áudio e texto em tempo real.",
|
|
641
|
+
"gpt-4o-realtime-preview-2025-06-03.description": "Variante em tempo real do GPT-4o com entrada e saída de áudio e texto em tempo real.",
|
|
642
|
+
"gpt-4o-realtime-preview.description": "Variante em tempo real do GPT-4o com entrada e saída de áudio e texto em tempo real.",
|
|
643
|
+
"gpt-4o-search-preview.description": "GPT-4o Search Preview é treinado para entender e executar buscas na web via a API Chat Completions. A busca na web é cobrada por chamada de ferramenta, além do custo por tokens.",
|
|
644
|
+
"gpt-4o-transcribe.description": "GPT-4o Transcribe é um modelo de transcrição de fala para texto que utiliza o GPT-4o, melhorando a taxa de erro de palavras, identificação de idioma e precisão em relação ao modelo Whisper original.",
|
|
645
|
+
"gpt-4o.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.",
|
|
646
|
+
"gpt-5-chat-latest.description": "O modelo GPT-5 usado no ChatGPT, combinando forte compreensão e geração para aplicações conversacionais.",
|
|
647
|
+
"gpt-5-chat.description": "GPT-5 Chat é um modelo de prévia otimizado para cenários conversacionais. Suporta entrada de texto e imagem, gera apenas texto e é ideal para chatbots e aplicações de IA conversacional.",
|
|
648
|
+
"gpt-5-codex.description": "GPT-5 Codex é uma variante do GPT-5 otimizada para tarefas de codificação em ambientes semelhantes ao Codex.",
|
|
649
|
+
"gpt-5-mini.description": "Uma variante mais rápida e econômica do GPT-5 para tarefas bem definidas, oferecendo respostas mais ágeis sem comprometer a qualidade.",
|
|
650
|
+
"gpt-5-nano.description": "A variante mais rápida e econômica do GPT-5, ideal para aplicações sensíveis à latência e ao custo.",
|
|
651
|
+
"gpt-5-pro.description": "GPT-5 Pro utiliza mais recursos computacionais para pensar de forma mais profunda e fornecer respostas consistentemente melhores.",
|
|
652
|
+
"gpt-5.1-chat-latest.description": "GPT-5.1 Chat: a variante do ChatGPT baseada no GPT-5.1, desenvolvida para cenários de conversa.",
|
|
653
|
+
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex Mini: uma variante menor e de menor custo do Codex, otimizada para tarefas de codificação com agentes.",
|
|
654
|
+
"gpt-5.1-codex.description": "GPT-5.1 Codex: uma variante do GPT-5.1 otimizada para tarefas de codificação com agentes, voltada para fluxos de trabalho complexos de código/agente na API de Respostas.",
|
|
655
|
+
"gpt-5.1.description": "GPT-5.1 — um modelo principal otimizado para tarefas de codificação e agentes, com esforço de raciocínio configurável e contexto estendido.",
|
|
656
|
+
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat é a variante do ChatGPT (chat-latest) para experimentar as mais recentes melhorias em conversação.",
|
|
657
|
+
"gpt-5.2-pro.description": "GPT-5.2 Pro: uma variante mais inteligente e precisa do GPT-5.2 (somente na API de Respostas), adequada para problemas mais difíceis e raciocínio de múltiplas etapas.",
|
|
658
|
+
"gpt-5.2.description": "GPT-5.2 é um modelo principal para fluxos de trabalho de codificação e agentes, com raciocínio mais forte e desempenho aprimorado em contextos longos.",
|
|
659
|
+
"gpt-5.description": "O melhor modelo para tarefas de codificação e agentes em múltiplos domínios. O GPT-5 representa um salto em precisão, velocidade, raciocínio, consciência de contexto, pensamento estruturado e resolução de problemas.",
|
|
660
|
+
"gpt-audio.description": "GPT Audio é um modelo geral de chat com suporte a entrada/saída de áudio, disponível na API Chat Completions.",
|
|
661
|
+
"gpt-image-1-mini.description": "Uma variante de menor custo do GPT Image 1 com entrada nativa de texto e imagem e saída de imagem.",
|
|
662
|
+
"gpt-image-1.5.description": "Uma versão aprimorada do GPT Image 1 com geração 4× mais rápida, edição mais precisa e renderização de texto melhorada.",
|
|
663
|
+
"gpt-image-1.description": "Modelo nativo de geração de imagens multimodal do ChatGPT.",
|
|
664
|
+
"gpt-oss-120b.description": "O acesso requer uma solicitação. GPT-OSS-120B é um modelo de linguagem de código aberto da OpenAI com forte capacidade de geração de texto.",
|
|
665
|
+
"gpt-oss-20b.description": "O acesso requer uma solicitação. GPT-OSS-20B é um modelo de linguagem de médio porte de código aberto da OpenAI com geração de texto eficiente.",
|
|
666
|
+
"gpt-oss:120b.description": "GPT-OSS 120B é o LLM de código aberto de grande porte da OpenAI, utilizando quantização MXFP4 e posicionado como modelo principal. Requer ambientes com múltiplas GPUs ou estações de trabalho de alto desempenho, oferecendo excelente desempenho em raciocínio complexo, geração de código e processamento multilíngue, com chamadas de função avançadas e integração de ferramentas.",
|
|
667
|
+
"gpt-oss:20b.description": "GPT-OSS 20B é um LLM de código aberto da OpenAI com quantização MXFP4, adequado para GPUs de alto desempenho para consumidores ou Macs com Apple Silicon. Apresenta bom desempenho em geração de diálogos, codificação e tarefas de raciocínio, com suporte a chamadas de função e uso de ferramentas.",
|
|
668
|
+
"gpt-realtime.description": "Um modelo geral em tempo real com suporte a entrada/saída de texto e áudio em tempo real, além de entrada de imagem.",
|
|
669
|
+
"grok-2-image-1212.description": "Nosso mais recente modelo de geração de imagens cria imagens vívidas e realistas a partir de prompts, sendo excelente para marketing, redes sociais e entretenimento.",
|
|
670
|
+
"grok-2-vision-1212.description": "Melhoria na precisão, no seguimento de instruções e na capacidade multilíngue.",
|
|
671
|
+
"grok-3-mini.description": "Um modelo leve que pensa antes de responder. É rápido e inteligente para tarefas lógicas que não exigem conhecimento profundo de domínio, com acesso a rastros brutos de raciocínio.",
|
|
672
|
+
"grok-3.description": "Modelo principal que se destaca em casos de uso corporativos como extração de dados, codificação e sumarização, com conhecimento profundo em finanças, saúde, direito e ciência.",
|
|
673
|
+
"grok-4-0709.description": "Grok 4 da xAI com forte capacidade de raciocínio.",
|
|
674
|
+
"grok-4-1-fast-non-reasoning.description": "Modelo multimodal de ponta otimizado para uso de ferramentas por agentes de alto desempenho.",
|
|
675
|
+
"grok-4-1-fast-reasoning.description": "Modelo multimodal de ponta otimizado para uso de ferramentas por agentes de alto desempenho.",
|
|
676
|
+
"grok-4-fast-non-reasoning.description": "Estamos entusiasmados em lançar o Grok 4 Fast, nosso mais recente avanço em modelos de raciocínio com ótimo custo-benefício.",
|
|
677
|
+
"grok-4-fast-reasoning.description": "Estamos entusiasmados em lançar o Grok 4 Fast, nosso mais recente avanço em modelos de raciocínio com ótimo custo-benefício.",
|
|
678
|
+
"grok-4.description": "Nosso modelo principal mais recente e poderoso, excelente em PLN, matemática e raciocínio — um modelo versátil ideal.",
|
|
679
|
+
"grok-code-fast-1.description": "Estamos entusiasmados em lançar o grok-code-fast-1, um modelo de raciocínio rápido e econômico que se destaca em codificação com agentes.",
|
|
680
|
+
"groq/compound-mini.description": "Compound-mini é um sistema de IA composto alimentado por modelos públicos disponíveis no GroqCloud, utilizando ferramentas de forma inteligente e seletiva para responder às perguntas dos usuários.",
|
|
681
|
+
"groq/compound.description": "Compound é um sistema de IA composto alimentado por múltiplos modelos públicos disponíveis no GroqCloud, utilizando ferramentas de forma inteligente e seletiva para responder às perguntas dos usuários.",
|
|
682
|
+
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B é um modelo de linguagem criativo e inteligente, fundido a partir de diversos modelos de ponta.",
|
|
639
683
|
"meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.",
|
|
640
684
|
"mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.",
|
|
641
685
|
"mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.",
|
|
@@ -40,6 +40,7 @@
|
|
|
40
40
|
"builtins.lobe-cloud-sandbox.title": "Ambiente de Testes na Nuvem",
|
|
41
41
|
"builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Criar agentes em lote",
|
|
42
42
|
"builtins.lobe-group-agent-builder.apiName.createAgent": "Criar agente",
|
|
43
|
+
"builtins.lobe-group-agent-builder.apiName.getAgentInfo": "Obter informações do membro",
|
|
43
44
|
"builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Obter modelos disponíveis",
|
|
44
45
|
"builtins.lobe-group-agent-builder.apiName.installPlugin": "Instalar Habilidade",
|
|
45
46
|
"builtins.lobe-group-agent-builder.apiName.inviteAgent": "Convidar membro",
|
|
@@ -70,6 +71,8 @@
|
|
|
70
71
|
"builtins.lobe-group-management.apiName.summarize": "Resumir conversa",
|
|
71
72
|
"builtins.lobe-group-management.apiName.vote": "Iniciar votação",
|
|
72
73
|
"builtins.lobe-group-management.inspector.broadcast.title": "Agentes que falarão:",
|
|
74
|
+
"builtins.lobe-group-management.inspector.executeAgentTask.assignTo": "Atribuir",
|
|
75
|
+
"builtins.lobe-group-management.inspector.executeAgentTask.task": "tarefa:",
|
|
73
76
|
"builtins.lobe-group-management.inspector.executeAgentTasks.title": "Atribuindo tarefas para:",
|
|
74
77
|
"builtins.lobe-group-management.inspector.speak.title": "Agente designado fala:",
|
|
75
78
|
"builtins.lobe-group-management.title": "Coordenador de Grupo",
|
package/locales/ru-RU/auth.json
CHANGED
|
@@ -28,6 +28,11 @@
|
|
|
28
28
|
"apikey.list.columns.status": "Статус",
|
|
29
29
|
"apikey.list.title": "Список API-ключей",
|
|
30
30
|
"apikey.validation.required": "Это поле не может быть пустым",
|
|
31
|
+
"authModal.description": "Срок действия вашей сессии истёк. Пожалуйста, войдите снова, чтобы продолжить использовать функции облачной синхронизации.",
|
|
32
|
+
"authModal.later": "Позже",
|
|
33
|
+
"authModal.signIn": "Войти снова",
|
|
34
|
+
"authModal.signingIn": "Вход...",
|
|
35
|
+
"authModal.title": "Сессия истекла",
|
|
31
36
|
"betterAuth.errors.confirmPasswordRequired": "Пожалуйста, подтвердите пароль",
|
|
32
37
|
"betterAuth.errors.emailExists": "Этот email уже зарегистрирован. Пожалуйста, войдите в систему",
|
|
33
38
|
"betterAuth.errors.emailInvalid": "Пожалуйста, введите корректный email или имя пользователя",
|
|
@@ -396,6 +396,7 @@
|
|
|
396
396
|
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 — модель MoE с 685B параметрами и последняя итерация флагманской серии чатов DeepSeek.\n\nОснована на [DeepSeek V3](/deepseek/deepseek-chat-v3) и демонстрирует высокую производительность в различных задачах.",
|
|
397
397
|
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 — гибридная модель логического вывода с длинным контекстом от DeepSeek, поддерживающая смешанные режимы мышления/без мышления и интеграцию инструментов.",
|
|
398
398
|
"deepseek/deepseek-chat.description": "DeepSeek-V3 — высокопроизводительная гибридная модель логического вывода от DeepSeek для сложных задач и интеграции инструментов.",
|
|
399
|
+
"deepseek/deepseek-math-v2.description": "DeepSeek Math V2 — это модель, достигшая значительных прорывов в области математического рассуждения. Её ключевое новшество — механизм обучения с «самопроверкой», благодаря которому она достигла уровня золотой медали на нескольких ведущих математических соревнованиях.",
|
|
399
400
|
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 — обновлённый вариант, ориентированный на открытую доступность и более глубокое логическое мышление.",
|
|
400
401
|
"deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 значительно улучшает логическое мышление при минимуме размеченных данных и выводит цепочку рассуждений перед финальным ответом для повышения точности.",
|
|
401
402
|
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B — дистиллированная LLM на основе Llama 3.3 70B, дообученная на выходных данных DeepSeek R1 для достижения конкурентной производительности с передовыми моделями.",
|
|
@@ -572,6 +573,46 @@
|
|
|
572
573
|
"glm-z1-flash.description": "Серия GLM-Z1 обеспечивает мощный логический вывод, особенно в задачах логики, математики и программирования.",
|
|
573
574
|
"glm-z1-flashx.description": "Быстрая и экономичная модель: ускоренная версия Flash с ультрабыстрым выводом и высокой параллельностью.",
|
|
574
575
|
"glm-zero-preview.description": "GLM-Zero-Preview демонстрирует сильные способности к логическому выводу, особенно в логике, математике и программировании.",
|
|
576
|
+
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 — флагманская модель компании Anthropic, сочетающая выдающийся интеллект и масштабируемую производительность для выполнения сложных задач, требующих высококачественных ответов и логического мышления.",
|
|
577
|
+
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash предлагает возможности следующего поколения, включая высокую скорость, встроенную работу с инструментами, мультимодальную генерацию и контекстное окно объёмом 1 миллион токенов.",
|
|
578
|
+
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental — это новейшая экспериментальная мультимодальная модель ИИ от Google, обеспечивающая улучшенное качество по сравнению с предыдущими версиями, особенно в области знаний о мире, программирования и работы с длинным контекстом.",
|
|
579
|
+
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite — облегчённый вариант Gemini с отключённым по умолчанию режимом мышления для снижения задержек и стоимости, который можно включить с помощью параметров.",
|
|
580
|
+
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite предлагает функции следующего поколения, включая высокую скорость, встроенную работу с инструментами, мультимодальную генерацию и контекстное окно объёмом 1 миллион токенов.",
|
|
581
|
+
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash — высокопроизводительная модель от Google, предназначенная для расширенных мультимодальных задач с элементами логического мышления.",
|
|
582
|
+
"google/gemini-2.5-flash-image-free.description": "Бесплатный уровень Gemini 2.5 Flash Image с ограниченной квотой на мультимодальную генерацию.",
|
|
583
|
+
"google/gemini-2.5-flash-image-preview.description": "Экспериментальная модель Gemini 2.5 Flash с поддержкой генерации изображений.",
|
|
584
|
+
"google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image (Nano Banana) — модель генерации изображений от Google с поддержкой мультимодального общения.",
|
|
585
|
+
"google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite — облегчённый вариант Gemini 2.5, оптимизированный по задержке и стоимости, подходит для сценариев с высокой пропускной способностью.",
|
|
586
|
+
"google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash — самая продвинутая флагманская модель Google, созданная для сложных задач в области логики, программирования, математики и науки. Включает встроенное «мышление» для более точных ответов и тонкой обработки контекста.\n\nПримечание: у модели есть два варианта — с мышлением и без. Стоимость вывода значительно различается в зависимости от включения мышления. Если вы выберете стандартный вариант (без суффикса «:thinking»), модель будет явно избегать генерации токенов мышления.\n\nЧтобы использовать мышление и получать соответствующие токены, необходимо выбрать вариант с суффиксом «:thinking», что приведёт к более высокой стоимости вывода.\n\nGemini 2.5 Flash также можно настроить с помощью параметра «максимум токенов рассуждения», как указано в документации (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
|
|
587
|
+
"google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash — самая продвинутая флагманская модель Google, созданная для сложных задач в области логики, программирования, математики и науки. Включает встроенное «мышление» для более точных ответов и тонкой обработки контекста.\n\nПримечание: у модели есть два варианта — с мышлением и без. Стоимость вывода значительно различается в зависимости от включения мышления. Если вы выберете стандартный вариант (без суффикса «:thinking»), модель будет явно избегать генерации токенов мышления.\n\nЧтобы использовать мышление и получать соответствующие токены, необходимо выбрать вариант с суффиксом «:thinking», что приведёт к более высокой стоимости вывода.\n\nGemini 2.5 Flash также можно настроить с помощью параметра «максимум токенов рассуждения», как указано в документации (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
|
|
588
|
+
"google/gemini-2.5-flash.description": "Gemini 2.5 Flash (Lite/Pro/Flash) — семейство моделей Google, охватывающее от низкой задержки до высокопроизводительного логического мышления.",
|
|
589
|
+
"google/gemini-2.5-pro-free.description": "Бесплатный уровень Gemini 2.5 Pro с ограниченной квотой на мультимодальную генерацию с длинным контекстом, подходит для тестирования и лёгких рабочих процессов.",
|
|
590
|
+
"google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Preview — самая продвинутая модель Google с режимом мышления, предназначенная для решения сложных задач в области программирования, математики и STEM, а также для анализа больших наборов данных, кодовых баз и документов с длинным контекстом.",
|
|
591
|
+
"google/gemini-2.5-pro.description": "Gemini 2.5 Pro — флагманская модель логического мышления от Google с поддержкой длинного контекста для сложных задач.",
|
|
592
|
+
"google/gemini-3-pro-image-preview-free.description": "Бесплатный уровень Gemini 3 Pro Image с ограниченной квотой на мультимодальную генерацию.",
|
|
593
|
+
"google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) — модель генерации изображений от Google с поддержкой мультимодального общения.",
|
|
594
|
+
"google/gemini-3-pro-preview-free.description": "Бесплатная версия Gemini 3 Pro Preview с теми же возможностями мультимодального понимания и логики, что и стандартная версия, но с ограничениями по квоте и частоте, что делает её подходящей для тестирования и редкого использования.",
|
|
595
|
+
"google/gemini-3-pro-preview.description": "Gemini 3 Pro — модель следующего поколения в семействе Gemini, способная понимать текст, аудио, изображения и видео, а также справляться со сложными задачами и большими кодовыми базами.",
|
|
596
|
+
"google/gemini-embedding-001.description": "Современная модель встраивания с высокой производительностью для задач на английском языке, в многоязычной среде и в программировании.",
|
|
597
|
+
"google/gemini-flash-1.5.description": "Gemini 1.5 Flash обеспечивает оптимизированную мультимодальную обработку для широкого спектра сложных задач.",
|
|
598
|
+
"google/gemini-pro-1.5.description": "Gemini 1.5 Pro сочетает в себе новейшие оптимизации для более эффективной обработки мультимодальных данных.",
|
|
599
|
+
"google/gemma-2-27b-it.description": "Gemma 2 27B — универсальная языковая модель с высокой производительностью в различных сценариях.",
|
|
600
|
+
"google/gemma-2-27b.description": "Gemma 2 — семейство эффективных моделей от Google, подходящее как для небольших приложений, так и для сложной обработки данных.",
|
|
601
|
+
"google/gemma-2-2b-it.description": "Продвинутая компактная языковая модель, предназначенная для использования на периферийных устройствах.",
|
|
602
|
+
"google/gemma-2-9b-it.description": "Gemma 2 9B, разработанная Google, обеспечивает эффективное выполнение инструкций и общую высокую производительность.",
|
|
603
|
+
"google/gemma-2-9b-it:free.description": "Gemma 2 — лёгкое семейство моделей с открытым исходным кодом от Google для обработки текста.",
|
|
604
|
+
"google/gemma-2-9b.description": "Gemma 2 — семейство эффективных моделей от Google, подходящее как для небольших приложений, так и для сложной обработки данных.",
|
|
605
|
+
"google/gemma-2b-it.description": "Gemma Instruct (2B) обеспечивает базовую обработку инструкций для лёгких приложений.",
|
|
606
|
+
"google/gemma-3-12b-it.description": "Gemma 3 12B — языковая модель с открытым исходным кодом от Google, устанавливающая новый стандарт эффективности и производительности.",
|
|
607
|
+
"google/gemma-3-27b-it.description": "Gemma 3 27B — языковая модель с открытым исходным кодом от Google, устанавливающая новый стандарт эффективности и производительности.",
|
|
608
|
+
"google/text-embedding-005.description": "Модель встраивания текста, ориентированная на английский язык, оптимизирована для задач на английском и программировании.",
|
|
609
|
+
"google/text-multilingual-embedding-002.description": "Многоязычная модель встраивания текста, оптимизированная для кросс-языковых задач на множестве языков.",
|
|
610
|
+
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo для генерации и понимания текста; в настоящее время указывает на gpt-3.5-turbo-0125.",
|
|
611
|
+
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo для генерации и понимания текста; в настоящее время указывает на gpt-3.5-turbo-0125.",
|
|
612
|
+
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo для задач генерации и понимания текста, оптимизирован для выполнения инструкций.",
|
|
613
|
+
"gpt-3.5-turbo.description": "GPT 3.5 Turbo для генерации и понимания текста; в настоящее время указывает на gpt-3.5-turbo-0125.",
|
|
614
|
+
"gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k — высокоёмкая модель генерации текста для сложных задач.",
|
|
615
|
+
"gpt-35-turbo.description": "GPT-3.5 Turbo — эффективная модель от OpenAI для чатов и генерации текста с поддержкой параллельного вызова функций.",
|
|
575
616
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 — это открытая LLM для разработчиков, исследователей и предприятий, созданная для поддержки создания, экспериментов и ответственного масштабирования идей генеративного ИИ. Являясь частью основы для глобальных инноваций сообщества, она хорошо подходит для ограниченных вычислительных ресурсов, устройств на периферии и ускоренного обучения.",
|
|
576
617
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Модель с высокой способностью к визуальному рассуждению на изображениях высокого разрешения, подходящая для приложений визуального понимания.",
|
|
577
618
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Продвинутая модель визуального рассуждения для агентов, ориентированных на визуальное понимание.",
|