@lobehub/lobehub 2.1.3 → 2.1.4
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.env.example +0 -3
- package/.env.example.development +0 -3
- package/CHANGELOG.md +34 -0
- package/changelog/v2.json +9 -0
- package/docker-compose/deploy/.env.example +3 -1
- package/docker-compose/deploy/.env.zh-CN.example +4 -1
- package/docker-compose/local/.env.example +0 -1
- package/docker-compose/local/.env.zh-CN.example +0 -1
- package/docker-compose/local/grafana/.env.example +0 -1
- package/docker-compose/local/grafana/.env.zh-CN.example +0 -1
- package/docker-compose/local/logto/docker-compose.yml +0 -1
- package/docker-compose/local/zitadel/.env.example +1 -2
- package/docker-compose/local/zitadel/.env.zh-CN.example +1 -2
- package/docker-compose/production/grafana/.env.example +0 -1
- package/docker-compose/production/grafana/.env.zh-CN.example +0 -1
- package/docker-compose/production/logto/.env.example +0 -2
- package/docker-compose/production/logto/.env.zh-CN.example +0 -2
- package/docker-compose/production/zitadel/.env.example +0 -2
- package/docker-compose/production/zitadel/.env.zh-CN.example +0 -2
- package/docker-compose/setup.sh +16 -2
- package/docs/development/basic/folder-structure.mdx +23 -14
- package/docs/development/basic/folder-structure.zh-CN.mdx +23 -14
- package/docs/development/basic/work-with-server-side-database.mdx +0 -1
- package/docs/development/basic/work-with-server-side-database.zh-CN.mdx +0 -1
- package/docs/development/start.mdx +19 -12
- package/docs/development/start.zh-CN.mdx +19 -12
- package/docs/self-hosting/advanced/s3/cloudflare-r2.mdx +0 -5
- package/docs/self-hosting/advanced/s3/cloudflare-r2.zh-CN.mdx +0 -5
- package/docs/self-hosting/advanced/s3/rustfs.mdx +0 -2
- package/docs/self-hosting/advanced/s3/rustfs.zh-CN.mdx +0 -2
- package/docs/self-hosting/advanced/s3/tencent-cloud.mdx +0 -1
- package/docs/self-hosting/advanced/s3/tencent-cloud.zh-CN.mdx +0 -2
- package/docs/self-hosting/advanced/s3.mdx +0 -9
- package/docs/self-hosting/advanced/s3.zh-CN.mdx +0 -8
- package/docs/self-hosting/environment-variables/s3.mdx +0 -7
- package/docs/self-hosting/environment-variables/s3.zh-CN.mdx +0 -7
- package/docs/self-hosting/platform/docker-compose.mdx +0 -1
- package/docs/self-hosting/platform/docker-compose.zh-CN.mdx +0 -1
- package/docs/self-hosting/platform/docker.mdx +5 -3
- package/docs/self-hosting/platform/docker.zh-CN.mdx +5 -4
- package/docs/self-hosting/platform/dokploy.mdx +0 -2
- package/docs/self-hosting/platform/dokploy.zh-CN.mdx +0 -2
- package/docs/self-hosting/platform/vercel.mdx +0 -7
- package/docs/self-hosting/platform/vercel.zh-CN.mdx +0 -7
- package/e2e/src/steps/home/sidebarAgent.steps.ts +56 -24
- package/locales/ar/authError.json +1 -0
- package/locales/ar/models.json +25 -22
- package/locales/ar/providers.json +0 -1
- package/locales/ar/setting.json +16 -0
- package/locales/bg-BG/authError.json +1 -0
- package/locales/bg-BG/models.json +18 -21
- package/locales/bg-BG/providers.json +0 -1
- package/locales/bg-BG/setting.json +16 -0
- package/locales/de-DE/authError.json +1 -0
- package/locales/de-DE/models.json +20 -20
- package/locales/de-DE/providers.json +0 -1
- package/locales/de-DE/setting.json +16 -0
- package/locales/en-US/models.json +22 -22
- package/locales/en-US/providers.json +0 -1
- package/locales/es-ES/authError.json +1 -0
- package/locales/es-ES/models.json +84 -20
- package/locales/es-ES/providers.json +0 -1
- package/locales/es-ES/setting.json +16 -0
- package/locales/fa-IR/authError.json +1 -0
- package/locales/fa-IR/models.json +43 -20
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fa-IR/setting.json +16 -0
- package/locales/fr-FR/authError.json +1 -0
- package/locales/fr-FR/models.json +19 -21
- package/locales/fr-FR/providers.json +0 -1
- package/locales/fr-FR/setting.json +16 -0
- package/locales/it-IT/authError.json +1 -0
- package/locales/it-IT/models.json +17 -19
- package/locales/it-IT/providers.json +0 -1
- package/locales/it-IT/setting.json +16 -0
- package/locales/ja-JP/authError.json +1 -0
- package/locales/ja-JP/models.json +43 -22
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ja-JP/setting.json +16 -0
- package/locales/ko-KR/authError.json +1 -0
- package/locales/ko-KR/models.json +41 -20
- package/locales/ko-KR/providers.json +0 -1
- package/locales/ko-KR/setting.json +16 -0
- package/locales/nl-NL/authError.json +1 -0
- package/locales/nl-NL/models.json +48 -20
- package/locales/nl-NL/providers.json +0 -1
- package/locales/nl-NL/setting.json +16 -0
- package/locales/pl-PL/authError.json +1 -0
- package/locales/pl-PL/models.json +19 -22
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pl-PL/setting.json +16 -0
- package/locales/pt-BR/authError.json +1 -0
- package/locales/pt-BR/models.json +21 -21
- package/locales/pt-BR/providers.json +0 -1
- package/locales/pt-BR/setting.json +16 -0
- package/locales/ru-RU/authError.json +1 -0
- package/locales/ru-RU/models.json +23 -20
- package/locales/ru-RU/providers.json +0 -1
- package/locales/ru-RU/setting.json +16 -0
- package/locales/tr-TR/authError.json +1 -0
- package/locales/tr-TR/models.json +37 -20
- package/locales/tr-TR/providers.json +0 -1
- package/locales/tr-TR/setting.json +16 -0
- package/locales/vi-VN/authError.json +1 -0
- package/locales/vi-VN/models.json +15 -19
- package/locales/vi-VN/providers.json +0 -1
- package/locales/vi-VN/setting.json +16 -0
- package/locales/zh-CN/models.json +20 -20
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-TW/authError.json +1 -0
- package/locales/zh-TW/models.json +20 -20
- package/locales/zh-TW/providers.json +0 -1
- package/locales/zh-TW/setting.json +16 -0
- package/package.json +1 -1
- package/packages/model-bank/src/aiModels/google.ts +0 -19
- package/packages/model-bank/src/aiModels/moonshot.ts +56 -5
- package/packages/model-bank/src/aiModels/ollamacloud.ts +14 -0
- package/packages/model-bank/src/aiModels/openrouter.ts +0 -14
- package/packages/model-bank/src/aiModels/qwen.ts +105 -4
- package/packages/model-bank/src/aiModels/siliconcloud.ts +39 -0
- package/packages/model-bank/src/aiModels/wenxin.ts +0 -99
- package/packages/model-runtime/src/core/contextBuilders/openai.test.ts +24 -0
- package/packages/model-runtime/src/core/contextBuilders/openai.ts +22 -5
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +10 -3
- package/packages/model-runtime/src/core/streams/google/google-ai.test.ts +54 -13
- package/packages/model-runtime/src/core/streams/google/index.ts +1 -4
- package/packages/model-runtime/src/providers/moonshot/index.ts +24 -2
- package/packages/model-runtime/src/providers/qwen/index.ts +16 -15
- package/src/server/routers/lambda/__tests__/integration/aiAgent/execAgent.integration.test.ts +3 -2
|
@@ -90,6 +90,7 @@
|
|
|
90
90
|
"Phi-3-small-8k-instruct.description": "7B 파라미터를 가진 모델로, Phi-3-mini보다 더 높은 품질을 제공하며, 고품질 및 추론 중심 데이터에 중점을 둡니다.",
|
|
91
91
|
"Phi-3.5-mini-instruct.description": "Phi-3-mini 모델의 업데이트 버전입니다.",
|
|
92
92
|
"Phi-3.5-vision-instrust.description": "Phi-3-vision 모델의 업데이트 버전입니다.",
|
|
93
|
+
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1은 에이전트 기능에 최적화된 오픈소스 대형 언어 모델로, 프로그래밍, 도구 사용, 지시 따르기, 장기 계획 수립에 뛰어난 성능을 보입니다. 이 모델은 다국어 소프트웨어 개발과 복잡한 다단계 워크플로우 실행을 지원하며, SWE-bench Verified에서 74.0점을 기록하고 다국어 시나리오에서 Claude Sonnet 4.5를 능가합니다.",
|
|
93
94
|
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct는 Qwen2 시리즈의 70억 매개변수 기반 지시 조정 LLM입니다. Transformer 아키텍처를 기반으로 SwiGLU, attention QKV bias, grouped-query attention을 사용하며, 대용량 입력을 처리할 수 있습니다. 언어 이해, 생성, 다국어 작업, 코딩, 수학, 추론 등 다양한 분야에서 강력한 성능을 발휘하며, 대부분의 오픈 모델을 능가하고 상용 모델과 경쟁합니다. 여러 벤치마크에서 Qwen1.5-7B-Chat을 능가합니다.",
|
|
94
95
|
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct는 알리바바 클라우드의 최신 LLM 시리즈 중 하나입니다. 70억 매개변수 모델로 코딩과 수학에서 눈에 띄는 성능 향상을 보이며, 29개 이상의 언어를 지원합니다. 지시 따르기, 구조화된 데이터 이해, 구조화된 출력(특히 JSON) 생성 능력이 향상되었습니다.",
|
|
95
96
|
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct는 알리바바 클라우드의 최신 코드 특화 LLM입니다. Qwen2.5를 기반으로 5.5조 토큰으로 학습되었으며, 코드 생성, 추론, 수정 능력을 크게 향상시켰습니다. 수학 및 일반적인 능력도 유지하며, 코딩 에이전트를 위한 강력한 기반을 제공합니다.",
|
|
@@ -271,20 +272,20 @@
|
|
|
271
272
|
"chatgpt-4o-latest.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 고객 지원, 교육, 기술 지원과 같은 대규모 활용 사례를 위한 강력한 이해 및 생성 능력을 결합합니다.",
|
|
272
273
|
"claude-2.0.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
|
|
273
274
|
"claude-2.1.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른
|
|
275
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른 모델입니다. Claude 3 Haiku와 비교해 전반적인 능력이 향상되었으며, 이전의 최고 모델인 Claude 3 Opus를 여러 지능 벤치마크에서 능가합니다.",
|
|
275
276
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku는 가벼운 작업에 빠른 응답을 제공하는 모델입니다.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
277
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet은 Anthropic의 가장 지능적인 모델이자 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답은 물론, 사용자가 확인할 수 있는 단계별 추론도 가능합니다. 특히 코딩, 데이터 과학, 비전, 에이전트 작업에 강점을 보입니다.",
|
|
277
278
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
278
279
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 빠르고 정확한 성능으로 즉각적인 응답을 위해 설계되었습니다.",
|
|
279
280
|
"claude-3-opus-20240229.description": "Claude 3 Opus는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
280
281
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet은 엔터프라이즈 워크로드를 위한 지능과 속도의 균형을 제공하며, 낮은 비용으로 높은 효용성과 안정적인 대규모 배포를 지원합니다.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로,
|
|
282
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 확장된 추론 능력을 갖추고 있습니다.",
|
|
282
283
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking은 자신의 추론 과정을 드러낼 수 있는 고급 변형 모델입니다.",
|
|
283
|
-
"claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 강력한 모델로,
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 복잡한 작업에서 뛰어난
|
|
284
|
+
"claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 강력한 모델로, 매우 복잡한 작업에서 탁월한 성능, 지능, 유창성, 이해력을 보여줍니다.",
|
|
285
|
+
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 매우 복잡한 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
285
286
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5는 Anthropic의 플래그십 모델로, 탁월한 지능과 확장 가능한 성능을 결합하여 최고 품질의 응답과 추론이 필요한 복잡한 작업에 이상적입니다.",
|
|
286
287
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking은 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 사고를 생성할 수 있습니다.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는
|
|
288
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 응답을 생성할 수 있습니다.",
|
|
288
289
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 현재까지 Anthropic이 개발한 가장 지능적인 모델입니다.",
|
|
289
290
|
"codegeex-4.description": "CodeGeeX-4는 다국어 Q&A 및 코드 자동 완성을 지원하여 개발자의 생산성을 높이는 강력한 AI 코딩 도우미입니다.",
|
|
290
291
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B는 코드 자동 완성 및 생성, 코드 인터프리터, 웹 검색, 함수 호출, 저장소 수준의 코드 Q&A를 지원하는 다국어 코드 생성 모델로, 다양한 소프트웨어 개발 시나리오를 포괄합니다. 10B 미만 파라미터 중 최고 수준의 코드 모델입니다.",
|
|
@@ -351,11 +352,10 @@
|
|
|
351
352
|
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp는 차세대 아키텍처로의 전환을 위한 실험적 V3.2 릴리스입니다. V3.1-Terminus 기반 위에 DeepSeek Sparse Attention(DSA)을 추가하여 긴 문맥 학습 및 추론 효율을 향상시켰으며, 도구 사용, 장문 이해, 다단계 추론에 최적화되어 있습니다. 대규모 문맥 처리 예산 하에서 고차원 추론 효율을 탐색하기에 이상적입니다.",
|
|
352
353
|
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3는 MLA와 DeepSeekMoE를 활용한 671B 파라미터의 MoE 모델로, 손실 없는 부하 분산을 통해 학습 및 추론 효율을 극대화합니다. 14.8T의 고품질 토큰으로 사전 학습되었으며, SFT와 RL을 통해 다른 오픈 모델을 능가하고 주요 폐쇄형 모델에 근접한 성능을 보입니다.",
|
|
353
354
|
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B)은 심층 언어 이해와 상호작용을 제공하는 혁신적인 모델입니다.",
|
|
354
|
-
"deepseek-ai/deepseek-r1.description": "최신 기술을 반영한 고효율 LLM으로, 추론, 수학, 프로그래밍에 강점을 보입니다.",
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2는 DeepSeekMoE-27B 기반의 MoE 비전-언어 모델로, 희소 활성화를 통해 4.5B 활성 파라미터만으로도 뛰어난 성능을 발휘합니다. 시각적 QA, OCR, 문서/표/차트 이해, 시각적 정렬에 탁월합니다.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "일반 대화 능력과 코드 작성 능력을 결합한 새로운 오픈소스 모델입니다. 대화 모델의 일반적인 대화 능력과 코드 모델의 강력한 코딩 능력을 유지하면서 선호도 정렬이 개선되었습니다. DeepSeek-V2.5는 글쓰기와 지시 따르기에서도 향상된 성능을 보입니다.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B는 2T 토큰(코드 87%, 중/영문 텍스트 13%)으로 학습된 코드 언어 모델입니다. 16K 문맥 창과 중간 채우기(fit-in-the-middle) 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 보완을 지원합니다.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1의 빠른 전체 버전으로, 실시간 웹 검색을 지원하며 671B 규모의 성능과 빠른 응답을 결합합니다.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 전체 버전은 671B 파라미터와 실시간 웹 검색을 지원하여 더 강력한 이해 및 생성 능력을 제공합니다.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1은 강화 학습 전 콜드 스타트 데이터를 사용하며, 수학, 코딩, 추론에서 OpenAI-o1과 유사한 성능을 보입니다.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2의 사고 모드는 최종 답변 전에 사고 과정을 출력하여 정확도를 높입니다.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2는 비용 효율적인 처리를 위한 고효율 MoE 모델입니다.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B는 코드 생성에 강점을 가진 DeepSeek의 코드 특화 모델입니다.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324는 671B 파라미터의 MoE 모델로, 프로그래밍 및 기술 역량, 문맥 이해, 장문 처리에서 뛰어난 성능을 보입니다.",
|
|
@@ -472,8 +472,7 @@
|
|
|
472
472
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K는 간단한 질의응답, 분류, 저비용 추론에 적합한 초경량 모델입니다.",
|
|
473
473
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K는 복잡한 추론 및 다중 턴 대화를 위한 32K 컨텍스트의 고속 사고 모델입니다.",
|
|
474
474
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview는 평가 및 테스트를 위한 사고 모델 프리뷰입니다.",
|
|
475
|
-
"fal-ai/bytedance/seedream/v4.
|
|
476
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0은 ByteDance Seed가 개발한 모델로, 텍스트와 이미지 입력을 지원하며, 프롬프트 기반의 고품질 이미지 생성을 정밀하게 제어할 수 있습니다.",
|
|
475
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0은 ByteDance Seed에서 개발한 이미지 생성 모델로, 텍스트와 이미지 입력을 지원하며, 고품질의 이미지 생성과 세밀한 제어가 가능합니다. 텍스트 프롬프트로부터 이미지를 생성합니다.",
|
|
477
476
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 모델은 이미지 편집에 중점을 두며, 텍스트와 이미지 입력을 지원합니다.",
|
|
478
477
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro]는 텍스트와 참조 이미지를 입력으로 받아, 국소 편집과 복잡한 장면 변환을 정밀하게 수행할 수 있습니다.",
|
|
479
478
|
"fal-ai/flux/krea.description": "Flux Krea [dev]는 보다 사실적이고 자연스러운 이미지 스타일에 중점을 둔 이미지 생성 모델입니다.",
|
|
@@ -481,8 +480,8 @@
|
|
|
481
480
|
"fal-ai/hunyuan-image/v3.description": "강력한 네이티브 멀티모달 이미지 생성 모델입니다.",
|
|
482
481
|
"fal-ai/imagen4/preview.description": "Google에서 개발한 고품질 이미지 생성 모델입니다.",
|
|
483
482
|
"fal-ai/nano-banana.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
|
|
484
|
-
"fal-ai/qwen-image-edit.description": "Qwen
|
|
485
|
-
"fal-ai/qwen-image.description": "Qwen
|
|
483
|
+
"fal-ai/qwen-image-edit.description": "Qwen 팀에서 개발한 전문 이미지 편집 모델로, 의미 기반 및 외형 기반 편집을 지원하며, 중국어와 영어 텍스트를 정밀하게 편집하고 스타일 전환, 객체 회전 등 고품질 편집이 가능합니다.",
|
|
484
|
+
"fal-ai/qwen-image.description": "Qwen 팀에서 개발한 강력한 이미지 생성 모델로, 중국어 텍스트 표현이 뛰어나며 다양한 시각 스타일을 지원합니다.",
|
|
486
485
|
"flux-1-schnell.description": "Black Forest Labs에서 개발한 120억 파라미터 텍스트-이미지 모델로, 잠재 적대 확산 증류를 사용하여 1~4단계 내에 고품질 이미지를 생성합니다. Apache-2.0 라이선스로 개인, 연구, 상업적 사용이 가능합니다.",
|
|
487
486
|
"flux-dev.description": "FLUX.1 [dev]는 오픈 가중치 증류 모델로, 비상업적 사용을 위해 설계되었습니다. 전문가 수준의 이미지 품질과 지시 따르기를 유지하면서도 더 효율적으로 작동하며, 동일 크기의 표준 모델보다 자원을 더 잘 활용합니다.",
|
|
488
487
|
"flux-kontext-max.description": "최첨단 문맥 기반 이미지 생성 및 편집 모델로, 텍스트와 이미지를 결합하여 정밀하고 일관된 결과를 생성합니다.",
|
|
@@ -514,8 +513,6 @@
|
|
|
514
513
|
"gemini-2.0-flash-lite-001.description": "비용 효율성과 낮은 지연 시간에 최적화된 Gemini 2.0 Flash 변형입니다.",
|
|
515
514
|
"gemini-2.0-flash-lite.description": "비용 효율성과 낮은 지연 시간에 최적화된 Gemini 2.0 Flash 변형입니다.",
|
|
516
515
|
"gemini-2.0-flash.description": "Gemini 2.0 Flash는 탁월한 속도, 네이티브 도구 사용, 멀티모달 생성, 100만 토큰 문맥 창 등 차세대 기능을 제공합니다.",
|
|
517
|
-
"gemini-2.5-flash-image-preview.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
|
|
518
|
-
"gemini-2.5-flash-image-preview:image.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
|
|
519
516
|
"gemini-2.5-flash-image.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
|
|
520
517
|
"gemini-2.5-flash-image:image.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
|
|
521
518
|
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview는 Google의 가장 작고 가성비 높은 모델로, 대규모 사용을 위해 설계되었습니다.",
|
|
@@ -543,7 +540,7 @@
|
|
|
543
540
|
"generalv3.5.description": "Spark Max는 웹 검색과 다양한 내장 플러그인을 지원하는 가장 완전한 기능의 버전입니다. 최적화된 핵심 기능, 시스템 역할, 함수 호출을 통해 복잡한 애플리케이션 시나리오에서도 뛰어난 성능을 발휘합니다.",
|
|
544
541
|
"generalv3.description": "Spark Pro는 수학, 프로그래밍, 의료, 교육 등 전문 분야에 최적화된 고성능 LLM입니다. 웹 검색과 날씨, 날짜 등 내장 플러그인을 지원하며, 복잡한 지식 질의응답, 언어 이해, 고급 텍스트 생성에서 강력한 성능과 효율성을 제공합니다. 전문가용 사용 사례에 이상적입니다.",
|
|
545
542
|
"glm-4-0520.description": "GLM-4-0520은 최신 버전의 모델로, 매우 복잡하고 다양한 작업을 위한 탁월한 성능을 제공합니다.",
|
|
546
|
-
"glm-4-
|
|
543
|
+
"glm-4-7.description": "GLM-4.7은 Zhipu AI의 최신 플래그십 모델로, 코딩 능력, 장기 작업 계획, 도구 협업 능력을 강화하여 Agentic Coding 시나리오에서 오픈소스 모델 중 최고 성능을 달성했습니다. 일반 능력도 향상되어 응답이 더 간결하고 자연스러우며, 글쓰기 몰입감도 높아졌습니다. 복잡한 에이전트 작업에서 도구 호출 시 지시 따르기가 강화되었고, Artifacts 및 Agentic Coding 프론트엔드의 미적 품질과 장기 작업 완성 효율도 향상되었습니다. • 향상된 프로그래밍 능력: 다국어 코딩 및 터미널 에이전트 성능이 크게 향상되었으며, Claude Code, Kilo Code, TRAE, Cline, Roo Code 등에서 '먼저 생각하고, 그다음 실행' 메커니즘을 구현할 수 있습니다. • 프론트엔드 미적 향상: 웹사이트, PPT, 포스터 등 시각적으로 더 뛰어난 프론트엔드 생성이 가능합니다. • 도구 호출 능력 강화: BrowseComp 웹 작업 평가에서 67점, τ²-Bench 상호작용 도구 호출 평가에서 84.7점을 기록하며 Claude Sonnet 4.5를 능가하는 오픈소스 SOTA를 달성했습니다. • 추론 능력 향상: 수학 및 추론 능력이 크게 향상되어 HLE(‘인류 최후의 시험’) 벤치마크에서 42.8%를 기록, GLM-4.6 대비 41% 향상되었으며 GPT-5.1을 능가합니다. • 일반 능력 향상: 대화가 더 간결하고 지능적이며 인간적인 느낌을 주며, 글쓰기와 역할극이 더 문학적이고 몰입감 있게 개선되었습니다.",
|
|
547
544
|
"glm-4-9b-chat.description": "GLM-4-9B-Chat은 의미 이해, 수학, 추론, 코딩, 지식 등 다양한 영역에서 강력한 성능을 보입니다. 웹 브라우징, 코드 실행, 사용자 정의 도구 호출, 장문 추론을 지원하며, 일본어, 한국어, 독일어 등 26개 언어를 지원합니다.",
|
|
548
545
|
"glm-4-air-250414.description": "GLM-4-Air는 GLM-4에 근접한 성능을 제공하면서도 빠른 속도와 낮은 비용을 자랑하는 고가치 모델입니다.",
|
|
549
546
|
"glm-4-air.description": "GLM-4-Air는 GLM-4에 근접한 성능을 제공하면서도 빠른 속도와 낮은 비용을 자랑하는 고가치 모델입니다.",
|
|
@@ -558,11 +555,12 @@
|
|
|
558
555
|
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking은 약 100억 파라미터 규모의 가장 강력한 VLM으로, 영상 이해, 이미지 QA, 과목 문제 해결, OCR, 문서 및 차트 읽기, GUI 에이전트, 프론트엔드 코딩, 그라운딩 등 SOTA 작업을 포괄합니다. 고급 RL을 통해 사고 과정을 활용하여 정확성과 풍부함을 높이며, 전통적인 비사고 모델보다 결과와 설명력 모두에서 우수합니다.",
|
|
559
556
|
"glm-4.5-air.description": "GLM-4.5 경량 버전으로, 성능과 비용의 균형을 이루며 유연한 하이브리드 사고 모드를 지원합니다.",
|
|
560
557
|
"glm-4.5-airx.description": "GLM-4.5-Air 고속 버전으로, 대규모 고속 사용에 적합한 빠른 응답을 제공합니다.",
|
|
561
|
-
"glm-4.5-flash.description": "GLM-4.5 무료 버전으로, 추론, 코딩, 에이전트 작업에서 강력한 성능을 발휘합니다.",
|
|
562
558
|
"glm-4.5-x.description": "GLM-4.5 고속 버전으로, 최대 초당 100토큰 생성 속도로 강력한 성능을 제공합니다.",
|
|
563
559
|
"glm-4.5.description": "Zhipu의 플래그십 모델로, 사고 모드 전환이 가능하며 오픈소스 SOTA 성능과 최대 128K 컨텍스트를 지원합니다.",
|
|
564
560
|
"glm-4.5v.description": "Zhipu의 차세대 MoE 비전 추론 모델로, 총 106B 파라미터 중 12B가 활성화되며, 이미지, 비디오, 문서 이해, GUI 작업 등에서 동급 오픈소스 멀티모달 모델 중 SOTA 성능을 달성합니다.",
|
|
565
561
|
"glm-4.6.description": "Zhipu의 최신 플래그십 모델 GLM-4.6 (355B)은 고급 코딩, 장문 처리, 추론, 에이전트 기능에서 전작을 완전히 능가합니다. 특히 Claude Sonnet 4와 유사한 프로그래밍 능력을 갖추어 중국 최고의 코딩 모델로 자리매김했습니다.",
|
|
562
|
+
"glm-4.7-flash.description": "GLM-4.7-Flash는 30B급 SOTA 모델로, 성능과 효율성의 균형을 제공하는 새로운 선택지입니다. Agentic Coding 시나리오에서 코딩 능력, 장기 작업 계획, 도구 협업 능력을 강화하여 동급 오픈소스 모델 중 최고 성능을 달성했습니다. 복잡한 지능형 에이전트 작업 수행 시 도구 호출에서 지시 따르기가 강화되었고, 프론트엔드 미적 품질과 Artifacts 및 Agentic Coding의 장기 작업 완성 효율도 향상되었습니다.",
|
|
563
|
+
"glm-4.7-flashx.description": "GLM-4.7-Flash는 30B급 SOTA 모델로, 성능과 효율성의 균형을 제공하는 새로운 선택지입니다. Agentic Coding 시나리오에서 코딩 능력, 장기 작업 계획, 도구 협업 능력을 강화하여 동급 오픈소스 모델 중 최고 성능을 달성했습니다. 복잡한 지능형 에이전트 작업 수행 시 도구 호출에서 지시 따르기가 강화되었고, 프론트엔드 미적 품질과 Artifacts 및 Agentic Coding의 장기 작업 완성 효율도 향상되었습니다.",
|
|
566
564
|
"glm-4.7.description": "GLM-4.7은 Zhipu의 최신 플래그십 모델로, 에이전트 코딩 시나리오에 최적화되어 코딩 능력, 장기 작업 계획, 도구 협업이 향상되었습니다. 여러 공개 벤치마크에서 오픈소스 모델 중 선도적인 성능을 보이며, 일반 능력도 더 간결하고 자연스러운 응답과 몰입감 있는 글쓰기로 개선되었습니다. 복잡한 에이전트 작업에서는 도구 호출 시 지시 따르기 능력이 강화되었고, Artifacts 및 에이전트 코딩의 프론트엔드 미학과 장기 작업 완성 효율도 향상되었습니다.",
|
|
567
565
|
"glm-4.description": "GLM-4는 2024년 1월에 출시된 이전 플래그십 모델로, 현재는 더 강력한 GLM-4-0520으로 대체되었습니다.",
|
|
568
566
|
"glm-4v-flash.description": "GLM-4V-Flash는 단일 이미지 이해에 최적화되어 실시간 또는 배치 이미지 처리와 같은 빠른 분석 시나리오에 적합합니다.",
|
|
@@ -654,8 +652,8 @@
|
|
|
654
652
|
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: 에이전트 기반 코딩 작업에 최적화된 소형, 저비용 Codex 변형 모델입니다.",
|
|
655
653
|
"gpt-5.1-codex.description": "GPT-5.1 Codex: 복잡한 코드/에이전트 워크플로우를 위한 Responses API용 GPT-5.1 기반 에이전트 코딩 최적화 모델입니다.",
|
|
656
654
|
"gpt-5.1.description": "GPT-5.1 — 코딩 및 에이전트 작업에 최적화된 플래그십 모델로, 구성 가능한 추론 노력과 긴 컨텍스트를 지원합니다.",
|
|
657
|
-
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat은 최신 대화
|
|
658
|
-
"gpt-5.2-pro.description": "GPT-5.2 Pro
|
|
655
|
+
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat은 최신 대화 기능이 반영된 ChatGPT 변형 모델입니다.",
|
|
656
|
+
"gpt-5.2-pro.description": "GPT-5.2 Pro는 더 똑똑하고 정밀한 GPT-5.2 변형 모델로, 복잡한 문제 해결과 장기 다중 턴 추론에 적합합니다. (Responses API 전용)",
|
|
659
657
|
"gpt-5.2.description": "GPT-5.2는 더 강력한 추론 능력과 긴 컨텍스트 성능을 갖춘 코딩 및 에이전트 워크플로우용 플래그십 모델입니다.",
|
|
660
658
|
"gpt-5.description": "도메인 간 코딩 및 에이전트 작업에 가장 적합한 모델입니다. GPT-5는 정확성, 속도, 추론, 컨텍스트 인식, 구조적 사고, 문제 해결에서 비약적인 발전을 이뤘습니다.",
|
|
661
659
|
"gpt-audio.description": "GPT Audio는 오디오 입출력을 지원하는 일반 대화형 모델로, Chat Completions API에서 사용 가능합니다.",
|
|
@@ -906,6 +904,26 @@
|
|
|
906
904
|
"mistralai/Mixtral-8x7B-Instruct-v0.1.description": "Mixtral-8x7B Instruct (46.7B)는 대규모 데이터 처리에 적합한 높은 용량을 제공합니다.",
|
|
907
905
|
"mistralai/Mixtral-8x7B-v0.1.description": "Mixtral 8x7B는 추론 속도를 높이는 희소 MoE 모델로, 다국어 및 코드 생성 작업에 적합합니다.",
|
|
908
906
|
"mistralai/mistral-nemo.description": "Mistral Nemo는 7.3B 모델로, 다국어 지원과 강력한 코딩 성능을 제공합니다.",
|
|
907
|
+
"mixtral-8x7b-32768.description": "Mixtral 8x7B는 복잡한 작업을 위한 장애 허용 병렬 연산을 제공합니다.",
|
|
908
|
+
"mixtral.description": "Mixtral은 Mistral AI의 MoE 모델로, 오픈 가중치를 제공하며 코드 생성과 언어 이해를 지원합니다.",
|
|
909
|
+
"mixtral:8x22b.description": "Mixtral은 Mistral AI의 MoE 모델로, 오픈 가중치를 제공하며 코드 생성과 언어 이해를 지원합니다.",
|
|
910
|
+
"moonshot-v1-128k-vision-preview.description": "Kimi 비전 모델(moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 포함)은 텍스트, 색상, 객체 형태 등 이미지 내용을 이해할 수 있습니다.",
|
|
911
|
+
"moonshot-v1-128k.description": "Moonshot V1 128K는 최대 128,000 토큰을 처리할 수 있는 초장문 컨텍스트를 제공하여 연구, 학술, 대형 문서 시나리오에 적합합니다.",
|
|
912
|
+
"moonshot-v1-32k-vision-preview.description": "Kimi 비전 모델(moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 포함)은 텍스트, 색상, 객체 형태 등 이미지 내용을 이해할 수 있습니다.",
|
|
913
|
+
"moonshot-v1-32k.description": "Moonshot V1 32K는 32,768 토큰을 지원하는 중간 길이 컨텍스트 모델로, 콘텐츠 제작, 보고서, 대화 시스템에서 긴 문서와 복잡한 대화에 적합합니다.",
|
|
914
|
+
"moonshot-v1-8k-vision-preview.description": "Kimi 비전 모델(moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 포함)은 텍스트, 색상, 객체 형태 등 이미지 내용을 이해할 수 있습니다.",
|
|
915
|
+
"moonshot-v1-8k.description": "Moonshot V1 8K는 짧은 텍스트 생성을 위해 최적화된 모델로, 8,192 토큰을 처리하며 짧은 대화, 메모, 빠른 콘텐츠 생성에 적합합니다.",
|
|
916
|
+
"moonshot-v1-auto.description": "Moonshot V1 Auto는 현재 컨텍스트 토큰 사용량에 따라 적절한 모델을 자동으로 선택합니다.",
|
|
917
|
+
"moonshotai/Kimi-Dev-72B.description": "Kimi-Dev-72B는 대규모 강화학습을 통해 최적화된 오픈소스 코드 LLM으로, 견고하고 실용적인 패치를 생성합니다. SWE-bench Verified에서 60.4%를 기록하며 버그 수정 및 코드 리뷰와 같은 자동화 소프트웨어 엔지니어링 작업에서 오픈모델 최고 기록을 세웠습니다.",
|
|
918
|
+
"moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905는 가장 최신이자 강력한 Kimi K2 모델로, 총 1조 파라미터 중 320억이 활성화되는 최상급 MoE 모델입니다. 벤치마크 및 실제 에이전트 작업에서 뛰어난 Agentic Coding 지능을 보이며, 프론트엔드 코드의 미적 품질과 사용성도 향상되었습니다.",
|
|
919
|
+
"moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking은 최신이자 가장 강력한 오픈소스 사고 모델로, 다단계 추론 깊이를 크게 확장하고 200~300회 연속 도구 사용에서도 안정적인 성능을 유지합니다. HLE, BrowseComp 등에서 새로운 기록을 세우며, 코딩, 수학, 논리, 에이전트 시나리오에 탁월합니다. 약 1조 파라미터의 MoE 아키텍처 기반으로, 256K 컨텍스트 윈도우와 도구 호출을 지원합니다.",
|
|
920
|
+
"moonshotai/kimi-k2-0711.description": "Kimi K2 0711은 Kimi 시리즈의 Instruct 변형으로, 고품질 코드 작성과 도구 사용에 적합합니다.",
|
|
921
|
+
"moonshotai/kimi-k2-0905.description": "Kimi K2 0905는 컨텍스트 확장과 추론 성능 향상을 위한 업데이트로, 코딩 최적화가 포함되어 있습니다.",
|
|
922
|
+
"moonshotai/kimi-k2-instruct-0905.description": "kimi-k2-0905-preview 모델은 256K 컨텍스트 윈도우를 지원하며, 향상된 Agentic Coding, 더 정제되고 실용적인 프론트엔드 코드, 뛰어난 컨텍스트 이해력을 제공합니다.",
|
|
923
|
+
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo는 Kimi K2 Thinking의 고속 버전으로, 지연 시간을 크게 줄이면서도 깊은 추론 능력을 유지합니다.",
|
|
924
|
+
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking은 Moonshot의 추론 모델로, 깊은 추론 작업에 최적화되어 있으며 일반적인 에이전트 기능을 지원합니다.",
|
|
925
|
+
"moonshotai/kimi-k2.description": "Kimi K2는 Moonshot AI의 대형 MoE 모델로, 총 1조 파라미터 중 320억이 활성화되며, 고급 도구 사용, 추론, 코드 생성 등 에이전트 기능에 최적화되어 있습니다.",
|
|
926
|
+
"morph/morph-v3-fast.description": "Morph는 최첨단 모델(예: Claude 또는 GPT-4o)이 제안한 코드 변경을 기존 파일에 적용하는 특화 모델로, 초당 4,500+ 토큰의 속도를 자랑합니다. AI 코딩 워크플로우의 마지막 단계로, 16K 입력/출력을 지원합니다.",
|
|
909
927
|
"morph/morph-v3-large.description": "Morph는 최첨단 모델(예: Claude 또는 GPT-4o)이 제안한 코드 변경 사항을 기존 파일에 빠르게 적용할 수 있도록 특화된 모델입니다. 초당 2500개 이상의 토큰 처리 속도를 자랑하며, AI 코딩 워크플로우의 마지막 단계로 16K 입력/출력 토큰을 지원합니다.",
|
|
910
928
|
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B는 Nous Hermes 2의 최신 버전으로, 내부에서 개발한 최신 데이터셋을 기반으로 업데이트되었습니다.",
|
|
911
929
|
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B는 NVIDIA가 사용자 응답의 유용성을 향상시키기 위해 맞춤 제작한 LLM입니다. Arena Hard, AlpacaEval 2 LC, GPT-4-Turbo MT-Bench에서 모두 1위를 기록하며, 2024년 10월 1일 기준 자동 정렬 벤치마크에서 최고의 성능을 보입니다. 이 모델은 Llama-3.1-70B-Instruct를 기반으로 RLHF(REINFORCE), Llama-3.1-Nemotron-70B-Reward, HelpSteer2-Preference 프롬프트를 활용해 학습되었습니다.",
|
|
@@ -946,6 +964,9 @@
|
|
|
946
964
|
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini는 GPT-5.1-Codex의 소형, 고속 버전으로, 지연 시간과 비용에 민감한 코딩 시나리오에 적합합니다.",
|
|
947
965
|
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex는 소프트웨어 엔지니어링 및 코딩 워크플로우에 최적화된 GPT-5.1 변형으로, 대규모 리팩터링, 복잡한 디버깅, 장기 자율 코딩 작업에 적합합니다.",
|
|
948
966
|
"openai/gpt-5.1.description": "GPT-5.1은 GPT-5 시리즈의 최신 대표 모델로, 일반 추론, 지시 따르기, 대화 자연스러움에서 GPT-5 대비 큰 향상을 이루었으며, 다양한 작업에 적합합니다.",
|
|
967
|
+
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat은 최신 대화 기능을 체험할 수 있는 ChatGPT 변형 모델입니다.",
|
|
968
|
+
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro는 더 똑똑하고 정밀한 GPT-5.2 변형 모델로, 복잡한 문제 해결과 장기 다중 턴 추론에 적합합니다. (Responses API 전용)",
|
|
969
|
+
"openai/gpt-5.2.description": "GPT-5.2는 향상된 추론 능력과 장문 컨텍스트 성능을 갖춘 코딩 및 에이전트 워크플로우용 플래그십 모델입니다.",
|
|
949
970
|
"openai/gpt-5.description": "GPT-5는 OpenAI의 고성능 모델로, 다양한 생산 및 연구 작업에 적합합니다.",
|
|
950
971
|
"openai/gpt-oss-120b.description": "강력하고 제어 가능한 추론 능력을 갖춘 범용 LLM입니다.",
|
|
951
972
|
"openai/gpt-oss-20b.description": "지연 시간과 자원 제약 환경(로컬 및 엣지 배포 포함)에 최적화된 소형 오픈 가중치 언어 모델입니다.",
|
|
@@ -960,6 +981,7 @@
|
|
|
960
981
|
"openai/text-embedding-3-large.description": "OpenAI의 가장 강력한 임베딩 모델로, 영어 및 비영어 작업 모두에 적합합니다.",
|
|
961
982
|
"openai/text-embedding-3-small.description": "OpenAI의 향상된 고성능 ada 임베딩 모델 변형입니다.",
|
|
962
983
|
"openai/text-embedding-ada-002.description": "OpenAI의 레거시 텍스트 임베딩 모델입니다.",
|
|
984
|
+
"openrouter/auto.description": "컨텍스트 길이, 주제, 복잡도에 따라 요청이 Llama 3 70B Instruct, Claude 3.5 Sonnet(자체 검열), 또는 GPT-4o로 라우팅됩니다.",
|
|
963
985
|
"qwen/qwen3-14b:free.description": "Qwen3-14B는 복잡한 추론과 효율적인 대화를 위해 설계된 148억 매개변수의 밀집형 인과 LLM입니다. 수학, 코딩, 논리를 위한 사고 모드와 일반 대화를 위한 비사고 모드 간 전환이 가능합니다. 100개 이상의 언어와 방언에 걸쳐 지시 따르기, 에이전트 도구 사용, 창의적 글쓰기에 최적화되어 있습니다. 기본적으로 32K 컨텍스트를 처리하며 YaRN을 통해 131K까지 확장됩니다.",
|
|
964
986
|
"qwen/qwen3-235b-a22b-2507.description": "Qwen3-235B-A22B-Instruct-2507은 Qwen3 시리즈의 Instruct 변형으로, 다국어 지시 수행과 장문 컨텍스트 시나리오 간의 균형을 이룹니다.",
|
|
965
987
|
"qwen/qwen3-235b-a22b-thinking-2507.description": "Qwen3-235B-A22B-Thinking-2507은 복잡한 수학 및 추론 작업에 강화된 Qwen3의 사고 중심 변형입니다.",
|
|
@@ -1099,7 +1121,6 @@
|
|
|
1099
1121
|
"z-ai/glm-4.5-air.description": "GLM 4.5 Air는 비용에 민감한 시나리오를 위한 경량 모델로, 강력한 추론 능력을 유지합니다.",
|
|
1100
1122
|
"z-ai/glm-4.5.description": "GLM 4.5는 Z.AI의 대표 모델로, 하이브리드 추론이 가능하며, 엔지니어링 및 장문 컨텍스트 작업에 최적화되어 있습니다.",
|
|
1101
1123
|
"z-ai/glm-4.6.description": "GLM 4.6은 Z.AI의 대표 모델로, 확장된 컨텍스트 길이와 향상된 코딩 기능을 제공합니다.",
|
|
1102
|
-
"zai-glm-4.6.description": "코딩 및 추론 작업에서 뛰어난 성능을 발휘하며, 스트리밍 및 도구 호출을 지원하고, 에이전트 기반 코딩 및 복잡한 추론에 적합합니다.",
|
|
1103
1124
|
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air는 Mixture-of-Experts 아키텍처를 사용하는 에이전트 애플리케이션용 기본 모델입니다. 도구 사용, 웹 브라우징, 소프트웨어 엔지니어링, 프론트엔드 코딩에 최적화되어 있으며, Claude Code 및 Roo Code와 같은 코드 에이전트와 통합됩니다. 복잡한 추론과 일상적인 시나리오 모두를 처리할 수 있는 하이브리드 추론을 사용합니다.",
|
|
1104
1125
|
"zai-org/GLM-4.5.description": "GLM-4.5는 Mixture-of-Experts 아키텍처를 사용하는 에이전트 애플리케이션용 기본 모델입니다. 도구 사용, 웹 브라우징, 소프트웨어 엔지니어링, 프론트엔드 코딩에 깊이 최적화되어 있으며, Claude Code 및 Roo Code와 같은 코드 에이전트와 통합됩니다. 복잡한 추론과 일상적인 시나리오 모두를 처리할 수 있는 하이브리드 추론을 사용합니다.",
|
|
1105
1126
|
"zai-org/GLM-4.5V.description": "GLM-4.5V는 GLM-4.5-Air 기반의 최신 VLM으로, 106B 총 파라미터(12B 활성)를 갖춘 MoE 아키텍처를 사용하여 낮은 비용으로 강력한 성능을 제공합니다. GLM-4.1V-Thinking 경로를 따르며, 3D-RoPE를 추가하여 3D 공간 추론을 향상시켰습니다. 사전학습, SFT, RL을 통해 최적화되었으며, 이미지, 비디오, 장문 문서를 처리할 수 있습니다. 41개 공개 멀티모달 벤치마크에서 오픈 모델 중 최고 순위를 기록했습니다. Thinking 모드 전환 기능을 통해 속도와 깊이를 조절할 수 있습니다.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "InternLM은 대규모 모델 연구 및 도구 개발에 집중하는 오픈소스 조직으로, 최신 모델과 알고리즘을 누구나 쉽게 사용할 수 있도록 효율적인 플랫폼을 제공합니다.",
|
|
30
30
|
"jina.description": "2020년에 설립된 Jina AI는 선도적인 검색 AI 기업으로, 벡터 모델, 재정렬기, 소형 언어 모델을 포함한 검색 스택을 통해 신뢰성 높고 고품질의 생성형 및 멀티모달 검색 앱을 구축합니다.",
|
|
31
31
|
"lmstudio.description": "LM Studio는 데스크탑에서 LLM을 개발하고 실험할 수 있는 애플리케이션입니다.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud는 공식 API를 사용하여 AI 모델에 접근하며, 모델 토큰에 연동된 크레딧을 통해 사용량을 측정합니다.",
|
|
33
32
|
"minimax.description": "2021년에 설립된 MiniMax는 텍스트, 음성, 비전 등 멀티모달 기반의 범용 AI를 개발하며, 조 단위 파라미터의 MoE 텍스트 모델과 Hailuo AI와 같은 앱을 제공합니다.",
|
|
34
33
|
"mistral.description": "Mistral은 복잡한 추론, 다국어 작업, 코드 생성에 적합한 고급 범용, 특화, 연구용 모델을 제공하며, 사용자 정의 통합을 위한 함수 호출 기능도 지원합니다.",
|
|
35
34
|
"modelscope.description": "ModelScope는 Alibaba Cloud의 모델 서비스 플랫폼으로, 다양한 AI 모델과 추론 서비스를 제공합니다.",
|
|
@@ -34,11 +34,20 @@
|
|
|
34
34
|
"agentCronJobs.empty.description": "첫 번째 예약 작업을 생성하여 에이전트를 자동화하세요",
|
|
35
35
|
"agentCronJobs.empty.title": "예약 작업이 없습니다",
|
|
36
36
|
"agentCronJobs.enable": "활성화",
|
|
37
|
+
"agentCronJobs.form.at": "다음 시간에",
|
|
37
38
|
"agentCronJobs.form.content.placeholder": "에이전트에게 줄 프롬프트나 지시사항을 입력하세요",
|
|
39
|
+
"agentCronJobs.form.every": "매",
|
|
40
|
+
"agentCronJobs.form.frequency": "빈도",
|
|
41
|
+
"agentCronJobs.form.hours": "시간",
|
|
42
|
+
"agentCronJobs.form.maxExecutions": "다음 횟수 후 중지",
|
|
38
43
|
"agentCronJobs.form.maxExecutions.placeholder": "무제한으로 설정하려면 비워두세요",
|
|
39
44
|
"agentCronJobs.form.name.placeholder": "작업 이름을 입력하세요",
|
|
45
|
+
"agentCronJobs.form.time": "시간",
|
|
40
46
|
"agentCronJobs.form.timeRange.end": "종료 시간",
|
|
41
47
|
"agentCronJobs.form.timeRange.start": "시작 시간",
|
|
48
|
+
"agentCronJobs.form.times": "회",
|
|
49
|
+
"agentCronJobs.form.timezone": "시간대",
|
|
50
|
+
"agentCronJobs.form.unlimited": "계속 실행",
|
|
42
51
|
"agentCronJobs.form.validation.contentRequired": "작업 내용은 필수입니다",
|
|
43
52
|
"agentCronJobs.form.validation.invalidTimeRange": "시작 시간은 종료 시간보다 이전이어야 합니다",
|
|
44
53
|
"agentCronJobs.form.validation.nameRequired": "작업 이름은 필수입니다",
|
|
@@ -83,6 +92,13 @@
|
|
|
83
92
|
"agentCronJobs.weekday.tuesday": "화요일",
|
|
84
93
|
"agentCronJobs.weekday.wednesday": "수요일",
|
|
85
94
|
"agentCronJobs.weekdays": "평일",
|
|
95
|
+
"agentCronJobs.weekdays.fri": "금",
|
|
96
|
+
"agentCronJobs.weekdays.mon": "월",
|
|
97
|
+
"agentCronJobs.weekdays.sat": "토",
|
|
98
|
+
"agentCronJobs.weekdays.sun": "일",
|
|
99
|
+
"agentCronJobs.weekdays.thu": "목",
|
|
100
|
+
"agentCronJobs.weekdays.tue": "화",
|
|
101
|
+
"agentCronJobs.weekdays.wed": "수",
|
|
86
102
|
"agentInfoDescription.basic.avatar": "아바타",
|
|
87
103
|
"agentInfoDescription.basic.description": "설명",
|
|
88
104
|
"agentInfoDescription.basic.name": "이름",
|
|
@@ -8,6 +8,7 @@
|
|
|
8
8
|
"codes.DELETED_ACCOUNT_EMAIL": "Dit e-mailadres is gekoppeld aan een verwijderd account en kan niet worden gebruikt voor registratie",
|
|
9
9
|
"codes.EMAIL_CAN_NOT_BE_UPDATED": "E-mailadres kan niet worden bijgewerkt voor dit account",
|
|
10
10
|
"codes.EMAIL_NOT_ALLOWED": "E-mailadres niet toegestaan voor registratie",
|
|
11
|
+
"codes.EMAIL_NOT_FOUND": "Geen e-mailadres gekoppeld aan dit account. Controleer of er een e-mailadres aan je account is gekoppeld.",
|
|
11
12
|
"codes.EMAIL_NOT_VERIFIED": "Verifieer eerst je e-mailadres",
|
|
12
13
|
"codes.FAILED_TO_CREATE_SESSION": "Sessie aanmaken mislukt",
|
|
13
14
|
"codes.FAILED_TO_CREATE_USER": "Gebruiker aanmaken mislukt",
|
|
@@ -90,6 +90,7 @@
|
|
|
90
90
|
"Phi-3-small-8k-instruct.description": "Een model met 7 miljard parameters van hogere kwaliteit dan Phi-3-mini, gericht op hoogwaardige, redeneerintensieve data.",
|
|
91
91
|
"Phi-3.5-mini-instruct.description": "Een bijgewerkte versie van het Phi-3-mini model.",
|
|
92
92
|
"Phi-3.5-vision-instrust.description": "Een bijgewerkte versie van het Phi-3-vision model.",
|
|
93
|
+
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 is een open-source groot taalmodel geoptimaliseerd voor agent-capaciteiten, uitblinkend in programmeren, gebruik van tools, het volgen van instructies en langetermijnplanning. Het model ondersteunt meertalige softwareontwikkeling en de uitvoering van complexe workflows in meerdere stappen, behaalt een score van 74,0 op SWE-bench Verified en overtreft Claude Sonnet 4.5 in meertalige scenario’s.",
|
|
93
94
|
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct is een 7 miljard parameter instructie-afgesteld LLM uit de Qwen2-serie. Het gebruikt een Transformer-architectuur met SwiGLU, attention QKV-bias en gegroepeerde query-attentie, en verwerkt grote invoer. Het presteert sterk op taalbegrip, generatie, meertalige taken, programmeren, wiskunde en redeneren, en overtreft de meeste open modellen en concurreert met gesloten modellen. Het presteert beter dan Qwen1.5-7B-Chat op meerdere benchmarks.",
|
|
94
95
|
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct maakt deel uit van de nieuwste LLM-serie van Alibaba Cloud. Het 7 miljard model biedt aanzienlijke verbeteringen in programmeren en wiskunde, ondersteunt meer dan 29 talen en verbetert het volgen van instructies, begrip van gestructureerde data en gestructureerde output (vooral JSON).",
|
|
95
96
|
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct is het nieuwste codegerichte LLM van Alibaba Cloud. Gebouwd op Qwen2.5 en getraind op 5,5 biljoen tokens, verbetert het aanzienlijk de codegeneratie, redenering en foutcorrectie, terwijl het sterke prestaties behoudt op het gebied van wiskunde en algemene taken. Het biedt een solide basis voor code-agents.",
|
|
@@ -271,20 +272,20 @@
|
|
|
271
272
|
"chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt en sterke begrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
|
|
272
273
|
"claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
|
|
273
274
|
"claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van
|
|
275
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste next-gen model van Anthropic. In vergelijking met Claude 3 Haiku presteert het beter op meerdere vaardigheden en overtreft het het vorige topmodel Claude 3 Opus op veel intelligentietests.",
|
|
275
276
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku levert snelle reacties voor lichte taken.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
277
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze redeneringen tonen. Sonnet blinkt uit in coderen, datawetenschap, visuele taken en agenttoepassingen.",
|
|
277
278
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
278
279
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.",
|
|
279
280
|
"claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
280
281
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met hoge bruikbaarheid tegen lagere kosten en betrouwbare grootschalige inzet.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en
|
|
282
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle reacties en geavanceerde redeneercapaciteiten.",
|
|
282
283
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.",
|
|
283
284
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met
|
|
285
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitstekende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
|
|
285
286
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.",
|
|
286
287
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
288
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze denkprocessen tonen met een zichtbaar verloop.",
|
|
288
289
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
|
|
289
290
|
"codegeex-4.description": "CodeGeeX-4 is een krachtige AI-codeassistent die meertalige Q&A en codeaanvulling ondersteunt om de productiviteit van ontwikkelaars te verhogen.",
|
|
290
291
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat codeaanvulling en -generatie, code-interpreter, webzoekopdrachten, functieaanroepen en Q&A op repo-niveau ondersteunt. Het dekt een breed scala aan softwareontwikkelingsscenario’s en is een topmodel onder de 10 miljard parameters.",
|
|
@@ -351,11 +352,10 @@
|
|
|
351
352
|
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp is een experimentele V3.2-release die de brug slaat naar de volgende architectuur. Het voegt DeepSeek Sparse Attention (DSA) toe bovenop V3.1-Terminus om de efficiëntie van training en inferentie met lange context te verbeteren, met optimalisaties voor toolgebruik, begrip van lange documenten en meerstapsredenering. Ideaal voor het verkennen van hogere redeneerefficiëntie met grote contextbudgetten.",
|
|
352
353
|
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 is een MoE-model met 671 miljard parameters dat gebruikmaakt van MLA en DeepSeekMoE met verliesvrije load balancing voor efficiënte training en inferentie. Voorgetraind op 14,8T hoogwaardige tokens met SFT en RL, overtreft het andere open modellen en benadert het toonaangevende gesloten modellen.",
|
|
353
354
|
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) is een innovatief model dat diep taalbegrip en interactie biedt.",
|
|
354
|
-
"deepseek-ai/deepseek-r1.description": "Een geavanceerd, efficiënt LLM dat sterk is in redenering, wiskunde en programmeren.",
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is een MoE vision-language model gebaseerd op DeepSeekMoE-27B met sparse activatie, dat sterke prestaties levert met slechts 4,5B actieve parameters. Het blinkt uit in visuele QA, OCR, document-/tabel-/grafiekbegrip en visuele verankering.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "Een nieuw open-source model dat algemene en programmeercapaciteiten combineert. Het behoudt de algemene dialoogvaardigheden van het chatmodel en de sterke programmeerprestaties van het coderingsmodel, met verbeterde voorkeurafstemming. DeepSeek-V2.5 verbetert ook schrijfvaardigheid en het volgen van instructies.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is een codeertaalmodel getraind op 2 biljoen tokens (87% code, 13% Chinees/Engels tekst). Het introduceert een contextvenster van 16K en 'fill-in-the-middle'-taken, wat projectniveau codeaanvulling en fragmentinvoeging mogelijk maakt.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 snelle volledige versie met realtime webzoekfunctie, combineert 671B-capaciteit met snellere reacties.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 volledige versie met 671B parameters en realtime webzoekfunctie, biedt sterkere begrip- en generatiecapaciteiten.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 gebruikt cold-start data vóór versterkingsleren en presteert vergelijkbaar met OpenAI-o1 op wiskunde, programmeren en redenering.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2-denkmodus genereert een denkproces vóór het eindantwoord om de nauwkeurigheid te verbeteren.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 is een efficiënt MoE-model voor kosteneffectieve verwerking.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s codegerichte model met sterke codegeneratie.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is een MoE-model met 671B parameters en uitmuntende prestaties in programmeren, technische vaardigheden, contextbegrip en verwerking van lange teksten.",
|
|
@@ -472,8 +472,7 @@
|
|
|
472
472
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K is een ultralicht model voor eenvoudige vraag-en-antwoord, classificatie en goedkope inferentie.",
|
|
473
473
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is een snel denkend model met 32K context voor complexe redenatie en meerstapsgesprekken.",
|
|
474
474
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is een preview van een denkmodel voor evaluatie en testen.",
|
|
475
|
-
"fal-ai/bytedance/seedream/v4.
|
|
476
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, ontwikkeld door ByteDance Seed, ondersteunt tekst- en afbeeldingsinvoer voor hoogwaardige, goed controleerbare beeldgeneratie op basis van prompts.",
|
|
475
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is een afbeeldingsgeneratiemodel van ByteDance Seed, dat tekst- en afbeeldingsinvoer ondersteunt en zeer controleerbare, hoogwaardige beelden genereert op basis van tekstprompts.",
|
|
477
476
|
"fal-ai/flux-kontext/dev.description": "FLUX.1-model gericht op beeldbewerking, met ondersteuning voor tekst- en afbeeldingsinvoer.",
|
|
478
477
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepteert tekst en referentieafbeeldingen als invoer, waardoor gerichte lokale bewerkingen en complexe wereldwijde scèneaanpassingen mogelijk zijn.",
|
|
479
478
|
"fal-ai/flux/krea.description": "Flux Krea [dev] is een afbeeldingsgeneratiemodel met een esthetische voorkeur voor realistische, natuurlijke beelden.",
|
|
@@ -481,8 +480,8 @@
|
|
|
481
480
|
"fal-ai/hunyuan-image/v3.description": "Een krachtig, native multimodaal afbeeldingsgeneratiemodel.",
|
|
482
481
|
"fal-ai/imagen4/preview.description": "Hoogwaardig afbeeldingsgeneratiemodel van Google.",
|
|
483
482
|
"fal-ai/nano-banana.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee beeldgeneratie en -bewerking via conversatie mogelijk is.",
|
|
484
|
-
"fal-ai/qwen-image-edit.description": "Een professioneel afbeeldingsbewerkingsmodel van het Qwen-team
|
|
485
|
-
"fal-ai/qwen-image.description": "Een krachtig
|
|
483
|
+
"fal-ai/qwen-image-edit.description": "Een professioneel afbeeldingsbewerkingsmodel van het Qwen-team dat semantische en visuele bewerkingen ondersteunt, nauwkeurige bewerking van Chinese en Engelse tekst mogelijk maakt, en hoogwaardige bewerkingen zoals stijltransfers en objectrotatie uitvoert.",
|
|
484
|
+
"fal-ai/qwen-image.description": "Een krachtig afbeeldingsgeneratiemodel van het Qwen-team met indrukwekkende weergave van Chinese tekst en diverse visuele stijlen.",
|
|
486
485
|
"flux-1-schnell.description": "Een tekst-naar-beeldmodel met 12 miljard parameters van Black Forest Labs, dat gebruikmaakt van latente adversariële diffusiedistillatie om hoogwaardige beelden te genereren in 1–4 stappen. Het evenaart gesloten alternatieven en is uitgebracht onder de Apache-2.0-licentie voor persoonlijk, onderzoeks- en commercieel gebruik.",
|
|
487
486
|
"flux-dev.description": "FLUX.1 [dev] is een open-gewichten gedistilleerd model voor niet-commercieel gebruik. Het behoudt bijna professionele beeldkwaliteit en instructieopvolging, terwijl het efficiënter werkt en middelen beter benut dan standaardmodellen van vergelijkbare grootte.",
|
|
488
487
|
"flux-kontext-max.description": "State-of-the-art contextuele beeldgeneratie en -bewerking, waarbij tekst en afbeeldingen worden gecombineerd voor nauwkeurige, samenhangende resultaten.",
|
|
@@ -514,8 +513,6 @@
|
|
|
514
513
|
"gemini-2.0-flash-lite-001.description": "Een variant van Gemini 2.0 Flash geoptimaliseerd voor kostenefficiëntie en lage latentie.",
|
|
515
514
|
"gemini-2.0-flash-lite.description": "Een variant van Gemini 2.0 Flash geoptimaliseerd voor kostenefficiëntie en lage latentie.",
|
|
516
515
|
"gemini-2.0-flash.description": "Gemini 2.0 Flash biedt functies van de volgende generatie, waaronder uitzonderlijke snelheid, native toolgebruik, multimodale generatie en een contextvenster van 1 miljoen tokens.",
|
|
517
|
-
"gemini-2.5-flash-image-preview.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, dat gespreksgerichte beeldgeneratie en -bewerking mogelijk maakt.",
|
|
518
|
-
"gemini-2.5-flash-image-preview:image.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, dat gespreksgerichte beeldgeneratie en -bewerking mogelijk maakt.",
|
|
519
516
|
"gemini-2.5-flash-image.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee conversatiegestuurde beeldgeneratie en -bewerking mogelijk is.",
|
|
520
517
|
"gemini-2.5-flash-image:image.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee conversatiegestuurde beeldgeneratie en -bewerking mogelijk is.",
|
|
521
518
|
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview is het kleinste en meest kostenefficiënte model van Google, ontworpen voor grootschalig gebruik.",
|
|
@@ -530,7 +527,7 @@
|
|
|
530
527
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro is het meest geavanceerde redeneermodel van Google, in staat om te redeneren over code, wiskunde en STEM-vraagstukken en grote datasets, codebases en documenten met lange context te analyseren.",
|
|
531
528
|
"gemini-3-flash-preview.description": "Gemini 3 Flash is het slimste model dat is gebouwd voor snelheid, met geavanceerde intelligentie en uitstekende zoekverankering.",
|
|
532
529
|
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) is het beeldgeneratiemodel van Google en ondersteunt ook multimodale gesprekken.",
|
|
533
|
-
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is het
|
|
530
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is het afbeeldingsgeneratiemodel van Google en ondersteunt ook multimodale chat.",
|
|
534
531
|
"gemini-3-pro-preview.description": "Gemini 3 Pro is het krachtigste agent- en vibe-codingmodel van Google, met rijkere visuele output en diepere interactie bovenop geavanceerde redeneercapaciteiten.",
|
|
535
532
|
"gemini-flash-latest.description": "Nieuwste versie van Gemini Flash.",
|
|
536
533
|
"gemini-flash-lite-latest.description": "Nieuwste versie van Gemini Flash-Lite.",
|
|
@@ -543,7 +540,7 @@
|
|
|
543
540
|
"generalv3.5.description": "Spark Max is de meest complete versie, met ondersteuning voor webzoekopdrachten en veel ingebouwde plug-ins. De volledig geoptimaliseerde kernfuncties, systeemrollen en functieaanroepen zorgen voor uitstekende prestaties in complexe toepassingsscenario's.",
|
|
544
541
|
"generalv3.description": "Spark Pro is een krachtig LLM-model dat is geoptimaliseerd voor professionele domeinen, met focus op wiskunde, programmeren, gezondheidszorg en onderwijs. Het ondersteunt webzoekopdrachten en ingebouwde plug-ins zoals weer en datum. Het levert sterke prestaties en efficiëntie in complexe kennisvragen, taalbegrip en geavanceerde tekstcreatie, en is daarmee ideaal voor professioneel gebruik.",
|
|
545
542
|
"glm-4-0520.description": "GLM-4-0520 is de nieuwste modelversie, ontworpen voor zeer complexe en diverse taken met uitstekende prestaties.",
|
|
546
|
-
"glm-4-
|
|
543
|
+
"glm-4-7.description": "GLM-4.7 is het nieuwste vlaggenschipmodel van Zhipu AI. Het verbetert programmeercapaciteiten, langetermijnplanning en samenwerking met tools voor Agentic Coding-scenario’s, en behaalt toonaangevende prestaties onder open-source modellen op meerdere benchmarks. Algemene capaciteiten zijn verbeterd, met natuurlijkere en beknoptere antwoorden en meeslepender schrijfvaardigheid. Bij complexe agenttaken is het volgen van instructies tijdens toolgebruik sterker, en de esthetiek van Artifacts en de Agentic Coding-frontend, evenals de efficiëntie van langetermijnuitvoering, zijn verder verbeterd. • Sterkere programmeercapaciteiten: aanzienlijk verbeterde meertalige codeerprestaties en terminalagentprestaties; GLM-4.7 kan nu \"eerst denken, dan handelen\" implementeren in programmeerframeworks zoals Claude Code, Kilo Code, TRAE, Cline en Roo Code, met stabielere prestaties bij complexe taken. • Verbetering van frontend-esthetiek: GLM-4.7 toont aanzienlijke vooruitgang in de kwaliteit van frontendgeneratie, en kan websites, presentaties en posters genereren met betere visuele aantrekkingskracht. • Sterkere toolintegratie: GLM-4.7 verbetert het gebruik van tools, scoort 67 in de BrowseComp-webtaakevaluatie en behaalt 84,7 in de τ²-Bench-evaluatie voor interactieve toolintegratie, waarmee het Claude Sonnet 4.5 overtreft als open-source SOTA. • Verbeterde redeneercapaciteit: aanzienlijk verbeterde wiskundige en logische vaardigheden, met een score van 42,8% op de HLE (\"Humanity's Last Exam\") benchmark, een verbetering van 41% ten opzichte van GLM-4.6, en beter dan GPT-5.1. • Algemene capaciteitsverbetering: GLM-4.7-gesprekken zijn beknopter, intelligenter en menselijker; schrijven en rollenspel zijn literairer en meeslepender.",
|
|
547
544
|
"glm-4-9b-chat.description": "GLM-4-9B-Chat presteert sterk op semantiek, wiskunde, redeneren, code en kennis. Het ondersteunt ook webbrowseren, code-uitvoering, aangepaste toolaanroepen en redeneren over lange teksten, met ondersteuning voor 26 talen waaronder Japans, Koreaans en Duits.",
|
|
548
545
|
"glm-4-air-250414.description": "GLM-4-Air is een voordelige optie met prestaties dicht bij GLM-4, hoge snelheid en lagere kosten.",
|
|
549
546
|
"glm-4-air.description": "GLM-4-Air is een voordelige optie met prestaties dicht bij GLM-4, hoge snelheid en lagere kosten.",
|
|
@@ -558,11 +555,12 @@
|
|
|
558
555
|
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking is het krachtigste bekende ~10B VLM-model, geschikt voor SOTA-taken zoals videobegrip, beeldvragen, vakoplossingen, OCR, document- en grafieklezen, GUI-agents, frontend-codering en grounding. Het overtreft zelfs het 8x grotere Qwen2.5-VL-72B op veel taken. Met geavanceerde RL gebruikt het keten-van-gedachten-redenering om nauwkeurigheid en rijkdom te verbeteren, en presteert het beter dan traditionele niet-denkende modellen in zowel resultaten als uitlegbaarheid.",
|
|
559
556
|
"glm-4.5-air.description": "GLM-4.5 lichte editie die prestaties en kosten in balans brengt, met flexibele hybride denkmodi.",
|
|
560
557
|
"glm-4.5-airx.description": "GLM-4.5-Air snelle editie met snellere reacties voor grootschalig, snel gebruik.",
|
|
561
|
-
"glm-4.5-flash.description": "Gratis GLM-4.5-laag met sterke prestaties in redeneren, coderen en agenttaken.",
|
|
562
558
|
"glm-4.5-x.description": "GLM-4.5 snelle editie, met sterke prestaties en generatiesnelheden tot 100 tokens/seconde.",
|
|
563
559
|
"glm-4.5.description": "Zhipu vlaggenschipmodel met schakelbare denkmodus, levert open-source SOTA-prestaties en tot 128K context.",
|
|
564
560
|
"glm-4.5v.description": "Zhipu’s volgende generatie MoE-visie-redeneermodel met 106B totale parameters en 12B actief, bereikt SOTA onder vergelijkbare open-source multimodale modellen voor beeld-, video-, documentbegrip en GUI-taken.",
|
|
565
561
|
"glm-4.6.description": "GLM-4.6 (355B) is het nieuwste vlaggenschipmodel van Zhipu en overtreft zijn voorgangers volledig op het gebied van geavanceerde codering, verwerking van lange teksten, redeneren en agentfunctionaliteit. Het is bijzonder krachtig in programmeertaken en vergelijkbaar met Claude Sonnet 4, waarmee het het toonaangevende codeermodel van China is geworden.",
|
|
562
|
+
"glm-4.7-flash.description": "GLM-4.7-Flash is een SOTA-model op 30B-niveau dat prestaties en efficiëntie in balans brengt. Het verbetert programmeercapaciteiten, langetermijnplanning en samenwerking met tools voor Agentic Coding-scenario’s, en behaalt toonaangevende prestaties onder open-source modellen van vergelijkbare grootte op meerdere benchmarks. Bij het uitvoeren van complexe agenttaken volgt het instructies beter tijdens toolgebruik, en verbetert het de esthetiek van de frontend en de efficiëntie van langetermijnuitvoering voor Artifacts en Agentic Coding.",
|
|
563
|
+
"glm-4.7-flashx.description": "GLM-4.7-Flash is een SOTA-model op 30B-niveau dat prestaties en efficiëntie in balans brengt. Het verbetert programmeercapaciteiten, langetermijnplanning en samenwerking met tools voor Agentic Coding-scenario’s, en behaalt toonaangevende prestaties onder open-source modellen van vergelijkbare grootte op meerdere benchmarks. Bij het uitvoeren van complexe agenttaken volgt het instructies beter tijdens toolgebruik, en verbetert het de esthetiek van de frontend en de efficiëntie van langetermijnuitvoering voor Artifacts en Agentic Coding.",
|
|
566
564
|
"glm-4.7.description": "GLM-4.7 is het nieuwste vlaggenschipmodel van Zhipu, geoptimaliseerd voor Agentic Coding-scenario’s met verbeterde codeercapaciteiten, langetermijnplanning en samenwerking met tools. Het levert toonaangevende prestaties onder open-source modellen op meerdere publieke benchmarks. De algemene capaciteiten zijn verbeterd met beknoptere en natuurlijkere antwoorden en meeslepender schrijfvaardigheid. Bij complexe agenttaken is het volgen van instructies tijdens toolgebruik sterker, en zijn de frontend-esthetiek en efficiëntie bij langetermijntaken in Artifacts en Agentic Coding verder verbeterd.",
|
|
567
565
|
"glm-4.description": "GLM-4 is het oudere vlaggenschipmodel dat in januari 2024 werd uitgebracht en inmiddels is vervangen door het krachtigere GLM-4-0520.",
|
|
568
566
|
"glm-4v-flash.description": "GLM-4V-Flash richt zich op efficiënte interpretatie van enkele afbeeldingen voor snelle analyses, zoals realtime- of batchverwerking van beelden.",
|
|
@@ -654,8 +652,8 @@
|
|
|
654
652
|
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: een kleinere, goedkopere Codex-variant geoptimaliseerd voor agentmatige programmeertaken.",
|
|
655
653
|
"gpt-5.1-codex.description": "GPT-5.1 Codex: een GPT-5.1-variant geoptimaliseerd voor agentmatige programmeertaken, geschikt voor complexe code-/agentworkflows in de Responses API.",
|
|
656
654
|
"gpt-5.1.description": "GPT-5.1 — een toonaangevend model geoptimaliseerd voor programmeren en agenttaken met configureerbare redeneercapaciteit en langere context.",
|
|
657
|
-
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat is de ChatGPT-variant (chat-latest)
|
|
658
|
-
"gpt-5.2-pro.description": "GPT-5.2 Pro: een slimmer,
|
|
655
|
+
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat is de ChatGPT-variant (chat-latest) met de nieuwste verbeteringen in conversatie.",
|
|
656
|
+
"gpt-5.2-pro.description": "GPT-5.2 Pro: een slimmer, nauwkeuriger GPT-5.2-variant (alleen Responses API), geschikt voor moeilijke problemen en langere redeneringen over meerdere beurten.",
|
|
659
657
|
"gpt-5.2.description": "GPT-5.2 is een toonaangevend model voor programmeren en agentworkflows met sterkere redeneercapaciteit en prestaties bij lange contexten.",
|
|
660
658
|
"gpt-5.description": "Het beste model voor domeinoverstijgende programmeer- en agenttaken. GPT-5 biedt sprongen in nauwkeurigheid, snelheid, redeneervermogen, contextbewustzijn, gestructureerd denken en probleemoplossing.",
|
|
661
659
|
"gpt-audio.description": "GPT Audio is een algemeen chatmodel voor audio-invoer/-uitvoer, ondersteund in de Chat Completions API.",
|
|
@@ -906,6 +904,9 @@
|
|
|
906
904
|
"mistralai/Mixtral-8x7B-Instruct-v0.1.description": "Mixtral-8x7B Instruct (46.7B) biedt hoge capaciteit voor grootschalige gegevensverwerking.",
|
|
907
905
|
"mistralai/Mixtral-8x7B-v0.1.description": "Mixtral 8x7B is een spars MoE-model dat de inferentiesnelheid verhoogt, geschikt voor meertalige en codegeneratietaken.",
|
|
908
906
|
"mistralai/mistral-nemo.description": "Mistral Nemo is een 7.3B-model met meertalige ondersteuning en sterke programmeerprestaties.",
|
|
907
|
+
"mixtral-8x7b-32768.description": "Mixtral 8x7B biedt fouttolerante parallelle verwerking voor complexe taken.",
|
|
908
|
+
"mixtral.description": "Mixtral is het MoE-model van Mistral AI met open gewichten, dat codegeneratie en taalbegrip ondersteunt.",
|
|
909
|
+
"mixtral:8x22b.description": "Mixtral is het MoE-model van Mistral AI met open gewichten, dat codegeneratie en taalbegrip ondersteunt.",
|
|
909
910
|
"moonshot-v1-128k-vision-preview.description": "Kimi vision-modellen (waaronder moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) begrijpen beeldinhoud zoals tekst, kleuren en objectvormen.",
|
|
910
911
|
"moonshot-v1-128k.description": "Moonshot V1 128K biedt een ultralange context voor het genereren van zeer lange teksten, met ondersteuning tot 128.000 tokens voor onderzoeks-, academische en grootschalige documenttoepassingen.",
|
|
911
912
|
"moonshot-v1-32k-vision-preview.description": "Kimi vision-modellen (waaronder moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) begrijpen beeldinhoud zoals tekst, kleuren en objectvormen.",
|
|
@@ -941,6 +942,34 @@
|
|
|
941
942
|
"o4-mini-2025-04-16.description": "o4-mini is een OpenAI redeneermodel met tekst+beeldinvoer en tekstuitvoer, geschikt voor complexe taken die brede kennis vereisen, met een contextvenster van 200K.",
|
|
942
943
|
"o4-mini-deep-research.description": "o4-mini-deep-research is een sneller en betaalbaarder model voor diepgaand onderzoek bij complexe meerstapstaken. Het kan het web doorzoeken en ook toegang krijgen tot je gegevens via MCP-connectors.",
|
|
943
944
|
"o4-mini.description": "o4-mini is het nieuwste kleine model in de o-serie, geoptimaliseerd voor snelle, effectieve redenering met hoge efficiëntie in codeer- en visietaken.",
|
|
945
|
+
"open-codestral-mamba.description": "Codestral Mamba is een Mamba 2-taalmodel gericht op codegeneratie, geschikt voor geavanceerde programmeer- en redeneertaken.",
|
|
946
|
+
"open-mistral-7b.description": "Mistral 7B is compact maar krachtig, sterk in batchverwerking en eenvoudige taken zoals classificatie en tekstgeneratie, met solide redeneervermogen.",
|
|
947
|
+
"open-mistral-nemo.description": "Mistral Nemo is een 12B-model mede ontwikkeld met Nvidia, met sterke prestaties in redeneren en programmeren en eenvoudige integratie.",
|
|
948
|
+
"open-mixtral-8x22b.description": "Mixtral 8x22B is een groter MoE-model voor complexe taken, met sterk redeneervermogen en hogere verwerkingssnelheid.",
|
|
949
|
+
"open-mixtral-8x7b.description": "Mixtral 8x7B is een spars MoE-model dat de inferentiesnelheid verhoogt, geschikt voor meertalige en codegeneratietaken.",
|
|
950
|
+
"openai/gpt-3.5-turbo-instruct.description": "Vergelijkbare capaciteiten als GPT-3-modellen, compatibel met oudere completion-eindpunten in plaats van chat.",
|
|
951
|
+
"openai/gpt-3.5-turbo.description": "OpenAI’s meest capabele en kosteneffectieve GPT-3.5-model, geoptimaliseerd voor chat maar ook sterk in klassieke completions.",
|
|
952
|
+
"openai/gpt-4-turbo.description": "OpenAI’s gpt-4-turbo beschikt over brede algemene kennis en domeinexpertise, volgt complexe natuurlijke taalopdrachten en lost moeilijke problemen nauwkeurig op. Kennisgrens is april 2023 met een contextvenster van 128k.",
|
|
953
|
+
"openai/gpt-4.1-mini.description": "GPT-4.1 Mini biedt lagere latentie en betere waarde voor werklasten met gemiddelde context.",
|
|
954
|
+
"openai/gpt-4.1-nano.description": "GPT-4.1 Nano is een ultragoedkope, laag-latentieoptie voor korte chats met hoge frequentie of classificatie.",
|
|
955
|
+
"openai/gpt-4.1.description": "De GPT-4.1-serie biedt grotere contextvensters en sterkere technische en redeneercapaciteiten.",
|
|
956
|
+
"openai/gpt-4o-mini.description": "GPT-4o-mini is een snelle, kleine GPT-4o-variant voor multimodale toepassingen met lage latentie.",
|
|
957
|
+
"openai/gpt-4o.description": "De GPT-4o-familie is OpenAI’s Omni-model met tekst + beeldinvoer en tekstuitvoer.",
|
|
958
|
+
"openai/gpt-5-chat.description": "GPT-5 Chat is een GPT-5-variant geoptimaliseerd voor gesprekken met lagere latentie voor betere interactiviteit.",
|
|
959
|
+
"openai/gpt-5-codex.description": "GPT-5-Codex is een GPT-5-variant verder geoptimaliseerd voor programmeren en grootschalige codeworkflows.",
|
|
960
|
+
"openai/gpt-5-mini.description": "GPT-5 Mini is een kleinere GPT-5-variant voor scenario’s met lage latentie en lage kosten.",
|
|
961
|
+
"openai/gpt-5-nano.description": "GPT-5 Nano is de ultrakleine variant voor scenario’s met strikte kosten- en latentie-eisen.",
|
|
962
|
+
"openai/gpt-5-pro.description": "GPT-5 Pro is OpenAI’s vlaggenschipmodel met sterker redeneervermogen, codegeneratie en functies op ondernemingsniveau, met test-time routing en strengere veiligheidsmaatregelen.",
|
|
963
|
+
"openai/gpt-5.1-chat.description": "GPT-5.1 Chat is het lichtgewicht lid van de GPT-5.1-familie, geoptimaliseerd voor gesprekken met lage latentie en behoud van sterk redeneervermogen en instructie-uitvoering.",
|
|
964
|
+
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini is een kleinere, snellere versie van GPT-5.1-Codex, beter voor latency- en kostenkritische programmeerscenario’s.",
|
|
965
|
+
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex is een GPT-5.1-variant geoptimaliseerd voor softwareontwikkeling en programmeerworkflows, geschikt voor grote refactors, complexe debugging en langdurige autonome coderingstaken.",
|
|
966
|
+
"openai/gpt-5.1.description": "GPT-5.1 is het nieuwste vlaggenschip in de GPT-5-serie, met aanzienlijke verbeteringen ten opzichte van GPT-5 in algemeen redeneervermogen, instructievolging en natuurlijke conversatie, geschikt voor brede toepassingen.",
|
|
967
|
+
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat is de ChatGPT-variant om de nieuwste verbeteringen in conversatie te ervaren.",
|
|
968
|
+
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro: een slimmer, nauwkeuriger GPT-5.2-variant (alleen Responses API), geschikt voor moeilijkere problemen en langere redeneringen over meerdere beurten.",
|
|
969
|
+
"openai/gpt-5.2.description": "GPT-5.2 is een vlaggenschipmodel voor programmeren en agent-workflows met sterker redeneervermogen en prestaties op lange contexten.",
|
|
970
|
+
"openai/gpt-5.description": "GPT-5 is OpenAI’s krachtige model voor een breed scala aan productie- en onderzoekstaken.",
|
|
971
|
+
"openai/gpt-oss-120b.description": "Een zeer capabel algemeen LLM met sterk, controleerbaar redeneervermogen.",
|
|
972
|
+
"openai/gpt-oss-20b.description": "Een compact taalmodel met open gewichten, geoptimaliseerd voor lage latentie en omgevingen met beperkte middelen, inclusief lokale en edge-implementaties.",
|
|
944
973
|
"qianfan-llama-vl-8b.description": "Qianfan Llama VL 8B is een multimodaal model gebaseerd op Llama voor algemene beeld-tekstbegrip.",
|
|
945
974
|
"qianfan-multipicocr.description": "Qianfan MultiPicOCR is een OCR-model voor meerdere afbeeldingen dat tekst detecteert en herkent in verschillende beelden.",
|
|
946
975
|
"qianfan-qi-vl.description": "Qianfan QI VL is een multimodaal vraag-en-antwoordmodel voor nauwkeurige informatieopvraging en beantwoording in complexe beeld-tekstscenario's.",
|
|
@@ -1076,7 +1105,6 @@
|
|
|
1076
1105
|
"z-ai/glm-4.5-air.description": "GLM 4.5 Air is een lichtgewicht variant van GLM 4.5 voor kostenbewuste scenario’s, met behoud van sterke redeneercapaciteiten.",
|
|
1077
1106
|
"z-ai/glm-4.5.description": "GLM 4.5 is Z.AI’s vlaggenschipmodel met hybride redenering, geoptimaliseerd voor engineering- en lang-contexttaken.",
|
|
1078
1107
|
"z-ai/glm-4.6.description": "GLM 4.6 is Z.AI's vlaggenschipmodel met uitgebreide contextlengte en codeercapaciteiten.",
|
|
1079
|
-
"zai-glm-4.6.description": "Presteert goed op codeer- en redeneertaken, ondersteunt streaming en toolgebruik, en is geschikt voor agentgebaseerd coderen en complexe redenering.",
|
|
1080
1108
|
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air is een basismodel voor agenttoepassingen met een Mixture-of-Experts-architectuur. Het is geoptimaliseerd voor toolgebruik, webnavigatie, softwareontwikkeling en frontend-codering, en integreert met code-agents zoals Claude Code en Roo Code. Het gebruikt hybride redenering om zowel complexe als alledaagse scenario’s aan te kunnen.",
|
|
1081
1109
|
"zai-org/GLM-4.5.description": "GLM-4.5 is een basismodel gebouwd voor agenttoepassingen met een Mixture-of-Experts-architectuur. Het is diepgaand geoptimaliseerd voor toolgebruik, webnavigatie, softwareontwikkeling en frontend-codering, en integreert met code-agents zoals Claude Code en Roo Code. Het gebruikt hybride redenering om zowel complexe als alledaagse scenario’s aan te kunnen.",
|
|
1082
1110
|
"zai-org/GLM-4.5V.description": "GLM-4.5V is Zhipu AI’s nieuwste VLM, gebaseerd op het GLM-4.5-Air vlaggenschiptekstmodel (106B totaal, 12B actief) met een MoE-architectuur voor sterke prestaties tegen lagere kosten. Het volgt het GLM-4.1V-Thinking pad en voegt 3D-RoPE toe voor verbeterde 3D-ruimtelijke redenering. Geoptimaliseerd via pretraining, SFT en RL, verwerkt het beelden, video’s en lange documenten en scoort het hoog op 41 openbare multimodale benchmarks. Een Thinking-modus schakelaar laat gebruikers kiezen tussen snelheid en diepgang.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Een open-source organisatie gericht op grootschalig modelonderzoek en tooling, met een efficiënt en gebruiksvriendelijk platform dat geavanceerde modellen en algoritmen toegankelijk maakt.",
|
|
30
30
|
"jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.",
|
|
31
31
|
"lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLM’s op je eigen computer.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud gebruikt officiële API's om toegang te krijgen tot AI-modellen en meet het gebruik met Credits die gekoppeld zijn aan modeltokens.",
|
|
33
32
|
"minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral biedt geavanceerde algemene, gespecialiseerde en onderzoeksmodellen voor complexe redenering, meertalige taken en codegeneratie, met functie-aanroepen voor aangepaste integraties.",
|
|
35
34
|
"modelscope.description": "ModelScope is het model-as-a-service platform van Alibaba Cloud, met een breed scala aan AI-modellen en inferentiediensten.",
|
|
@@ -34,11 +34,20 @@
|
|
|
34
34
|
"agentCronJobs.empty.description": "Maak je eerste geplande taak aan om je agent te automatiseren",
|
|
35
35
|
"agentCronJobs.empty.title": "Nog geen geplande taken",
|
|
36
36
|
"agentCronJobs.enable": "Inschakelen",
|
|
37
|
+
"agentCronJobs.form.at": "om",
|
|
37
38
|
"agentCronJobs.form.content.placeholder": "Voer de prompt of instructie voor de agent in",
|
|
39
|
+
"agentCronJobs.form.every": "Elke",
|
|
40
|
+
"agentCronJobs.form.frequency": "Frequentie",
|
|
41
|
+
"agentCronJobs.form.hours": "uur",
|
|
42
|
+
"agentCronJobs.form.maxExecutions": "Stop na",
|
|
38
43
|
"agentCronJobs.form.maxExecutions.placeholder": "Laat leeg voor onbeperkt",
|
|
39
44
|
"agentCronJobs.form.name.placeholder": "Voer de naam van de taak in",
|
|
45
|
+
"agentCronJobs.form.time": "Tijd",
|
|
40
46
|
"agentCronJobs.form.timeRange.end": "Eindtijd",
|
|
41
47
|
"agentCronJobs.form.timeRange.start": "Starttijd",
|
|
48
|
+
"agentCronJobs.form.times": "keer",
|
|
49
|
+
"agentCronJobs.form.timezone": "Tijdzone",
|
|
50
|
+
"agentCronJobs.form.unlimited": "Continu uitvoeren",
|
|
42
51
|
"agentCronJobs.form.validation.contentRequired": "Taakinstructie is verplicht",
|
|
43
52
|
"agentCronJobs.form.validation.invalidTimeRange": "Starttijd moet vóór de eindtijd liggen",
|
|
44
53
|
"agentCronJobs.form.validation.nameRequired": "Taaknaam is verplicht",
|
|
@@ -83,6 +92,13 @@
|
|
|
83
92
|
"agentCronJobs.weekday.tuesday": "Dinsdag",
|
|
84
93
|
"agentCronJobs.weekday.wednesday": "Woensdag",
|
|
85
94
|
"agentCronJobs.weekdays": "Weekdagen",
|
|
95
|
+
"agentCronJobs.weekdays.fri": "Vr",
|
|
96
|
+
"agentCronJobs.weekdays.mon": "Ma",
|
|
97
|
+
"agentCronJobs.weekdays.sat": "Za",
|
|
98
|
+
"agentCronJobs.weekdays.sun": "Zo",
|
|
99
|
+
"agentCronJobs.weekdays.thu": "Do",
|
|
100
|
+
"agentCronJobs.weekdays.tue": "Di",
|
|
101
|
+
"agentCronJobs.weekdays.wed": "Wo",
|
|
86
102
|
"agentInfoDescription.basic.avatar": "Avatar",
|
|
87
103
|
"agentInfoDescription.basic.description": "Beschrijving",
|
|
88
104
|
"agentInfoDescription.basic.name": "Naam",
|
|
@@ -8,6 +8,7 @@
|
|
|
8
8
|
"codes.DELETED_ACCOUNT_EMAIL": "Ten adres e-mail jest powiązany z usuniętym kontem i nie może być użyty do rejestracji",
|
|
9
9
|
"codes.EMAIL_CAN_NOT_BE_UPDATED": "Nie można zaktualizować adresu e-mail dla tego konta",
|
|
10
10
|
"codes.EMAIL_NOT_ALLOWED": "Rejestracja z tym adresem e-mail jest niedozwolona",
|
|
11
|
+
"codes.EMAIL_NOT_FOUND": "Brak adresu e-mail powiązanego z tym kontem. Sprawdź, czy Twoje konto ma przypisany adres e-mail.",
|
|
11
12
|
"codes.EMAIL_NOT_VERIFIED": "Najpierw zweryfikuj swój adres e-mail",
|
|
12
13
|
"codes.FAILED_TO_CREATE_SESSION": "Nie udało się utworzyć sesji",
|
|
13
14
|
"codes.FAILED_TO_CREATE_USER": "Nie udało się utworzyć użytkownika",
|