@lobehub/lobehub 2.0.0-next.189 → 2.0.0-next.190

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (39) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/locales/ar/models.json +3 -8
  4. package/locales/ar/providers.json +0 -1
  5. package/locales/bg-BG/models.json +3 -6
  6. package/locales/bg-BG/providers.json +0 -1
  7. package/locales/de-DE/models.json +56 -6
  8. package/locales/de-DE/providers.json +0 -1
  9. package/locales/en-US/models.json +23 -15
  10. package/locales/en-US/providers.json +0 -1
  11. package/locales/es-ES/models.json +46 -7
  12. package/locales/es-ES/providers.json +0 -1
  13. package/locales/fa-IR/models.json +3 -6
  14. package/locales/fa-IR/providers.json +0 -1
  15. package/locales/fr-FR/models.json +45 -6
  16. package/locales/fr-FR/providers.json +0 -1
  17. package/locales/it-IT/models.json +35 -7
  18. package/locales/it-IT/providers.json +0 -1
  19. package/locales/ja-JP/models.json +33 -7
  20. package/locales/ja-JP/providers.json +0 -1
  21. package/locales/ko-KR/models.json +37 -7
  22. package/locales/ko-KR/providers.json +0 -1
  23. package/locales/nl-NL/models.json +3 -1
  24. package/locales/nl-NL/providers.json +0 -1
  25. package/locales/pl-PL/models.json +3 -1
  26. package/locales/pl-PL/providers.json +0 -1
  27. package/locales/pt-BR/models.json +43 -6
  28. package/locales/pt-BR/providers.json +0 -1
  29. package/locales/ru-RU/models.json +3 -6
  30. package/locales/ru-RU/providers.json +0 -1
  31. package/locales/tr-TR/models.json +45 -6
  32. package/locales/tr-TR/providers.json +0 -1
  33. package/locales/vi-VN/models.json +52 -1
  34. package/locales/vi-VN/providers.json +0 -1
  35. package/locales/zh-CN/models.json +3 -7
  36. package/locales/zh-CN/providers.json +0 -1
  37. package/locales/zh-TW/models.json +3 -6
  38. package/locales/zh-TW/providers.json +0 -1
  39. package/package.json +1 -1
@@ -73,7 +73,9 @@
73
73
  "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick은 효율적인 전문가 활성화를 통해 강력한 추론 성능을 제공하는 대형 MoE 모델입니다.",
74
74
  "MiniMax-M1.description": "80K 체인 오브 싱킹과 100만 입력을 지원하는 새로운 자체 개발 추론 모델로, 세계 최고 수준의 모델과 유사한 성능을 제공합니다.",
75
75
  "MiniMax-M2-Stable.description": "상업적 사용을 위한 높은 동시성을 제공하며, 효율적인 코딩 및 에이전트 워크플로우에 최적화되어 있습니다.",
76
- "MiniMax-M2.description": "효율적인 코딩 에이전트 워크플로우에 최적화되어 있습니다.",
76
+ "MiniMax-M2.1-Lightning.description": "강력한 다국어 프로그래밍 성능으로 프로그래밍 경험을 전면 업그레이드합니다. 더 빠르고, 더 효율적으로.",
77
+ "MiniMax-M2.1.description": "강력한 다국어 프로그래밍 성능으로 프로그래밍 경험을 전면 업그레이드합니다.",
78
+ "MiniMax-M2.description": "효율적인 코딩과 에이전트 워크플로우를 위해 설계된 모델입니다.",
77
79
  "MiniMax-Text-01.description": "MiniMax-01은 기존 트랜스포머를 넘어선 대규모 선형 어텐션을 도입한 모델로, 4560억 파라미터 중 459억이 활성화됩니다. 최대 400만 토큰의 문맥을 지원하며, GPT-4o의 32배, Claude-3.5-Sonnet의 20배에 해당합니다.",
78
80
  "MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1은 오픈 가중치 기반의 대규모 하이브리드 어텐션 추론 모델로, 총 4560억 파라미터 중 토큰당 약 459억이 활성화됩니다. 100만 문맥을 기본 지원하며, Flash Attention을 통해 10만 토큰 생성 시 FLOPs를 DeepSeek R1 대비 75% 절감합니다. MoE 아키텍처와 CISPO, 하이브리드 어텐션 RL 학습을 통해 장문 추론 및 실제 소프트웨어 엔지니어링 작업에서 선도적인 성능을 보입니다.",
79
81
  "MiniMaxAI/MiniMax-M2.description": "MiniMax-M2는 에이전트 효율성을 재정의한 모델로, 총 2300억 파라미터 중 100억만 활성화되는 컴팩트하고 빠르며 비용 효율적인 MoE 모델입니다. 최상위 수준의 코딩 및 에이전트 작업을 위해 설계되었으며, 강력한 범용 지능을 유지합니다. 활성 파라미터가 100억에 불과함에도 훨씬 더 큰 모델과 경쟁할 수 있어 고효율 응용에 이상적입니다.",
@@ -101,6 +103,7 @@
101
103
  "Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3는 6710억 매개변수의 MoE 모델로, MLA와 DeepSeekMoE를 사용하며 손실 없는 부하 분산을 통해 효율적인 추론과 학습을 실현합니다. 14.8조 고품질 토큰으로 사전 학습되었고, SFT 및 RL로 추가 튜닝되어 다른 오픈 모델을 능가하며 상용 모델에 근접한 성능을 보입니다.",
102
104
  "Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905는 최신이자 가장 강력한 Kimi K2 모델입니다. 총 1조, 활성 320억 매개변수를 가진 최상급 MoE 모델로, 에이전트 기반 코딩 지능이 강화되어 벤치마크 및 실제 에이전트 작업에서 큰 성능 향상을 보입니다. 프론트엔드 코드의 미적 품질과 사용성도 개선되었습니다.",
103
105
  "Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo는 추론 속도와 처리량을 최적화한 Turbo 버전으로, K2 Thinking의 다단계 추론 및 도구 사용 능력을 유지합니다. 약 1조 매개변수를 가진 MoE 모델로, 기본 256K 컨텍스트를 지원하며, 대규모 도구 호출이 필요한 실시간 및 동시성 높은 환경에 적합합니다.",
106
+ "Pro/zai-org/glm-4.7.description": "GLM-4.7은 Zhipu의 차세대 플래그십 모델로, 총 파라미터 수 355B, 활성 파라미터 수 32B를 갖추고 있으며, 일반 대화, 추론, 에이전트 능력 전반에서 대폭 향상되었습니다. Interleaved Thinking(교차 사고)을 강화하고, Preserved Thinking(보존 사고) 및 Turn-level Thinking(턴 단위 사고)을 도입하였습니다.",
104
107
  "QwQ-32B-Preview.description": "Qwen QwQ는 추론 능력 향상을 목표로 한 실험적 연구 모델입니다.",
105
108
  "Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview는 복잡한 장면 이해와 시각 수학 문제 해결에 강점을 가진 Qwen의 시각 추론 연구 모델입니다.",
106
109
  "Qwen/QwQ-32B-Preview.description": "Qwen QwQ는 AI 추론 능력 향상을 목표로 한 실험적 연구 모델입니다.",
@@ -268,20 +271,20 @@
268
271
  "chatgpt-4o-latest.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 고객 지원, 교육, 기술 지원과 같은 대규모 활용 사례를 위한 강력한 이해 및 생성 능력을 결합합니다.",
269
272
  "claude-2.0.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
270
273
  "claude-2.1.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
271
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 가장 빠른 모델로, 다양한 기술에서 향상된 성능을 보이며 이전 플래그십 모델인 Claude 3 Opus를 여러 벤치마크에서 능가합니다.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 가장 빠른 차세대 모델입니다. Claude 3 Haiku와 비교해 전반적인 능력이 향상되었으며, 이전의 최고 모델인 Claude 3 Opus를 여러 지능 벤치마크에서 능가합니다.",
272
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku는 가벼운 작업에 빠른 응답을 제공하는 모델입니다.",
273
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7은 Anthropic의 가장 지능적인 모델로, 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답 또는 정교한 사고 과정을 세밀하게 제어할 있습니다.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet은 Anthropic의 가장 지능적인 모델로, 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답은 물론, 사용자가 확인할 있는 단계별 추론도 제공합니다. 코딩, 데이터 과학, 비전, 에이전트 작업에 특히 강력합니다.",
274
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
275
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 빠르고 정확한 성능으로 즉각적인 응답을 위해 설계되었습니다.",
276
279
  "claude-3-opus-20240229.description": "Claude 3 Opus는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
277
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet은 엔터프라이즈 워크로드를 위한 지능과 속도의 균형을 제공하며, 낮은 비용으로 높은 효용성과 안정적인 대규모 배포를 지원합니다.",
278
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 확장된 사고 능력을 갖추고 있습니다.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 확장된 추론 능력을 갖추고 있습니다.",
279
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking은 자신의 추론 과정을 드러낼 수 있는 고급 변형 모델입니다.",
280
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
281
- "claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4는 복잡한 작업을 위한 Anthropic의 가장 강력한 모델로, 성능, 지능, 유창성, 이해력에서 탁월한 결과를 보여줍니다.",
282
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5는 Anthropic의 플래그십 모델로, 탁월한 지능과 확장 가능한 성능을 결합하여 최고 품질의 응답과 추론이 필요한 복잡한 작업에 이상적입니다.",
283
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking은 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 사고를 생성할 수 있습니다.",
284
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4는 Anthropic이 지금까지 개발한 가장 지능적인 모델로, API 사용자에게 세밀한 제어를 제공하며 즉각적인 응답 또는 단계별 사고를 지원합니다.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4는 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 추론을 생성할 있습니다.",
285
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 Anthropic이 지금까지 개발한 가장 지능적인 모델입니다.",
286
289
  "codegeex-4.description": "CodeGeeX-4는 다국어 Q&A 및 코드 자동 완성을 지원하여 개발자의 생산성을 높이는 강력한 AI 코딩 도우미입니다.",
287
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B는 코드 자동 완성 및 생성, 코드 인터프리터, 웹 검색, 함수 호출, 저장소 수준의 코드 Q&A를 지원하는 다국어 코드 생성 모델로, 다양한 소프트웨어 개발 시나리오를 포괄합니다. 10B 미만 파라미터 중 최고 수준의 코드 모델입니다.",
@@ -317,6 +320,34 @@
317
320
  "comfyui/stable-diffusion-custom.description": "사용자 정의 SD 텍스트-이미지 생성 모델입니다. 모델 파일명은 custom_sd_lobe.safetensors를 사용하고, VAE가 있다면 custom_sd_vae_lobe.safetensors를 사용하세요. 모델 파일은 Comfy의 지정된 폴더에 배치해야 합니다.",
318
321
  "comfyui/stable-diffusion-refiner.description": "SDXL 이미지-이미지 모델로, 입력 이미지를 고품질로 변환하며 스타일 전환, 복원, 창의적 변형을 지원합니다.",
319
322
  "comfyui/stable-diffusion-xl.description": "SDXL은 1024x1024 고해상도 생성을 지원하는 텍스트-이미지 모델로, 향상된 이미지 품질과 세부 묘사를 제공합니다.",
323
+ "command-a-03-2025.description": "Command A는 지금까지 가장 강력한 모델로, 도구 사용, 에이전트, RAG, 다국어 시나리오에서 뛰어난 성능을 발휘합니다. 256K 컨텍스트 윈도우를 지원하며, 단 2개의 GPU로 실행 가능하고 Command R+ 08-2024 대비 150% 높은 처리량을 제공합니다.",
324
+ "command-light-nightly.description": "주요 릴리스 간의 간격을 줄이기 위해, 매일 업데이트되는 Command 빌드를 제공합니다. command-light 시리즈의 경우 이를 command-light-nightly라고 하며, 가장 최신이자 실험적인(그리고 불안정할 수 있는) 버전입니다. 정기적으로 예고 없이 업데이트되므로, 프로덕션 환경에서는 사용을 권장하지 않습니다.",
325
+ "command-light.description": "거의 동일한 성능을 유지하면서도 더 빠른 속도를 제공하는 소형 Command 변형 모델입니다.",
326
+ "command-nightly.description": "주요 릴리스 간의 간격을 줄이기 위해, 매일 업데이트되는 Command 빌드를 제공합니다. Command 시리즈의 경우 이를 command-nightly라고 하며, 가장 최신이자 실험적인(그리고 불안정할 수 있는) 버전입니다. 정기적으로 예고 없이 업데이트되므로, 프로덕션 환경에서는 사용을 권장하지 않습니다.",
327
+ "command-r-03-2024.description": "Command R은 이전 모델보다 더 높은 품질과 신뢰성, 더 긴 컨텍스트 윈도우를 제공하는 지시문 기반 채팅 모델입니다. 코드 생성, RAG, 도구 사용, 에이전트 등 복잡한 워크플로우를 지원합니다.",
328
+ "command-r-08-2024.description": "command-r-08-2024는 2024년 8월에 출시된 Command R 모델의 업데이트 버전입니다.",
329
+ "command-r-plus-04-2024.description": "command-r-plus는 command-r-plus-04-2024의 별칭으로, API에서 command-r-plus를 사용하면 해당 모델을 가리킵니다.",
330
+ "command-r-plus-08-2024.description": "Command R+는 이전 모델보다 더 높은 품질과 신뢰성, 더 긴 컨텍스트 윈도우를 제공하는 지시문 기반 채팅 모델입니다. 복잡한 RAG 워크플로우와 다단계 도구 사용에 최적화되어 있습니다.",
331
+ "command-r-plus.description": "Command R+는 실제 기업 환경과 복잡한 애플리케이션을 위한 고성능 LLM입니다.",
332
+ "command-r.description": "Command R은 채팅 및 장문 컨텍스트 작업에 최적화된 LLM으로, 동적인 상호작용과 지식 관리에 이상적입니다.",
333
+ "command-r7b-12-2024.description": "command-r7b-12-2024는 2024년 12월에 출시된 소형이면서 효율적인 업데이트 모델입니다. 복잡한 다단계 추론이 필요한 RAG, 도구 사용, 에이전트 작업에 뛰어납니다.",
334
+ "command.description": "기본 생성 모델보다 더 높은 품질과 신뢰성을 제공하며, 더 긴 컨텍스트 윈도우를 지원하는 지시문 기반 채팅 모델입니다.",
335
+ "computer-use-preview.description": "computer-use-preview는 '컴퓨터 사용 도구'에 특화된 모델로, 컴퓨터 관련 작업을 이해하고 실행하도록 훈련되었습니다.",
336
+ "dall-e-2.description": "1세대보다 4배 높은 해상도와 더 사실적이고 정확한 이미지 생성을 지원하는 2세대 DALL·E 모델입니다.",
337
+ "dall-e-3.description": "2023년 11월에 출시된 최신 DALL·E 모델로, 더 사실적이고 정밀한 이미지 생성을 지원합니다.",
338
+ "databricks/dbrx-instruct.description": "DBRX Instruct는 다양한 산업 분야에서 신뢰도 높은 지시문 처리를 제공합니다.",
339
+ "deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR은 DeepSeek AI에서 개발한 비전-언어 모델로, OCR 및 '문맥 광학 압축'에 중점을 둡니다. 이미지에서 문맥을 압축하고 문서를 효율적으로 처리하여 구조화된 텍스트(예: Markdown)로 변환합니다. 이미지 내 텍스트를 정확하게 인식하여 문서 디지털화, 텍스트 추출, 구조화 처리에 적합합니다.",
340
+ "deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B는 DeepSeek-R1-0528의 체인 오브 싱킹을 Qwen3 8B Base에 증류한 모델입니다. AIME 2024에서 Qwen3 8B보다 10% 높은 성능을 기록하며, Qwen3-235B-thinking과 동급의 성능을 보여줍니다. 수학 추론, 프로그래밍, 일반 논리 벤치마크에서 뛰어나며, Qwen3-8B 아키텍처를 공유하면서 DeepSeek-R1-0528 토크나이저를 사용합니다.",
341
+ "deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1은 추가 연산 자원과 사후 학습 알고리즘 최적화를 활용하여 추론 능력을 강화합니다. 수학, 프로그래밍, 일반 논리 벤치마크에서 강력한 성능을 발휘하며, o3 및 Gemini 2.5 Pro와 같은 선도 모델에 근접합니다.",
342
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek-R1 증류 모델은 RL 및 콜드 스타트 데이터를 활용하여 추론 능력을 향상시키고, 새로운 오픈 모델 멀티태스크 벤치마크를 설정합니다.",
343
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "DeepSeek-R1 증류 모델은 RL 및 콜드 스타트 데이터를 활용하여 추론 능력을 향상시키고, 새로운 오픈 모델 멀티태스크 벤치마크를 설정합니다.",
344
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1 증류 모델은 RL 및 콜드 스타트 데이터를 활용하여 추론 능력을 향상시키고, 새로운 오픈 모델 멀티태스크 벤치마크를 설정합니다.",
345
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B는 Qwen2.5-32B에서 증류되었으며, 80만 개의 DeepSeek-R1 정제 샘플로 미세 조정되었습니다. 수학, 프로그래밍, 추론에서 뛰어난 성능을 보이며, AIME 2024, MATH-500(정확도 94.3%), GPQA Diamond에서 우수한 결과를 기록합니다.",
346
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B는 Qwen2.5-Math-7B에서 증류되었으며, 80만 개의 DeepSeek-R1 정제 샘플로 미세 조정되었습니다. MATH-500에서 92.8%, AIME 2024에서 55.5%, CodeForces에서 1189점을 기록하며 7B 모델 중 뛰어난 성능을 보입니다.",
347
+ "deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1은 RL 및 콜드 스타트 데이터를 활용하여 추론 능력을 향상시키며, 새로운 오픈 모델 멀티태스크 벤치마크를 설정하고 OpenAI-o1-mini를 능가합니다.",
348
+ "deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5는 DeepSeek-V2-Chat과 DeepSeek-Coder-V2-Instruct를 업그레이드하여 일반 및 코딩 능력을 통합합니다. 글쓰기 및 지시문 이행 능력을 향상시켜 선호도 정렬을 개선하며, AlpacaEval 2.0, ArenaHard, AlignBench, MT-Bench에서 큰 성능 향상을 보입니다.",
349
+ "deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus는 하이브리드 에이전트 LLM으로 포지셔닝된 V3.1 모델의 업데이트 버전입니다. 사용자 피드백 문제를 해결하고 안정성, 언어 일관성, 중문/영문 혼합 및 비정상 문자 출력을 개선합니다. 사고 및 비사고 모드를 통합하고 채팅 템플릿을 통해 유연하게 전환할 수 있으며, Code Agent 및 Search Agent 성능도 향상되어 도구 사용 및 다단계 작업에서 더 높은 신뢰성을 제공합니다.",
350
+ "deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1은 하이브리드 추론 아키텍처를 사용하며, 사고 모드와 비사고 모드를 모두 지원합니다.",
320
351
  "gemini-flash-latest.description": "Gemini Flash 최신 버전",
321
352
  "gemini-flash-lite-latest.description": "Gemini Flash-Lite 최신 버전",
322
353
  "gemini-pro-latest.description": "Gemini Pro 최신 버전",
@@ -357,7 +388,6 @@
357
388
  "microsoft/WizardLM-2-8x22B.description": "WizardLM 2는 Microsoft AI의 언어 모델로, 복잡한 대화, 다국어 작업, 추론, 어시스턴트에 뛰어납니다.",
358
389
  "microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B는 Microsoft AI의 가장 진보된 Wizard 모델로, 매우 경쟁력 있는 성능을 제공합니다.",
359
390
  "minicpm-v.description": "MiniCPM-V는 OpenBMB의 차세대 멀티모달 모델로, 광범위한 사용 사례에 대해 뛰어난 OCR 및 멀티모달 이해력을 제공합니다.",
360
- "minimax-m2.description": "MiniMax M2는 코딩 및 에이전트 워크플로우를 위해 설계된 효율적인 LLM입니다.",
361
391
  "minimax/minimax-m2.description": "MiniMax-M2는 다양한 엔지니어링 시나리오에서 코딩 및 에이전트 작업에 뛰어난 고가치 모델입니다.",
362
392
  "minimaxai/minimax-m2.description": "MiniMax-M2는 컴팩트하고 빠르며 비용 효율적인 MoE 모델(총 230B, 활성 10B)로, 다중 파일 편집, 코드 실행-수정 루프, 테스트 검증, 복잡한 툴체인에서 뛰어난 성능을 발휘하며 강력한 일반 지능을 유지합니다.",
363
393
  "ministral-3b-latest.description": "Ministral 3B는 Mistral의 최고급 엣지 모델입니다.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "InternLM은 대규모 모델 연구 및 도구 개발에 집중하는 오픈소스 조직으로, 최신 모델과 알고리즘을 누구나 쉽게 사용할 수 있도록 효율적인 플랫폼을 제공합니다.",
30
30
  "jina.description": "2020년에 설립된 Jina AI는 선도적인 검색 AI 기업으로, 벡터 모델, 재정렬기, 소형 언어 모델을 포함한 검색 스택을 통해 신뢰성 높고 고품질의 생성형 및 멀티모달 검색 앱을 구축합니다.",
31
31
  "lmstudio.description": "LM Studio는 데스크탑에서 LLM을 개발하고 실험할 수 있는 애플리케이션입니다.",
32
- "lobehub.description": "LobeHub Cloud는 공식 API를 사용하여 AI 모델에 접근하며, 모델 토큰에 연동된 크레딧을 통해 사용량을 측정합니다.",
33
32
  "minimax.description": "2021년에 설립된 MiniMax는 텍스트, 음성, 비전 등 멀티모달 기반의 범용 AI를 개발하며, 조 단위 파라미터의 MoE 텍스트 모델과 Hailuo AI와 같은 앱을 제공합니다.",
34
33
  "mistral.description": "Mistral은 복잡한 추론, 다국어 작업, 코드 생성에 적합한 고급 범용, 특화, 연구용 모델을 제공하며, 사용자 정의 통합을 위한 함수 호출 기능도 지원합니다.",
35
34
  "modelscope.description": "ModelScope는 Alibaba Cloud의 모델 서비스 플랫폼으로, 다양한 AI 모델과 추론 서비스를 제공합니다.",
@@ -73,7 +73,9 @@
73
73
  "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick is een groot MoE-model met efficiënte expertactivatie voor sterke redeneercapaciteiten.",
74
74
  "MiniMax-M1.description": "Een nieuw intern redeneermodel met 80K chain-of-thought en 1M input, met prestaties vergelijkbaar met toonaangevende wereldwijde modellen.",
75
75
  "MiniMax-M2-Stable.description": "Ontworpen voor efficiënte codeer- en agentworkflows, met hogere gelijktijdigheid voor commercieel gebruik.",
76
- "MiniMax-M2.description": "Ontworpen voor efficiënte codeer- en agentworkflows.",
76
+ "MiniMax-M2.1-Lightning.description": "Krachtige meertalige programmeercapaciteiten, volledig vernieuwde programmeerervaring. Sneller en efficiënter.",
77
+ "MiniMax-M2.1.description": "Krachtige meertalige programmeercapaciteiten, volledig vernieuwde programmeerervaring",
78
+ "MiniMax-M2.description": "Speciaal ontwikkeld voor efficiënt coderen en agent-workflows",
77
79
  "MiniMax-Text-01.description": "MiniMax-01 introduceert grootschalige lineaire aandacht voorbij klassieke Transformers, met 456B parameters en 45,9B geactiveerd per pass. Het levert topprestaties en ondersteunt tot 4M tokens context (32× GPT-4o, 20× Claude-3.5-Sonnet).",
78
80
  "MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 is een open-gewichten grootschalig hybrid-attention redeneermodel met 456B totale parameters en ~45,9B actief per token. Het ondersteunt native 1M context en gebruikt Flash Attention om FLOPs met 75% te verminderen bij 100K-token generatie versus DeepSeek R1. Met een MoE-architectuur plus CISPO en hybrid-attention RL-training behaalt het toonaangevende prestaties op lang-input redeneren en echte software engineering-taken.",
79
81
  "MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 herdefinieert agent-efficiëntie. Het is een compact, snel, kosteneffectief MoE-model met 230B totaal en 10B actieve parameters, gebouwd voor topniveau codeer- en agenttaken met behoud van sterke algemene intelligentie. Met slechts 10B actieve parameters evenaart het veel grotere modellen, ideaal voor toepassingen met hoge efficiëntie.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Een open-source organisatie gericht op grootschalig modelonderzoek en tooling, met een efficiënt en gebruiksvriendelijk platform dat geavanceerde modellen en algoritmen toegankelijk maakt.",
30
30
  "jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.",
31
31
  "lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLM’s op je eigen computer.",
32
- "lobehub.description": "LobeHub Cloud gebruikt officiële API's om toegang te krijgen tot AI-modellen en meet het gebruik met Credits die gekoppeld zijn aan modeltokens.",
33
32
  "minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.",
34
33
  "mistral.description": "Mistral biedt geavanceerde algemene, gespecialiseerde en onderzoeksmodellen voor complexe redenering, meertalige taken en codegeneratie, met functie-aanroepen voor aangepaste integraties.",
35
34
  "modelscope.description": "ModelScope is het model-as-a-service platform van Alibaba Cloud, met een breed scala aan AI-modellen en inferentiediensten.",
@@ -73,7 +73,9 @@
73
73
  "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick to duży model MoE z efektywną aktywacją ekspertów, zapewniający wysoką wydajność rozumowania.",
74
74
  "MiniMax-M1.description": "Nowy wewnętrzny model rozumowania z 80 tys. łańcuchów myślowych i 1 mln tokenów wejściowych, oferujący wydajność porównywalną z czołowymi modelami światowymi.",
75
75
  "MiniMax-M2-Stable.description": "Zaprojektowany z myślą o wydajnym kodowaniu i przepływach pracy agentów, z większą równoległością dla zastosowań komercyjnych.",
76
- "MiniMax-M2.description": "Zaprojektowany z myślą o wydajnym kodowaniu i przepływach pracy agentów.",
76
+ "MiniMax-M2.1-Lightning.description": "Potężne możliwości programowania w wielu językach kompleksowe ulepszenie doświadczenia kodowania. Szybciej i wydajniej.",
77
+ "MiniMax-M2.1.description": "Potężne możliwości programowania w wielu językach – kompleksowe ulepszenie doświadczenia kodowania",
78
+ "MiniMax-M2.description": "Stworzony z myślą o wydajnym kodowaniu i przepływach pracy agentów",
77
79
  "MiniMax-Text-01.description": "MiniMax-01 wprowadza dużą skalę uwagi liniowej wykraczającą poza klasyczne Transformatory, z 456 mld parametrów i 45,9 mld aktywowanych na przebieg. Osiąga najwyższą wydajność i obsługuje do 4 mln tokenów kontekstu (32× GPT-4o, 20× Claude-3.5-Sonnet).",
78
80
  "MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 to model rozumowania o otwartych wagach, oparty na hybrydowej uwadze, z 456 mld parametrów ogółem i ~45,9 mld aktywnych na token. Natywnie obsługuje kontekst 1 mln tokenów i wykorzystuje Flash Attention, redukując FLOPs o 75% przy generowaniu 100 tys. tokenów w porównaniu do DeepSeek R1. Dzięki architekturze MoE, CISPO i treningowi RL z hybrydową uwagą, osiąga czołowe wyniki w zadaniach rozumowania z długim wejściem i rzeczywistym inżynierii oprogramowania.",
79
81
  "MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 redefiniuje efektywność agentów. To kompaktowy, szybki i opłacalny model MoE z 230 mld parametrów ogółem i 10 mld aktywnych, zaprojektowany do zadań kodowania i agentowych najwyższej klasy, przy zachowaniu silnej inteligencji ogólnej. Dzięki tylko 10 mld aktywnych parametrów dorównuje znacznie większym modelom, co czyni go idealnym do zastosowań wymagających wysokiej wydajności.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Organizacja open-source skupiona na badaniach nad dużymi modelami i narzędziach, oferująca wydajną i łatwą w użyciu platformę udostępniającą najnowsze modele i algorytmy.",
30
30
  "jina.description": "Założona w 2020 roku, Jina AI to wiodąca firma zajmująca się wyszukiwaniem AI. Jej stos wyszukiwania obejmuje modele wektorowe, rerankery i małe modele językowe do tworzenia niezawodnych, wysokiej jakości aplikacji generatywnych i multimodalnych.",
31
31
  "lmstudio.description": "LM Studio to aplikacja desktopowa do tworzenia i testowania LLM-ów na własnym komputerze.",
32
- "lobehub.description": "LobeHub Cloud korzysta z oficjalnych interfejsów API do uzyskiwania dostępu do modeli AI i mierzy zużycie za pomocą Kredytów powiązanych z tokenami modeli.",
33
32
  "minimax.description": "Założona w 2021 roku, MiniMax tworzy AI ogólnego przeznaczenia z multimodalnymi modelami bazowymi, w tym tekstowymi modelami MoE z bilionami parametrów, modelami mowy i wizji oraz aplikacjami takimi jak Hailuo AI.",
34
33
  "mistral.description": "Mistral oferuje zaawansowane modele ogólne, specjalistyczne i badawcze do złożonego rozumowania, zadań wielojęzycznych i generowania kodu, z obsługą wywołań funkcji do niestandardowych integracji.",
35
34
  "modelscope.description": "ModelScope to platforma model-as-a-service Alibaba Cloud, oferująca szeroki wybór modeli AI i usług inferencyjnych.",
@@ -73,7 +73,9 @@
73
73
  "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick é um modelo MoE de grande porte com ativação eficiente de especialistas para desempenho robusto em raciocínio.",
74
74
  "MiniMax-M1.description": "Um novo modelo de raciocínio interno com 80 mil cadeias de pensamento e 1 milhão de tokens de entrada, oferecendo desempenho comparável aos principais modelos globais.",
75
75
  "MiniMax-M2-Stable.description": "Projetado para fluxos de trabalho de codificação e agentes eficientes, com maior concorrência para uso comercial.",
76
- "MiniMax-M2.description": "Projetado para fluxos de trabalho de codificação e agentes eficientes.",
76
+ "MiniMax-M2.1-Lightning.description": "Poderosas capacidades de programação multilíngue, com uma experiência de codificação totalmente aprimorada. Mais rápido, mais eficiente.",
77
+ "MiniMax-M2.1.description": "Poderosas capacidades de programação multilíngue, com uma experiência de codificação totalmente aprimorada.",
78
+ "MiniMax-M2.description": "Projetado para codificação eficiente e fluxos de trabalho com agentes.",
77
79
  "MiniMax-Text-01.description": "O MiniMax-01 introduz atenção linear em larga escala além dos Transformers clássicos, com 456 bilhões de parâmetros e 45,9 bilhões ativados por passagem. Alcança desempenho de ponta e suporta até 4 milhões de tokens de contexto (32× GPT-4o, 20× Claude-3.5-Sonnet).",
78
80
  "MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 é um modelo de raciocínio com pesos abertos, atenção híbrida em larga escala, com 456 bilhões de parâmetros totais e ~45,9 bilhões ativos por token. Suporta nativamente 1 milhão de tokens de contexto e utiliza Flash Attention para reduzir FLOPs em 75% na geração de 100 mil tokens em comparação com o DeepSeek R1. Com arquitetura MoE, CISPO e treinamento com atenção híbrida via RL, atinge desempenho líder em raciocínio com entradas longas e tarefas reais de engenharia de software.",
79
81
  "MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 redefine a eficiência de agentes. É um modelo MoE compacto, rápido e econômico com 230 bilhões de parâmetros totais e 10 bilhões ativos, projetado para tarefas de codificação e agentes de alto nível, mantendo forte inteligência geral. Com apenas 10 bilhões de parâmetros ativos, rivaliza com modelos muito maiores, sendo ideal para aplicações de alta eficiência.",
@@ -101,6 +103,7 @@
101
103
  "Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 é um modelo MoE com 671 bilhões de parâmetros, utilizando MLA e DeepSeekMoE com balanceamento de carga sem perdas para inferência e treinamento eficientes. Pré-treinado com 14,8 trilhões de tokens de alta qualidade e ajustado com SFT e RL, supera outros modelos abertos e se aproxima dos modelos fechados líderes.",
102
104
  "Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 é o mais novo e poderoso modelo Kimi K2. Trata-se de um modelo MoE de alto nível com 1 trilhão de parâmetros totais e 32 bilhões de parâmetros ativos. Seus principais recursos incluem inteligência de codificação agentica aprimorada, com ganhos significativos em benchmarks e tarefas reais de agentes, além de melhorias na estética e usabilidade da codificação de frontend.",
103
105
  "Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo é a variante Turbo otimizada para velocidade de raciocínio e rendimento, mantendo o raciocínio em múltiplas etapas e o uso de ferramentas do K2 Thinking. É um modelo MoE com aproximadamente 1 trilhão de parâmetros totais, contexto nativo de 256K e chamadas de ferramentas em larga escala estáveis para cenários de produção com exigências mais rigorosas de latência e concorrência.",
106
+ "Pro/zai-org/glm-4.7.description": "GLM-4.7 é o novo modelo carro-chefe da Zhipu, com 355 bilhões de parâmetros totais e 32 bilhões de parâmetros ativos. Ele traz melhorias abrangentes em diálogo geral, raciocínio e capacidades de agentes. O GLM-4.7 aprimora o Interleaved Thinking (pensamento intercalado), e introduz Preserved Thinking (pensamento preservado) e Turn-level Thinking (pensamento por turno).",
104
107
  "QwQ-32B-Preview.description": "Qwen QwQ é um modelo de pesquisa experimental focado em aprimorar o raciocínio.",
105
108
  "Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview é um modelo de pesquisa da Qwen focado em raciocínio visual, com pontos fortes em compreensão de cenas complexas e problemas visuais de matemática.",
106
109
  "Qwen/QwQ-32B-Preview.description": "Qwen QwQ é um modelo de pesquisa experimental focado em aprimorar o raciocínio da IA.",
@@ -268,21 +271,55 @@
268
271
  "chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.",
269
272
  "claude-2.0.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
270
273
  "claude-2.1.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
271
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic, com melhorias em diversas habilidades e superando o modelo principal anterior, Claude 3 Opus, em muitos benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de nova geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, ele apresenta melhorias em diversas habilidades e supera o modelo anterior Claude 3 Opus em muitos testes de inteligência.",
272
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku oferece respostas rápidas para tarefas leves.",
273
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado, oferecendo respostas quase instantâneas ou pensamento estendido com controle refinado.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado. Ele pode gerar respostas quase instantâneas ou raciocínios passo a passo visíveis para o usuário. O Sonnet se destaca especialmente em programação, ciência de dados, visão computacional e tarefas com agentes.",
274
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
275
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.",
276
279
  "claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
277
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligência e velocidade para cargas de trabalho empresariais, oferecendo alta utilidade com menor custo e implantação confiável em larga escala.",
278
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e pensamento estendido.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e raciocínio estendido.",
279
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking é uma variante avançada que pode revelar seu processo de raciocínio.",
280
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
281
- "claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com desempenho excepcional em inteligência, fluência e compreensão.",
282
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
283
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.",
284
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 é o modelo mais inteligente da Anthropic até o momento, oferecendo respostas quase instantâneas ou pensamento passo a passo estendido com controle refinado para usuários de API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou raciocínios passo a passo com processo visível.",
285
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
289
+ "codegeex-4.description": "CodeGeeX-4 é um assistente de codificação com IA poderoso que oferece suporte a perguntas e respostas multilíngues e autocompletar código para aumentar a produtividade dos desenvolvedores.",
290
+ "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue que oferece suporte a autocompletar e geração de código, interpretação de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo uma ampla gama de cenários de desenvolvimento de software. É um modelo de código de alto nível com menos de 10 bilhões de parâmetros.",
291
+ "codegemma.description": "CodeGemma é um modelo leve para tarefas variadas de programação, permitindo iteração rápida e fácil integração.",
292
+ "codegemma:2b.description": "CodeGemma é um modelo leve para tarefas variadas de programação, permitindo iteração rápida e fácil integração.",
293
+ "codellama.description": "Code Llama é um modelo de linguagem grande (LLM) focado em geração e discussão de código, com amplo suporte a linguagens para fluxos de trabalho de desenvolvedores.",
294
+ "codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama é um modelo de linguagem grande (LLM) focado em geração e discussão de código, com amplo suporte a linguagens para fluxos de trabalho de desenvolvedores.",
295
+ "codellama:13b.description": "Code Llama é um modelo de linguagem grande (LLM) focado em geração e discussão de código, com amplo suporte a linguagens para fluxos de trabalho de desenvolvedores.",
296
+ "codellama:34b.description": "Code Llama é um modelo de linguagem grande (LLM) focado em geração e discussão de código, com amplo suporte a linguagens para fluxos de trabalho de desenvolvedores.",
297
+ "codellama:70b.description": "Code Llama é um modelo de linguagem grande (LLM) focado em geração e discussão de código, com amplo suporte a linguagens para fluxos de trabalho de desenvolvedores.",
298
+ "codeqwen.description": "CodeQwen1.5 é um modelo de linguagem grande treinado com uma ampla base de dados de código, projetado para tarefas complexas de programação.",
299
+ "codestral-latest.description": "Codestral é nosso modelo de codificação mais avançado; a versão v2 (jan 2025) é voltada para tarefas de baixa latência e alta frequência como FIM, correção de código e geração de testes.",
300
+ "codestral.description": "Codestral é o primeiro modelo de código da Mistral AI, oferecendo suporte robusto à geração de código.",
301
+ "codex-mini-latest.description": "codex-mini-latest é um modelo o4-mini ajustado para o Codex CLI. Para uso direto via API, recomendamos começar com o gpt-4.1.",
302
+ "cogito-2.1:671b.description": "Cogito v2.1 671B é um modelo de linguagem grande de código aberto dos EUA, gratuito para uso comercial, com desempenho comparável aos melhores modelos, maior eficiência de raciocínio por token, contexto longo de 128k e capacidade geral robusta.",
303
+ "cogview-4.description": "CogView-4 é o primeiro modelo de texto para imagem de código aberto da Zhipu que pode gerar caracteres chineses. Ele melhora a compreensão semântica, a qualidade da imagem e a renderização de texto em chinês/inglês, suporta prompts bilíngues de qualquer comprimento e pode gerar imagens em qualquer resolução dentro de faixas especificadas.",
304
+ "cohere-command-r-plus.description": "Command R+ é um modelo avançado otimizado para RAG, desenvolvido para cargas de trabalho empresariais.",
305
+ "cohere-command-r.description": "Command R é um modelo generativo escalável projetado para uso com RAG e ferramentas, permitindo IA em nível de produção.",
306
+ "cohere/Cohere-command-r-plus.description": "Command R+ é um modelo avançado otimizado para RAG, desenvolvido para cargas de trabalho empresariais.",
307
+ "cohere/Cohere-command-r.description": "Command R é um modelo generativo escalável projetado para uso com RAG e ferramentas, permitindo IA em nível de produção.",
308
+ "cohere/command-a.description": "Command A é o modelo mais poderoso da Cohere até o momento, com excelência no uso de ferramentas, agentes, RAG e casos de uso multilíngues. Possui janela de contexto de 256K, roda em apenas duas GPUs e oferece 150% mais rendimento que o Command R+ 08-2024.",
309
+ "cohere/command-r-plus.description": "Command R+ é o mais recente LLM da Cohere, otimizado para chat e contexto longo, visando desempenho excepcional para que empresas avancem de protótipos para produção.",
310
+ "cohere/command-r.description": "Command R é otimizado para tarefas de chat e contexto longo, posicionado como um modelo “escalável” que equilibra alto desempenho e precisão, permitindo que empresas avancem de protótipos para produção.",
311
+ "cohere/embed-v4.0.description": "Um modelo que classifica ou converte texto, imagens ou conteúdo misto em embeddings.",
312
+ "comfyui/flux-dev.description": "FLUX.1 Dev é um modelo de texto para imagem de alta qualidade (10–50 etapas), ideal para resultados criativos e artísticos premium.",
313
+ "comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev é um modelo de edição de imagem que permite edições guiadas por texto, incluindo edições locais e transferência de estilo.",
314
+ "comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev é um modelo de texto para imagem com filtros de segurança integrados, co-desenvolvido com a Krea.",
315
+ "comfyui/flux-schnell.description": "FLUX.1 Schnell é um modelo de texto para imagem ultrarrápido que gera imagens de alta qualidade em 1–4 etapas, ideal para uso em tempo real e prototipagem rápida.",
316
+ "comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 é um modelo clássico de texto para imagem 512x512, ideal para prototipagem rápida e experimentos criativos.",
317
+ "comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 com codificadores CLIP/T5 integrados, não requer arquivos de codificador externos, adequado para modelos como sd3.5_medium_incl_clips com menor uso de recursos.",
318
+ "comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 é um modelo de texto para imagem de nova geração com variantes Large e Medium. Requer arquivos de codificador CLIP externos e oferece excelente qualidade de imagem e aderência ao prompt.",
319
+ "comfyui/stable-diffusion-custom-refiner.description": "Modelo personalizado SDXL de imagem para imagem. Use custom_sd_lobe.safetensors como nome do arquivo do modelo; se tiver um VAE, use custom_sd_vae_lobe.safetensors. Coloque os arquivos do modelo nas pastas exigidas pelo Comfy.",
320
+ "comfyui/stable-diffusion-custom.description": "Modelo personalizado SD de texto para imagem. Use custom_sd_lobe.safetensors como nome do arquivo do modelo; se tiver um VAE, use custom_sd_vae_lobe.safetensors. Coloque os arquivos do modelo nas pastas exigidas pelo Comfy.",
321
+ "comfyui/stable-diffusion-refiner.description": "Modelo SDXL de imagem para imagem que realiza transformações de alta qualidade a partir de imagens de entrada, com suporte a transferência de estilo, restauração e variações criativas.",
322
+ "comfyui/stable-diffusion-xl.description": "SDXL é um modelo de texto para imagem que suporta geração em alta resolução 1024x1024 com melhor qualidade de imagem e detalhes.",
286
323
  "meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.",
287
324
  "mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.",
288
325
  "mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Uma organização open-source focada em pesquisa e ferramentas para grandes modelos, oferecendo uma plataforma eficiente e fácil de usar que torna modelos e algoritmos de ponta acessíveis.",
30
30
  "jina.description": "Fundada em 2020, a Jina AI é uma empresa líder em busca com IA. Sua pilha de busca inclui modelos vetoriais, reranqueadores e pequenos modelos de linguagem para construir aplicativos generativos e multimodais confiáveis e de alta qualidade.",
31
31
  "lmstudio.description": "O LM Studio é um aplicativo de desktop para desenvolver e experimentar com LLMs no seu computador.",
32
- "lobehub.description": "O LobeHub Cloud utiliza APIs oficiais para acessar modelos de IA e mede o uso com Créditos vinculados aos tokens dos modelos.",
33
32
  "minimax.description": "Fundada em 2021, a MiniMax desenvolve IA de uso geral com modelos fundamentais multimodais, incluindo modelos de texto com trilhões de parâmetros, modelos de fala e visão, além de aplicativos como o Hailuo AI.",
34
33
  "mistral.description": "A Mistral oferece modelos avançados gerais, especializados e de pesquisa para raciocínio complexo, tarefas multilíngues e geração de código, com suporte a chamadas de função para integrações personalizadas.",
35
34
  "modelscope.description": "O ModelScope é a plataforma de modelo como serviço da Alibaba Cloud, oferecendo uma ampla gama de modelos de IA e serviços de inferência.",
@@ -73,7 +73,9 @@
73
73
  "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick — это крупная модель MoE с эффективной активацией экспертов для высокой производительности в логических задачах.",
74
74
  "MiniMax-M1.description": "Новая внутренняя модель рассуждений с поддержкой 80K цепочек размышлений и 1M входных токенов, обеспечивающая производительность на уровне ведущих мировых моделей.",
75
75
  "MiniMax-M2-Stable.description": "Создана для эффективного программирования и работы агентов, с повышенной параллельностью для коммерческого использования.",
76
- "MiniMax-M2.description": "Создана для эффективного программирования и работы агентов.",
76
+ "MiniMax-M2.1-Lightning.description": "Мощные возможности многозадачного программирования, полностью обновлённый опыт кодирования. Быстрее и эффективнее.",
77
+ "MiniMax-M2.1.description": "Мощные возможности многозадачного программирования, полностью обновлённый опыт кодирования",
78
+ "MiniMax-M2.description": "Создан для эффективного программирования и рабочих процессов с агентами",
77
79
  "MiniMax-Text-01.description": "MiniMax-01 представляет масштабное линейное внимание, выходящее за рамки классических трансформеров, с 456B параметрами и 45.9B активируемыми за проход. Обеспечивает производительность высшего уровня и поддерживает до 4M токенов контекста (в 32 раза больше GPT-4o, в 20 раз больше Claude-3.5-Sonnet).",
78
80
  "MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 — это модель рассуждений с открытыми весами, использующая гибридное внимание, с общим числом параметров 456B и ~45.9B активных на токен. Поддерживает 1M контекста и использует Flash Attention для снижения FLOPs на 75% при генерации 100K токенов по сравнению с DeepSeek R1. Благодаря архитектуре MoE, CISPO и обучению с подкреплением на гибридном внимании достигает лидирующих результатов в задачах рассуждения на длинных входах и реальных инженерных задачах.",
79
81
  "MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 переопределяет эффективность агентов. Это компактная, быстрая и экономичная модель MoE с 230B общих и 10B активных параметров, созданная для задач программирования и агентов высшего уровня при сохранении сильного общего интеллекта. Имея всего 10B активных параметров, она сопоставима с гораздо более крупными моделями, что делает её идеальной для высокоэффективных приложений.",
@@ -268,20 +270,15 @@
268
270
  "chatgpt-4o-latest.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая сильное понимание и генерацию для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
269
271
  "claude-2.0.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
270
272
  "claude-2.1.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
271
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic, улучшенная по всем навыкам и превосходящая предыдущий флагман Claude 3 Opus на многих бенчмарках.",
272
273
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku обеспечивает быстрые ответы для легких задач.",
273
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 — самая интеллектуальная модель от Anthropic и первая гибридная модель рассуждения на рынке, поддерживающая как мгновенные ответы, так и длительное размышление с тонкой настройкой.",
274
274
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
275
275
  "claude-3-haiku-20240307.description": "Claude 3 Haiku — самая быстрая и компактная модель от Anthropic, предназначенная для мгновенных ответов с высокой точностью и скоростью.",
276
276
  "claude-3-opus-20240229.description": "Claude 3 Opus — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
277
277
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet сочетает интеллект и скорость для корпоративных задач, обеспечивая высокую полезность при низкой стоимости и надежное масштабируемое развертывание.",
278
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и интеллектуальная модель Haiku от Anthropic, с молниеносной скоростью и расширенным мышлением.",
279
278
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking — продвинутая версия, способная демонстрировать процесс рассуждения.",
280
279
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
281
- "claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
282
280
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 — флагманская модель от Anthropic, сочетающая выдающийся интеллект с масштабируемой производительностью, идеально подходящая для сложных задач, требующих высококачественных ответов и рассуждений.",
283
281
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking может выдавать как мгновенные ответы, так и пошаговое рассуждение с видимым процессом.",
284
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 — самая интеллектуальная модель от Anthropic на сегодняшний день, предлагающая мгновенные ответы или пошаговое рассуждение с тонкой настройкой для пользователей API.",
285
282
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 — самая интеллектуальная модель от Anthropic на сегодняшний день.",
286
283
  "codegeex-4.description": "CodeGeeX-4 — мощный AI-помощник для программирования, поддерживающий многоязычные вопросы и автодополнение кода для повышения продуктивности разработчиков.",
287
284
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B — многоязычная модель генерации кода, поддерживающая автодополнение, генерацию кода, интерпретацию, веб-поиск, вызов функций и вопросы по репозиториям. Охватывает широкий спектр сценариев разработки ПО и является одной из лучших моделей кода с параметрами до 10B.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Открытая организация, сосредоточенная на исследованиях и инструментах для больших моделей, предоставляющая эффективную и удобную платформу для доступа к передовым моделям и алгоритмам.",
30
30
  "jina.description": "Основанная в 2020 году, Jina AI — ведущая компания в области поискового ИИ. Её стек включает векторные модели, переоценщики и малые языковые модели для создания надежных генеративных и мультимодальных поисковых приложений.",
31
31
  "lmstudio.description": "LM Studio — это настольное приложение для разработки и экспериментов с LLM на вашем компьютере.",
32
- "lobehub.description": "LobeHub Cloud использует официальные API для доступа к ИИ-моделям и измеряет использование с помощью Кредитов, привязанных к токенам модели.",
33
32
  "minimax.description": "Основанная в 2021 году, MiniMax разрабатывает универсальные ИИ-модели на базе мультимодальных основ, включая текстовые модели с триллионами параметров, речевые и визуальные модели, а также приложения, такие как Hailuo AI.",
34
33
  "mistral.description": "Mistral предлагает передовые универсальные, специализированные и исследовательские модели для сложных рассуждений, многоязычных задач и генерации кода, с поддержкой вызова функций для кастомных интеграций.",
35
34
  "modelscope.description": "ModelScope — это платформа моделей как сервиса от Alibaba Cloud, предлагающая широкий выбор ИИ-моделей и сервисов инференса.",
@@ -73,7 +73,9 @@
73
73
  "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick, güçlü akıl yürütme performansı için verimli uzman etkinleştirme sunan büyük bir MoE modelidir.",
74
74
  "MiniMax-M1.description": "80K düşünce zinciri ve 1M giriş desteğiyle üst düzey modellerle karşılaştırılabilir performans sunan yeni bir yerli akıl yürütme modeli.",
75
75
  "MiniMax-M2-Stable.description": "Ticari kullanım için daha yüksek eşzamanlılık sunan, verimli kodlama ve ajan iş akışları için tasarlanmıştır.",
76
- "MiniMax-M2.description": "Verimli kodlama ve ajan akışları için tasarlanmıştır.",
76
+ "MiniMax-M2.1-Lightning.description": "Güçlü çok dilli programlama yetenekleriyle programlama deneyimini tamamen yeniler. Daha hızlı, daha verimli.",
77
+ "MiniMax-M2.1.description": "Güçlü çok dilli programlama yetenekleriyle programlama deneyimini tamamen yeniler",
78
+ "MiniMax-M2.description": "Verimli kodlama ve Agent iş akışları için özel olarak tasarlandı",
77
79
  "MiniMax-Text-01.description": "MiniMax-01, klasik Dönüştürücüler ötesinde büyük ölçekli doğrusal dikkat sunar. 456B parametreye ve geçiş başına 45.9B etkin parametreye sahiptir. Üst düzey performans sunar ve 4M bağlam (32× GPT-4o, 20× Claude-3.5-Sonnet) destekler.",
78
80
  "MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1, 456B toplam parametreye ve token başına yaklaşık 45.9B etkin parametreye sahip açık ağırlıklı büyük ölçekli karma dikkatli bir akıl yürütme modelidir. Doğal olarak 1M bağlamı destekler ve 100K-token üretiminde FLOP’ları %75 azaltmak için Flash Attention kullanır. MoE mimarisi, CISPO ve karma dikkatli RL eğitimi ile uzun girişli akıl yürütme ve gerçek yazılım mühendisliği görevlerinde lider performans sunar.",
79
81
  "MiniMaxAI/MiniMax-M2.description": "MiniMax-M2, ajan verimliliğini yeniden tanımlar. 230B toplam ve 10B etkin parametreye sahip kompakt, hızlı ve maliyet etkin bir MoE modelidir. Üst düzey kodlama ve ajan görevleri için tasarlanmıştır ve güçlü genel zekayı korur. Sadece 10B etkin parametreyle çok daha büyük modellerle rekabet eder, bu da onu yüksek verimlilik uygulamaları için ideal kılar.",
@@ -101,6 +103,7 @@
101
103
  "Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3, 671B parametreli bir MoE modelidir. MLA ve DeepSeekMoE kullanır, kayıpsız yük dengelemesiyle verimli çıkarım ve eğitim sağlar. 14.8T yüksek kaliteli token ile önceden eğitilmiş, SFT ve RL ile daha da ayarlanmıştır. Diğer açık modelleri geride bırakır ve önde gelen kapalı modellere yaklaşır.",
102
104
  "Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905, en yeni ve en güçlü Kimi K2 modelidir. 1T toplam ve 32B aktif parametreye sahip üst düzey bir MoE modelidir. Temel özellikleri arasında, kıyaslama testlerinde ve gerçek dünya ajan görevlerinde önemli kazanımlar sağlayan daha güçlü ajan kodlama zekası, geliştirilmiş ön yüz kodlama estetiği ve kullanılabilirlik yer alır.",
103
105
  "Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo, K2 Thinking’in çok adımlı akıl yürütme ve araç kullanımı yeteneklerini korurken, akıl yürütme hızı ve işlem hacmi için optimize edilmiş Turbo varyantıdır. Yaklaşık 1T toplam parametreye sahip bir MoE modelidir, yerel olarak 256K bağlamı destekler ve üretim senaryoları için kararlı büyük ölçekli araç çağrısı sağlar; düşük gecikme ve yüksek eşzamanlılık gereksinimlerini karşılar.",
106
+ "Pro/zai-org/glm-4.7.description": "GLM-4.7, Zhipu'nun yeni nesil amiral gemisi modelidir. Toplam 355 milyar parametreye ve 32 milyar aktif parametreye sahiptir. Genel diyalog, akıl yürütme ve yapay zeka yeteneklerinde kapsamlı bir yükseltme sunar. GLM-4.7, Interleaved Thinking (Karma Düşünme) yeteneğini geliştirir, ayrıca Preserved Thinking (Korunan Düşünme) ve Turn-level Thinking (Tur Bazlı Düşünme) özelliklerini tanıtır.",
104
107
  "QwQ-32B-Preview.description": "Qwen QwQ, akıl yürütme yeteneğini geliştirmeye odaklanan deneysel bir araştırma modelidir.",
105
108
  "Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview, karmaşık sahne anlama ve görsel matematik problemlerinde güçlü olan görsel akıl yürütmeye odaklanan Qwen araştırma modelidir.",
106
109
  "Qwen/QwQ-32B-Preview.description": "Qwen QwQ, geliştirilmiş yapay zeka akıl yürütmesine odaklanan deneysel bir araştırma modelidir.",
@@ -268,20 +271,20 @@
268
271
  "chatgpt-4o-latest.description": "ChatGPT-4o, gerçek zamanlı olarak güncellenen dinamik bir modeldir. Müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli kullanım senaryoları için güçlü anlama ve üretim yeteneklerini birleştirir.",
269
272
  "claude-2.0.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
270
273
  "claude-2.1.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
271
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic’in en hızlı yeni nesil modelidir; birçok kıyaslamada önceki amiral gemisi Claude 3 Opus'u geride bırakır.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic’in en hızlı yeni nesil modelidir. Claude 3 Haiku’ya kıyasla tüm becerilerde gelişme gösterir ve birçok zeka testinde önceki en büyük model olan Claude 3 Opusu geride bırakır.",
272
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku, hafif görevler için hızlı yanıtlar sunar.",
273
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7, Anthropic’in en zeki modelidir ve piyasadaki ilk hibrit akıl yürütme modelidir. Anında yanıtlar veya ayrıntılı düşünme süreçleriyle ince ayar kontrolü sunar.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet, Anthropic’in en zeki modelidir ve piyasadaki ilk hibrit akıl yürütme modelidir. Anında yanıtlar verebilir veya kullanıcıların adım adım görebileceği şekilde detaylı akıl yürütme sunabilir. Sonnet, özellikle kodlama, veri bilimi, görsel analiz ve yapay zeka görevlerinde güçlüdür.",
274
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet, karmaşık görevler için Anthropic’in en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
275
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku, Anthropic’in en hızlı ve en kompakt modelidir; anında yanıtlar için hızlı ve doğru performans sunar.",
276
279
  "claude-3-opus-20240229.description": "Claude 3 Opus, karmaşık görevler için Anthropic’in en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
277
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet, kurumsal iş yükleri için zeka ve hızı dengeler; düşük maliyetle yüksek fayda ve güvenilir büyük ölçekli dağıtım sunar.",
278
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic’in en hızlı ve en zeki Haiku modelidir; yıldırım hızında yanıtlar ve derin düşünme sunar.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic’in en hızlı ve en akıllı Haiku modelidir. Yıldırım hızında yanıtlar ve gelişmiş akıl yürütme sunar.",
279
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking, akıl yürütme sürecini görünür şekilde ortaya koyabilen gelişmiş bir varyanttır.",
280
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1, karmaşık görevler için Anthropic’in en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
281
- "claude-opus-4-20250514.description": "Claude Opus 4, karmaşık görevler için Anthropic’in en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4, karmaşık görevler için Anthropic’in en güçlü modelidir. Performans, zeka, akıcılık ve anlama açısından üst düzeydir.",
282
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5, Anthropic’in amiral gemisi modelidir; olağanüstü zeka ile ölçeklenebilir performansı birleştirir. En yüksek kaliteli yanıtlar ve akıl yürütme gerektiren karmaşık görevler için idealdir.",
283
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking, anında yanıtlar veya adım adım düşünme süreçleri üretebilir.",
284
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4, Anthropic’in bugüne kadarki en zeki modelidir; API kullanıcıları için ayrıntılı kontrolle anında yanıtlar veya adım adım düşünme sunar.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4, anında yanıtlar veya adım adım düşünme süreciyle görünür şekilde detaylı akıl yürütme sunabilir.",
285
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5, Anthropic’in bugüne kadarki en zeki modelidir.",
286
289
  "codegeex-4.description": "CodeGeeX-4, geliştirici verimliliğini artırmak için çok dilli Soru-Cevap ve kod tamamlama desteği sunan güçlü bir yapay zeka kodlama asistanıdır.",
287
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B, çok dilli kod üretimi, kod tamamlama, yorumlama, web arama, fonksiyon çağırma ve depo düzeyinde kod Soru-Cevap gibi geniş yazılım geliştirme senaryolarını kapsayan bir modeldir. 10B parametrenin altındaki en üst düzey kod modellerinden biridir.",
@@ -296,6 +299,42 @@
296
299
  "codestral-latest.description": "Codestral, en gelişmiş kodlama modelimizdir; v2 (Ocak 2025), FIM, kod düzeltme ve test üretimi gibi düşük gecikmeli, yüksek frekanslı görevleri hedefler.",
297
300
  "codestral.description": "Codestral, Mistral AI’nin ilk kod modelidir ve güçlü kod üretim desteği sunar.",
298
301
  "codex-mini-latest.description": "codex-mini-latest, Codex CLI için ince ayarlanmış bir o4-mini modelidir. Doğrudan API kullanımı için gpt-4.1 ile başlamanız önerilir.",
302
+ "cogito-2.1:671b.description": "Cogito v2.1 671B, ticari kullanıma açık ABD menşeli açık kaynaklı bir büyük dil modelidir. Önde gelen modellerle rekabet eden performansa, daha yüksek token akıl yürütme verimliliğine, 128k uzun bağlam desteğine ve güçlü genel yeteneklere sahiptir.",
303
+ "cogview-4.description": "CogView-4, Zhipu’nun Çince karakter üretebilen ilk açık kaynaklı metinden-görüntüye modelidir. Anlamsal anlama, görüntü kalitesi ve Çince/İngilizce metin işleme konularında gelişmeler sunar. Her uzunlukta iki dilli istemleri destekler ve belirtilen aralıklarda herhangi bir çözünürlükte görüntü üretebilir.",
304
+ "cohere-command-r-plus.description": "Command R+, kurumsal iş yükleri için optimize edilmiş gelişmiş bir RAG modelidir.",
305
+ "cohere-command-r.description": "Command R, üretim düzeyinde yapay zeka sağlayan, RAG ve araç kullanımı için tasarlanmış ölçeklenebilir bir üretici modeldir.",
306
+ "cohere/Cohere-command-r-plus.description": "Command R+, kurumsal iş yükleri için optimize edilmiş gelişmiş bir RAG modelidir.",
307
+ "cohere/Cohere-command-r.description": "Command R, üretim düzeyinde yapay zeka sağlayan, RAG ve araç kullanımı için tasarlanmış ölçeklenebilir bir üretici modeldir.",
308
+ "cohere/command-a.description": "Command A, Cohere’in şimdiye kadarki en güçlü modelidir. Araç kullanımı, yapay zeka ajanları, RAG ve çok dilli senaryolarda üstündür. 256K bağlam uzunluğuna sahiptir, yalnızca iki GPU üzerinde çalışır ve Command R+ 08-2024’e göre %150 daha yüksek verim sunar.",
309
+ "cohere/command-r-plus.description": "Command R+, sohbet ve uzun bağlam için optimize edilmiş Cohere’in en yeni büyük dil modelidir. Şirketlerin prototip aşamasını geçip üretime geçmesini sağlamak için olağanüstü performans hedeflenmiştir.",
310
+ "cohere/command-r.description": "Command R, sohbet ve uzun bağlam görevleri için optimize edilmiştir. Yüksek performans ve doğruluk arasında denge kurarak şirketlerin prototipten üretime geçmesini sağlar.",
311
+ "cohere/embed-v4.0.description": "Metin, görsel veya karışık içerikleri gömülere dönüştüren veya sınıflandıran bir modeldir.",
312
+ "comfyui/flux-dev.description": "FLUX.1 Dev, yüksek kaliteli metinden-görüntüye modelidir (10–50 adım), yaratıcı ve sanatsal çıktılar için idealdir.",
313
+ "comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev, metinle yönlendirilen düzenlemeleri destekleyen bir görüntü düzenleme modelidir. Yerel düzenlemeler ve stil aktarımı gibi işlemleri destekler.",
314
+ "comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev, Krea ile birlikte geliştirilen güvenlik artırılmış bir metinden-görüntüye modelidir. Dahili güvenlik filtrelerine sahiptir.",
315
+ "comfyui/flux-schnell.description": "FLUX.1 Schnell, 1-4 adımda yüksek kaliteli görüntüler üreten ultra hızlı bir metinden-görüntüye modelidir. Gerçek zamanlı kullanım ve hızlı prototipleme için idealdir.",
316
+ "comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5, 512x512 çözünürlükte klasik bir metinden-görüntüye modelidir. Hızlı prototipleme ve yaratıcı deneyler için uygundur.",
317
+ "comfyui/stable-diffusion-35-inclclip.description": "Dahili CLIP/T5 kodlayıcılarıyla gelen Stable Diffusion 3.5, harici kodlayıcı dosyalarına ihtiyaç duymaz. Daha az kaynak kullanımıyla sd3.5_medium_incl_clips gibi modeller için uygundur.",
318
+ "comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5, Büyük ve Orta varyantlarıyla yeni nesil bir metinden-görüntüye modelidir. Harici CLIP kodlayıcı dosyaları gerektirir ve mükemmel görüntü kalitesi ile istem uyumu sunar.",
319
+ "comfyui/stable-diffusion-custom-refiner.description": "Özel SDXL görüntüden-görüntüye modeli. Model dosya adı olarak custom_sd_lobe.safetensors kullanın; VAE varsa custom_sd_vae_lobe.safetensors kullanın. Model dosyalarını gerekli Comfy klasörlerine yerleştirin.",
320
+ "comfyui/stable-diffusion-custom.description": "Özel SD metinden-görüntüye modeli. Model dosya adı olarak custom_sd_lobe.safetensors kullanın; VAE varsa custom_sd_vae_lobe.safetensors kullanın. Model dosyalarını gerekli Comfy klasörlerine yerleştirin.",
321
+ "comfyui/stable-diffusion-refiner.description": "SDXL görüntüden-görüntüye modeli, giriş görüntülerinden yüksek kaliteli dönüşümler gerçekleştirir. Stil aktarımı, restorasyon ve yaratıcı varyasyonları destekler.",
322
+ "comfyui/stable-diffusion-xl.description": "SDXL, 1024x1024 yüksek çözünürlükte görüntü üretimini destekleyen bir metinden-görüntüye modelidir. Daha iyi görüntü kalitesi ve detay sunar.",
323
+ "command-a-03-2025.description": "Command A, şimdiye kadarki en yetenekli modelimizdir. Araç kullanımı, yapay zeka ajanları, RAG ve çok dilli senaryolarda üstündür. 256K bağlam penceresine sahiptir, yalnızca iki GPU üzerinde çalışır ve Command R+ 08-2024’e göre %150 daha yüksek verim sunar.",
324
+ "command-light-nightly.description": "Büyük sürümler arasındaki boşluğu azaltmak için her gece güncellenen Command sürümleri sunuyoruz. command-light serisi için bu sürüm command-light-nightly olarak adlandırılır. En yeni, en deneysel (ve potansiyel olarak kararsız) sürümdür. Düzenli olarak bildirim yapılmadan güncellenir, bu nedenle üretim ortamlarında önerilmez.",
325
+ "command-light.description": "Neredeyse aynı yetenekte ancak daha hızlı olan daha küçük ve hızlı bir Command varyantı.",
326
+ "command-nightly.description": "Büyük sürümler arasındaki boşluğu azaltmak için her gece güncellenen Command sürümleri sunuyoruz. Command serisi için bu sürüm command-nightly olarak adlandırılır. En yeni, en deneysel (ve potansiyel olarak kararsız) sürümdür. Düzenli olarak bildirim yapılmadan güncellenir, bu nedenle üretim ortamlarında önerilmez.",
327
+ "command-r-03-2024.description": "Command R, önceki modellere göre daha yüksek kalite, daha fazla güvenilirlik ve daha uzun bağlam penceresi sunan bir talimat izleme sohbet modelidir. Kod üretimi, RAG, araç kullanımı ve yapay zeka ajanları gibi karmaşık iş akışlarını destekler.",
328
+ "command-r-08-2024.description": "command-r-08-2024, Ağustos 2024’te yayınlanan güncellenmiş bir Command R modelidir.",
329
+ "command-r-plus-04-2024.description": "command-r-plus, command-r-plus-04-2024’ün takma adıdır. API’de command-r-plus kullanıldığında bu modele yönlendirilir.",
330
+ "command-r-plus-08-2024.description": "Command R+, önceki modellere göre daha yüksek kalite, daha fazla güvenilirlik ve daha uzun bağlam penceresi sunan bir talimat izleme sohbet modelidir. Karmaşık RAG iş akışları ve çok adımlı araç kullanımı için en uygunudur.",
331
+ "command-r-plus.description": "Command R+, gerçek kurumsal senaryolar ve karmaşık uygulamalar için tasarlanmış yüksek performanslı bir büyük dil modelidir.",
332
+ "command-r.description": "Command R, sohbet ve uzun bağlam görevleri için optimize edilmiş bir büyük dil modelidir. Dinamik etkileşim ve bilgi yönetimi için idealdir.",
333
+ "command-r7b-12-2024.description": "command-r7b-12-2024, Aralık 2024’te yayınlanan küçük ve verimli bir güncellemedir. RAG, araç kullanımı ve çok adımlı akıl yürütme gerektiren ajan görevlerinde üstündür.",
334
+ "command.description": "Dil görevlerinde daha yüksek kalite ve güvenilirlik sunan, temel üretici modellerimize göre daha uzun bağlam penceresine sahip bir talimat izleme sohbet modelidir.",
335
+ "computer-use-preview.description": "computer-use-preview, \"bilgisayar kullanımı aracı\" için özel olarak eğitilmiş, bilgisayarla ilgili görevleri anlama ve yürütme yeteneğine sahip bir modeldir.",
336
+ "dall-e-2.description": "İkinci nesil DALL·E modeli, daha gerçekçi ve doğru görüntü üretimi sunar. İlk nesle göre 4 kat daha yüksek çözünürlük sağlar.",
337
+ "dall-e-3.description": "Kasım 2023’te yayınlanan en yeni DALL·E modeli, daha gerçekçi ve doğru görüntü üretimi sunar. Detaylarda daha güçlüdür.",
299
338
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modeli (LLM) olup, üretken yapay zeka fikirlerini oluşturma, deneme ve sorumlu bir şekilde ölçeklendirme süreçlerinde yardımcı olmak üzere tasarlanmıştır. Küresel topluluk inovasyonunun temel taşlarından biri olarak, sınırlı bilgi işlem gücü ve kaynaklara sahip ortamlar, uç cihazlar ve daha hızlı eğitim süreleri için uygundur.",
300
339
  "mistral-small-latest.description": "Mistral Small, çeviri, özetleme ve duygu analizi için uygun maliyetli, hızlı ve güvenilir bir seçenektir.",
301
340
  "mistral-small.description": "Mistral Small, yüksek verimlilik ve düşük gecikme gerektiren her türlü dil tabanlı görev için uygundur.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Büyük model araştırmaları ve araçları üzerine odaklanan açık kaynaklı bir organizasyon. En son modelleri ve algoritmaları erişilebilir kılan verimli ve kullanıcı dostu bir platform sağlar.",
30
30
  "jina.description": "2020 yılında kurulan Jina AI, önde gelen bir arama yapay zekası şirketidir. Vektör modelleri, yeniden sıralayıcılar ve küçük dil modelleri içeren arama yığını ile güvenilir ve yüksek kaliteli üretken ve çok modlu arama uygulamaları geliştirir.",
31
31
  "lmstudio.description": "LM Studio, bilgisayarınızda büyük dil modelleriyle geliştirme ve denemeler yapmanızı sağlayan bir masaüstü uygulamasıdır.",
32
- "lobehub.description": "LobeHub Cloud, yapay zeka modellerine erişmek için resmi API'leri kullanır ve kullanım miktarını model jetonlarına bağlı Krediler ile ölçer.",
33
32
  "minimax.description": "2021 yılında kurulan MiniMax, çok modlu temel modellerle genel amaçlı yapay zeka geliştirir. Trilyon parametreli MoE metin modelleri, ses ve görsel modellerin yanı sıra Hailuo AI gibi uygulamalar sunar.",
34
33
  "mistral.description": "Mistral, karmaşık akıl yürütme, çok dilli görevler ve kod üretimi için gelişmiş genel, özel ve araştırma modelleri sunar. Özelleştirilmiş entegrasyonlar için işlev çağrısını destekler.",
35
34
  "modelscope.description": "ModelScope, Alibaba Cloud’un model-hizmet olarak sunduğu platformudur. Geniş bir yapay zeka modeli ve çıkarım hizmeti yelpazesi sunar.",