@lobehub/lobehub 2.0.0-next.202 → 2.0.0-next.203
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/locales/ar/models.json +48 -7
- package/locales/ar/providers.json +0 -1
- package/locales/bg-BG/models.json +5 -7
- package/locales/bg-BG/providers.json +0 -1
- package/locales/de-DE/models.json +47 -6
- package/locales/de-DE/providers.json +0 -1
- package/locales/en-US/models.json +10 -10
- package/locales/en-US/providers.json +0 -1
- package/locales/es-ES/models.json +36 -10
- package/locales/es-ES/providers.json +0 -1
- package/locales/fa-IR/models.json +5 -7
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fr-FR/models.json +36 -7
- package/locales/fr-FR/providers.json +0 -1
- package/locales/it-IT/models.json +5 -7
- package/locales/it-IT/providers.json +0 -1
- package/locales/ja-JP/models.json +49 -10
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ko-KR/models.json +48 -7
- package/locales/ko-KR/providers.json +0 -1
- package/locales/nl-NL/models.json +4 -4
- package/locales/nl-NL/providers.json +0 -1
- package/locales/pl-PL/models.json +30 -5
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pt-BR/models.json +51 -6
- package/locales/pt-BR/providers.json +0 -1
- package/locales/ru-RU/models.json +5 -7
- package/locales/ru-RU/providers.json +0 -1
- package/locales/tr-TR/models.json +5 -7
- package/locales/tr-TR/providers.json +0 -1
- package/locales/vi-VN/models.json +5 -7
- package/locales/vi-VN/providers.json +0 -1
- package/locales/zh-CN/models.json +61 -6
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-TW/models.json +32 -7
- package/locales/zh-TW/providers.json +0 -1
- package/package.json +1 -1
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 고객 지원, 교육, 기술 지원과 같은 대규모 활용 사례를 위한 강력한 이해 및 생성 능력을 결합합니다.",
|
|
272
272
|
"claude-2.0.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
|
|
273
273
|
"claude-2.1.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른 모델입니다. Claude 3 Haiku에 비해 전반적인 능력이 향상되었으며, 많은 지능 벤치마크에서 이전의 최고 모델인 Claude 3 Opus를 능가합니다.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku는 가벼운 작업에 빠른 응답을 제공하는 모델입니다.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet은 Anthropic의 가장 지능적인 모델이자 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답은 물론, 사용자가 확인할 수 있는 단계별 추론도 제공합니다. Sonnet은 특히 코딩, 데이터 과학, 비전, 에이전트 작업에 강점을 보입니다.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 빠르고 정확한 성능으로 즉각적인 응답을 위해 설계되었습니다.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet은 엔터프라이즈 워크로드를 위한 지능과 속도의 균형을 제공하며, 낮은 비용으로 높은 효용성과 안정적인 대규모 배포를 지원합니다.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 확장된 추론 능력을 갖추고 있습니다.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking은 자신의 추론 과정을 드러낼 수 있는 고급 변형 모델입니다.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 탁월한 성능, 지능, 유창성, 이해력을
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 탁월한 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5는 Anthropic의 플래그십 모델로, 탁월한 지능과 확장 가능한 성능을 결합하여 최고 품질의 응답과 추론이 필요한 복잡한 작업에 이상적입니다.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking은 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 사고를 생성할 수 있습니다.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 추론을 생성할 수 있습니다.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 Anthropic이 지금까지 개발한 가장 지능적인 모델입니다.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4는 다국어 Q&A 및 코드 자동 완성을 지원하여 개발자의 생산성을 높이는 강력한 AI 코딩 도우미입니다.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B는 코드 자동 완성 및 생성, 코드 인터프리터, 웹 검색, 함수 호출, 저장소 수준의 코드 Q&A를 지원하는 다국어 코드 생성 모델로, 다양한 소프트웨어 개발 시나리오를 포괄합니다. 10B 미만 파라미터 중 최고 수준의 코드 모델입니다.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1은 복잡한 추론과 사고의 흐름(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1은 복잡한 추론과 사고의 흐름(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2는 DeepSeekMoE-27B 기반의 MoE 비전-언어 모델로, 희소 활성화를 통해 4.5B 활성 파라미터만으로도 뛰어난 성능을 발휘합니다. 시각적 질의응답, OCR, 문서/표/차트 이해, 시각적 정렬에 탁월합니다.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "일반 대화 능력과 코딩 능력을 결합한 새로운 오픈소스 모델입니다. 대화형 모델의 일반적인 대화 능력과 코더 모델의 강력한 코딩 능력을 유지하면서 선호도 정렬이 향상되었습니다. DeepSeek-V2.5는 글쓰기와 지시 따르기 능력도 개선되었습니다.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B는 2T 토큰(코드 87%, 중/영문 텍스트 13%)으로 학습된 코드 언어 모델입니다. 16K 문맥 창과 중간 채우기(fit-in-the-middle) 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 보완을 지원합니다.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2는 오픈소스 MoE 코드 모델로, GPT-4 Turbo에 필적하는 뛰어난 코딩 성능을 자랑합니다.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2는 오픈소스 MoE 코드 모델로, GPT-4 Turbo에 필적하는 뛰어난 코딩 성능을 자랑합니다.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1의 빠른 전체 버전으로, 실시간 웹 검색을 지원하며 671B 규모의 성능과 빠른 응답을 결합합니다.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 전체 버전은 671B 파라미터와 실시간 웹 검색을 지원하여 더 강력한 이해 및 생성 능력을 제공합니다.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1은 강화 학습 이전에 콜드 스타트 데이터를 사용하며, 수학, 코딩, 추론 작업에서 OpenAI-o1과 유사한 성능을 보입니다.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 추론 모드는 최종 답변 전에 사고 과정을 출력하여 정확도를 높입니다.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2는 비용 효율적인 처리를 위한 고효율 MoE 모델입니다.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B는 코드 생성에 강점을 가진 DeepSeek의 코드 특화 모델입니다.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324는 671B 파라미터의 MoE 모델로, 프로그래밍 및 기술적 역량, 문맥 이해, 장문 처리에서 뛰어난 성능을 보입니다.",
|
|
@@ -471,6 +471,47 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K는 간단한 QA, 분류, 저비용 추론을 위한 초경량 모델입니다.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K는 복잡한 추론 및 다중 턴 대화를 위한 32K 컨텍스트의 고속 사고 모델입니다.",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview는 평가 및 테스트를 위한 사고 모델 프리뷰입니다.",
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0은 ByteDance Seed에서 개발한 이미지 생성 모델로, 텍스트와 이미지 입력을 지원하며 고품질의 이미지 생성과 높은 제어력을 제공합니다. 텍스트 프롬프트로부터 이미지를 생성합니다.",
|
|
475
|
+
"fal-ai/flux-kontext/dev.description": "FLUX.1 모델은 이미지 편집에 중점을 두며, 텍스트와 이미지 입력을 지원합니다.",
|
|
476
|
+
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro]는 텍스트와 참조 이미지를 입력으로 받아, 국소 편집과 복잡한 장면 변환을 정밀하게 수행할 수 있습니다.",
|
|
477
|
+
"fal-ai/flux/krea.description": "Flux Krea [dev]는 보다 사실적이고 자연스러운 이미지 스타일에 중점을 둔 이미지 생성 모델입니다.",
|
|
478
|
+
"fal-ai/flux/schnell.description": "FLUX.1 [schnell]은 빠르고 고품질의 출력을 위해 설계된 120억 파라미터 이미지 생성 모델입니다.",
|
|
479
|
+
"fal-ai/hunyuan-image/v3.description": "강력한 네이티브 멀티모달 이미지 생성 모델입니다.",
|
|
480
|
+
"fal-ai/imagen4/preview.description": "Google에서 개발한 고품질 이미지 생성 모델입니다.",
|
|
481
|
+
"fal-ai/nano-banana.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Qwen 팀에서 개발한 전문 이미지 편집 모델로, 의미 및 외형 편집을 지원하며, 중국어 및 영어 텍스트를 정밀하게 편집하고 스타일 전환, 객체 회전 등 고품질 편집을 수행할 수 있습니다.",
|
|
483
|
+
"fal-ai/qwen-image.description": "Qwen 팀에서 개발한 강력한 이미지 생성 모델로, 중국어 텍스트 렌더링과 다양한 시각 스타일에서 뛰어난 성능을 보입니다.",
|
|
484
|
+
"flux-1-schnell.description": "Black Forest Labs에서 개발한 120억 파라미터 텍스트-이미지 모델로, 잠재 적대 확산 증류를 사용하여 1~4단계 내에 고품질 이미지를 생성합니다. 상용 모델과 경쟁하며, Apache-2.0 라이선스로 개인, 연구, 상업적 사용이 가능합니다.",
|
|
485
|
+
"flux-dev.description": "FLUX.1 [dev]는 비상업적 사용을 위한 오픈 가중치 증류 모델로, 전문가 수준의 이미지 품질과 지시 따르기를 유지하면서도 더 효율적으로 작동합니다.",
|
|
486
|
+
"flux-kontext-max.description": "최첨단 문맥 기반 이미지 생성 및 편집 모델로, 텍스트와 이미지를 결합하여 정밀하고 일관된 결과를 생성합니다.",
|
|
487
|
+
"flux-kontext-pro.description": "최첨단 문맥 기반 이미지 생성 및 편집 모델로, 텍스트와 이미지를 결합하여 정밀하고 일관된 결과를 생성합니다.",
|
|
488
|
+
"flux-merged.description": "FLUX.1-merged는 \"DEV\"의 심층 기능과 \"Schnell\"의 고속 장점을 결합하여 성능 한계를 확장하고 활용 범위를 넓혔습니다.",
|
|
489
|
+
"flux-pro-1.1-ultra.description": "4MP 해상도의 초고해상도 이미지 생성 모델로, 10초 내에 선명한 이미지를 생성합니다.",
|
|
490
|
+
"flux-pro-1.1.description": "우수한 이미지 품질과 정밀한 프롬프트 반응을 제공하는 업그레이드된 전문가급 이미지 생성 모델입니다.",
|
|
491
|
+
"flux-pro.description": "최고 수준의 상업용 이미지 생성 모델로, 탁월한 이미지 품질과 다양한 출력을 제공합니다.",
|
|
492
|
+
"flux-schnell.description": "FLUX.1 [schnell]은 가장 진보된 오픈소스 소수 단계 모델로, Midjourney v6.0 및 DALL-E 3 (HD)와 같은 강력한 비증류 모델을 능가합니다. 사전 학습의 다양성을 유지하도록 정밀하게 조정되어 시각 품질, 지시 따르기, 크기/비율 다양성, 글꼴 처리, 출력 다양성이 크게 향상되었습니다.",
|
|
493
|
+
"flux.1-schnell.description": "FLUX.1-schnell은 빠른 다중 스타일 출력을 위한 고성능 이미지 생성 모델입니다.",
|
|
494
|
+
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (튜닝)은 복잡한 작업을 위한 안정적이고 조정 가능한 성능을 제공합니다.",
|
|
495
|
+
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (튜닝)은 복잡한 작업을 위한 강력한 멀티모달 지원을 제공합니다.",
|
|
496
|
+
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro는 Google의 고성능 AI 모델로, 다양한 작업 확장에 적합하도록 설계되었습니다.",
|
|
497
|
+
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001은 광범위한 애플리케이션 확장을 위한 효율적인 멀티모달 모델입니다.",
|
|
498
|
+
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002는 대규모 배포를 위해 설계된 효율적인 멀티모달 모델입니다.",
|
|
499
|
+
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924는 텍스트 및 멀티모달 사용 사례 전반에서 눈에 띄는 향상을 보이는 최신 실험 모델입니다.",
|
|
500
|
+
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B는 대규모 배포를 위해 설계된 효율적인 멀티모달 모델입니다.",
|
|
501
|
+
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B는 광범위한 애플리케이션 확장을 위한 효율적인 멀티모달 모델입니다.",
|
|
502
|
+
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827은 복잡한 작업을 위한 최적화된 멀티모달 처리를 제공합니다.",
|
|
503
|
+
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash는 Google의 최신 멀티모달 AI 모델로, 빠른 처리 속도와 텍스트, 이미지, 비디오 입력을 지원하여 다양한 작업에 효율적으로 확장할 수 있습니다.",
|
|
504
|
+
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001은 복잡한 작업을 위한 확장 가능한 멀티모달 AI 솔루션입니다.",
|
|
505
|
+
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002는 수학, 장문 문맥, 비전 작업에서 특히 뛰어난 품질을 제공하는 최신 생산 준비 모델입니다.",
|
|
506
|
+
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801은 앱 개발을 위한 더 큰 유연성을 갖춘 강력한 멀티모달 처리를 제공합니다.",
|
|
507
|
+
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827은 보다 효율적인 멀티모달 처리를 위해 최신 최적화를 적용했습니다.",
|
|
508
|
+
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro는 최대 200만 토큰을 지원하는 중간 규모의 멀티모달 모델로, 복잡한 작업에 이상적입니다.",
|
|
509
|
+
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash는 차세대 기능을 제공하며, 뛰어난 속도, 네이티브 도구 사용, 멀티모달 생성, 100만 토큰 문맥 창을 지원합니다.",
|
|
510
|
+
"gemini-2.0-flash-exp-image-generation.description": "이미지 생성을 지원하는 Gemini 2.0 Flash 실험 모델입니다.",
|
|
511
|
+
"gemini-2.0-flash-exp.description": "비용 효율성과 낮은 지연 시간에 최적화된 Gemini 2.0 Flash 변형입니다.",
|
|
512
|
+
"gemini-2.0-flash-lite-001.description": "비용 효율성과 낮은 지연 시간에 최적화된 Gemini 2.0 Flash 변형입니다.",
|
|
513
|
+
"gemini-2.0-flash-lite.description": "비용 효율성과 낮은 지연 시간에 최적화된 Gemini 2.0 Flash 변형입니다.",
|
|
514
|
+
"gemini-2.0-flash.description": "Gemini 2.0 Flash는 차세대 기능을 제공하며, 뛰어난 속도, 네이티브 도구 사용, 멀티모달 생성, 100만 토큰 문맥 창을 지원합니다.",
|
|
474
515
|
"gemini-flash-latest.description": "Gemini Flash 최신 버전",
|
|
475
516
|
"gemini-flash-lite-latest.description": "Gemini Flash-Lite 최신 버전",
|
|
476
517
|
"gemini-pro-latest.description": "Gemini Pro 최신 버전",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "InternLM은 대규모 모델 연구 및 도구 개발에 집중하는 오픈소스 조직으로, 최신 모델과 알고리즘을 누구나 쉽게 사용할 수 있도록 효율적인 플랫폼을 제공합니다.",
|
|
30
30
|
"jina.description": "2020년에 설립된 Jina AI는 선도적인 검색 AI 기업으로, 벡터 모델, 재정렬기, 소형 언어 모델을 포함한 검색 스택을 통해 신뢰성 높고 고품질의 생성형 및 멀티모달 검색 앱을 구축합니다.",
|
|
31
31
|
"lmstudio.description": "LM Studio는 데스크탑에서 LLM을 개발하고 실험할 수 있는 애플리케이션입니다.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud는 공식 API를 사용하여 AI 모델에 접근하며, 모델 토큰에 연동된 크레딧을 통해 사용량을 측정합니다.",
|
|
33
32
|
"minimax.description": "2021년에 설립된 MiniMax는 텍스트, 음성, 비전 등 멀티모달 기반의 범용 AI를 개발하며, 조 단위 파라미터의 MoE 텍스트 모델과 Hailuo AI와 같은 앱을 제공합니다.",
|
|
34
33
|
"mistral.description": "Mistral은 복잡한 추론, 다국어 작업, 코드 생성에 적합한 고급 범용, 특화, 연구용 모델을 제공하며, 사용자 정의 통합을 위한 함수 호출 기능도 지원합니다.",
|
|
35
34
|
"modelscope.description": "ModelScope는 Alibaba Cloud의 모델 서비스 플랫폼으로, 다양한 AI 모델과 추론 서비스를 제공합니다.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt en sterke begrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic. In vergelijking met Claude 3 Haiku biedt het verbeterde vaardigheden en overtreft het het vorige topmodel Claude 3 Opus op veel intelligentietests.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku levert snelle reacties voor lichte taken.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze redeneringen tonen die zichtbaar zijn voor gebruikers. Sonnet blinkt uit in programmeren, datawetenschap, visuele taken en agenttoepassingen.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met hoge bruikbaarheid tegen lagere kosten en betrouwbare grootschalige inzet.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle prestaties en uitgebreide redeneercapaciteiten.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
284
284
|
"claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze denkprocessen tonen met een zichtbaar verloop.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 is een krachtige AI-codeassistent die meertalige Q&A en codeaanvulling ondersteunt om de productiviteit van ontwikkelaars te verhogen.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat codeaanvulling en -generatie, code-interpreter, webzoekopdrachten, functieaanroepen en Q&A op repo-niveau ondersteunt. Het dekt een breed scala aan softwareontwikkelingsscenario’s en is een topmodel onder de 10 miljard parameters.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Een open-source organisatie gericht op grootschalig modelonderzoek en tooling, met een efficiënt en gebruiksvriendelijk platform dat geavanceerde modellen en algoritmen toegankelijk maakt.",
|
|
30
30
|
"jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.",
|
|
31
31
|
"lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLM’s op je eigen computer.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud gebruikt officiële API's om toegang te krijgen tot AI-modellen en meet het gebruik met Credits die gekoppeld zijn aan modeltokens.",
|
|
33
32
|
"minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral biedt geavanceerde algemene, gespecialiseerde en onderzoeksmodellen voor complexe redenering, meertalige taken en codegeneratie, met functie-aanroepen voor aangepaste integraties.",
|
|
35
34
|
"modelscope.description": "ModelScope is het model-as-a-service platform van Alibaba Cloud, met een breed scala aan AI-modellen en inferentiediensten.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym, łączący silne rozumienie i generowanie treści w zastosowaniach na dużą skalę, takich jak obsługa klienta, edukacja i wsparcie techniczne.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic. W porównaniu do Claude 3 Haiku oferuje lepsze umiejętności i przewyższa wcześniejszy największy model Claude 3 Opus w wielu testach inteligencji.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku zapewnia szybkie odpowiedzi w lekkich zadaniach.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet to najbardziej inteligentny model Anthropic i pierwszy na rynku model hybrydowego rozumowania. Może generować niemal natychmiastowe odpowiedzi lub rozbudowane, krok po kroku rozumowanie widoczne dla użytkownika. Sonnet wyróżnia się szczególnie w programowaniu, analizie danych, przetwarzaniu obrazu i zadaniach agentowych.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model firmy Anthropic, zaprojektowany do natychmiastowych odpowiedzi z szybką i dokładną wydajnością.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus to najpotężniejszy model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet łączy inteligencję i szybkość dla obciążeń korporacyjnych, oferując wysoką użyteczność przy niższych kosztach i niezawodnym wdrażaniu na dużą skalę.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najinteligentniejszy model Haiku od Anthropic, oferujący błyskawiczne działanie i zaawansowane rozumowanie.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking to zaawansowany wariant, który może ujawniać swój proces rozumowania.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący wyjątkową inteligencję z wydajnością na dużą skalę, idealny do złożonych zadań wymagających najwyższej jakości odpowiedzi i rozumowania.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking może generować natychmiastowe odpowiedzi lub rozszerzone rozumowanie krok po kroku z widocznym procesem.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 potrafi generować niemal natychmiastowe odpowiedzi lub rozbudowane rozumowanie krok po kroku z widocznym procesem.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to najbardziej inteligentny model firmy Anthropic do tej pory.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 to potężny asystent programistyczny AI, obsługujący wielojęzyczne pytania i uzupełnianie kodu w celu zwiększenia produktywności programistów.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B to wielojęzyczny model generowania kodu obsługujący uzupełnianie i generowanie kodu, interpretację kodu, wyszukiwanie w sieci, wywoływanie funkcji i pytania na poziomie repozytorium. Obejmuje szeroki zakres scenariuszy programistycznych i jest jednym z najlepszych modeli kodu poniżej 10B parametrów.",
|
|
@@ -335,6 +335,31 @@
|
|
|
335
335
|
"computer-use-preview.description": "computer-use-preview to specjalistyczny model dla narzędzia „użycie komputera”, wytrenowany do rozumienia i wykonywania zadań związanych z komputerem.",
|
|
336
336
|
"dall-e-2.description": "Druga generacja modelu DALL·E z bardziej realistycznym i dokładnym generowaniem obrazów oraz 4× wyższą rozdzielczością niż pierwsza generacja.",
|
|
337
337
|
"dall-e-3.description": "Najnowszy model DALL·E, wydany w listopadzie 2023, oferuje bardziej realistyczne i dokładne generowanie obrazów z lepszymi szczegółami.",
|
|
338
|
+
"databricks/dbrx-instruct.description": "DBRX Instruct zapewnia niezawodne przetwarzanie instrukcji w różnych branżach.",
|
|
339
|
+
"deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR to model językowo-wizualny od DeepSeek AI skoncentrowany na OCR i „optycznej kompresji kontekstowej”. Eksploruje kompresję kontekstu z obrazów, efektywnie przetwarza dokumenty i konwertuje je na ustrukturyzowany tekst (np. Markdown). Dokładnie rozpoznaje tekst na obrazach, idealny do cyfryzacji dokumentów, ekstrakcji tekstu i przetwarzania strukturalnego.",
|
|
340
|
+
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B destyluje łańcuch rozumowania z DeepSeek-R1-0528 do Qwen3 8B Base. Osiąga SOTA wśród modeli open-source, przewyższając Qwen3 8B o 10% w AIME 2024 i dorównując wydajności Qwen3-235B-thinking. Wyróżnia się w rozumowaniu matematycznym, programowaniu i testach logiki. Dzieli architekturę Qwen3-8B, ale używa tokenizera DeepSeek-R1-0528.",
|
|
341
|
+
"deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 wykorzystuje dodatkową moc obliczeniową i optymalizacje algorytmiczne po treningu, aby pogłębić rozumowanie. Osiąga wysokie wyniki w testach matematycznych, programistycznych i logicznych, zbliżając się do liderów takich jak o3 i Gemini 2.5 Pro.",
|
|
342
|
+
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "Modele destylowane DeepSeek-R1 wykorzystują RL i dane cold-start do poprawy rozumowania i ustanawiają nowe rekordy w testach wielozadaniowych modeli open-source.",
|
|
343
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "Modele destylowane DeepSeek-R1 wykorzystują RL i dane cold-start do poprawy rozumowania i ustanawiają nowe rekordy w testach wielozadaniowych modeli open-source.",
|
|
344
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "Modele destylowane DeepSeek-R1 wykorzystują RL i dane cold-start do poprawy rozumowania i ustanawiają nowe rekordy w testach wielozadaniowych modeli open-source.",
|
|
345
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B to model destylowany z Qwen2.5-32B i dostrojony na 800 tys. starannie dobranych próbkach DeepSeek-R1. Wyróżnia się w matematyce, programowaniu i rozumowaniu, osiągając wysokie wyniki w AIME 2024, MATH-500 (94,3% trafności) i GPQA Diamond.",
|
|
346
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B to model destylowany z Qwen2.5-Math-7B i dostrojony na 800 tys. starannie dobranych próbkach DeepSeek-R1. Osiąga wysokie wyniki: 92,8% w MATH-500, 55,5% w AIME 2024 i ocenę 1189 w CodeForces dla modelu 7B.",
|
|
347
|
+
"deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 poprawia rozumowanie dzięki RL i danym cold-start, ustanawiając nowe rekordy w testach wielozadaniowych modeli open-source i przewyższając OpenAI-o1-mini.",
|
|
348
|
+
"deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 to ulepszona wersja DeepSeek-V2-Chat i DeepSeek-Coder-V2-Instruct, łącząca ogólne i programistyczne zdolności. Poprawia pisanie i wykonywanie instrukcji, lepiej dopasowując się do preferencji użytkownika, i osiąga znaczące wyniki w AlpacaEval 2.0, ArenaHard, AlignBench i MT-Bench.",
|
|
349
|
+
"deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus to zaktualizowany model V3.1 pełniący rolę hybrydowego agenta LLM. Naprawia zgłoszone przez użytkowników problemy, poprawia stabilność, spójność językową i redukuje mieszane znaki chińskie/angielskie oraz anomalie. Integruje tryby myślenia i nie-myślenia z szablonami czatu dla elastycznego przełączania. Ulepsza także działanie Code Agent i Search Agent, zapewniając bardziej niezawodne korzystanie z narzędzi i realizację zadań wieloetapowych.",
|
|
350
|
+
"deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 wykorzystuje hybrydową architekturę rozumowania i obsługuje zarówno tryby myślenia, jak i nie-myślenia.",
|
|
351
|
+
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp to eksperymentalna wersja V3.2, stanowiąca pomost do nowej architektury. Dodaje DeepSeek Sparse Attention (DSA) do V3.1-Terminus, poprawiając efektywność treningu i wnioskowania w długim kontekście, z optymalizacjami dla użycia narzędzi, rozumienia długich dokumentów i rozumowania wieloetapowego. Idealny do eksploracji wyższej efektywności rozumowania przy dużych budżetach kontekstowych.",
|
|
352
|
+
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 to model MoE z 671 miliardami parametrów, wykorzystujący MLA i DeepSeekMoE z bezstratnym równoważeniem obciążenia dla efektywnego treningu i wnioskowania. Wytrenowany na 14,8T wysokiej jakości tokenach z SFT i RL, przewyższa inne modele open-source i zbliża się do czołowych modeli zamkniętych.",
|
|
353
|
+
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) to innowacyjny model oferujący głębokie zrozumienie języka i interakcję.",
|
|
354
|
+
"deepseek-ai/deepseek-r1.description": "Nowoczesny, wydajny LLM o wysokich zdolnościach w rozumowaniu, matematyce i programowaniu.",
|
|
355
|
+
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
|
|
356
|
+
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
|
|
357
|
+
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 to model językowo-wizualny MoE oparty na DeepSeekMoE-27B z rzadką aktywacją, osiągający wysoką wydajność przy zaledwie 4,5B aktywnych parametrów. Wyróżnia się w zadaniach QA wizualnych, OCR, rozumieniu dokumentów/tabel/wykresów i ugruntowaniu wizualnym.",
|
|
358
|
+
"deepseek-chat.description": "Nowy model open-source łączący ogólne zdolności językowe i programistyczne. Zachowuje ogólny dialog modelu czatu i silne programowanie modelu kodera, z lepszym dopasowaniem do preferencji. DeepSeek-V2.5 poprawia również pisanie i wykonywanie instrukcji.",
|
|
359
|
+
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B to model języka kodu wytrenowany na 2T tokenach (87% kod, 13% tekst chiński/angielski). Wprowadza okno kontekstu 16K i zadania uzupełniania w środku, oferując uzupełnianie kodu na poziomie projektu i wypełnianie fragmentów.",
|
|
360
|
+
"deepseek-coder-v2.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
|
|
361
|
+
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
|
|
362
|
+
"deepseek-ocr.description": "DeepSeek-OCR to model językowo-wizualny od DeepSeek AI skoncentrowany na OCR i „optycznej kompresji kontekstowej”. Eksploruje kompresję informacji kontekstowych z obrazów, efektywnie przetwarza dokumenty i konwertuje je do ustrukturyzowanych formatów tekstowych, takich jak Markdown. Dokładnie rozpoznaje tekst na obrazach, idealny do cyfryzacji dokumentów, ekstrakcji tekstu i przetwarzania strukturalnego.",
|
|
338
363
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
|
|
339
364
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
|
|
340
365
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Organizacja open-source skupiona na badaniach nad dużymi modelami i narzędziach, oferująca wydajną i łatwą w użyciu platformę udostępniającą najnowsze modele i algorytmy.",
|
|
30
30
|
"jina.description": "Założona w 2020 roku, Jina AI to wiodąca firma zajmująca się wyszukiwaniem AI. Jej stos wyszukiwania obejmuje modele wektorowe, rerankery i małe modele językowe do tworzenia niezawodnych, wysokiej jakości aplikacji generatywnych i multimodalnych.",
|
|
31
31
|
"lmstudio.description": "LM Studio to aplikacja desktopowa do tworzenia i testowania LLM-ów na własnym komputerze.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud korzysta z oficjalnych interfejsów API do uzyskiwania dostępu do modeli AI i mierzy zużycie za pomocą Kredytów powiązanych z tokenami modeli.",
|
|
33
32
|
"minimax.description": "Założona w 2021 roku, MiniMax tworzy AI ogólnego przeznaczenia z multimodalnymi modelami bazowymi, w tym tekstowymi modelami MoE z bilionami parametrów, modelami mowy i wizji oraz aplikacjami takimi jak Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral oferuje zaawansowane modele ogólne, specjalistyczne i badawcze do złożonego rozumowania, zadań wielojęzycznych i generowania kodu, z obsługą wywołań funkcji do niestandardowych integracji.",
|
|
35
34
|
"modelscope.description": "ModelScope to platforma model-as-a-service Alibaba Cloud, oferująca szeroki wybór modeli AI i usług inferencyjnych.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de nova geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, ele apresenta melhorias em diversas habilidades e supera o maior modelo anterior, Claude 3 Opus, em muitos testes de inteligência.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku oferece respostas rápidas para tarefas leves.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado. Ele pode gerar respostas quase instantâneas ou realizar raciocínios passo a passo visíveis para o usuário. O Sonnet se destaca especialmente em programação, ciência de dados, visão computacional e tarefas de agentes.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligência e velocidade para cargas de trabalho empresariais, oferecendo alta utilidade com menor custo e implantação confiável em larga escala.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e raciocínio estendido.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking é uma variante avançada que pode revelar seu processo de raciocínio.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
|
|
284
284
|
"claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com desempenho excepcional em inteligência, fluência e compreensão.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou realizar raciocínios passo a passo com processo visível.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 é um assistente de codificação com IA poderoso que oferece suporte a perguntas e respostas multilíngues e autocompletar código para aumentar a produtividade dos desenvolvedores.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue que oferece suporte a autocompletar e geração de código, interpretação de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo uma ampla gama de cenários de desenvolvimento de software. É um modelo de código de alto nível com menos de 10 bilhões de parâmetros.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo aprimorado e cadeia de pensamento para tarefas de análise profunda.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo aprimorado e cadeia de pensamento para tarefas de análise profunda.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 é um modelo de visão e linguagem MoE baseado no DeepSeekMoE-27B com ativação esparsa, alcançando alto desempenho com apenas 4,5B de parâmetros ativos. Destaca-se em QA visual, OCR, compreensão de documentos/tabelas/gráficos e ancoragem visual.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "Um novo modelo de código aberto que combina habilidades gerais e de programação. Ele mantém o diálogo geral do modelo de chat e a forte capacidade de codificação do modelo de programador, com melhor alinhamento de preferências. O DeepSeek-V2.5 também melhora a escrita e o seguimento de instruções.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento no meio, oferecendo preenchimento de código em nível de projeto e inserção de trechos.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 é um modelo de código MoE de código aberto com desempenho forte em tarefas de programação, comparável ao GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 é um modelo de código MoE de código aberto com desempenho forte em tarefas de programação, comparável ao GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Versão completa rápida do DeepSeek R1 com busca em tempo real na web, combinando capacidade de 671B com respostas mais ágeis.",
|
|
379
379
|
"deepseek-r1-online.description": "Versão completa do DeepSeek R1 com 671B de parâmetros e busca em tempo real na web, oferecendo compreensão e geração mais robustas.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 utiliza dados de início a frio antes do RL e apresenta desempenho comparável ao OpenAI-o1 em matemática, programação e raciocínio.",
|
|
381
|
-
"deepseek-reasoner.description": "
|
|
381
|
+
"deepseek-reasoner.description": "O modo de raciocínio do DeepSeek V3.2 gera uma cadeia de pensamento antes da resposta final para melhorar a precisão.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 é um modelo MoE eficiente para processamento econômico.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B é o modelo da DeepSeek focado em código com forte geração de código.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 é um modelo MoE com 671B de parâmetros, com destaque em programação, capacidade técnica, compreensão de contexto e manipulação de textos longos.",
|
|
@@ -413,6 +413,51 @@
|
|
|
413
413
|
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B é destilado do Llama-3.3-70B-Instruct. Como parte da série DeepSeek-R1, é ajustado com amostras geradas pelo DeepSeek-R1 e apresenta desempenho forte em matemática, programação e raciocínio.",
|
|
414
414
|
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B é destilado do Qwen2.5-14B e ajustado com 800 mil amostras selecionadas geradas pelo DeepSeek-R1, oferecendo raciocínio robusto.",
|
|
415
415
|
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B é destilado do Qwen2.5-32B e ajustado com 800 mil amostras selecionadas geradas pelo DeepSeek-R1, destacando-se em matemática, programação e raciocínio.",
|
|
416
|
+
"devstral-2:123b.description": "Devstral 2 123B se destaca no uso de ferramentas para explorar bases de código, editar múltiplos arquivos e apoiar agentes de engenharia de software.",
|
|
417
|
+
"doubao-1.5-lite-32k.description": "Doubao-1.5-lite é um novo modelo leve com resposta ultrarrápida, oferecendo qualidade e latência de alto nível.",
|
|
418
|
+
"doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k é uma atualização abrangente do Doubao-1.5-Pro, com melhoria de 10% no desempenho geral. Suporta uma janela de contexto de 256k e até 12k tokens de saída, oferecendo maior desempenho, janela ampliada e excelente custo-benefício para casos de uso mais amplos.",
|
|
419
|
+
"doubao-1.5-pro-32k.description": "Doubao-1.5-pro é um modelo carro-chefe de nova geração com melhorias em todas as áreas, destacando-se em conhecimento, programação e raciocínio.",
|
|
420
|
+
"doubao-1.5-thinking-pro-m.description": "Doubao-1.5 é um novo modelo de raciocínio profundo (a versão m inclui raciocínio multimodal nativo) que se destaca em matemática, programação, raciocínio científico e tarefas gerais como escrita criativa. Alcança ou se aproxima de resultados de ponta em benchmarks como AIME 2024, Codeforces e GPQA. Suporta uma janela de contexto de 128k e 16k de saída.",
|
|
421
|
+
"doubao-1.5-thinking-pro.description": "Doubao-1.5 é um novo modelo de raciocínio profundo que se destaca em matemática, programação, raciocínio científico e tarefas gerais como escrita criativa. Alcança ou se aproxima de resultados de ponta em benchmarks como AIME 2024, Codeforces e GPQA. Suporta uma janela de contexto de 128k e 16k de saída.",
|
|
422
|
+
"doubao-1.5-thinking-vision-pro.description": "Um novo modelo visual de raciocínio profundo com compreensão e raciocínio multimodal mais fortes, alcançando resultados SOTA em 37 de 59 benchmarks públicos.",
|
|
423
|
+
"doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS é um modelo de agente com foco nativo em interfaces gráficas, interagindo perfeitamente com interfaces por meio de percepção, raciocínio e ação semelhantes aos humanos.",
|
|
424
|
+
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite é um modelo multimodal aprimorado que suporta imagens em qualquer resolução e proporções extremas, melhorando o raciocínio visual, reconhecimento de documentos, compreensão de detalhes e seguimento de instruções. Suporta uma janela de contexto de 128k e até 16k tokens de saída.",
|
|
425
|
+
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro é um modelo multimodal aprimorado que suporta imagens em qualquer resolução e proporções extremas, melhorando o raciocínio visual, reconhecimento de documentos, compreensão de detalhes e seguimento de instruções.",
|
|
426
|
+
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro é um modelo multimodal aprimorado que suporta imagens em qualquer resolução e proporções extremas, melhorando o raciocínio visual, reconhecimento de documentos, compreensão de detalhes e seguimento de instruções.",
|
|
427
|
+
"doubao-lite-128k.description": "Resposta ultrarrápida com melhor custo-benefício, oferecendo escolhas mais flexíveis em diversos cenários. Suporta raciocínio e ajuste fino com janela de contexto de 128k.",
|
|
428
|
+
"doubao-lite-32k.description": "Resposta ultrarrápida com melhor custo-benefício, oferecendo escolhas mais flexíveis em diversos cenários. Suporta raciocínio e ajuste fino com janela de contexto de 32k.",
|
|
429
|
+
"doubao-lite-4k.description": "Resposta ultrarrápida com melhor custo-benefício, oferecendo escolhas mais flexíveis em diversos cenários. Suporta raciocínio e ajuste fino com janela de contexto de 4k.",
|
|
430
|
+
"doubao-pro-256k.description": "O modelo carro-chefe com melhor desempenho para tarefas complexas, com resultados fortes em QA com referência, sumarização, criação, classificação de texto e simulação de papéis. Suporta raciocínio e ajuste fino com janela de contexto de 256k.",
|
|
431
|
+
"doubao-pro-32k.description": "O modelo carro-chefe com melhor desempenho para tarefas complexas, com resultados fortes em QA com referência, sumarização, criação, classificação de texto e simulação de papéis. Suporta raciocínio e ajuste fino com janela de contexto de 32k.",
|
|
432
|
+
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash é um modelo multimodal de raciocínio profundo ultrarrápido com TPOT de até 10ms. Suporta entrada de texto e imagem, supera o modelo lite anterior em compreensão de texto e se equipara a modelos pro concorrentes em visão. Suporta janela de contexto de 256k e até 16k tokens de saída.",
|
|
433
|
+
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite é um novo modelo multimodal de raciocínio profundo com esforço de raciocínio ajustável (Mínimo, Baixo, Médio, Alto), oferecendo melhor custo-benefício e uma escolha sólida para tarefas comuns, com janela de contexto de até 256k.",
|
|
434
|
+
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 fortalece significativamente o raciocínio, melhorando ainda mais as habilidades centrais em programação, matemática e raciocínio lógico em relação ao Doubao-1.5-thinking-pro, além de adicionar compreensão visual. Suporta uma janela de contexto de 256k e até 16k tokens de saída.",
|
|
435
|
+
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision é um modelo visual de raciocínio profundo que oferece compreensão e raciocínio multimodal mais fortes para educação, revisão de imagens, inspeção/segurança e perguntas e respostas com busca por IA. Suporta uma janela de contexto de 256k e até 64k tokens de saída.",
|
|
436
|
+
"doubao-seed-1.6.description": "Doubao-Seed-1.6 é um novo modelo multimodal de raciocínio profundo com modos automático, com raciocínio e sem raciocínio. No modo sem raciocínio, supera significativamente o Doubao-1.5-pro/250115. Suporta uma janela de contexto de 256k e até 16k tokens de saída.",
|
|
437
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 possui capacidades aprimoradas de compreensão multimodal e de agentes, suportando entrada de texto/imagem/vídeo e cache de contexto, oferecendo desempenho superior em tarefas complexas.",
|
|
438
|
+
"doubao-seed-code.description": "Doubao-Seed-Code é otimizado para programação com agentes, suporta entradas multimodais (texto/imagem/vídeo) e janela de contexto de 256k, compatível com a API da Anthropic, ideal para fluxos de trabalho de programação, compreensão visual e agentes.",
|
|
439
|
+
"doubao-seededit-3-0-i2i-250628.description": "O modelo de imagem Doubao da ByteDance Seed suporta entradas de texto e imagem com geração de imagem altamente controlável e de alta qualidade. Suporta edição de imagem guiada por texto, com tamanhos de saída entre 512 e 1536 no lado maior.",
|
|
440
|
+
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 é um modelo de geração de imagem da ByteDance Seed, que suporta entradas de texto e imagem com geração de imagem altamente controlável e de alta qualidade. Gera imagens a partir de comandos de texto.",
|
|
441
|
+
"doubao-seedream-4-0-250828.description": "Seedream 4.0 é um modelo de geração de imagem da ByteDance Seed, que suporta entradas de texto e imagem com geração de imagem altamente controlável e de alta qualidade. Gera imagens a partir de comandos de texto.",
|
|
442
|
+
"doubao-vision-lite-32k.description": "Doubao-vision é um modelo multimodal da Doubao com forte compreensão e raciocínio de imagens, além de seguimento preciso de instruções. Apresenta bom desempenho em tarefas de extração imagem-texto e raciocínio baseado em imagem, permitindo cenários de QA visual mais complexos e amplos.",
|
|
443
|
+
"doubao-vision-pro-32k.description": "Doubao-vision é um modelo multimodal da Doubao com forte compreensão e raciocínio de imagens, além de seguimento preciso de instruções. Apresenta bom desempenho em tarefas de extração imagem-texto e raciocínio baseado em imagem, permitindo cenários de QA visual mais complexos e amplos.",
|
|
444
|
+
"emohaa.description": "Emohaa é um modelo voltado para saúde mental com habilidades profissionais de aconselhamento para ajudar os usuários a compreender questões emocionais.",
|
|
445
|
+
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B é um modelo leve de código aberto para implantação local e personalizada.",
|
|
446
|
+
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B é um modelo de código aberto com grande número de parâmetros e melhor capacidade de compreensão e geração.",
|
|
447
|
+
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B é o modelo MoE ultra-grande da Baidu ERNIE com excelente raciocínio.",
|
|
448
|
+
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview é um modelo de pré-visualização com janela de contexto de 8K para avaliação do ERNIE 4.5.",
|
|
449
|
+
"ernie-4.5-turbo-128k-preview.description": "Pré-visualização do ERNIE 4.5 Turbo 128K com capacidades de nível de lançamento, adequado para integração e testes canário.",
|
|
450
|
+
"ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K é um modelo geral de alto desempenho com aumento de busca e chamada de ferramentas para QA, programação e cenários com agentes.",
|
|
451
|
+
"ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K é uma versão de contexto médio para QA, recuperação de base de conhecimento e diálogo de múltiplas voltas.",
|
|
452
|
+
"ernie-4.5-turbo-latest.description": "Última versão do ERNIE 4.5 Turbo com desempenho geral otimizado, ideal como modelo principal de produção.",
|
|
453
|
+
"ernie-4.5-turbo-vl-32k-preview.description": "Pré-visualização multimodal do ERNIE 4.5 Turbo VL 32K para avaliação da capacidade de visão com contexto longo.",
|
|
454
|
+
"ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K é uma versão multimodal de contexto médio-longo para compreensão combinada de documentos longos e imagens.",
|
|
455
|
+
"ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest é a versão multimodal mais recente com melhor compreensão e raciocínio imagem-texto.",
|
|
456
|
+
"ernie-4.5-turbo-vl-preview.description": "Pré-visualização multimodal do ERNIE 4.5 Turbo VL para compreensão e geração imagem-texto, adequado para QA visual e compreensão de conteúdo.",
|
|
457
|
+
"ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL é um modelo multimodal maduro para compreensão e reconhecimento imagem-texto em produção.",
|
|
458
|
+
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B é um modelo multimodal de código aberto para compreensão e raciocínio imagem-texto.",
|
|
459
|
+
"ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking é um modelo carro-chefe nativo totalmente multimodal com modelagem unificada de texto, imagem, áudio e vídeo. Oferece amplas melhorias de capacidade para QA complexo, criação e cenários com agentes.",
|
|
460
|
+
"ernie-5.0-thinking-preview.description": "Pré-visualização do Wenxin 5.0 Thinking, um modelo carro-chefe nativo totalmente multimodal com modelagem unificada de texto, imagem, áudio e vídeo. Oferece amplas melhorias de capacidade para QA complexo, criação e cenários com agentes.",
|
|
416
461
|
"meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.",
|
|
417
462
|
"mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.",
|
|
418
463
|
"mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Uma organização open-source focada em pesquisa e ferramentas para grandes modelos, oferecendo uma plataforma eficiente e fácil de usar que torna modelos e algoritmos de ponta acessíveis.",
|
|
30
30
|
"jina.description": "Fundada em 2020, a Jina AI é uma empresa líder em busca com IA. Sua pilha de busca inclui modelos vetoriais, reranqueadores e pequenos modelos de linguagem para construir aplicativos generativos e multimodais confiáveis e de alta qualidade.",
|
|
31
31
|
"lmstudio.description": "O LM Studio é um aplicativo de desktop para desenvolver e experimentar com LLMs no seu computador.",
|
|
32
|
-
"lobehub.description": "O LobeHub Cloud utiliza APIs oficiais para acessar modelos de IA e mede o uso com Créditos vinculados aos tokens dos modelos.",
|
|
33
32
|
"minimax.description": "Fundada em 2021, a MiniMax desenvolve IA de uso geral com modelos fundamentais multimodais, incluindo modelos de texto com trilhões de parâmetros, modelos de fala e visão, além de aplicativos como o Hailuo AI.",
|
|
34
33
|
"mistral.description": "A Mistral oferece modelos avançados gerais, especializados e de pesquisa para raciocínio complexo, tarefas multilíngues e geração de código, com suporte a chamadas de função para integrações personalizadas.",
|
|
35
34
|
"modelscope.description": "O ModelScope é a plataforma de modelo como serviço da Alibaba Cloud, oferecendo uma ampla gama de modelos de IA e serviços de inferência.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая сильное понимание и генерацию для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic,
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic. По сравнению с Claude 3 Haiku, она демонстрирует улучшенные навыки и превосходит предыдущую крупнейшую модель Claude 3 Opus по многим интеллектуальным метрикам.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku обеспечивает быстрые ответы для легких задач.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet — самая интеллектуальная модель от Anthropic и первая на рынке гибридная модель рассуждения. Она может мгновенно выдавать ответы или пошагово рассуждать с видимым процессом. Особенно сильна в программировании, анализе данных, компьютерном зрении и задачах для агентов.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku — самая быстрая и компактная модель от Anthropic, предназначенная для мгновенных ответов с высокой точностью и скоростью.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet сочетает интеллект и скорость для корпоративных задач, обеспечивая высокую полезность при низкой стоимости и надежное масштабируемое развертывание.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и умная модель Haiku от Anthropic, сочетающая молниеносную скорость и расширенные возможности рассуждения.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking — продвинутая версия, способная демонстрировать процесс рассуждения.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для высоко сложных задач, превосходящая в производительности, интеллекте, беглости и понимании.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 — флагманская модель от Anthropic, сочетающая выдающийся интеллект с масштабируемой производительностью, идеально подходящая для сложных задач, требующих высококачественных ответов и рассуждений.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking может выдавать как мгновенные ответы, так и пошаговое рассуждение с видимым процессом.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 может выдавать мгновенные ответы или пошаговые рассуждения с наглядным процессом.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 — самая интеллектуальная модель от Anthropic на сегодняшний день.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 — мощный AI-помощник для программирования, поддерживающий многоязычные вопросы и автодополнение кода для повышения продуктивности разработчиков.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B — многоязычная модель генерации кода, поддерживающая автодополнение, генерацию кода, интерпретацию, веб-поиск, вызов функций и вопросы по репозиториям. Охватывает широкий спектр сценариев разработки ПО и является одной из лучших моделей кода с параметрами до 10B.",
|
|
@@ -355,7 +355,6 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями сложного анализа и цепочечного мышления.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями сложного анализа и цепочечного мышления.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 — модель визуально-языкового типа MoE на базе DeepSeekMoE-27B с разреженной активацией, достигающая высокой производительности при использовании всего 4.5B активных параметров. Отличается выдающимися результатами в визуальном QA, OCR, понимании документов/таблиц/диаграмм и визуальной привязке.",
|
|
358
|
-
"deepseek-chat.description": "DeepSeek V3.2 сочетает в себе рассуждение и длину вывода для повседневных задач вопросов-ответов и агентов. На публичных бенчмарках достигает уровня GPT-5 и первым интегрирует мышление в использование инструментов, лидируя в оценках open-source агентов.",
|
|
359
358
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B — языковая модель для программирования, обученная на 2 триллионах токенов (87% кода, 13% китайского/английского текста). Поддерживает контекстное окно 16K и задачи заполнения в середине, обеспечивая автодополнение на уровне проекта и вставку фрагментов кода.",
|
|
360
359
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
|
|
361
360
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
|
|
@@ -378,7 +377,6 @@
|
|
|
378
377
|
"deepseek-r1-fast-online.description": "Полная версия DeepSeek R1 с быстрым откликом и поиском в реальном времени, сочетающая возможности масштаба 671B и высокую скорость.",
|
|
379
378
|
"deepseek-r1-online.description": "Полная версия DeepSeek R1 с 671 миллиардами параметров и поиском в реальном времени, обеспечивающая улучшенное понимание и генерацию.",
|
|
380
379
|
"deepseek-r1.description": "DeepSeek-R1 использует данные холодного старта до этапа обучения с подкреплением и демонстрирует сопоставимую с OpenAI-o1 производительность в задачах математики, программирования и логического вывода.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking — модель глубокого рассуждения, которая генерирует цепочку размышлений перед выводом для повышения точности. Демонстрирует лучшие результаты в соревнованиях и уровень рассуждения, сопоставимый с Gemini-3.0-Pro.",
|
|
382
380
|
"deepseek-v2.description": "DeepSeek V2 — это эффективная модель MoE для экономичной обработки данных.",
|
|
383
381
|
"deepseek-v2:236b.description": "DeepSeek V2 236B — модель, ориентированная на программирование, с высокой способностью к генерации кода.",
|
|
384
382
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 — модель MoE с 671 миллиардами параметров, обладающая выдающимися возможностями в программировании, техническом анализе, понимании контекста и работе с длинными текстами.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Открытая организация, сосредоточенная на исследованиях и инструментах для больших моделей, предоставляющая эффективную и удобную платформу для доступа к передовым моделям и алгоритмам.",
|
|
30
30
|
"jina.description": "Основанная в 2020 году, Jina AI — ведущая компания в области поискового ИИ. Её стек включает векторные модели, переоценщики и малые языковые модели для создания надежных генеративных и мультимодальных поисковых приложений.",
|
|
31
31
|
"lmstudio.description": "LM Studio — это настольное приложение для разработки и экспериментов с LLM на вашем компьютере.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud использует официальные API для доступа к ИИ-моделям и измеряет использование с помощью Кредитов, привязанных к токенам модели.",
|
|
33
32
|
"minimax.description": "Основанная в 2021 году, MiniMax разрабатывает универсальные ИИ-модели на базе мультимодальных основ, включая текстовые модели с триллионами параметров, речевые и визуальные модели, а также приложения, такие как Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral предлагает передовые универсальные, специализированные и исследовательские модели для сложных рассуждений, многоязычных задач и генерации кода, с поддержкой вызова функций для кастомных интеграций.",
|
|
35
34
|
"modelscope.description": "ModelScope — это платформа моделей как сервиса от Alibaba Cloud, предлагающая широкий выбор ИИ-моделей и сервисов инференса.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o, gerçek zamanlı olarak güncellenen dinamik bir modeldir. Müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli kullanım senaryoları için güçlü anlama ve üretim yeteneklerini birleştirir.",
|
|
272
272
|
"claude-2.0.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
|
|
273
273
|
"claude-2.1.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic'in en hızlı yeni nesil
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic'in en hızlı yeni nesil modelidir. Claude 3 Haiku'ya kıyasla yeteneklerinde gelişme gösterir ve birçok zeka testinde önceki en büyük model olan Claude 3 Opus'u geride bırakır.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku, hafif görevler için hızlı yanıtlar sunar.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet, Anthropic'in en zeki modeli olup piyasadaki ilk hibrit akıl yürütme modelidir. Anında yanıtlar verebilir veya kullanıcıların adım adım akıl yürütme sürecini görebileceği şekilde uzun açıklamalar sunabilir. Sonnet, özellikle kodlama, veri bilimi, görsel analiz ve ajan görevlerinde güçlüdür.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet, karmaşık görevler için Anthropic’in en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku, Anthropic’in en hızlı ve en kompakt modelidir; anında yanıtlar için hızlı ve doğru performans sunar.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus, karmaşık görevler için Anthropic’in en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet, kurumsal iş yükleri için zeka ve hızı dengeler; düşük maliyetle yüksek fayda ve güvenilir büyük ölçekli dağıtım sunar.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic'in en hızlı ve en
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic'in en hızlı ve en akıllı Haiku modelidir; yıldırım hızında çalışır ve gelişmiş akıl yürütme yeteneklerine sahiptir.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking, akıl yürütme sürecini görünür şekilde ortaya koyabilen gelişmiş bir varyanttır.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1, karmaşık görevler için Anthropic’in en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4,
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4, Anthropic'in en güçlü modelidir ve yüksek karmaşıklıktaki görevlerde üstün performans, zeka, akıcılık ve anlama kabiliyeti sunar.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5, Anthropic’in amiral gemisi modelidir; olağanüstü zeka ile ölçeklenebilir performansı birleştirir. En yüksek kaliteli yanıtlar ve akıl yürütme gerektiren karmaşık görevler için idealdir.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking, anında yanıtlar veya adım adım düşünme süreçleri üretebilir.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4,
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4, anında yanıtlar verebilir veya görünür bir süreçle adım adım düşünme sunabilir.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5, Anthropic’in bugüne kadarki en zeki modelidir.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4, geliştirici verimliliğini artırmak için çok dilli Soru-Cevap ve kod tamamlama desteği sunan güçlü bir yapay zeka kodlama asistanıdır.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B, çok dilli kod üretimi, kod tamamlama, yorumlama, web arama, fonksiyon çağırma ve depo düzeyinde kod Soru-Cevap gibi geniş yazılım geliştirme senaryolarını kapsayan bir modeldir. 10B parametrenin altındaki en üst düzey kod modellerinden biridir.",
|
|
@@ -355,7 +355,6 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir akıl yürütme modelidir.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir akıl yürütme modelidir.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2, yalnızca 4.5B aktif parametreyle güçlü performans sunan, DeepSeekMoE-27B tabanlı MoE görsel-dil modelidir. Görsel Soru-Cevap, OCR, belge/tablo/grafik anlama ve görsel eşleme konularında öne çıkar.",
|
|
358
|
-
"deepseek-chat.description": "DeepSeek V3.2, günlük Soru-Cevap ve ajan görevleri için akıl yürütme ve çıktı uzunluğu arasında denge kurar. Kamuya açık kıyaslamalarda GPT-5 seviyelerine ulaşır ve araç kullanımına düşünmeyi entegre eden ilk modeldir; bu da açık kaynaklı ajan değerlendirmelerinde öncülük etmesini sağlar.",
|
|
359
358
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B, 2T token (%%87 kod, %%13 Çince/İngilizce metin) ile eğitilmiş bir kodlama dil modelidir. 16K bağlam penceresi ve ortadan doldurma görevleri sunar, proje düzeyinde kod tamamlama ve kod parçası doldurma sağlar.",
|
|
360
359
|
"deepseek-coder-v2.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.",
|
|
361
360
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.",
|
|
@@ -378,7 +377,6 @@
|
|
|
378
377
|
"deepseek-r1-fast-online.description": "Gerçek zamanlı web aramasıyla 671B ölçekli yetenekleri ve hızlı yanıtları birleştiren DeepSeek R1 hızlı tam sürüm.",
|
|
379
378
|
"deepseek-r1-online.description": "671B parametreli ve gerçek zamanlı web aramalı DeepSeek R1 tam sürüm, güçlü anlama ve üretim sunar.",
|
|
380
379
|
"deepseek-r1.description": "DeepSeek-R1, RL öncesi soğuk başlangıç verisi kullanır ve matematik, kodlama ve akıl yürütmede OpenAI-o1 ile karşılaştırılabilir performans gösterir.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking, çıktılardan önce düşünce zinciri oluşturarak daha yüksek doğruluk sağlayan derin akıl yürütme modelidir. En iyi yarışma sonuçlarına ulaşır ve akıl yürütme yeteneği Gemini-3.0-Pro ile karşılaştırılabilir düzeydedir.",
|
|
382
380
|
"deepseek-v2.description": "DeepSeek V2, maliyet etkin işlem için verimli bir MoE modelidir.",
|
|
383
381
|
"deepseek-v2:236b.description": "DeepSeek V2 236B, güçlü kod üretimi yeteneklerine sahip DeepSeek’in kod odaklı modelidir.",
|
|
384
382
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324, programlama ve teknik yetenek, bağlam anlama ve uzun metin işleme konularında öne çıkan 671B parametreli bir MoE modelidir.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Büyük model araştırmaları ve araçları üzerine odaklanan açık kaynaklı bir organizasyon. En son modelleri ve algoritmaları erişilebilir kılan verimli ve kullanıcı dostu bir platform sağlar.",
|
|
30
30
|
"jina.description": "2020 yılında kurulan Jina AI, önde gelen bir arama yapay zekası şirketidir. Vektör modelleri, yeniden sıralayıcılar ve küçük dil modelleri içeren arama yığını ile güvenilir ve yüksek kaliteli üretken ve çok modlu arama uygulamaları geliştirir.",
|
|
31
31
|
"lmstudio.description": "LM Studio, bilgisayarınızda büyük dil modelleriyle geliştirme ve denemeler yapmanızı sağlayan bir masaüstü uygulamasıdır.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud, yapay zeka modellerine erişmek için resmi API'leri kullanır ve kullanım miktarını model jetonlarına bağlı Krediler ile ölçer.",
|
|
33
32
|
"minimax.description": "2021 yılında kurulan MiniMax, çok modlu temel modellerle genel amaçlı yapay zeka geliştirir. Trilyon parametreli MoE metin modelleri, ses ve görsel modellerin yanı sıra Hailuo AI gibi uygulamalar sunar.",
|
|
34
33
|
"mistral.description": "Mistral, karmaşık akıl yürütme, çok dilli görevler ve kod üretimi için gelişmiş genel, özel ve araştırma modelleri sunar. Özelleştirilmiş entegrasyonlar için işlev çağrısını destekler.",
|
|
35
34
|
"modelscope.description": "ModelScope, Alibaba Cloud’un model-hizmet olarak sunduğu platformudur. Geniş bir yapay zeka modeli ve çıkarım hizmeti yelpazesi sunar.",
|