@lobehub/chat 1.129.1 → 1.129.3
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +58 -0
- package/changelog/v1.json +21 -0
- package/locales/ar/models.json +248 -23
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/models.json +248 -23
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/models.json +248 -23
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/models.json +248 -23
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/models.json +248 -23
- package/locales/es-ES/providers.json +3 -0
- package/locales/fa-IR/models.json +248 -23
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fr-FR/models.json +248 -23
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/models.json +248 -23
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/models.json +248 -23
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/models.json +248 -23
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/models.json +248 -23
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/models.json +248 -23
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/models.json +248 -23
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/models.json +248 -23
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/models.json +248 -23
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/models.json +248 -23
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/models.json +248 -23
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/models.json +248 -23
- package/locales/zh-TW/providers.json +3 -0
- package/package.json +1 -1
- package/packages/database/migrations/0031_add_agent_index.sql +6 -6
- package/packages/database/src/core/migrations.json +3 -3
- package/packages/model-runtime/src/core/RouterRuntime/baseRuntimeMap.ts +2 -0
- package/packages/model-runtime/src/providers/newapi/index.ts +17 -2
- package/packages/model-runtime/src/providers/qwen/createImage.test.ts +110 -0
- package/packages/model-runtime/src/providers/qwen/createImage.ts +100 -3
|
@@ -602,6 +602,33 @@
|
|
|
602
602
|
"ai21-labs/AI21-Jamba-1.5-Mini": {
|
|
603
603
|
"description": "52B 매개변수(활성 12B)를 가진 다국어 모델로, 256K 길이의 컨텍스트 창, 함수 호출, 구조화된 출력 및 사실 기반 생성을 제공합니다."
|
|
604
604
|
},
|
|
605
|
+
"alibaba/qwen-3-14b": {
|
|
606
|
+
"description": "Qwen3는 Qwen 시리즈의 최신 세대 대형 언어 모델로, 포괄적인 밀집 및 혼합 전문가(MoE) 모델 세트를 제공합니다. 광범위한 학습을 기반으로 Qwen3는 추론, 지시 준수, 에이전트 능력 및 다국어 지원에서 획기적인 발전을 이뤘습니다."
|
|
607
|
+
},
|
|
608
|
+
"alibaba/qwen-3-235b": {
|
|
609
|
+
"description": "Qwen3는 Qwen 시리즈의 최신 세대 대형 언어 모델로, 포괄적인 밀집 및 혼합 전문가(MoE) 모델 세트를 제공합니다. 광범위한 학습을 기반으로 Qwen3는 추론, 지시 준수, 에이전트 능력 및 다국어 지원에서 획기적인 발전을 이뤘습니다."
|
|
610
|
+
},
|
|
611
|
+
"alibaba/qwen-3-30b": {
|
|
612
|
+
"description": "Qwen3는 Qwen 시리즈의 최신 세대 대형 언어 모델로, 포괄적인 밀집 및 혼합 전문가(MoE) 모델 세트를 제공합니다. 광범위한 학습을 기반으로 Qwen3는 추론, 지시 준수, 에이전트 능력 및 다국어 지원에서 획기적인 발전을 이뤘습니다."
|
|
613
|
+
},
|
|
614
|
+
"alibaba/qwen-3-32b": {
|
|
615
|
+
"description": "Qwen3는 Qwen 시리즈의 최신 세대 대형 언어 모델로, 포괄적인 밀집 및 혼합 전문가(MoE) 모델 세트를 제공합니다. 광범위한 학습을 기반으로 Qwen3는 추론, 지시 준수, 에이전트 능력 및 다국어 지원에서 획기적인 발전을 이뤘습니다."
|
|
616
|
+
},
|
|
617
|
+
"alibaba/qwen3-coder": {
|
|
618
|
+
"description": "Qwen3-Coder-480B-A35B-Instruct는 Qwen 시리즈 중 가장 에이전트 특화된 코드 모델로, 에이전트 코딩, 에이전트 브라우저 사용 및 기타 기본 코딩 작업에서 뛰어난 성능을 발휘하며 Claude Sonnet과 동등한 결과를 달성했습니다."
|
|
619
|
+
},
|
|
620
|
+
"amazon/nova-lite": {
|
|
621
|
+
"description": "매우 저비용의 멀티모달 모델로, 이미지, 비디오 및 텍스트 입력을 매우 빠르게 처리합니다."
|
|
622
|
+
},
|
|
623
|
+
"amazon/nova-micro": {
|
|
624
|
+
"description": "텍스트 전용 모델로, 매우 낮은 비용으로 최소 지연 응답을 제공합니다."
|
|
625
|
+
},
|
|
626
|
+
"amazon/nova-pro": {
|
|
627
|
+
"description": "높은 역량을 갖춘 멀티모달 모델로, 정확성, 속도 및 비용의 최적 조합을 제공하며 광범위한 작업에 적합합니다."
|
|
628
|
+
},
|
|
629
|
+
"amazon/titan-embed-text-v2": {
|
|
630
|
+
"description": "Amazon Titan Text Embeddings V2는 경량화되고 효율적인 다국어 임베딩 모델로, 1024, 512 및 256 차원을 지원합니다."
|
|
631
|
+
},
|
|
605
632
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
|
606
633
|
"description": "Claude 3.5 Sonnet는 업계 표준을 향상시켜 경쟁 모델 및 Claude 3 Opus를 초월하며, 광범위한 평가에서 뛰어난 성능을 보이고, 중간 수준 모델의 속도와 비용을 갖추고 있습니다."
|
|
607
634
|
},
|
|
@@ -627,25 +654,28 @@
|
|
|
627
654
|
"description": "Claude 2의 업데이트 버전으로, 두 배의 컨텍스트 창을 갖추고 있으며, 긴 문서 및 RAG 컨텍스트에서의 신뢰성, 환각률 및 증거 기반 정확성이 개선되었습니다."
|
|
628
655
|
},
|
|
629
656
|
"anthropic/claude-3-haiku": {
|
|
630
|
-
"description": "Claude 3 Haiku는 Anthropic의 가장
|
|
657
|
+
"description": "Claude 3 Haiku는 Anthropic의 가장 빠른 모델로, 일반적으로 긴 프롬프트가 필요한 기업 워크로드에 최적화되어 있습니다. Haiku는 분기별 문서, 계약서 또는 법률 사건과 같은 대량 문서를 신속히 분석하며, 비용은 동급 성능 모델의 절반 수준입니다."
|
|
631
658
|
},
|
|
632
659
|
"anthropic/claude-3-opus": {
|
|
633
|
-
"description": "Claude 3 Opus는 Anthropic
|
|
660
|
+
"description": "Claude 3 Opus는 Anthropic의 가장 지능적인 모델로, 매우 복잡한 작업에서 시장 선도적인 성능을 보입니다. 탁월한 유창성과 인간과 유사한 이해력을 바탕으로 개방형 프롬프트와 전례 없는 시나리오를 능숙하게 처리합니다."
|
|
634
661
|
},
|
|
635
662
|
"anthropic/claude-3.5-haiku": {
|
|
636
|
-
"description": "Claude 3.5 Haiku는
|
|
663
|
+
"description": "Claude 3.5 Haiku는 가장 빠른 모델의 차세대 버전입니다. Claude 3 Haiku와 유사한 속도를 유지하면서 모든 기술 영역에서 개선되었으며, 많은 지능 벤치마크에서 이전 세대 최대 모델인 Claude 3 Opus를 능가합니다."
|
|
637
664
|
},
|
|
638
665
|
"anthropic/claude-3.5-sonnet": {
|
|
639
|
-
"description": "Claude 3.5 Sonnet은
|
|
666
|
+
"description": "Claude 3.5 Sonnet은 지능과 속도 사이의 이상적인 균형을 이룹니다—특히 기업 워크로드에 적합합니다. 동급 제품 대비 낮은 비용으로 강력한 성능을 제공하며, 대규모 AI 배포에서 높은 내구성을 위해 설계되었습니다."
|
|
640
667
|
},
|
|
641
668
|
"anthropic/claude-3.7-sonnet": {
|
|
642
|
-
"description": "Claude 3.7 Sonnet은
|
|
669
|
+
"description": "Claude 3.7 Sonnet은 최초의 혼합 추론 모델이자 Anthropic의 가장 지능적인 모델입니다. 코딩, 콘텐츠 생성, 데이터 분석 및 계획 작업에서 최첨단 성능을 제공하며, 이전 모델인 Claude 3.5 Sonnet의 소프트웨어 엔지니어링 및 컴퓨터 활용 능력을 기반으로 구축되었습니다."
|
|
643
670
|
},
|
|
644
671
|
"anthropic/claude-opus-4": {
|
|
645
|
-
"description": "Claude Opus 4는 Anthropic에서
|
|
672
|
+
"description": "Claude Opus 4는 Anthropic의 가장 강력한 모델이자 세계 최고의 코딩 모델로, SWE-bench(72.5%) 및 Terminal-bench(43.2%)에서 선두를 달리고 있습니다. 수천 단계가 필요한 장기 작업에 지속적인 성능을 제공하며, 수시간 연속 작업이 가능해 AI 에이전트의 능력을 크게 확장합니다."
|
|
673
|
+
},
|
|
674
|
+
"anthropic/claude-opus-4.1": {
|
|
675
|
+
"description": "Claude Opus 4.1은 Opus 4의 플러그 앤 플레이 대체 모델로, 실제 코딩 및 에이전트 작업에서 뛰어난 성능과 정확도를 제공합니다. Opus 4.1은 SWE-bench Verified에서 74.5%의 최첨단 코딩 성능을 달성했으며, 복잡한 다단계 문제를 더 엄격하고 세밀하게 처리합니다."
|
|
646
676
|
},
|
|
647
677
|
"anthropic/claude-sonnet-4": {
|
|
648
|
-
"description": "Claude Sonnet 4는
|
|
678
|
+
"description": "Claude Sonnet 4는 Sonnet 3.7의 업계 선도 능력을 크게 향상시켰으며, 코딩에서 뛰어난 성능을 보이고 SWE-bench에서 최첨단 72.7%를 달성했습니다. 이 모델은 성능과 효율성 사이의 균형을 이루며, 내부 및 외부 사용 사례에 적합하고 향상된 제어성을 통해 구현에 대한 더 큰 통제를 제공합니다."
|
|
649
679
|
},
|
|
650
680
|
"ascend-tribe/pangu-pro-moe": {
|
|
651
681
|
"description": "Pangu-Pro-MoE 72B-A16B는 720억 개의 파라미터와 160억 활성 파라미터를 가진 희소 대형 언어 모델로, 그룹 혼합 전문가(MoGE) 아키텍처를 기반으로 합니다. 전문가 선택 단계에서 전문가를 그룹화하고 각 그룹 내에서 토큰이 동일 수의 전문가를 활성화하도록 제한하여 전문가 부하 균형을 달성함으로써 Ascend 플랫폼에서의 모델 배포 효율성을 크게 향상시켰습니다."
|
|
@@ -797,6 +827,18 @@
|
|
|
797
827
|
"cohere/Cohere-command-r-plus": {
|
|
798
828
|
"description": "Command R+는 최첨단 RAG 최적화 모델로, 기업용 워크로드에 대응하도록 설계되었습니다."
|
|
799
829
|
},
|
|
830
|
+
"cohere/command-a": {
|
|
831
|
+
"description": "Command A는 Cohere의 가장 강력한 모델로, 도구 사용, 에이전트, 검색 강화 생성(RAG) 및 다국어 사용 사례에서 뛰어난 성능을 보입니다. Command A는 256K의 컨텍스트 길이를 가지며, 단 두 개의 GPU로 실행 가능하고 Command R+ 08-2024 대비 처리량이 150% 향상되었습니다."
|
|
832
|
+
},
|
|
833
|
+
"cohere/command-r": {
|
|
834
|
+
"description": "Command R은 대화 상호작용 및 긴 컨텍스트 작업에 최적화된 대형 언어 모델입니다. '확장 가능' 범주에 속하며, 높은 성능과 강력한 정확성 사이의 균형을 이루어 기업이 개념 증명을 넘어 생산 단계로 나아갈 수 있도록 지원합니다."
|
|
835
|
+
},
|
|
836
|
+
"cohere/command-r-plus": {
|
|
837
|
+
"description": "Command R+는 Cohere의 최신 대형 언어 모델로, 대화 상호작용 및 긴 컨텍스트 작업에 최적화되어 있습니다. 성능 면에서 매우 뛰어나 기업이 개념 증명을 넘어 생산 단계로 진입할 수 있도록 설계되었습니다."
|
|
838
|
+
},
|
|
839
|
+
"cohere/embed-v4.0": {
|
|
840
|
+
"description": "텍스트, 이미지 또는 혼합 콘텐츠를 분류하거나 임베딩으로 변환할 수 있는 모델입니다."
|
|
841
|
+
},
|
|
800
842
|
"command": {
|
|
801
843
|
"description": "지시를 따르는 대화 모델로, 언어 작업에서 높은 품질과 신뢰성을 제공하며, 우리의 기본 생성 모델에 비해 더 긴 컨텍스트 길이를 가지고 있습니다."
|
|
802
844
|
},
|
|
@@ -975,7 +1017,7 @@
|
|
|
975
1017
|
"description": "DeepSeek-V3.1은 128K 긴 컨텍스트와 효율적인 모드 전환을 지원하는 대형 하이브리드 추론 모델로, 도구 호출, 코드 생성 및 복잡한 추론 작업에서 탁월한 성능과 속도를 구현했습니다."
|
|
976
1018
|
},
|
|
977
1019
|
"deepseek/deepseek-r1": {
|
|
978
|
-
"description": "DeepSeek-R1은
|
|
1020
|
+
"description": "DeepSeek R1 모델은 소규모 버전 업그레이드를 거쳐 현재 버전은 DeepSeek-R1-0528입니다. 최신 업데이트에서 DeepSeek R1은 증가된 계산 자원과 학습 후 도입된 알고리즘 최적화 메커니즘을 활용하여 추론 깊이와 능력을 크게 향상시켰습니다. 이 모델은 수학, 프로그래밍 및 일반 논리 등 여러 벤치마크에서 뛰어난 성능을 보이며, 전체 성능은 현재 O3 및 Gemini 2.5 Pro와 같은 선도 모델에 근접합니다."
|
|
979
1021
|
},
|
|
980
1022
|
"deepseek/deepseek-r1-0528": {
|
|
981
1023
|
"description": "DeepSeek-R1은 매우 적은 라벨 데이터만으로도 모델 추론 능력을 크게 향상시켰습니다. 최종 답변 출력 전에 모델이 사고 과정(chain-of-thought)을 먼저 출력하여 최종 답변의 정확도를 높입니다."
|
|
@@ -984,7 +1026,7 @@
|
|
|
984
1026
|
"description": "DeepSeek-R1은 매우 적은 라벨 데이터만으로도 모델 추론 능력을 크게 향상시켰습니다. 최종 답변 출력 전에 모델이 사고 과정(chain-of-thought)을 먼저 출력하여 최종 답변의 정확도를 높입니다."
|
|
985
1027
|
},
|
|
986
1028
|
"deepseek/deepseek-r1-distill-llama-70b": {
|
|
987
|
-
"description": "DeepSeek
|
|
1029
|
+
"description": "DeepSeek-R1-Distill-Llama-70B는 70B Llama 모델의 증류 및 더 효율적인 변형입니다. 텍스트 생성 작업에서 강력한 성능을 유지하면서 배포 및 연구를 위한 계산 비용을 줄였습니다. Groq의 맞춤형 언어 처리 유닛(LPU) 하드웨어를 사용하여 빠르고 효율적인 추론을 제공합니다."
|
|
988
1030
|
},
|
|
989
1031
|
"deepseek/deepseek-r1-distill-llama-8b": {
|
|
990
1032
|
"description": "DeepSeek R1 Distill Llama 8B는 Llama-3.1-8B-Instruct를 기반으로 한 증류 대형 언어 모델로, DeepSeek R1의 출력을 사용하여 훈련되었습니다."
|
|
@@ -1002,7 +1044,10 @@
|
|
|
1002
1044
|
"description": "DeepSeek-R1은 극히 적은 주석 데이터로 모델의 추론 능력을 크게 향상시킵니다. 최종 답변을 출력하기 전에 모델은 먼저 사고의 연쇄 내용을 출력하여 최종 답변의 정확성을 높입니다."
|
|
1003
1045
|
},
|
|
1004
1046
|
"deepseek/deepseek-v3": {
|
|
1005
|
-
"description": "
|
|
1047
|
+
"description": "향상된 추론 능력을 갖춘 빠르고 범용적인 대형 언어 모델입니다."
|
|
1048
|
+
},
|
|
1049
|
+
"deepseek/deepseek-v3.1-base": {
|
|
1050
|
+
"description": "DeepSeek V3.1 Base는 DeepSeek V3 모델의 개선된 버전입니다."
|
|
1006
1051
|
},
|
|
1007
1052
|
"deepseek/deepseek-v3/community": {
|
|
1008
1053
|
"description": "DeepSeek-V3는 추론 속도에서 이전 모델에 비해 중대한 돌파구를 이루었습니다. 오픈 소스 모델 중 1위를 차지하며, 세계에서 가장 진보된 폐쇄형 모델과 견줄 수 있습니다. DeepSeek-V3는 다중 헤드 잠재 주의(Multi-Head Latent Attention, MLA)와 DeepSeekMoE 아키텍처를 채택하였으며, 이 아키텍처는 DeepSeek-V2에서 철저히 검증되었습니다. 또한, DeepSeek-V3는 부하 균형을 위한 보조 무손실 전략을 개척하고, 더 강력한 성능을 위해 다중 레이블 예측 훈련 목표를 설정했습니다."
|
|
@@ -1430,18 +1475,27 @@
|
|
|
1430
1475
|
"glm-zero-preview": {
|
|
1431
1476
|
"description": "GLM-Zero-Preview는 강력한 복잡한 추론 능력을 갖추고 있으며, 논리 추론, 수학, 프로그래밍 등 분야에서 우수한 성능을 발휘합니다."
|
|
1432
1477
|
},
|
|
1478
|
+
"google/gemini-2.0-flash": {
|
|
1479
|
+
"description": "Gemini 2.0 Flash는 차세대 기능과 개선된 성능을 제공하며, 뛰어난 속도, 내장 도구 사용, 멀티모달 생성 및 100만 토큰의 컨텍스트 윈도우를 지원합니다."
|
|
1480
|
+
},
|
|
1433
1481
|
"google/gemini-2.0-flash-001": {
|
|
1434
1482
|
"description": "Gemini 2.0 Flash는 뛰어난 속도, 원주율 도구 사용, 다중 모달 생성 및 1M 토큰 문맥 창을 포함한 차세대 기능과 개선 사항을 제공합니다."
|
|
1435
1483
|
},
|
|
1436
1484
|
"google/gemini-2.0-flash-exp:free": {
|
|
1437
1485
|
"description": "Gemini 2.0 Flash Experimental은 Google의 최신 실험적 다중 모달 AI 모델로, 역사적 버전과 비교하여 품질이 향상되었으며, 특히 세계 지식, 코드 및 긴 맥락에 대해 개선되었습니다."
|
|
1438
1486
|
},
|
|
1487
|
+
"google/gemini-2.0-flash-lite": {
|
|
1488
|
+
"description": "Gemini 2.0 Flash Lite는 차세대 기능과 개선된 성능을 제공하며, 뛰어난 속도, 내장 도구 사용, 멀티모달 생성 및 100만 토큰의 컨텍스트 윈도우를 지원합니다."
|
|
1489
|
+
},
|
|
1439
1490
|
"google/gemini-2.5-flash": {
|
|
1440
|
-
"description": "Gemini 2.5 Flash는
|
|
1491
|
+
"description": "Gemini 2.5 Flash는 사고 모델로서 뛰어난 종합 능력을 제공합니다. 가격과 성능의 균형을 목표로 하며, 멀티모달 및 100만 토큰의 컨텍스트 윈도우를 지원합니다."
|
|
1441
1492
|
},
|
|
1442
1493
|
"google/gemini-2.5-flash-image-preview": {
|
|
1443
1494
|
"description": "Gemini 2.5 Flash 실험 모델로, 이미지 생성을 지원합니다."
|
|
1444
1495
|
},
|
|
1496
|
+
"google/gemini-2.5-flash-lite": {
|
|
1497
|
+
"description": "Gemini 2.5 Flash-Lite는 균형 잡힌 저지연 모델로, 구성 가능한 사고 예산과 도구 연결성(예: Google 검색 기반 및 코드 실행)을 제공합니다. 멀티모달 입력을 지원하며 100만 토큰의 컨텍스트 윈도우를 제공합니다."
|
|
1498
|
+
},
|
|
1445
1499
|
"google/gemini-2.5-flash-preview": {
|
|
1446
1500
|
"description": "Gemini 2.5 Flash는 Google의 최첨단 주력 모델로, 고급 추론, 코딩, 수학 및 과학 작업을 위해 설계되었습니다. 내장된 '사고' 능력을 포함하고 있어 더 높은 정확성과 세밀한 맥락 처리를 통해 응답을 제공합니다.\n\n주의: 이 모델에는 두 가지 변형이 있습니다: 사고 및 비사고. 출력 가격은 사고 능력이 활성화되었는지 여부에 따라 크게 다릅니다. 표준 변형(‘:thinking’ 접미사가 없는)을 선택하면 모델이 사고 토큰 생성을 명확히 피합니다.\n\n사고 능력을 활용하고 사고 토큰을 수신하려면 ‘:thinking’ 변형을 선택해야 하며, 이는 더 높은 사고 출력 가격을 발생시킵니다.\n\n또한, Gemini 2.5 Flash는 문서에 설명된 대로 '추론 최대 토큰 수' 매개변수를 통해 구성할 수 있습니다 (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
|
1447
1501
|
},
|
|
@@ -1449,11 +1503,14 @@
|
|
|
1449
1503
|
"description": "Gemini 2.5 Flash는 Google의 최첨단 주력 모델로, 고급 추론, 코딩, 수학 및 과학 작업을 위해 설계되었습니다. 내장된 '사고' 능력을 포함하고 있어 더 높은 정확성과 세밀한 맥락 처리를 통해 응답을 제공합니다.\n\n주의: 이 모델에는 두 가지 변형이 있습니다: 사고 및 비사고. 출력 가격은 사고 능력이 활성화되었는지 여부에 따라 크게 다릅니다. 표준 변형(‘:thinking’ 접미사가 없는)을 선택하면 모델이 사고 토큰 생성을 명확히 피합니다.\n\n사고 능력을 활용하고 사고 토큰을 수신하려면 ‘:thinking’ 변형을 선택해야 하며, 이는 더 높은 사고 출력 가격을 발생시킵니다.\n\n또한, Gemini 2.5 Flash는 문서에 설명된 대로 '추론 최대 토큰 수' 매개변수를 통해 구성할 수 있습니다 (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
|
|
1450
1504
|
},
|
|
1451
1505
|
"google/gemini-2.5-pro": {
|
|
1452
|
-
"description": "Gemini 2.5 Pro는
|
|
1506
|
+
"description": "Gemini 2.5 Pro는 가장 진보된 추론 Gemini 모델로, 복잡한 문제 해결이 가능합니다. 200만 토큰의 컨텍스트 윈도우를 가지며, 텍스트, 이미지, 오디오, 비디오 및 PDF 문서를 포함한 멀티모달 입력을 지원합니다."
|
|
1453
1507
|
},
|
|
1454
1508
|
"google/gemini-2.5-pro-preview": {
|
|
1455
1509
|
"description": "Gemini 2.5 Pro Preview는 Google의 최첨단 사고 모델로, 코드, 수학 및 STEM 분야의 복잡한 문제를 추론할 수 있으며, 긴 문맥을 사용하여 대규모 데이터 세트, 코드베이스 및 문서를 분석할 수 있습니다."
|
|
1456
1510
|
},
|
|
1511
|
+
"google/gemini-embedding-001": {
|
|
1512
|
+
"description": "최첨단 임베딩 모델로, 영어, 다국어 및 코드 작업에서 뛰어난 성능을 보입니다."
|
|
1513
|
+
},
|
|
1457
1514
|
"google/gemini-flash-1.5": {
|
|
1458
1515
|
"description": "Gemini 1.5 Flash는 최적화된 다중 모달 처리 능력을 제공하며, 다양한 복잡한 작업 시나리오에 적합합니다."
|
|
1459
1516
|
},
|
|
@@ -1490,6 +1547,12 @@
|
|
|
1490
1547
|
"google/gemma-3-27b-it": {
|
|
1491
1548
|
"description": "Gemma 3 27B는 구글의 오픈 소스 언어 모델로, 효율성과 성능 면에서 새로운 기준을 세웠습니다."
|
|
1492
1549
|
},
|
|
1550
|
+
"google/text-embedding-005": {
|
|
1551
|
+
"description": "코드 및 영어 언어 작업에 최적화된 영어 중심 텍스트 임베딩 모델입니다."
|
|
1552
|
+
},
|
|
1553
|
+
"google/text-multilingual-embedding-002": {
|
|
1554
|
+
"description": "다국어 작업에 최적화된 다국어 텍스트 임베딩 모델로, 다양한 언어를 지원합니다."
|
|
1555
|
+
},
|
|
1493
1556
|
"gpt-3.5-turbo": {
|
|
1494
1557
|
"description": "GPT 3.5 Turbo는 다양한 텍스트 생성 및 이해 작업에 적합하며, 현재 gpt-3.5-turbo-0125를 가리킵니다."
|
|
1495
1558
|
},
|
|
@@ -1781,6 +1844,9 @@
|
|
|
1781
1844
|
"imagen-4.0-ultra-generate-preview-06-06": {
|
|
1782
1845
|
"description": "Imagen 4세대 텍스트-이미지 모델 시리즈 울트라 버전"
|
|
1783
1846
|
},
|
|
1847
|
+
"inception/mercury-coder-small": {
|
|
1848
|
+
"description": "Mercury Coder Small은 코드 생성, 디버깅 및 리팩토링 작업에 이상적이며, 최소 지연 시간을 자랑합니다."
|
|
1849
|
+
},
|
|
1784
1850
|
"inclusionAI/Ling-mini-2.0": {
|
|
1785
1851
|
"description": "Ling-mini-2.0은 MoE 아키텍처 기반의 소형 고성능 대형 언어 모델입니다. 총 160억 개의 파라미터를 보유하고 있지만, 각 토큰당 활성화되는 파라미터는 14억(비임베딩 7억 8,900만)으로 매우 높은 생성 속도를 자랑합니다. 효율적인 MoE 설계와 대규모 고품질 학습 데이터 덕분에, 활성화 파라미터가 14억에 불과함에도 불구하고 Ling-mini-2.0은 하위 작업에서 100억 이하의 dense LLM 및 더 큰 규모의 MoE 모델과 견줄 만한 최상위 성능을 보여줍니다."
|
|
1786
1852
|
},
|
|
@@ -2057,30 +2123,63 @@
|
|
|
2057
2123
|
"meta/Meta-Llama-3.1-8B-Instruct": {
|
|
2058
2124
|
"description": "Llama 3.1 지침 조정 텍스트 모델로, 다국어 대화 사례에 최적화되어 있으며, 다수의 오픈소스 및 폐쇄형 챗 모델 중에서 일반 산업 벤치마크에서 우수한 성능을 보입니다."
|
|
2059
2125
|
},
|
|
2126
|
+
"meta/llama-3-70b": {
|
|
2127
|
+
"description": "Meta에서 지시 준수 목적을 위해 정교하게 조정한 700억 매개변수 오픈소스 모델입니다. Groq의 맞춤형 언어 처리 유닛(LPU) 하드웨어를 사용하여 빠르고 효율적인 추론을 제공합니다."
|
|
2128
|
+
},
|
|
2129
|
+
"meta/llama-3-8b": {
|
|
2130
|
+
"description": "Meta에서 지시 준수 목적을 위해 정교하게 조정한 80억 매개변수 오픈소스 모델입니다. Groq의 맞춤형 언어 처리 유닛(LPU) 하드웨어를 사용하여 빠르고 효율적인 추론을 제공합니다."
|
|
2131
|
+
},
|
|
2060
2132
|
"meta/llama-3.1-405b-instruct": {
|
|
2061
2133
|
"description": "합성 데이터 생성, 지식 증류 및 추론을 지원하는 고급 LLM으로, 챗봇, 프로그래밍 및 특정 분야 작업에 적합합니다."
|
|
2062
2134
|
},
|
|
2135
|
+
"meta/llama-3.1-70b": {
|
|
2136
|
+
"description": "Meta Llama 3 70B Instruct의 업데이트 버전으로, 확장된 128K 컨텍스트 길이, 다국어 및 향상된 추론 능력을 포함합니다."
|
|
2137
|
+
},
|
|
2063
2138
|
"meta/llama-3.1-70b-instruct": {
|
|
2064
2139
|
"description": "복잡한 대화를 가능하게 하며, 뛰어난 맥락 이해, 추론 능력 및 텍스트 생성 능력을 갖추고 있습니다."
|
|
2065
2140
|
},
|
|
2141
|
+
"meta/llama-3.1-8b": {
|
|
2142
|
+
"description": "Llama 3.1 8B는 128K 컨텍스트 윈도우를 지원하여 실시간 대화 인터페이스 및 데이터 분석에 이상적이며, 더 큰 모델 대비 상당한 비용 절감을 제공합니다. Groq의 맞춤형 언어 처리 유닛(LPU) 하드웨어를 사용하여 빠르고 효율적인 추론을 제공합니다."
|
|
2143
|
+
},
|
|
2066
2144
|
"meta/llama-3.1-8b-instruct": {
|
|
2067
2145
|
"description": "언어 이해, 뛰어난 추론 능력 및 텍스트 생성 능력을 갖춘 고급 최첨단 모델입니다."
|
|
2068
2146
|
},
|
|
2147
|
+
"meta/llama-3.2-11b": {
|
|
2148
|
+
"description": "지시 조정된 이미지 추론 생성 모델(텍스트 + 이미지 입력 / 텍스트 출력)로, 시각 인식, 이미지 추론, 캡션 생성 및 이미지 관련 일반 질문 응답에 최적화되어 있습니다."
|
|
2149
|
+
},
|
|
2069
2150
|
"meta/llama-3.2-11b-vision-instruct": {
|
|
2070
2151
|
"description": "이미지에서 고품질 추론을 수행하는 최첨단 비주얼-언어 모델입니다."
|
|
2071
2152
|
},
|
|
2153
|
+
"meta/llama-3.2-1b": {
|
|
2154
|
+
"description": "텍스트 전용 모델로, 다국어 로컬 지식 검색, 요약 및 재작성과 같은 장치 내 사용 사례를 지원합니다."
|
|
2155
|
+
},
|
|
2072
2156
|
"meta/llama-3.2-1b-instruct": {
|
|
2073
2157
|
"description": "언어 이해, 뛰어난 추론 능력 및 텍스트 생성 능력을 갖춘 최첨단 소형 언어 모델입니다."
|
|
2074
2158
|
},
|
|
2159
|
+
"meta/llama-3.2-3b": {
|
|
2160
|
+
"description": "텍스트 전용 모델로, 다국어 로컬 지식 검색, 요약 및 재작성과 같은 장치 내 사용 사례를 위해 정교하게 조정되었습니다."
|
|
2161
|
+
},
|
|
2075
2162
|
"meta/llama-3.2-3b-instruct": {
|
|
2076
2163
|
"description": "언어 이해, 뛰어난 추론 능력 및 텍스트 생성 능력을 갖춘 최첨단 소형 언어 모델입니다."
|
|
2077
2164
|
},
|
|
2165
|
+
"meta/llama-3.2-90b": {
|
|
2166
|
+
"description": "지시 조정된 이미지 추론 생성 모델(텍스트 + 이미지 입력 / 텍스트 출력)로, 시각 인식, 이미지 추론, 캡션 생성 및 이미지 관련 일반 질문 응답에 최적화되어 있습니다."
|
|
2167
|
+
},
|
|
2078
2168
|
"meta/llama-3.2-90b-vision-instruct": {
|
|
2079
2169
|
"description": "이미지에서 고품질 추론을 수행하는 최첨단 비주얼-언어 모델입니다."
|
|
2080
2170
|
},
|
|
2171
|
+
"meta/llama-3.3-70b": {
|
|
2172
|
+
"description": "성능과 효율성의 완벽한 조합입니다. 이 모델은 고성능 대화형 AI를 지원하며, 콘텐츠 생성, 기업 애플리케이션 및 연구에 적합합니다. 텍스트 요약, 분류, 감정 분석 및 코드 생성 등 최첨단 언어 이해 능력을 제공합니다."
|
|
2173
|
+
},
|
|
2081
2174
|
"meta/llama-3.3-70b-instruct": {
|
|
2082
2175
|
"description": "추론, 수학, 상식 및 함수 호출에 능숙한 고급 LLM입니다."
|
|
2083
2176
|
},
|
|
2177
|
+
"meta/llama-4-maverick": {
|
|
2178
|
+
"description": "Llama 4 모델군은 본래 멀티모달 AI 모델로, 텍스트 및 멀티모달 경험을 지원합니다. 이 모델들은 혼합 전문가 아키텍처를 활용하여 텍스트 및 이미지 이해에서 업계 선도적인 성능을 제공합니다. Llama 4 Maverick은 170억 매개변수와 128명의 전문가를 갖춘 모델로, DeepInfra에서 서비스됩니다."
|
|
2179
|
+
},
|
|
2180
|
+
"meta/llama-4-scout": {
|
|
2181
|
+
"description": "Llama 4 모델군은 본래 멀티모달 AI 모델로, 텍스트 및 멀티모달 경험을 지원합니다. 이 모델들은 혼합 전문가 아키텍처를 활용하여 텍스트 및 이미지 이해에서 업계 선도적인 성능을 제공합니다. Llama 4 Scout는 170억 매개변수와 16명의 전문가를 갖춘 모델로, DeepInfra에서 서비스됩니다."
|
|
2182
|
+
},
|
|
2084
2183
|
"microsoft/Phi-3-medium-128k-instruct": {
|
|
2085
2184
|
"description": "동일한 Phi-3-medium 모델이지만 더 큰 컨텍스트 크기를 제공하여 RAG 또는 소량 프롬프트에 적합합니다."
|
|
2086
2185
|
},
|
|
@@ -2156,6 +2255,48 @@
|
|
|
2156
2255
|
"mistral-small-latest": {
|
|
2157
2256
|
"description": "Mistral Small은 번역, 요약 및 감정 분석과 같은 사용 사례에 적합한 비용 효율적이고 빠르며 신뢰할 수 있는 옵션입니다."
|
|
2158
2257
|
},
|
|
2258
|
+
"mistral/codestral": {
|
|
2259
|
+
"description": "Mistral Codestral 25.01은 최첨단 코딩 모델로, 저지연 및 고빈도 사용 사례에 최적화되어 있습니다. 80개 이상의 프로그래밍 언어에 능통하며, 중간 채우기(FIM), 코드 수정 및 테스트 생성 작업에서 뛰어난 성능을 보입니다."
|
|
2260
|
+
},
|
|
2261
|
+
"mistral/codestral-embed": {
|
|
2262
|
+
"description": "코딩 어시스턴트를 지원하기 위해 코드 데이터베이스 및 저장소에 임베딩할 수 있는 코드 임베딩 모델입니다."
|
|
2263
|
+
},
|
|
2264
|
+
"mistral/devstral-small": {
|
|
2265
|
+
"description": "Devstral은 소프트웨어 엔지니어링 작업을 위한 에이전트 대형 언어 모델로, 소프트웨어 엔지니어링 에이전트에 이상적입니다."
|
|
2266
|
+
},
|
|
2267
|
+
"mistral/magistral-medium": {
|
|
2268
|
+
"description": "복잡한 사고를 지원하는 깊은 이해를 바탕으로, 투명한 추론을 제공하여 사용자가 따라가고 검증할 수 있습니다. 작업 중간에 언어를 전환해도 여러 언어에서 높은 충실도의 추론을 유지합니다."
|
|
2269
|
+
},
|
|
2270
|
+
"mistral/magistral-small": {
|
|
2271
|
+
"description": "복잡한 사고를 지원하는 깊은 이해를 바탕으로, 투명한 추론을 제공하여 사용자가 따라가고 검증할 수 있습니다. 작업 중간에 언어를 전환해도 여러 언어에서 높은 충실도의 추론을 유지합니다."
|
|
2272
|
+
},
|
|
2273
|
+
"mistral/ministral-3b": {
|
|
2274
|
+
"description": "스마트 어시스턴트 및 로컬 분석과 같은 장치 내 작업을 위한 컴팩트하고 효율적인 모델로, 낮은 지연 성능을 제공합니다."
|
|
2275
|
+
},
|
|
2276
|
+
"mistral/ministral-8b": {
|
|
2277
|
+
"description": "더 강력한 모델로, 더 빠르고 메모리 효율적인 추론을 제공하여 복잡한 워크플로우 및 까다로운 엣지 애플리케이션에 이상적입니다."
|
|
2278
|
+
},
|
|
2279
|
+
"mistral/mistral-embed": {
|
|
2280
|
+
"description": "의미 검색, 유사성, 클러스터링 및 RAG 워크플로우에 사용되는 범용 텍스트 임베딩 모델입니다."
|
|
2281
|
+
},
|
|
2282
|
+
"mistral/mistral-large": {
|
|
2283
|
+
"description": "Mistral Large는 대규모 추론 능력이나 고도로 전문화된 작업에 이상적이며, 합성 텍스트 생성, 코드 생성, RAG 또는 에이전트 작업에 적합합니다."
|
|
2284
|
+
},
|
|
2285
|
+
"mistral/mistral-saba-24b": {
|
|
2286
|
+
"description": "Mistral Saba 24B는 Mistral.ai가 개발한 240억 매개변수 오픈소스 모델입니다. Saba는 아랍어, 페르시아어, 우르두어, 히브리어 및 인도 언어에서 뛰어난 성능을 발휘하도록 특별히 훈련된 전문 모델입니다. Groq의 맞춤형 언어 처리 유닛(LPU) 하드웨어를 사용하여 빠르고 효율적인 추론을 제공합니다."
|
|
2287
|
+
},
|
|
2288
|
+
"mistral/mistral-small": {
|
|
2289
|
+
"description": "Mistral Small은 분류, 고객 지원 또는 텍스트 생성과 같이 대량 처리 가능한 간단한 작업에 이상적입니다. 합리적인 가격대에 뛰어난 성능을 제공합니다."
|
|
2290
|
+
},
|
|
2291
|
+
"mistral/mixtral-8x22b-instruct": {
|
|
2292
|
+
"description": "8x22b Instruct 모델입니다. 8x22b는 Mistral이 서비스하는 혼합 전문가 오픈소스 모델입니다."
|
|
2293
|
+
},
|
|
2294
|
+
"mistral/pixtral-12b": {
|
|
2295
|
+
"description": "텍스트와 함께 이미지 이해 능력을 갖춘 12B 모델입니다."
|
|
2296
|
+
},
|
|
2297
|
+
"mistral/pixtral-large": {
|
|
2298
|
+
"description": "Pixtral Large는 멀티모달 제품군의 두 번째 모델로, 최첨단 수준의 이미지 이해를 보여줍니다. 특히 문서, 차트 및 자연 이미지 이해가 가능하며, Mistral Large 2의 선도적인 텍스트 이해 능력을 유지합니다."
|
|
2299
|
+
},
|
|
2159
2300
|
"mistralai/Mistral-7B-Instruct-v0.1": {
|
|
2160
2301
|
"description": "Mistral (7B) Instruct는 높은 성능으로 유명하며, 다양한 언어 작업에 적합합니다."
|
|
2161
2302
|
},
|
|
@@ -2222,12 +2363,21 @@
|
|
|
2222
2363
|
"moonshotai/Kimi-K2-Instruct-0905": {
|
|
2223
2364
|
"description": "Kimi K2-Instruct-0905는 Kimi K2의 최신이자 가장 강력한 버전입니다. 이 모델은 총 1조 개의 파라미터와 320억 개의 활성화 파라미터를 가진 최첨단 혼합 전문가(MoE) 언어 모델입니다. 주요 특징으로는 향상된 에이전트 코딩 지능으로, 공개 벤치마크 테스트와 실제 코딩 에이전트 작업에서 뛰어난 성능 향상을 보였으며, 프론트엔드 코딩 경험이 개선되어 프론트엔드 프로그래밍의 미적 측면과 실용성 모두에서 진전을 이루었습니다."
|
|
2224
2365
|
},
|
|
2366
|
+
"moonshotai/kimi-k2": {
|
|
2367
|
+
"description": "Kimi K2는 Moonshot AI가 개발한 대규모 혼합 전문가(MoE) 언어 모델로, 총 1조 매개변수와 한 번의 순전파당 320억 활성 매개변수를 갖추고 있습니다. 고급 도구 사용, 추론 및 코드 합성을 포함한 에이전트 능력에 최적화되어 있습니다."
|
|
2368
|
+
},
|
|
2225
2369
|
"moonshotai/kimi-k2-0905": {
|
|
2226
2370
|
"description": "kimi-k2-0905-preview 모델은 256k 문맥 길이를 가지며, 더욱 강력한 에이전틱 코딩(Agentic Coding) 능력, 뛰어난 프론트엔드 코드의 미적 감각과 실용성, 그리고 향상된 문맥 이해 능력을 갖추고 있습니다."
|
|
2227
2371
|
},
|
|
2228
2372
|
"moonshotai/kimi-k2-instruct-0905": {
|
|
2229
2373
|
"description": "kimi-k2-0905-preview 모델은 256k 문맥 길이를 가지며, 더욱 강력한 에이전틱 코딩(Agentic Coding) 능력, 뛰어난 프론트엔드 코드의 미적 감각과 실용성, 그리고 향상된 문맥 이해 능력을 갖추고 있습니다."
|
|
2230
2374
|
},
|
|
2375
|
+
"morph/morph-v3-fast": {
|
|
2376
|
+
"description": "Morph는 Claude 또는 GPT-4o와 같은 최첨단 모델이 제안하는 코드 변경 사항을 기존 코드 파일에 빠르게 적용하는 전문 AI 모델입니다. 초당 4500+ 토큰 처리 속도를 자랑하며, AI 코딩 워크플로우의 마지막 단계를 담당합니다. 16k 입력 토큰과 16k 출력 토큰을 지원합니다."
|
|
2377
|
+
},
|
|
2378
|
+
"morph/morph-v3-large": {
|
|
2379
|
+
"description": "Morph는 Claude 또는 GPT-4o와 같은 최첨단 모델이 제안하는 코드 변경 사항을 기존 코드 파일에 적용하는 전문 AI 모델입니다. 초당 2500+ 토큰 처리 속도를 제공하며, AI 코딩 워크플로우의 마지막 단계를 담당합니다. 16k 입력 토큰과 16k 출력 토큰을 지원합니다."
|
|
2380
|
+
},
|
|
2231
2381
|
"nousresearch/hermes-2-pro-llama-3-8b": {
|
|
2232
2382
|
"description": "Hermes 2 Pro Llama 3 8B는 Nous Hermes 2의 업그레이드 버전으로, 최신 내부 개발 데이터 세트를 포함하고 있습니다."
|
|
2233
2383
|
},
|
|
@@ -2294,29 +2444,47 @@
|
|
|
2294
2444
|
"open-mixtral-8x7b": {
|
|
2295
2445
|
"description": "Mixtral 8x7B는 희소 전문가 모델로, 여러 매개변수를 활용하여 추론 속도를 높이며, 다국어 및 코드 생성 작업 처리에 적합합니다."
|
|
2296
2446
|
},
|
|
2447
|
+
"openai/gpt-3.5-turbo": {
|
|
2448
|
+
"description": "OpenAI의 GPT-3.5 시리즈 중 가장 유능하고 비용 효율적인 모델로, 채팅 목적에 최적화되어 있지만 전통적인 완성 작업에서도 우수한 성능을 보입니다."
|
|
2449
|
+
},
|
|
2450
|
+
"openai/gpt-3.5-turbo-instruct": {
|
|
2451
|
+
"description": "GPT-3 시대 모델과 유사한 능력을 갖추었으며, 전통적인 완성 엔드포인트와 호환되며 채팅 완성 엔드포인트는 아닙니다."
|
|
2452
|
+
},
|
|
2453
|
+
"openai/gpt-4-turbo": {
|
|
2454
|
+
"description": "OpenAI의 gpt-4-turbo는 광범위한 일반 지식과 도메인 전문성을 갖추어 자연어의 복잡한 지시를 따르고 어려운 문제를 정확히 해결할 수 있습니다. 지식 컷오프는 2023년 4월이며, 컨텍스트 윈도우는 128,000 토큰입니다."
|
|
2455
|
+
},
|
|
2297
2456
|
"openai/gpt-4.1": {
|
|
2298
|
-
"description": "GPT
|
|
2457
|
+
"description": "GPT 4.1은 OpenAI의 플래그십 모델로, 복잡한 작업에 적합하며 다분야 문제 해결에 뛰어납니다."
|
|
2299
2458
|
},
|
|
2300
2459
|
"openai/gpt-4.1-mini": {
|
|
2301
|
-
"description": "GPT
|
|
2460
|
+
"description": "GPT 4.1 mini는 지능, 속도 및 비용 사이의 균형을 이루어 다양한 사용 사례에 매력적인 모델입니다."
|
|
2302
2461
|
},
|
|
2303
2462
|
"openai/gpt-4.1-nano": {
|
|
2304
|
-
"description": "GPT-4.1 nano는 가장 빠르고 비용 효율적인 GPT
|
|
2463
|
+
"description": "GPT-4.1 nano는 가장 빠르고 비용 효율적인 GPT 4.1 모델입니다."
|
|
2305
2464
|
},
|
|
2306
2465
|
"openai/gpt-4o": {
|
|
2307
|
-
"description": "
|
|
2466
|
+
"description": "OpenAI의 GPT-4o는 광범위한 일반 지식과 도메인 전문성을 갖추어 자연어의 복잡한 지시를 따르고 어려운 문제를 정확히 해결할 수 있습니다. GPT-4 Turbo와 동등한 성능을 더 빠르고 저렴한 API로 제공합니다."
|
|
2308
2467
|
},
|
|
2309
2468
|
"openai/gpt-4o-mini": {
|
|
2310
|
-
"description": "GPT-4o mini는
|
|
2469
|
+
"description": "OpenAI의 GPT-4o mini는 가장 진보되고 비용 효율적인 소형 모델입니다. 멀티모달(텍스트 또는 이미지 입력을 받아 텍스트 출력)이며, gpt-3.5-turbo보다 더 높은 지능을 가지면서도 동일한 속도를 유지합니다."
|
|
2470
|
+
},
|
|
2471
|
+
"openai/gpt-5": {
|
|
2472
|
+
"description": "GPT-5는 OpenAI의 플래그십 언어 모델로, 복잡한 추론, 광범위한 현실 세계 지식, 코드 집약적 및 다단계 에이전트 작업에서 뛰어난 성능을 보입니다."
|
|
2473
|
+
},
|
|
2474
|
+
"openai/gpt-5-mini": {
|
|
2475
|
+
"description": "GPT-5 mini는 비용 최적화된 모델로, 추론 및 채팅 작업에서 우수한 성능을 보이며 속도, 비용 및 능력 사이에서 최적의 균형을 제공합니다."
|
|
2476
|
+
},
|
|
2477
|
+
"openai/gpt-5-nano": {
|
|
2478
|
+
"description": "GPT-5 nano는 높은 처리량을 제공하는 모델로, 간단한 지시나 분류 작업에 적합합니다."
|
|
2311
2479
|
},
|
|
2312
2480
|
"openai/gpt-oss-120b": {
|
|
2313
|
-
"description": "
|
|
2481
|
+
"description": "강력하고 제어 가능한 추론 능력을 갖춘 매우 유능한 범용 대형 언어 모델입니다."
|
|
2314
2482
|
},
|
|
2315
2483
|
"openai/gpt-oss-20b": {
|
|
2316
|
-
"description": "
|
|
2484
|
+
"description": "저지연 및 자원 제한 환경(로컬 및 엣지 배포 포함)에 최적화된 컴팩트한 오픈소스 가중치 언어 모델입니다."
|
|
2317
2485
|
},
|
|
2318
2486
|
"openai/o1": {
|
|
2319
|
-
"description": "
|
|
2487
|
+
"description": "OpenAI의 o1은 깊은 사고가 필요한 복잡한 문제를 위해 설계된 플래그십 추론 모델로, 복잡한 다단계 작업에 강력한 추론 능력과 높은 정확도를 제공합니다."
|
|
2320
2488
|
},
|
|
2321
2489
|
"openai/o1-mini": {
|
|
2322
2490
|
"description": "o1-mini는 프로그래밍, 수학 및 과학 응용 프로그램을 위해 설계된 빠르고 경제적인 추론 모델입니다. 이 모델은 128K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다."
|
|
@@ -2325,23 +2493,44 @@
|
|
|
2325
2493
|
"description": "o1은 OpenAI의 새로운 추론 모델로, 광범위한 일반 지식이 필요한 복잡한 작업에 적합합니다. 이 모델은 128K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다."
|
|
2326
2494
|
},
|
|
2327
2495
|
"openai/o3": {
|
|
2328
|
-
"description": "o3는
|
|
2496
|
+
"description": "OpenAI의 o3는 가장 강력한 추론 모델로, 코딩, 수학, 과학 및 시각 인식 분야에서 새로운 최첨단 수준을 설정했습니다. 다면적 분석이 필요한 복잡한 쿼리에 능하며, 이미지, 차트 및 그래픽 분석에 특별한 강점을 가집니다."
|
|
2329
2497
|
},
|
|
2330
2498
|
"openai/o3-mini": {
|
|
2331
|
-
"description": "o3-mini는 o1-mini와 동일한 비용 및 지연 목표에서 높은 지능을 제공합니다."
|
|
2499
|
+
"description": "o3-mini는 OpenAI의 최신 소형 추론 모델로, o1-mini와 동일한 비용 및 지연 목표에서 높은 지능을 제공합니다."
|
|
2332
2500
|
},
|
|
2333
2501
|
"openai/o3-mini-high": {
|
|
2334
2502
|
"description": "o3-mini 고급 추론 버전은 o1-mini와 동일한 비용 및 지연 목표에서 높은 지능을 제공합니다."
|
|
2335
2503
|
},
|
|
2336
2504
|
"openai/o4-mini": {
|
|
2337
|
-
"description": "o4-mini는 빠르고 효율적인 추론을
|
|
2505
|
+
"description": "OpenAI의 o4-mini는 빠르고 비용 효율적인 추론을 제공하며, 특히 수학(AIME 벤치마크 최고 성능), 코딩 및 시각 작업에서 뛰어난 성능을 보입니다."
|
|
2338
2506
|
},
|
|
2339
2507
|
"openai/o4-mini-high": {
|
|
2340
2508
|
"description": "o4-mini 고급 추론 버전으로, 빠르고 효율적인 추론을 위해 최적화되어 있으며, 코딩 및 시각적 작업에서 매우 높은 효율성과 성능을 자랑합니다."
|
|
2341
2509
|
},
|
|
2510
|
+
"openai/text-embedding-3-large": {
|
|
2511
|
+
"description": "OpenAI의 가장 유능한 임베딩 모델로, 영어 및 비영어 작업에 적합합니다."
|
|
2512
|
+
},
|
|
2513
|
+
"openai/text-embedding-3-small": {
|
|
2514
|
+
"description": "OpenAI의 개선되고 성능이 향상된 ada 임베딩 모델 버전입니다."
|
|
2515
|
+
},
|
|
2516
|
+
"openai/text-embedding-ada-002": {
|
|
2517
|
+
"description": "OpenAI의 전통적인 텍스트 임베딩 모델입니다."
|
|
2518
|
+
},
|
|
2342
2519
|
"openrouter/auto": {
|
|
2343
2520
|
"description": "요청은 컨텍스트 길이, 주제 및 복잡성에 따라 Llama 3 70B Instruct, Claude 3.5 Sonnet(자기 조정) 또는 GPT-4o로 전송됩니다."
|
|
2344
2521
|
},
|
|
2522
|
+
"perplexity/sonar": {
|
|
2523
|
+
"description": "Perplexity의 경량 제품으로, 검색 기반 기능을 갖추었으며 Sonar Pro보다 빠르고 저렴합니다."
|
|
2524
|
+
},
|
|
2525
|
+
"perplexity/sonar-pro": {
|
|
2526
|
+
"description": "Perplexity의 플래그십 제품으로, 검색 기반 기능을 갖추고 고급 쿼리 및 후속 작업을 지원합니다."
|
|
2527
|
+
},
|
|
2528
|
+
"perplexity/sonar-reasoning": {
|
|
2529
|
+
"description": "추론에 중점을 둔 모델로, 응답에 사고 사슬(CoT)을 출력하며 검색 기반의 상세한 설명을 제공합니다."
|
|
2530
|
+
},
|
|
2531
|
+
"perplexity/sonar-reasoning-pro": {
|
|
2532
|
+
"description": "고급 추론 중심 모델로, 응답에 사고 사슬(CoT)을 출력하며 향상된 검색 기능과 각 요청에 여러 검색 쿼리를 포함한 종합적인 설명을 제공합니다."
|
|
2533
|
+
},
|
|
2345
2534
|
"phi3": {
|
|
2346
2535
|
"description": "Phi-3는 Microsoft에서 출시한 경량 오픈 모델로, 효율적인 통합 및 대규모 지식 추론에 적합합니다."
|
|
2347
2536
|
},
|
|
@@ -2804,6 +2993,12 @@
|
|
|
2804
2993
|
"v0-1.5-md": {
|
|
2805
2994
|
"description": "v0-1.5-md 모델은 일상 작업 및 사용자 인터페이스(UI) 생성에 적합합니다"
|
|
2806
2995
|
},
|
|
2996
|
+
"vercel/v0-1.0-md": {
|
|
2997
|
+
"description": "특정 프레임워크 추론과 최신 지식을 갖춘 현대 웹 애플리케이션 생성, 수정 및 최적화를 위한 v0 기반 모델에 접근합니다."
|
|
2998
|
+
},
|
|
2999
|
+
"vercel/v0-1.5-md": {
|
|
3000
|
+
"description": "특정 프레임워크 추론과 최신 지식을 갖춘 현대 웹 애플리케이션 생성, 수정 및 최적화를 위한 v0 기반 모델에 접근합니다."
|
|
3001
|
+
},
|
|
2807
3002
|
"wan2.2-t2i-flash": {
|
|
2808
3003
|
"description": "만상2.2 초고속 버전으로, 현재 최신 모델입니다. 창의성, 안정성, 사실적 질감이 전면 업그레이드되었으며, 생성 속도가 빠르고 비용 효율성이 높습니다."
|
|
2809
3004
|
},
|
|
@@ -2834,6 +3029,27 @@
|
|
|
2834
3029
|
"x1": {
|
|
2835
3030
|
"description": "Spark X1 모델은 추가 업그레이드를 통해 기존의 수학 과제에서 국내 선두를 유지하며, 추론, 텍스트 생성, 언어 이해 등 일반 과제에서 OpenAI o1 및 DeepSeek R1과 동등한 성과를 달성합니다."
|
|
2836
3031
|
},
|
|
3032
|
+
"xai/grok-2": {
|
|
3033
|
+
"description": "Grok 2는 최첨단 추론 능력을 갖춘 최전선 언어 모델로, 채팅, 코딩 및 추론에서 뛰어난 능력을 보이며 LMSYS 순위에서 Claude 3.5 Sonnet 및 GPT-4-Turbo를 능가합니다."
|
|
3034
|
+
},
|
|
3035
|
+
"xai/grok-2-vision": {
|
|
3036
|
+
"description": "Grok 2 비전 모델은 시각 기반 작업에서 뛰어난 성능을 보이며, 시각 수학 추론(MathVista) 및 문서 기반 질의응답(DocVQA)에서 최첨단 성능을 제공합니다. 문서, 차트, 그래프, 스크린샷 및 사진 등 다양한 시각 정보를 처리할 수 있습니다."
|
|
3037
|
+
},
|
|
3038
|
+
"xai/grok-3": {
|
|
3039
|
+
"description": "xAI의 플래그십 모델로, 데이터 추출, 코딩 및 텍스트 요약과 같은 기업용 사례에서 뛰어난 성능을 보입니다. 금융, 의료, 법률 및 과학 분야에 깊은 도메인 지식을 갖추고 있습니다."
|
|
3040
|
+
},
|
|
3041
|
+
"xai/grok-3-fast": {
|
|
3042
|
+
"description": "xAI의 플래그십 모델로, 데이터 추출, 코딩 및 텍스트 요약과 같은 기업용 사례에서 뛰어난 성능을 보입니다. 빠른 모델 변형은 더 빠른 인프라에서 서비스를 제공하며 표준 모델보다 훨씬 빠른 응답 시간을 제공합니다. 속도 향상은 출력 토큰당 더 높은 비용을 수반합니다."
|
|
3043
|
+
},
|
|
3044
|
+
"xai/grok-3-mini": {
|
|
3045
|
+
"description": "xAI의 경량 모델로, 응답 전에 사고를 수행합니다. 깊은 도메인 지식이 필요 없는 간단하거나 논리 기반 작업에 적합하며, 원시 사고 경로에 접근할 수 있습니다."
|
|
3046
|
+
},
|
|
3047
|
+
"xai/grok-3-mini-fast": {
|
|
3048
|
+
"description": "xAI의 경량 모델로, 응답 전에 사고를 수행합니다. 깊은 도메인 지식이 필요 없는 간단하거나 논리 기반 작업에 적합하며, 원시 사고 경로에 접근할 수 있습니다. 빠른 모델 변형은 더 빠른 인프라에서 서비스를 제공하며 표준 모델보다 훨씬 빠른 응답 시간을 제공합니다. 속도 향상은 출력 토큰당 더 높은 비용을 수반합니다."
|
|
3049
|
+
},
|
|
3050
|
+
"xai/grok-4": {
|
|
3051
|
+
"description": "xAI의 최신이자 최고의 플래그십 모델로, 자연어, 수학 및 추론에서 비할 데 없는 성능을 제공하는 완벽한 만능 선수입니다."
|
|
3052
|
+
},
|
|
2837
3053
|
"yi-1.5-34b-chat": {
|
|
2838
3054
|
"description": "Yi-1.5는 Yi의 업그레이드 버전입니다. 500B 토큰의 고품질 데이터셋을 사용하여 Yi를 추가로 사전 학습시키고, 3M개의 다양한 미세 조정 샘플을 사용하여 미세 조정되었습니다."
|
|
2839
3055
|
},
|
|
@@ -2881,5 +3097,14 @@
|
|
|
2881
3097
|
},
|
|
2882
3098
|
"zai-org/GLM-4.5V": {
|
|
2883
3099
|
"description": "GLM-4.5V는 Zhipu AI(智谱 AI)가 발표한 최신 세대의 비전-언어 모델(VLM)입니다. 이 모델은 총 106B 파라미터와 12B 활성 파라미터를 보유한 플래그십 텍스트 모델 GLM-4.5-Air를 기반으로 구축되었으며, 혼합 전문가(MoE) 아키텍처를 채택해 더 낮은 추론 비용으로 우수한 성능을 달성하는 것을 목표로 합니다. GLM-4.5V는 기술적으로 GLM-4.1V-Thinking의 노선을 계승하면서 3차원 회전 위치 인코딩(3D-RoPE) 등 혁신을 도입하여 3차원 공간 관계에 대한 인식 및 추론 능력을 크게 향상시켰습니다. 사전 학습, 감독 미세조정, 강화학습 단계에서의 최적화를 통해 이 모델은 이미지, 비디오, 장문 문서 등 다양한 시각 콘텐츠를 처리할 수 있으며, 41개의 공개 멀티모달 벤치마크에서 동급 오픈소스 모델 중 최상위 수준의 성능을 기록했습니다. 또한 모델에는 '사고 모드' 스위치가 추가되어 사용자가 빠른 응답과 심층 추론 사이에서 유연하게 선택해 효율성과 효과를 균형 있게 조절할 수 있습니다."
|
|
3100
|
+
},
|
|
3101
|
+
"zai/glm-4.5": {
|
|
3102
|
+
"description": "GLM-4.5 시리즈 모델은 에이전트를 위해 특별히 설계된 기본 모델입니다. 플래그십 GLM-4.5는 총 3550억 매개변수(320억 활성)를 통합하여 추론, 코딩 및 에이전트 능력을 통합해 복잡한 응용 요구를 해결합니다. 혼합 추론 시스템으로서 이중 작동 모드를 제공합니다."
|
|
3103
|
+
},
|
|
3104
|
+
"zai/glm-4.5-air": {
|
|
3105
|
+
"description": "GLM-4.5 및 GLM-4.5-Air는 에이전트 애플리케이션을 위한 기본 모델로 특별히 설계된 최신 플래그십 모델입니다. 두 모델 모두 혼합 전문가(MoE) 아키텍처를 활용합니다. GLM-4.5는 총 3550억 매개변수와 한 번의 순전파당 320억 활성 매개변수를 가지며, GLM-4.5-Air는 더 단순화된 설계로 총 1060억 매개변수와 120억 활성 매개변수를 갖추고 있습니다."
|
|
3106
|
+
},
|
|
3107
|
+
"zai/glm-4.5v": {
|
|
3108
|
+
"description": "GLM-4.5V는 GLM-4.5-Air 기본 모델을 기반으로 구축되었으며, 검증된 GLM-4.1V-Thinking 기술을 계승하면서 강력한 1060억 매개변수 MoE 아키텍처를 통해 효율적인 확장을 실현했습니다."
|
|
2884
3109
|
}
|
|
2885
3110
|
}
|
|
@@ -161,6 +161,9 @@
|
|
|
161
161
|
"v0": {
|
|
162
162
|
"description": "v0는 페어 프로그래밍 도우미로, 자연어로 아이디어를 설명하기만 하면 프로젝트에 필요한 코드와 사용자 인터페이스(UI)를 생성해 줍니다."
|
|
163
163
|
},
|
|
164
|
+
"vercelaigateway": {
|
|
165
|
+
"description": "Vercel AI Gateway는 100개 이상의 모델에 접근할 수 있는 통합 API를 제공합니다. 단일 엔드포인트를 통해 OpenAI, Anthropic, Google 등 다양한 공급자의 모델을 사용할 수 있습니다. 예산 설정, 사용 모니터링, 요청 부하 분산 및 장애 조치를 지원합니다."
|
|
166
|
+
},
|
|
164
167
|
"vertexai": {
|
|
165
168
|
"description": "구글의 제미니 시리즈는 구글 딥마인드가 개발한 최첨단 범용 AI 모델로, 다중 모드에 맞춰 설계되어 텍스트, 코드, 이미지, 오디오 및 비디오의 원활한 이해와 처리를 지원합니다. 데이터 센터에서 모바일 장치에 이르기까지 다양한 환경에 적합하며, AI 모델의 효율성과 응용 범위를 크게 향상시킵니다."
|
|
166
169
|
},
|