@lobehub/lobehub 2.0.0-next.107 → 2.0.0-next.109
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +58 -0
- package/changelog/v1.json +21 -0
- package/locales/ar/models.json +108 -13
- package/locales/bg-BG/models.json +126 -15
- package/locales/de-DE/models.json +3 -0
- package/locales/en-US/models.json +3 -0
- package/locales/es-ES/models.json +3 -0
- package/locales/fa-IR/models.json +108 -13
- package/locales/fr-FR/models.json +108 -13
- package/locales/it-IT/models.json +3 -0
- package/locales/ja-JP/models.json +108 -13
- package/locales/ko-KR/models.json +108 -13
- package/locales/nl-NL/models.json +3 -0
- package/locales/pl-PL/models.json +108 -13
- package/locales/pt-BR/models.json +3 -0
- package/locales/ru-RU/models.json +126 -15
- package/locales/tr-TR/models.json +108 -13
- package/locales/vi-VN/models.json +3 -0
- package/locales/zh-TW/models.json +3 -0
- package/package.json +1 -1
- package/packages/model-bank/src/aiModels/cometapi.ts +8 -8
- package/packages/model-bank/src/aiModels/fal.ts +2 -2
- package/packages/model-bank/src/aiModels/nebius.ts +1 -1
- package/packages/model-bank/src/aiModels/newapi.ts +3 -3
- package/packages/model-bank/src/aiModels/openai.ts +4 -4
- package/packages/model-bank/src/aiModels/qwen.ts +4 -4
- package/packages/model-bank/src/aiModels/stepfun.ts +1 -1
- package/packages/model-bank/src/aiModels/vercelaigateway.ts +1 -1
- package/packages/model-bank/src/aiModels/volcengine.ts +3 -3
- package/packages/model-bank/src/aiModels/zhipu.ts +1 -1
- package/packages/model-bank/src/types/aiModel.ts +8 -8
- package/src/app/[variants]/(main)/layouts/desktop/SideBar/TopActions.tsx +5 -6
- package/src/app/[variants]/desktopRouter.config.tsx +5 -0
- package/src/app/[variants]/mobileRouter.config.tsx +5 -0
- package/src/features/KnowledgeManager/Home/index.tsx +1 -1
- package/src/hooks/usePinnedAgentState.ts +22 -15
- package/src/layout/GlobalProvider/StoreInitialization.tsx +5 -0
- package/src/server/globalConfig/genServerAiProviderConfig.ts +3 -3
- package/src/server/globalConfig/parseFilesConfig.ts +1 -1
- package/src/server/globalConfig/parseSystemAgent.ts +4 -4
- package/src/store/session/slices/session/action.ts +23 -0
- package/src/store/session/slices/session/initialState.ts +6 -0
- package/src/store/urlHydration/action.ts +56 -0
- package/src/store/urlHydration/index.ts +1 -0
- package/src/store/urlHydration/initialState.ts +12 -0
- package/src/store/urlHydration/store.ts +28 -0
|
@@ -1715,6 +1715,9 @@
|
|
|
1715
1715
|
"google/gemini-2.5-pro-preview": {
|
|
1716
1716
|
"description": "Gemini 2.5 Pro Preview는 Google의 최첨단 사고 모델로, 코드, 수학 및 STEM 분야의 복잡한 문제를 추론할 수 있으며, 긴 문맥을 사용하여 대규모 데이터 세트, 코드베이스 및 문서를 분석할 수 있습니다."
|
|
1717
1717
|
},
|
|
1718
|
+
"google/gemini-3-pro-image-preview": {
|
|
1719
|
+
"description": "Gemini 3 Pro Image(Nano Banana Pro)는 Google의 이미지 생성 모델로, 멀티모달 대화를 지원합니다."
|
|
1720
|
+
},
|
|
1718
1721
|
"google/gemini-3-pro-image-preview-free": {
|
|
1719
1722
|
"description": "Gemini 3 Pro Image 무료 버전은 제한된 용량의 멀티모달 생성을 지원합니다."
|
|
1720
1723
|
},
|
|
@@ -2777,14 +2780,51 @@
|
|
|
2777
2780
|
"openai/gpt-4-turbo": {
|
|
2778
2781
|
"description": "OpenAI의 gpt-4-turbo는 광범위한 일반 지식과 도메인 전문성을 갖추어 자연어의 복잡한 지시를 따르고 어려운 문제를 정확히 해결할 수 있습니다. 지식 컷오프는 2023년 4월이며, 컨텍스트 윈도우는 128,000 토큰입니다."
|
|
2779
2782
|
},
|
|
2780
|
-
"openai/gpt-4.1": {
|
|
2781
|
-
|
|
2782
|
-
|
|
2783
|
-
"openai/gpt-
|
|
2784
|
-
|
|
2785
|
-
|
|
2786
|
-
"openai/gpt-
|
|
2787
|
-
|
|
2783
|
+
"openai/gpt-4.1": {
|
|
2784
|
+
"description": "GPT-4.1 시리즈는 더 넓은 문맥과 향상된 엔지니어링 및 추론 능력을 제공합니다."
|
|
2785
|
+
},
|
|
2786
|
+
"openai/gpt-4.1-mini": {
|
|
2787
|
+
"description": "GPT-4.1 Mini는 더 낮은 지연 시간과 뛰어난 가성비를 제공하며, 중간 수준의 문맥 처리에 적합합니다."
|
|
2788
|
+
},
|
|
2789
|
+
"openai/gpt-4.1-nano": {
|
|
2790
|
+
"description": "GPT-4.1 Nano는 매우 저비용, 저지연 옵션으로, 짧은 대화나 분류 작업과 같은 고빈도 시나리오에 적합합니다."
|
|
2791
|
+
},
|
|
2792
|
+
"openai/gpt-4o": {
|
|
2793
|
+
"description": "GPT-4o 시리즈는 OpenAI의 Omni 모델로, 텍스트 + 이미지 입력과 텍스트 출력을 지원합니다."
|
|
2794
|
+
},
|
|
2795
|
+
"openai/gpt-4o-mini": {
|
|
2796
|
+
"description": "GPT-4o-mini는 GPT-4o의 경량 고속 버전으로, 저지연 텍스트-이미지 혼합 시나리오에 적합합니다."
|
|
2797
|
+
},
|
|
2798
|
+
"openai/gpt-5": {
|
|
2799
|
+
"description": "GPT-5는 OpenAI의 고성능 모델로, 다양한 생산 및 연구 작업에 적합합니다."
|
|
2800
|
+
},
|
|
2801
|
+
"openai/gpt-5-chat": {
|
|
2802
|
+
"description": "GPT-5 Chat은 대화 시나리오에 최적화된 GPT-5의 하위 모델로, 지연 시간을 줄여 상호작용 경험을 향상시킵니다."
|
|
2803
|
+
},
|
|
2804
|
+
"openai/gpt-5-codex": {
|
|
2805
|
+
"description": "GPT-5-Codex는 코딩 시나리오에 특화된 GPT-5 변형 모델로, 대규모 코드 워크플로우에 적합합니다."
|
|
2806
|
+
},
|
|
2807
|
+
"openai/gpt-5-mini": {
|
|
2808
|
+
"description": "GPT-5 Mini는 GPT-5 계열의 경량 버전으로, 저지연 및 저비용 환경에 적합합니다."
|
|
2809
|
+
},
|
|
2810
|
+
"openai/gpt-5-nano": {
|
|
2811
|
+
"description": "GPT-5 Nano는 비용과 지연 시간에 민감한 환경에 적합한 초소형 모델입니다."
|
|
2812
|
+
},
|
|
2813
|
+
"openai/gpt-5-pro": {
|
|
2814
|
+
"description": "GPT-5 Pro는 OpenAI의 플래그십 모델로, 향상된 추론, 코드 생성 및 엔터프라이즈 기능을 제공하며, 테스트 시 라우팅 및 엄격한 보안 정책을 지원합니다."
|
|
2815
|
+
},
|
|
2816
|
+
"openai/gpt-5.1": {
|
|
2817
|
+
"description": "GPT-5.1은 GPT-5 시리즈의 최신 플래그십 모델로, 일반 추론, 명령 이행, 대화 자연스러움에서 GPT-5 대비 현저한 향상을 이루었으며, 다양한 작업에 적합합니다."
|
|
2818
|
+
},
|
|
2819
|
+
"openai/gpt-5.1-chat": {
|
|
2820
|
+
"description": "GPT-5.1 Chat은 GPT-5.1 계열의 경량 모델로, 저지연 대화에 최적화되었으며, 강력한 추론 및 명령 실행 능력을 유지합니다."
|
|
2821
|
+
},
|
|
2822
|
+
"openai/gpt-5.1-codex": {
|
|
2823
|
+
"description": "GPT-5.1-Codex는 소프트웨어 엔지니어링 및 코딩 워크플로우에 최적화된 GPT-5.1 변형 모델로, 대규모 리팩토링, 복잡한 디버깅 및 장시간 자율 코딩 작업에 적합합니다."
|
|
2824
|
+
},
|
|
2825
|
+
"openai/gpt-5.1-codex-mini": {
|
|
2826
|
+
"description": "GPT-5.1-Codex-Mini는 GPT-5.1-Codex의 경량 고속 버전으로, 지연 시간과 비용에 민감한 코딩 시나리오에 적합합니다."
|
|
2827
|
+
},
|
|
2788
2828
|
"openai/gpt-oss-120b": {
|
|
2789
2829
|
"description": "강력하고 제어 가능한 추론 능력을 갖춘 매우 유능한 범용 대형 언어 모델입니다."
|
|
2790
2830
|
},
|
|
@@ -2809,7 +2849,9 @@
|
|
|
2809
2849
|
"openai/o3-mini-high": {
|
|
2810
2850
|
"description": "o3-mini 고급 추론 버전은 o1-mini와 동일한 비용 및 지연 목표에서 높은 지능을 제공합니다."
|
|
2811
2851
|
},
|
|
2812
|
-
"openai/o4-mini": {
|
|
2852
|
+
"openai/o4-mini": {
|
|
2853
|
+
"description": "OpenAI o4-mini는 OpenAI의 경량 고효율 추론 모델로, 저지연 환경에 적합합니다."
|
|
2854
|
+
},
|
|
2813
2855
|
"openai/o4-mini-high": {
|
|
2814
2856
|
"description": "o4-mini 고급 추론 버전으로, 빠르고 효율적인 추론을 위해 최적화되어 있으며, 코딩 및 시각적 작업에서 매우 높은 효율성과 성능을 자랑합니다."
|
|
2815
2857
|
},
|
|
@@ -3011,13 +3053,21 @@
|
|
|
3011
3053
|
"qwen/qwen2.5-coder-7b-instruct": {
|
|
3012
3054
|
"description": "32K 컨텍스트 길이를 지원하는 강력한 중형 코드 모델로, 다국어 프로그래밍에 능숙합니다."
|
|
3013
3055
|
},
|
|
3014
|
-
"qwen/qwen3-14b": {
|
|
3056
|
+
"qwen/qwen3-14b": {
|
|
3057
|
+
"description": "Qwen3-14B는 Qwen 시리즈의 14B 버전으로, 일반적인 추론 및 대화 시나리오에 적합합니다."
|
|
3058
|
+
},
|
|
3015
3059
|
"qwen/qwen3-14b:free": {
|
|
3016
3060
|
"description": "Qwen3-14B는 Qwen3 시리즈의 밀집형 148억 매개변수 인과 언어 모델로, 복잡한 추론과 효율적인 대화를 위해 설계되었습니다. 수학, 프로그래밍 및 논리 추론과 같은 작업을 위한 '사고' 모드와 일반 대화를 위한 '비사고' 모드 간의 원활한 전환을 지원합니다. 이 모델은 지침 준수, 에이전트 도구 사용, 창의적 글쓰기 및 100개 이상의 언어와 방언에서의 다국어 작업을 위해 미세 조정되었습니다. 기본적으로 32K 토큰 컨텍스트를 처리하며, YaRN 기반 확장을 통해 131K 토큰으로 확장할 수 있습니다."
|
|
3017
3061
|
},
|
|
3018
3062
|
"qwen/qwen3-235b-a22b": {
|
|
3019
3063
|
"description": "Qwen3-235B-A22B는 Qwen이 개발한 235B 매개변수 전문가 혼합(MoE) 모델로, 매번 전방 전달 시 22B 매개변수를 활성화합니다. 복잡한 추론, 수학 및 코드 작업을 위한 '사고' 모드와 일반 대화 효율을 위한 '비사고' 모드 간의 원활한 전환을 지원합니다. 이 모델은 강력한 추론 능력, 다국어 지원(100개 이상의 언어와 방언), 고급 지침 준수 및 에이전트 도구 호출 능력을 보여줍니다. 기본적으로 32K 토큰 컨텍스트 창을 처리하며, YaRN 기반 확장을 통해 131K 토큰으로 확장할 수 있습니다."
|
|
3020
3064
|
},
|
|
3065
|
+
"qwen/qwen3-235b-a22b-2507": {
|
|
3066
|
+
"description": "Qwen3-235B-A22B-Instruct-2507은 Qwen3 시리즈의 Instruct 버전으로, 다국어 명령 처리와 긴 문맥 시나리오를 모두 지원합니다."
|
|
3067
|
+
},
|
|
3068
|
+
"qwen/qwen3-235b-a22b-thinking-2507": {
|
|
3069
|
+
"description": "Qwen3-235B-A22B-Thinking-2507은 Qwen3의 Thinking 변형 모델로, 복잡한 수학 및 추론 작업에 특화되어 있습니다."
|
|
3070
|
+
},
|
|
3021
3071
|
"qwen/qwen3-235b-a22b:free": {
|
|
3022
3072
|
"description": "Qwen3-235B-A22B는 Qwen이 개발한 235B 매개변수 전문가 혼합(MoE) 모델로, 매번 전방 전달 시 22B 매개변수를 활성화합니다. 복잡한 추론, 수학 및 코드 작업을 위한 '사고' 모드와 일반 대화 효율을 위한 '비사고' 모드 간의 원활한 전환을 지원합니다. 이 모델은 강력한 추론 능력, 다국어 지원(100개 이상의 언어와 방언), 고급 지침 준수 및 에이전트 도구 호출 능력을 보여줍니다. 기본적으로 32K 토큰 컨텍스트 창을 처리하며, YaRN 기반 확장을 통해 131K 토큰으로 확장할 수 있습니다."
|
|
3023
3073
|
},
|
|
@@ -3036,6 +3086,21 @@
|
|
|
3036
3086
|
"qwen/qwen3-8b:free": {
|
|
3037
3087
|
"description": "Qwen3-8B는 Qwen3 시리즈의 밀집형 82억 매개변수 인과 언어 모델로, 추론 집약적인 작업과 효율적인 대화를 위해 설계되었습니다. 수학, 코딩 및 논리 추론을 위한 '사고' 모드와 일반 대화를 위한 '비사고' 모드 간의 원활한 전환을 지원합니다. 이 모델은 지침 준수, 에이전트 통합, 창의적 글쓰기 및 100개 이상의 언어와 방언에서의 다국어 사용을 위해 미세 조정되었습니다. 기본적으로 32K 토큰 컨텍스트 창을 지원하며, YaRN을 통해 131K 토큰으로 확장할 수 있습니다."
|
|
3038
3088
|
},
|
|
3089
|
+
"qwen/qwen3-coder": {
|
|
3090
|
+
"description": "Qwen3-Coder는 Qwen3의 코드 생성 모델 계열로, 긴 문서 내 코드 이해 및 생성에 능숙합니다."
|
|
3091
|
+
},
|
|
3092
|
+
"qwen/qwen3-coder-plus": {
|
|
3093
|
+
"description": "Qwen3-Coder-Plus는 Qwen 시리즈의 고급 코드 에이전트 모델로, 복잡한 도구 호출 및 장기 세션을 지원합니다."
|
|
3094
|
+
},
|
|
3095
|
+
"qwen/qwen3-max": {
|
|
3096
|
+
"description": "Qwen3 Max는 Qwen3 시리즈의 고급 추론 모델로, 다국어 추론 및 도구 통합에 적합합니다."
|
|
3097
|
+
},
|
|
3098
|
+
"qwen/qwen3-max-preview": {
|
|
3099
|
+
"description": "Qwen3 Max(프리뷰)는 고급 추론 및 도구 통합을 위한 Qwen 시리즈의 Max 버전(미리보기)입니다."
|
|
3100
|
+
},
|
|
3101
|
+
"qwen/qwen3-vl-plus": {
|
|
3102
|
+
"description": "Qwen3 VL-Plus는 Qwen3의 시각 기능 강화 버전으로, 멀티모달 추론 및 비디오 처리 능력을 향상시켰습니다."
|
|
3103
|
+
},
|
|
3039
3104
|
"qwen2": {
|
|
3040
3105
|
"description": "Qwen2는 Alibaba의 차세대 대규모 언어 모델로, 뛰어난 성능으로 다양한 응용 요구를 지원합니다."
|
|
3041
3106
|
},
|
|
@@ -3411,6 +3476,9 @@
|
|
|
3411
3476
|
"vercel/v0-1.5-md": {
|
|
3412
3477
|
"description": "특정 프레임워크 추론과 최신 지식을 갖춘 현대 웹 애플리케이션 생성, 수정 및 최적화를 위한 v0 기반 모델에 접근합니다."
|
|
3413
3478
|
},
|
|
3479
|
+
"volcengine/doubao-seed-code": {
|
|
3480
|
+
"description": "Doubao-Seed-Code는 바이트댄스 화산 엔진이 Agentic Programming에 최적화한 대형 모델로, 다양한 프로그래밍 및 에이전트 벤치마크에서 우수한 성능을 보이며 256K 문맥을 지원합니다."
|
|
3481
|
+
},
|
|
3414
3482
|
"wan2.2-t2i-flash": {
|
|
3415
3483
|
"description": "만상2.2 초고속 버전으로, 현재 최신 모델입니다. 창의성, 안정성, 사실적 질감이 전면 업그레이드되었으며, 생성 속도가 빠르고 비용 효율성이 높습니다."
|
|
3416
3484
|
},
|
|
@@ -3438,8 +3506,24 @@
|
|
|
3438
3506
|
"wizardlm2:8x22b": {
|
|
3439
3507
|
"description": "WizardLM 2는 Microsoft AI에서 제공하는 언어 모델로, 복잡한 대화, 다국어, 추론 및 스마트 어시스턴트 분야에서 특히 뛰어난 성능을 발휘합니다."
|
|
3440
3508
|
},
|
|
3441
|
-
"x-ai/grok-4
|
|
3442
|
-
|
|
3509
|
+
"x-ai/grok-4": {
|
|
3510
|
+
"description": "Grok 4는 xAI의 플래그십 추론 모델로, 강력한 추론 및 멀티모달 기능을 제공합니다."
|
|
3511
|
+
},
|
|
3512
|
+
"x-ai/grok-4-fast": {
|
|
3513
|
+
"description": "Grok 4 Fast는 xAI의 고처리량, 저비용 모델로(2M 문맥 창 지원), 고동시성과 긴 문맥이 필요한 시나리오에 적합합니다."
|
|
3514
|
+
},
|
|
3515
|
+
"x-ai/grok-4-fast-non-reasoning": {
|
|
3516
|
+
"description": "Grok 4 Fast(Non-Reasoning)는 xAI의 고처리량, 저비용 멀티모달 모델로(2M 문맥 창 지원), 지연 시간과 비용에 민감하지만 모델 내 추론이 필요 없는 시나리오에 적합합니다. 이는 Grok 4 Fast의 reasoning 버전과 병행되며, API의 reasoning enable 파라미터를 통해 필요 시 추론 기능을 활성화할 수 있습니다. 프롬프트와 응답은 xAI 또는 OpenRouter에 의해 향후 모델 개선에 활용될 수 있습니다."
|
|
3517
|
+
},
|
|
3518
|
+
"x-ai/grok-4.1-fast": {
|
|
3519
|
+
"description": "Grok 4.1 Fast는 xAI의 고처리량, 저비용 모델로(2M 문맥 창 지원), 고동시성과 긴 문맥이 필요한 시나리오에 적합합니다."
|
|
3520
|
+
},
|
|
3521
|
+
"x-ai/grok-4.1-fast-non-reasoning": {
|
|
3522
|
+
"description": "Grok 4.1 Fast(Non-Reasoning)는 xAI의 고처리량, 저비용 멀티모달 모델로(2M 문맥 창 지원), 지연 시간과 비용에 민감하지만 모델 내 추론이 필요 없는 시나리오에 적합합니다. 이는 Grok 4 Fast의 reasoning 버전과 병행되며, API의 reasoning enable 파라미터를 통해 필요 시 추론 기능을 활성화할 수 있습니다. 프롬프트와 응답은 xAI 또는 OpenRouter에 의해 향후 모델 개선에 활용될 수 있습니다."
|
|
3523
|
+
},
|
|
3524
|
+
"x-ai/grok-code-fast-1": {
|
|
3525
|
+
"description": "Grok Code Fast 1은 xAI의 고속 코드 모델로, 가독성과 엔지니어링 적합성이 뛰어난 출력을 제공합니다."
|
|
3526
|
+
},
|
|
3443
3527
|
"x1": {
|
|
3444
3528
|
"description": "Spark X1 모델은 추가 업그레이드를 통해 기존의 수학 과제에서 국내 선두를 유지하며, 추론, 텍스트 생성, 언어 이해 등 일반 과제에서 OpenAI o1 및 DeepSeek R1과 동등한 성과를 달성합니다."
|
|
3445
3529
|
},
|
|
@@ -3500,7 +3584,15 @@
|
|
|
3500
3584
|
"yi-vision-v2": {
|
|
3501
3585
|
"description": "복잡한 시각적 작업 모델로, 여러 이미지를 기반으로 한 고성능 이해 및 분석 능력을 제공합니다."
|
|
3502
3586
|
},
|
|
3503
|
-
"z-ai/glm-4.
|
|
3587
|
+
"z-ai/glm-4.5": {
|
|
3588
|
+
"description": "GLM 4.5는 Z.AI의 플래그십 모델로, 하이브리드 추론 모드를 지원하며 엔지니어링 및 긴 문맥 작업에 최적화되어 있습니다."
|
|
3589
|
+
},
|
|
3590
|
+
"z-ai/glm-4.5-air": {
|
|
3591
|
+
"description": "GLM 4.5 Air는 GLM 4.5의 경량 버전으로, 비용에 민감한 환경에서도 강력한 추론 능력을 유지합니다."
|
|
3592
|
+
},
|
|
3593
|
+
"z-ai/glm-4.6": {
|
|
3594
|
+
"description": "GLM 4.6은 Z.AI의 플래그십 모델로, 문맥 길이와 코딩 능력을 확장하였습니다."
|
|
3595
|
+
},
|
|
3504
3596
|
"zai-org/GLM-4.5": {
|
|
3505
3597
|
"description": "GLM-4.5는 에이전트 애플리케이션을 위해 설계된 기본 모델로, 혼합 전문가(Mixture-of-Experts) 아키텍처를 사용합니다. 도구 호출, 웹 브라우징, 소프트웨어 엔지니어링, 프론트엔드 프로그래밍 분야에서 깊이 최적화되었으며, Claude Code, Roo Code 등 코드 에이전트에 원활히 통합될 수 있습니다. GLM-4.5는 혼합 추론 모드를 채택하여 복잡한 추론과 일상 사용 등 다양한 응용 시나리오에 적응할 수 있습니다."
|
|
3506
3598
|
},
|
|
@@ -3521,5 +3613,8 @@
|
|
|
3521
3613
|
},
|
|
3522
3614
|
"zai/glm-4.5v": {
|
|
3523
3615
|
"description": "GLM-4.5V는 GLM-4.5-Air 기본 모델을 기반으로 구축되었으며, 검증된 GLM-4.1V-Thinking 기술을 계승하면서 강력한 1060억 매개변수 MoE 아키텍처를 통해 효율적인 확장을 실현했습니다."
|
|
3616
|
+
},
|
|
3617
|
+
"zenmux/auto": {
|
|
3618
|
+
"description": "ZenMux의 자동 라우팅 기능은 요청 내용을 기반으로 지원되는 모델 중 가장 가성비가 높고 성능이 우수한 모델을 자동으로 선택합니다."
|
|
3524
3619
|
}
|
|
3525
3620
|
}
|
|
@@ -1715,6 +1715,9 @@
|
|
|
1715
1715
|
"google/gemini-2.5-pro-preview": {
|
|
1716
1716
|
"description": "Gemini 2.5 Pro Preview is het meest geavanceerde denkkader van Google, dat in staat is om complexe problemen op het gebied van code, wiskunde en STEM te redeneren, en grote datasets, codebases en documenten te analyseren met behulp van lange context."
|
|
1717
1717
|
},
|
|
1718
|
+
"google/gemini-3-pro-image-preview": {
|
|
1719
|
+
"description": "Gemini 3 Pro Image (Nano Banana Pro) is het beeldgeneratiemodel van Google en ondersteunt tevens multimodale gesprekken."
|
|
1720
|
+
},
|
|
1718
1721
|
"google/gemini-3-pro-image-preview-free": {
|
|
1719
1722
|
"description": "Gratis versie van Gemini 3 Pro Image, met beperkte capaciteit voor multimodale generatie."
|
|
1720
1723
|
},
|
|
@@ -1715,6 +1715,9 @@
|
|
|
1715
1715
|
"google/gemini-2.5-pro-preview": {
|
|
1716
1716
|
"description": "Gemini 2.5 Pro Preview to najnowocześniejszy model myślowy Google, zdolny do rozumowania nad złożonymi problemami w dziedzinie kodowania, matematyki i STEM oraz do analizy dużych zbiorów danych, repozytoriów kodu i dokumentów przy użyciu długiego kontekstu."
|
|
1717
1717
|
},
|
|
1718
|
+
"google/gemini-3-pro-image-preview": {
|
|
1719
|
+
"description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów firmy Google, obsługujący również dialogi multimodalne."
|
|
1720
|
+
},
|
|
1718
1721
|
"google/gemini-3-pro-image-preview-free": {
|
|
1719
1722
|
"description": "Gemini 3 Pro Image – wersja darmowa, obsługuje ograniczoną liczbę generacji multimodalnych."
|
|
1720
1723
|
},
|
|
@@ -2777,14 +2780,51 @@
|
|
|
2777
2780
|
"openai/gpt-4-turbo": {
|
|
2778
2781
|
"description": "gpt-4-turbo od OpenAI posiada szeroką wiedzę ogólną i specjalistyczną, umożliwiającą wykonywanie złożonych instrukcji w języku naturalnym i precyzyjne rozwiązywanie trudnych problemów. Data zakończenia wiedzy to kwiecień 2023, a okno kontekstu wynosi 128 000 tokenów."
|
|
2779
2782
|
},
|
|
2780
|
-
"openai/gpt-4.1": {
|
|
2781
|
-
|
|
2782
|
-
|
|
2783
|
-
"openai/gpt-
|
|
2784
|
-
|
|
2785
|
-
|
|
2786
|
-
"openai/gpt-
|
|
2787
|
-
|
|
2783
|
+
"openai/gpt-4.1": {
|
|
2784
|
+
"description": "Seria GPT-4.1 oferuje większy kontekst oraz lepsze możliwości inżynieryjne i wnioskowania."
|
|
2785
|
+
},
|
|
2786
|
+
"openai/gpt-4.1-mini": {
|
|
2787
|
+
"description": "GPT-4.1 Mini zapewnia niższe opóźnienia i lepszy stosunek jakości do ceny, idealny do średnich kontekstów i przepływów dialogowych."
|
|
2788
|
+
},
|
|
2789
|
+
"openai/gpt-4.1-nano": {
|
|
2790
|
+
"description": "GPT-4.1 Nano to opcja o bardzo niskim koszcie i opóźnieniu, odpowiednia do częstych, krótkich rozmów lub scenariuszy klasyfikacyjnych."
|
|
2791
|
+
},
|
|
2792
|
+
"openai/gpt-4o": {
|
|
2793
|
+
"description": "Seria GPT-4o to model Omni firmy OpenAI, obsługujący wejścia tekstowe i graficzne oraz wyjścia tekstowe."
|
|
2794
|
+
},
|
|
2795
|
+
"openai/gpt-4o-mini": {
|
|
2796
|
+
"description": "GPT-4o-mini to szybka, kompaktowa wersja GPT-4o, idealna do scenariuszy z niskim opóźnieniem i multimodalnością."
|
|
2797
|
+
},
|
|
2798
|
+
"openai/gpt-5": {
|
|
2799
|
+
"description": "GPT-5 to wysokowydajny model OpenAI, odpowiedni do szerokiego zakresu zadań produkcyjnych i badawczych."
|
|
2800
|
+
},
|
|
2801
|
+
"openai/gpt-5-chat": {
|
|
2802
|
+
"description": "GPT-5 Chat to zoptymalizowana wersja GPT-5 do scenariuszy konwersacyjnych, oferująca niższe opóźnienia i lepsze doświadczenie interakcji."
|
|
2803
|
+
},
|
|
2804
|
+
"openai/gpt-5-codex": {
|
|
2805
|
+
"description": "GPT-5-Codex to wariant GPT-5 zoptymalizowany pod kątem programowania, idealny do dużych przepływów pracy z kodem."
|
|
2806
|
+
},
|
|
2807
|
+
"openai/gpt-5-mini": {
|
|
2808
|
+
"description": "GPT-5 Mini to odchudzona wersja rodziny GPT-5, przeznaczona do zastosowań wymagających niskiego opóźnienia i kosztów."
|
|
2809
|
+
},
|
|
2810
|
+
"openai/gpt-5-nano": {
|
|
2811
|
+
"description": "GPT-5 Nano to ultrakompaktowa wersja z rodziny GPT-5, idealna do scenariuszy o bardzo wysokich wymaganiach dotyczących kosztów i opóźnień."
|
|
2812
|
+
},
|
|
2813
|
+
"openai/gpt-5-pro": {
|
|
2814
|
+
"description": "GPT-5 Pro to flagowy model OpenAI, oferujący zaawansowane możliwości wnioskowania, generowania kodu i funkcje klasy korporacyjnej, wspierający routing testowy i rygorystyczne polityki bezpieczeństwa."
|
|
2815
|
+
},
|
|
2816
|
+
"openai/gpt-5.1": {
|
|
2817
|
+
"description": "GPT-5.1 to najnowszy flagowy model z serii GPT-5, oferujący znaczną poprawę w zakresie ogólnego wnioskowania, przestrzegania instrukcji i naturalności dialogu, odpowiedni do szerokiego zakresu zadań."
|
|
2818
|
+
},
|
|
2819
|
+
"openai/gpt-5.1-chat": {
|
|
2820
|
+
"description": "GPT-5.1 Chat to lekki członek rodziny GPT-5.1, zoptymalizowany pod kątem konwersacji o niskim opóźnieniu, zachowując przy tym silne zdolności wnioskowania i wykonywania poleceń."
|
|
2821
|
+
},
|
|
2822
|
+
"openai/gpt-5.1-codex": {
|
|
2823
|
+
"description": "GPT-5.1-Codex to wariant GPT-5.1 zoptymalizowany do inżynierii oprogramowania i przepływów pracy z kodem, idealny do dużych refaktoryzacji, złożonego debugowania i długotrwałego programowania autonomicznego."
|
|
2824
|
+
},
|
|
2825
|
+
"openai/gpt-5.1-codex-mini": {
|
|
2826
|
+
"description": "GPT-5.1-Codex-Mini to kompaktowa, przyspieszona wersja GPT-5.1-Codex, lepiej dostosowana do scenariuszy programistycznych wrażliwych na opóźnienia i koszty."
|
|
2827
|
+
},
|
|
2788
2828
|
"openai/gpt-oss-120b": {
|
|
2789
2829
|
"description": "Niezwykle kompetentny, uniwersalny duży model językowy z potężnymi i kontrolowanymi zdolnościami wnioskowania."
|
|
2790
2830
|
},
|
|
@@ -2809,7 +2849,9 @@
|
|
|
2809
2849
|
"openai/o3-mini-high": {
|
|
2810
2850
|
"description": "o3-mini w wersji o wysokim poziomie rozumowania, oferujący wysoką inteligencję przy tych samych kosztach i celach opóźnienia co o1-mini."
|
|
2811
2851
|
},
|
|
2812
|
-
"openai/o4-mini": {
|
|
2852
|
+
"openai/o4-mini": {
|
|
2853
|
+
"description": "OpenAI o4-mini to kompaktowy, wydajny model wnioskowania firmy OpenAI, idealny do zastosowań wymagających niskiego opóźnienia."
|
|
2854
|
+
},
|
|
2813
2855
|
"openai/o4-mini-high": {
|
|
2814
2856
|
"description": "o4-mini w wersji o wysokim poziomie wnioskowania, zoptymalizowany do szybkiego i efektywnego wnioskowania, osiągający wysoką wydajność i efektywność w zadaniach kodowania i wizualnych."
|
|
2815
2857
|
},
|
|
@@ -3011,13 +3053,21 @@
|
|
|
3011
3053
|
"qwen/qwen2.5-coder-7b-instruct": {
|
|
3012
3054
|
"description": "Potężny średniej wielkości model kodu, wspierający długość kontekstu 32K, specjalizujący się w programowaniu wielojęzycznym."
|
|
3013
3055
|
},
|
|
3014
|
-
"qwen/qwen3-14b": {
|
|
3056
|
+
"qwen/qwen3-14b": {
|
|
3057
|
+
"description": "Qwen3-14B to wersja 14B z serii Qwen, odpowiednia do standardowego wnioskowania i scenariuszy konwersacyjnych."
|
|
3058
|
+
},
|
|
3015
3059
|
"qwen/qwen3-14b:free": {
|
|
3016
3060
|
"description": "Qwen3-14B to gęsty model językowy o 14 miliardach parametrów w serii Qwen3, zaprojektowany z myślą o złożonym wnioskowaniu i efektywnych dialogach. Obsługuje płynne przełączanie między trybem 'myślenia' używanym do matematyki, programowania i wnioskowania logicznego a trybem 'nie-myślenia' stosowanym w ogólnych rozmowach. Model został dostosowany do przestrzegania instrukcji, użycia narzędzi agenta, twórczego pisania oraz wielojęzycznych zadań w ponad 100 językach i dialektach. Obsługuje natywnie 32K tokenów kontekstu i może być rozszerzany do 131K tokenów za pomocą YaRN."
|
|
3017
3061
|
},
|
|
3018
3062
|
"qwen/qwen3-235b-a22b": {
|
|
3019
3063
|
"description": "Qwen3-235B-A22B to model mieszanki ekspertów (MoE) o 235 miliardach parametrów opracowany przez Qwen, aktywujący 22 miliardy parametrów przy każdym przejściu do przodu. Obsługuje płynne przełączanie między trybem 'myślenia' używanym do złożonego wnioskowania, matematyki i zadań kodowania a trybem 'nie-myślenia' stosowanym w ogólnych rozmowach. Model wykazuje silne zdolności w zakresie wnioskowania, wsparcia wielojęzycznego (ponad 100 języków i dialektów), zaawansowanego przestrzegania instrukcji oraz wywoływania narzędzi agenta. Obsługuje natywnie okno kontekstu 32K tokenów i może być rozszerzany do 131K tokenów za pomocą YaRN."
|
|
3020
3064
|
},
|
|
3065
|
+
"qwen/qwen3-235b-a22b-2507": {
|
|
3066
|
+
"description": "Qwen3-235B-A22B-Instruct-2507 to wersja Instruct z serii Qwen3, łącząca obsługę wielojęzycznych instrukcji i długiego kontekstu."
|
|
3067
|
+
},
|
|
3068
|
+
"qwen/qwen3-235b-a22b-thinking-2507": {
|
|
3069
|
+
"description": "Qwen3-235B-A22B-Thinking-2507 to wariant Thinking z serii Qwen3, wzmocniony pod kątem złożonych zadań matematycznych i wnioskowania."
|
|
3070
|
+
},
|
|
3021
3071
|
"qwen/qwen3-235b-a22b:free": {
|
|
3022
3072
|
"description": "Qwen3-235B-A22B to model mieszanki ekspertów (MoE) o 235 miliardach parametrów opracowany przez Qwen, aktywujący 22 miliardy parametrów przy każdym przejściu do przodu. Obsługuje płynne przełączanie między trybem 'myślenia' używanym do złożonego wnioskowania, matematyki i zadań kodowania a trybem 'nie-myślenia' stosowanym w ogólnych rozmowach. Model wykazuje silne zdolności w zakresie wnioskowania, wsparcia wielojęzycznego (ponad 100 języków i dialektów), zaawansowanego przestrzegania instrukcji oraz wywoływania narzędzi agenta. Obsługuje natywnie okno kontekstu 32K tokenów i może być rozszerzany do 131K tokenów za pomocą YaRN."
|
|
3023
3073
|
},
|
|
@@ -3036,6 +3086,21 @@
|
|
|
3036
3086
|
"qwen/qwen3-8b:free": {
|
|
3037
3087
|
"description": "Qwen3-8B to gęsty model językowy o 8 miliardach parametrów w serii Qwen3, zaprojektowany z myślą o zadaniach wymagających intensywnego wnioskowania i efektywnych dialogach. Obsługuje płynne przełączanie między trybem 'myślenia' używanym do matematyki, kodowania i wnioskowania logicznego a trybem 'nie-myślenia' stosowanym w ogólnych rozmowach. Model został dostosowany do przestrzegania instrukcji, integracji agenta, twórczego pisania oraz wielojęzycznego użycia w ponad 100 językach i dialektach. Obsługuje natywnie okno kontekstu 32K tokenów i może być rozszerzany do 131K tokenów za pomocą YaRN."
|
|
3038
3088
|
},
|
|
3089
|
+
"qwen/qwen3-coder": {
|
|
3090
|
+
"description": "Qwen3-Coder to rodzina generatorów kodu z serii Qwen3, specjalizująca się w rozumieniu i generowaniu kodu w długich dokumentach."
|
|
3091
|
+
},
|
|
3092
|
+
"qwen/qwen3-coder-plus": {
|
|
3093
|
+
"description": "Qwen3-Coder-Plus to specjalnie zoptymalizowany model agenta kodującego z serii Qwen, obsługujący bardziej złożone wywołania narzędzi i długoterminowe sesje."
|
|
3094
|
+
},
|
|
3095
|
+
"qwen/qwen3-max": {
|
|
3096
|
+
"description": "Qwen3 Max to zaawansowany model wnioskowania z serii Qwen3, odpowiedni do wielojęzycznego wnioskowania i integracji narzędzi."
|
|
3097
|
+
},
|
|
3098
|
+
"qwen/qwen3-max-preview": {
|
|
3099
|
+
"description": "Qwen3 Max (preview) to wersja Max z serii Qwen, zaprojektowana do zaawansowanego wnioskowania i integracji narzędzi (wersja podglądowa)."
|
|
3100
|
+
},
|
|
3101
|
+
"qwen/qwen3-vl-plus": {
|
|
3102
|
+
"description": "Qwen3 VL-Plus to wzbogacona wizualnie wersja Qwen3, oferująca ulepszone możliwości wnioskowania multimodalnego i przetwarzania wideo."
|
|
3103
|
+
},
|
|
3039
3104
|
"qwen2": {
|
|
3040
3105
|
"description": "Qwen2 to nowa generacja dużego modelu językowego Alibaba, wspierająca różnorodne potrzeby aplikacyjne dzięki doskonałej wydajności."
|
|
3041
3106
|
},
|
|
@@ -3411,6 +3476,9 @@
|
|
|
3411
3476
|
"vercel/v0-1.5-md": {
|
|
3412
3477
|
"description": "Dostęp do modelu stojącego za v0 do generowania, naprawiania i optymalizacji nowoczesnych aplikacji webowych, z rozumowaniem specyficznym dla frameworków i aktualną wiedzą."
|
|
3413
3478
|
},
|
|
3479
|
+
"volcengine/doubao-seed-code": {
|
|
3480
|
+
"description": "Doubao-Seed-Code to duży model firmy Volcengine zoptymalizowany pod kątem programowania agentowego, osiągający doskonałe wyniki w wielu benchmarkach programistycznych i agentowych, obsługujący kontekst do 256K."
|
|
3481
|
+
},
|
|
3414
3482
|
"wan2.2-t2i-flash": {
|
|
3415
3483
|
"description": "Wersja ekspresowa Wanxiang 2.2, najnowszy model. Kompleksowo ulepszony pod względem kreatywności, stabilności i realizmu, generuje szybko i oferuje wysoką opłacalność."
|
|
3416
3484
|
},
|
|
@@ -3438,8 +3506,24 @@
|
|
|
3438
3506
|
"wizardlm2:8x22b": {
|
|
3439
3507
|
"description": "WizardLM 2 to model językowy dostarczany przez Microsoft AI, który wyróżnia się w złożonych dialogach, wielojęzyczności, wnioskowaniu i inteligentnych asystentach."
|
|
3440
3508
|
},
|
|
3441
|
-
"x-ai/grok-4
|
|
3442
|
-
|
|
3509
|
+
"x-ai/grok-4": {
|
|
3510
|
+
"description": "Grok 4 to flagowy model wnioskowania firmy xAI, oferujący potężne możliwości wnioskowania i obsługę multimodalności."
|
|
3511
|
+
},
|
|
3512
|
+
"x-ai/grok-4-fast": {
|
|
3513
|
+
"description": "Grok 4 Fast to model firmy xAI o wysokiej przepustowości i niskim koszcie (obsługuje okno kontekstu 2M), idealny do zastosowań wymagających dużej równoległości i długiego kontekstu."
|
|
3514
|
+
},
|
|
3515
|
+
"x-ai/grok-4-fast-non-reasoning": {
|
|
3516
|
+
"description": "Grok 4 Fast (Non-Reasoning) to model multimodalny firmy xAI o wysokiej przepustowości i niskim koszcie (obsługuje okno kontekstu 2M), przeznaczony do scenariuszy wrażliwych na opóźnienia i koszty, które nie wymagają wnioskowania wewnętrznego. Występuje równolegle z wersją reasoning i umożliwia włączenie wnioskowania za pomocą parametru reasoning enable w API. Prompty i odpowiedzi mogą być wykorzystywane przez xAI lub OpenRouter do ulepszania przyszłych modeli."
|
|
3517
|
+
},
|
|
3518
|
+
"x-ai/grok-4.1-fast": {
|
|
3519
|
+
"description": "Grok 4.1 Fast to model firmy xAI o wysokiej przepustowości i niskim koszcie (obsługuje okno kontekstu 2M), idealny do zastosowań wymagających dużej równoległości i długiego kontekstu."
|
|
3520
|
+
},
|
|
3521
|
+
"x-ai/grok-4.1-fast-non-reasoning": {
|
|
3522
|
+
"description": "Grok 4.1 Fast (Non-Reasoning) to model multimodalny firmy xAI o wysokiej przepustowości i niskim koszcie (obsługuje okno kontekstu 2M), przeznaczony do scenariuszy wrażliwych na opóźnienia i koszty, które nie wymagają wnioskowania wewnętrznego. Występuje równolegle z wersją reasoning i umożliwia włączenie wnioskowania za pomocą parametru reasoning enable w API. Prompty i odpowiedzi mogą być wykorzystywane przez xAI lub OpenRouter do ulepszania przyszłych modeli."
|
|
3523
|
+
},
|
|
3524
|
+
"x-ai/grok-code-fast-1": {
|
|
3525
|
+
"description": "Grok Code Fast 1 to szybki model kodujący firmy xAI, generujący czytelny i inżynieryjnie dopasowany kod."
|
|
3526
|
+
},
|
|
3443
3527
|
"x1": {
|
|
3444
3528
|
"description": "Model Spark X1 zostanie dalej ulepszony, osiągając wyniki w zadaniach ogólnych, takich jak rozumowanie, generowanie tekstu i rozumienie języka, które będą porównywalne z OpenAI o1 i DeepSeek R1."
|
|
3445
3529
|
},
|
|
@@ -3500,7 +3584,15 @@
|
|
|
3500
3584
|
"yi-vision-v2": {
|
|
3501
3585
|
"description": "Model do złożonych zadań wizualnych, oferujący wysokowydajną zdolność rozumienia i analizy na podstawie wielu obrazów."
|
|
3502
3586
|
},
|
|
3503
|
-
"z-ai/glm-4.
|
|
3587
|
+
"z-ai/glm-4.5": {
|
|
3588
|
+
"description": "GLM 4.5 to flagowy model firmy Z.AI, obsługujący tryby hybrydowego wnioskowania i zoptymalizowany pod kątem zadań inżynieryjnych i długiego kontekstu."
|
|
3589
|
+
},
|
|
3590
|
+
"z-ai/glm-4.5-air": {
|
|
3591
|
+
"description": "GLM 4.5 Air to lekka wersja GLM 4.5, odpowiednia do scenariuszy wrażliwych na koszty, zachowując przy tym silne zdolności wnioskowania."
|
|
3592
|
+
},
|
|
3593
|
+
"z-ai/glm-4.6": {
|
|
3594
|
+
"description": "GLM 4.6 to flagowy model firmy Z.AI, oferujący rozszerzoną długość kontekstu i ulepszone możliwości kodowania."
|
|
3595
|
+
},
|
|
3504
3596
|
"zai-org/GLM-4.5": {
|
|
3505
3597
|
"description": "GLM-4.5 to podstawowy model zaprojektowany specjalnie do zastosowań agentowych, wykorzystujący architekturę mieszanych ekspertów (Mixture-of-Experts). Model jest głęboko zoptymalizowany pod kątem wywoływania narzędzi, przeglądania stron internetowych, inżynierii oprogramowania i programowania frontendowego, wspierając bezproblemową integrację z inteligentnymi agentami kodu takimi jak Claude Code i Roo Code. GLM-4.5 stosuje hybrydowy tryb wnioskowania, dostosowując się do złożonych i codziennych scenariuszy użycia."
|
|
3506
3598
|
},
|
|
@@ -3521,5 +3613,8 @@
|
|
|
3521
3613
|
},
|
|
3522
3614
|
"zai/glm-4.5v": {
|
|
3523
3615
|
"description": "GLM-4.5V zbudowany jest na bazie GLM-4.5-Air, dziedzicząc zweryfikowane technologie GLM-4.1V-Thinking, jednocześnie skutecznie skalując się dzięki potężnej architekturze MoE z 106 miliardami parametrów."
|
|
3616
|
+
},
|
|
3617
|
+
"zenmux/auto": {
|
|
3618
|
+
"description": "Funkcja automatycznego routingu ZenMux automatycznie wybiera najlepszy model pod względem wydajności i opłacalności spośród obsługiwanych modeli, w zależności od treści Twojego zapytania."
|
|
3524
3619
|
}
|
|
3525
3620
|
}
|
|
@@ -1715,6 +1715,9 @@
|
|
|
1715
1715
|
"google/gemini-2.5-pro-preview": {
|
|
1716
1716
|
"description": "Gemini 2.5 Pro Preview é o modelo de pensamento mais avançado do Google, capaz de raciocinar sobre problemas complexos em código, matemática e áreas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos usando contexto extenso."
|
|
1717
1717
|
},
|
|
1718
|
+
"google/gemini-3-pro-image-preview": {
|
|
1719
|
+
"description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google, com suporte a diálogos multimodais."
|
|
1720
|
+
},
|
|
1718
1721
|
"google/gemini-3-pro-image-preview-free": {
|
|
1719
1722
|
"description": "Versão gratuita do Gemini 3 Pro Image, com suporte limitado para geração multimodal."
|
|
1720
1723
|
},
|