@lobehub/lobehub 2.0.0-next.107 → 2.0.0-next.109
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +58 -0
- package/changelog/v1.json +21 -0
- package/locales/ar/models.json +108 -13
- package/locales/bg-BG/models.json +126 -15
- package/locales/de-DE/models.json +3 -0
- package/locales/en-US/models.json +3 -0
- package/locales/es-ES/models.json +3 -0
- package/locales/fa-IR/models.json +108 -13
- package/locales/fr-FR/models.json +108 -13
- package/locales/it-IT/models.json +3 -0
- package/locales/ja-JP/models.json +108 -13
- package/locales/ko-KR/models.json +108 -13
- package/locales/nl-NL/models.json +3 -0
- package/locales/pl-PL/models.json +108 -13
- package/locales/pt-BR/models.json +3 -0
- package/locales/ru-RU/models.json +126 -15
- package/locales/tr-TR/models.json +108 -13
- package/locales/vi-VN/models.json +3 -0
- package/locales/zh-TW/models.json +3 -0
- package/package.json +1 -1
- package/packages/model-bank/src/aiModels/cometapi.ts +8 -8
- package/packages/model-bank/src/aiModels/fal.ts +2 -2
- package/packages/model-bank/src/aiModels/nebius.ts +1 -1
- package/packages/model-bank/src/aiModels/newapi.ts +3 -3
- package/packages/model-bank/src/aiModels/openai.ts +4 -4
- package/packages/model-bank/src/aiModels/qwen.ts +4 -4
- package/packages/model-bank/src/aiModels/stepfun.ts +1 -1
- package/packages/model-bank/src/aiModels/vercelaigateway.ts +1 -1
- package/packages/model-bank/src/aiModels/volcengine.ts +3 -3
- package/packages/model-bank/src/aiModels/zhipu.ts +1 -1
- package/packages/model-bank/src/types/aiModel.ts +8 -8
- package/src/app/[variants]/(main)/layouts/desktop/SideBar/TopActions.tsx +5 -6
- package/src/app/[variants]/desktopRouter.config.tsx +5 -0
- package/src/app/[variants]/mobileRouter.config.tsx +5 -0
- package/src/features/KnowledgeManager/Home/index.tsx +1 -1
- package/src/hooks/usePinnedAgentState.ts +22 -15
- package/src/layout/GlobalProvider/StoreInitialization.tsx +5 -0
- package/src/server/globalConfig/genServerAiProviderConfig.ts +3 -3
- package/src/server/globalConfig/parseFilesConfig.ts +1 -1
- package/src/server/globalConfig/parseSystemAgent.ts +4 -4
- package/src/store/session/slices/session/action.ts +23 -0
- package/src/store/session/slices/session/initialState.ts +6 -0
- package/src/store/urlHydration/action.ts +56 -0
- package/src/store/urlHydration/index.ts +1 -0
- package/src/store/urlHydration/initialState.ts +12 -0
- package/src/store/urlHydration/store.ts +28 -0
|
@@ -1715,6 +1715,9 @@
|
|
|
1715
1715
|
"google/gemini-2.5-pro-preview": {
|
|
1716
1716
|
"description": "Gemini 2.5 Pro Preview — это самая передовая модель мышления от Google, способная рассуждать над сложными задачами в области кода, математики и STEM, а также анализировать большие наборы данных, кодовые базы и документы с использованием длинного контекста."
|
|
1717
1717
|
},
|
|
1718
|
+
"google/gemini-3-pro-image-preview": {
|
|
1719
|
+
"description": "Gemini 3 Pro Image (Nano Banana Pro) — это модель генерации изображений от Google, поддерживающая мультимодальные диалоги."
|
|
1720
|
+
},
|
|
1718
1721
|
"google/gemini-3-pro-image-preview-free": {
|
|
1719
1722
|
"description": "Бесплатная версия Gemini 3 Pro Image с ограниченным объёмом мультимодальной генерации."
|
|
1720
1723
|
},
|
|
@@ -2198,6 +2201,9 @@
|
|
|
2198
2201
|
"kimi-thinking-preview": {
|
|
2199
2202
|
"description": "Модель kimi-thinking-preview от Moon’s Dark Side — мультимодальная модель мышления с возможностями универсального и глубокого рассуждения, помогает решать более сложные задачи."
|
|
2200
2203
|
},
|
|
2204
|
+
"kuaishou/kat-coder-pro-v1": {
|
|
2205
|
+
"description": "KAT-Coder-Pro-V1 (временно бесплатно) специализируется на понимании кода и автоматизированном программировании, предназначен для эффективных задач программных агентов."
|
|
2206
|
+
},
|
|
2201
2207
|
"learnlm-1.5-pro-experimental": {
|
|
2202
2208
|
"description": "LearnLM — это экспериментальная языковая модель, ориентированная на конкретные задачи, обученная в соответствии с принципами науки о обучении, которая может следовать системным инструкциям в учебных и образовательных сценариях, выступая в роли эксперта-наставника и т.д."
|
|
2203
2209
|
},
|
|
@@ -2528,7 +2534,9 @@
|
|
|
2528
2534
|
"minimax-m2": {
|
|
2529
2535
|
"description": "MiniMax M2 — это высокоэффективная крупная языковая модель, созданная специально для задач программирования и автоматизации рабочих процессов."
|
|
2530
2536
|
},
|
|
2531
|
-
"minimax/minimax-m2": {
|
|
2537
|
+
"minimax/minimax-m2": {
|
|
2538
|
+
"description": "MiniMax-M2 — это высокоэффективная модель с отличной производительностью в задачах кодирования и агентных систем, подходящая для различных инженерных сценариев."
|
|
2539
|
+
},
|
|
2532
2540
|
"minimaxai/minimax-m2": {
|
|
2533
2541
|
"description": "MiniMax-M2 — это компактная, быстрая и экономичная модель с архитектурой смешанных экспертов (MoE), обладающая 230 миллиардами общих параметров и 10 миллиардами активных параметров. Она разработана для достижения выдающейся производительности в задачах кодирования и работы агентов, при этом сохраняя мощную общую интеллектуальность. Модель демонстрирует отличные результаты в редактировании нескольких файлов, замкнутом цикле кодирования-запуска-исправления, проверке и исправлении тестов, а также в сложных цепочках инструментов с длинными связями, что делает её идеальным выбором для рабочих процессов разработчиков."
|
|
2534
2542
|
},
|
|
@@ -2676,10 +2684,21 @@
|
|
|
2676
2684
|
"moonshotai/kimi-k2": {
|
|
2677
2685
|
"description": "Kimi K2 — крупномасштабная смешанная экспертная (MoE) языковая модель с триллионом параметров и 32 миллиардами активных параметров на проход. Оптимизирована для агентных возможностей, включая продвинутое использование инструментов, рассуждения и синтез кода."
|
|
2678
2686
|
},
|
|
2679
|
-
"moonshotai/kimi-k2-
|
|
2687
|
+
"moonshotai/kimi-k2-0711": {
|
|
2688
|
+
"description": "Kimi K2 0711 — это версия Instruct из серии Kimi, подходящая для задач высокого качества кода и вызова инструментов."
|
|
2689
|
+
},
|
|
2690
|
+
"moonshotai/kimi-k2-0905": {
|
|
2691
|
+
"description": "Kimi K2 0905 — обновление серии Kimi от 0905, с улучшенной производительностью в контексте и рассуждении, оптимизировано для задач кодирования."
|
|
2692
|
+
},
|
|
2680
2693
|
"moonshotai/kimi-k2-instruct-0905": {
|
|
2681
2694
|
"description": "Модель kimi-k2-0905-preview с длиной контекста 256k обладает более сильными возможностями агентного кодирования, улучшенной эстетикой и практичностью фронтенд-кода, а также лучшим пониманием контекста."
|
|
2682
2695
|
},
|
|
2696
|
+
"moonshotai/kimi-k2-thinking": {
|
|
2697
|
+
"description": "Kimi K2 Thinking — это модель размышлений от Moonshot, оптимизированная для задач глубокой логики, обладающая универсальными возможностями агента."
|
|
2698
|
+
},
|
|
2699
|
+
"moonshotai/kimi-k2-thinking-turbo": {
|
|
2700
|
+
"description": "Kimi K2 Thinking Turbo — это ускоренная версия Kimi K2 Thinking, которая сохраняет способности к глубокой логике при значительно сниженной задержке отклика."
|
|
2701
|
+
},
|
|
2683
2702
|
"morph/morph-v3-fast": {
|
|
2684
2703
|
"description": "Morph предлагает специализированную ИИ-модель, которая быстро применяет изменения к вашему существующему коду, рекомендованные передовыми моделями, такими как Claude или GPT-4o — скорость более 4500 токенов в секунду. Является завершающим этапом в рабочем процессе ИИ-кодирования. Поддерживает 16k входных и 16k выходных токенов."
|
|
2685
2704
|
},
|
|
@@ -2761,14 +2780,51 @@
|
|
|
2761
2780
|
"openai/gpt-4-turbo": {
|
|
2762
2781
|
"description": "gpt-4-turbo от OpenAI обладает обширными универсальными знаниями и экспертными областями, позволяя следовать сложным инструкциям на естественном языке и точно решать сложные задачи. Дата отсечения знаний — апрель 2023 года, окно контекста — 128 000 токенов."
|
|
2763
2782
|
},
|
|
2764
|
-
"openai/gpt-4.1": {
|
|
2765
|
-
|
|
2766
|
-
|
|
2767
|
-
"openai/gpt-
|
|
2768
|
-
|
|
2769
|
-
|
|
2770
|
-
"openai/gpt-
|
|
2771
|
-
|
|
2783
|
+
"openai/gpt-4.1": {
|
|
2784
|
+
"description": "Серия GPT-4.1 предлагает увеличенный контекст и улучшенные инженерные и логические возможности."
|
|
2785
|
+
},
|
|
2786
|
+
"openai/gpt-4.1-mini": {
|
|
2787
|
+
"description": "GPT-4.1 Mini обеспечивает меньшую задержку и лучшую стоимость, подходящ для средних по объему задач с контекстом."
|
|
2788
|
+
},
|
|
2789
|
+
"openai/gpt-4.1-nano": {
|
|
2790
|
+
"description": "GPT-4.1 Nano — это вариант с крайне низкой стоимостью и задержкой, подходящий для частых коротких диалогов или задач классификации."
|
|
2791
|
+
},
|
|
2792
|
+
"openai/gpt-4o": {
|
|
2793
|
+
"description": "Серия GPT-4o — это Omni-модель от OpenAI, поддерживающая ввод текста и изображений с текстовым выводом."
|
|
2794
|
+
},
|
|
2795
|
+
"openai/gpt-4o-mini": {
|
|
2796
|
+
"description": "GPT-4o-mini — это компактная и быстрая версия GPT-4o, подходящая для сценариев с низкой задержкой и смешанным вводом текста и изображений."
|
|
2797
|
+
},
|
|
2798
|
+
"openai/gpt-5": {
|
|
2799
|
+
"description": "GPT-5 — это высокопроизводительная модель от OpenAI, предназначенная для широкого спектра производственных и исследовательских задач."
|
|
2800
|
+
},
|
|
2801
|
+
"openai/gpt-5-chat": {
|
|
2802
|
+
"description": "GPT-5 Chat — это подмодель GPT-5, оптимизированная для диалогов, с пониженной задержкой для улучшения интерактивного опыта."
|
|
2803
|
+
},
|
|
2804
|
+
"openai/gpt-5-codex": {
|
|
2805
|
+
"description": "GPT-5-Codex — это вариант GPT-5, дополнительно оптимизированный для задач программирования, подходящий для масштабных рабочих процессов с кодом."
|
|
2806
|
+
},
|
|
2807
|
+
"openai/gpt-5-mini": {
|
|
2808
|
+
"description": "GPT-5 Mini — это облегчённая версия семейства GPT-5, предназначенная для сценариев с низкой задержкой и стоимостью."
|
|
2809
|
+
},
|
|
2810
|
+
"openai/gpt-5-nano": {
|
|
2811
|
+
"description": "GPT-5 Nano — это ультракомпактная версия семейства, подходящая для задач с крайне высокими требованиями к стоимости и задержке."
|
|
2812
|
+
},
|
|
2813
|
+
"openai/gpt-5-pro": {
|
|
2814
|
+
"description": "GPT-5 Pro — это флагманская модель от OpenAI, обеспечивающая улучшенные возможности логики, генерации кода и корпоративные функции, поддерживает маршрутизацию при тестировании и более строгие политики безопасности."
|
|
2815
|
+
},
|
|
2816
|
+
"openai/gpt-5.1": {
|
|
2817
|
+
"description": "GPT-5.1 — это новейшая флагманская модель серии GPT-5, с заметными улучшениями в универсальной логике, следовании инструкциям и естественности диалогов, подходящая для широкого круга задач."
|
|
2818
|
+
},
|
|
2819
|
+
"openai/gpt-5.1-chat": {
|
|
2820
|
+
"description": "GPT-5.1 Chat — это облегчённый представитель семейства GPT-5.1, оптимизированный для диалогов с низкой задержкой, при этом сохраняющий сильные логические и исполнительные способности."
|
|
2821
|
+
},
|
|
2822
|
+
"openai/gpt-5.1-codex": {
|
|
2823
|
+
"description": "GPT-5.1-Codex — это вариант GPT-5.1, оптимизированный для задач программной инженерии и рабочих процессов кодирования, подходящий для крупных рефакторингов, сложной отладки и длительных автономных задач программирования."
|
|
2824
|
+
},
|
|
2825
|
+
"openai/gpt-5.1-codex-mini": {
|
|
2826
|
+
"description": "GPT-5.1-Codex-Mini — это компактная и ускоренная версия GPT-5.1-Codex, более подходящая для задач программирования с чувствительностью к задержке и стоимости."
|
|
2827
|
+
},
|
|
2772
2828
|
"openai/gpt-oss-120b": {
|
|
2773
2829
|
"description": "Чрезвычайно мощная универсальная крупномасштабная языковая модель с сильными и управляемыми возможностями рассуждения."
|
|
2774
2830
|
},
|
|
@@ -2793,7 +2849,9 @@
|
|
|
2793
2849
|
"openai/o3-mini-high": {
|
|
2794
2850
|
"description": "o3-mini high — версия с высоким уровнем вывода, которая обеспечивает высокий интеллект при тех же целях по стоимости и задержке, что и o1-mini."
|
|
2795
2851
|
},
|
|
2796
|
-
"openai/o4-mini": {
|
|
2852
|
+
"openai/o4-mini": {
|
|
2853
|
+
"description": "OpenAI o4-mini — это компактная и эффективная модель логики от OpenAI, подходящая для сценариев с низкой задержкой."
|
|
2854
|
+
},
|
|
2797
2855
|
"openai/o4-mini-high": {
|
|
2798
2856
|
"description": "o4-mini версия с высоким уровнем вывода, оптимизированная для быстрого и эффективного вывода, демонстрирующая высокую эффективность и производительность в задачах кодирования и визуализации."
|
|
2799
2857
|
},
|
|
@@ -2995,13 +3053,21 @@
|
|
|
2995
3053
|
"qwen/qwen2.5-coder-7b-instruct": {
|
|
2996
3054
|
"description": "Мощная средняя модель кода, поддерживающая контекст длиной 32K, специализирующаяся на многоязычном программировании."
|
|
2997
3055
|
},
|
|
2998
|
-
"qwen/qwen3-14b": {
|
|
3056
|
+
"qwen/qwen3-14b": {
|
|
3057
|
+
"description": "Qwen3-14B — это версия 14B из серии Qwen, подходящая для стандартных задач логики и диалогов."
|
|
3058
|
+
},
|
|
2999
3059
|
"qwen/qwen3-14b:free": {
|
|
3000
3060
|
"description": "Qwen3-14B — это компактная языковая модель с 14 миллиардами параметров из серии Qwen3, специально разработанная для сложного вывода и эффективного диалога. Она поддерживает бесшовное переключение между режимом размышления для задач, таких как математика, программирование и логический вывод, и неразмышляющим режимом для общего диалога. Эта модель была дообучена для выполнения инструкций, использования инструментов агентов, креативного письма и многоязычных задач на более чем 100 языках и диалектах. Она изначально обрабатывает контекст в 32K токенов и может быть расширена до 131K токенов с помощью YaRN."
|
|
3001
3061
|
},
|
|
3002
3062
|
"qwen/qwen3-235b-a22b": {
|
|
3003
3063
|
"description": "Qwen3-235B-A22B — это модель смешанной экспертизы (MoE) с 235 миллиардами параметров, разработанная Qwen, которая активирует 22 миллиарда параметров за один проход. Она поддерживает бесшовное переключение между режимом размышления для сложного вывода, математики и кодирования и неразмышляющим режимом для общей диалоговой эффективности. Эта модель демонстрирует мощные способности вывода, многоязычную поддержку (более 100 языков и диалектов), высокую точность выполнения инструкций и вызов инструментов агентов. Она изначально обрабатывает контекстное окно в 32K токенов и может быть расширена до 131K токенов с помощью YaRN."
|
|
3004
3064
|
},
|
|
3065
|
+
"qwen/qwen3-235b-a22b-2507": {
|
|
3066
|
+
"description": "Qwen3-235B-A22B-Instruct-2507 — это версия Instruct из серии Qwen3, сочетающая поддержку многоязычных инструкций и длинного контекста."
|
|
3067
|
+
},
|
|
3068
|
+
"qwen/qwen3-235b-a22b-thinking-2507": {
|
|
3069
|
+
"description": "Qwen3-235B-A22B-Thinking-2507 — это Thinking-вариант Qwen3, усиленный для сложных математических и логических задач."
|
|
3070
|
+
},
|
|
3005
3071
|
"qwen/qwen3-235b-a22b:free": {
|
|
3006
3072
|
"description": "Qwen3-235B-A22B — это модель смешанной экспертизы (MoE) с 235 миллиардами параметров, разработанная Qwen, которая активирует 22 миллиарда параметров за один проход. Она поддерживает бесшовное переключение между режимом размышления для сложного вывода, математики и кодирования и неразмышляющим режимом для общей диалоговой эффективности. Эта модель демонстрирует мощные способности вывода, многоязычную поддержку (более 100 языков и диалектов), высокую точность выполнения инструкций и вызов инструментов агентов. Она изначально обрабатывает контекстное окно в 32K токенов и может быть расширена до 131K токенов с помощью YaRN."
|
|
3007
3073
|
},
|
|
@@ -3020,6 +3086,21 @@
|
|
|
3020
3086
|
"qwen/qwen3-8b:free": {
|
|
3021
3087
|
"description": "Qwen3-8B — это компактная языковая модель с 8 миллиардами параметров из серии Qwen3, специально разработанная для задач, требующих интенсивного вывода, и эффективного диалога. Она поддерживает бесшовное переключение между режимом размышления для математики, программирования и логического вывода и неразмышляющим режимом для общего диалога. Эта модель была дообучена для выполнения инструкций, интеграции агентов, креативного письма и многоязычного использования на более чем 100 языках и диалектах. Она изначально поддерживает контекстное окно в 32K токенов и может быть расширена до 131K токенов с помощью YaRN."
|
|
3022
3088
|
},
|
|
3089
|
+
"qwen/qwen3-coder": {
|
|
3090
|
+
"description": "Qwen3-Coder — это семейство генераторов кода из серии Qwen3, специализирующееся на понимании и генерации кода в длинных документах."
|
|
3091
|
+
},
|
|
3092
|
+
"qwen/qwen3-coder-plus": {
|
|
3093
|
+
"description": "Qwen3-Coder-Plus — это специально оптимизированная модель программного агента из серии Qwen, поддерживающая более сложные вызовы инструментов и длительные сессии."
|
|
3094
|
+
},
|
|
3095
|
+
"qwen/qwen3-max": {
|
|
3096
|
+
"description": "Qwen3 Max — это высокоуровневая модель логики из серии Qwen3, подходящая для многоязычного вывода и интеграции инструментов."
|
|
3097
|
+
},
|
|
3098
|
+
"qwen/qwen3-max-preview": {
|
|
3099
|
+
"description": "Qwen3 Max (preview) — это предварительная версия Max из серии Qwen, ориентированная на продвинутую логику и интеграцию инструментов."
|
|
3100
|
+
},
|
|
3101
|
+
"qwen/qwen3-vl-plus": {
|
|
3102
|
+
"description": "Qwen3 VL-Plus — это визуально расширенная версия Qwen3, с улучшенными возможностями мультимодальной логики и обработки видео."
|
|
3103
|
+
},
|
|
3023
3104
|
"qwen2": {
|
|
3024
3105
|
"description": "Qwen2 — это новое поколение крупномасштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных приложений."
|
|
3025
3106
|
},
|
|
@@ -3395,6 +3476,9 @@
|
|
|
3395
3476
|
"vercel/v0-1.5-md": {
|
|
3396
3477
|
"description": "Доступ к модели v0 для генерации, исправления и оптимизации современных веб-приложений с рассуждениями, специфичными для фреймворков, и актуальными знаниями."
|
|
3397
3478
|
},
|
|
3479
|
+
"volcengine/doubao-seed-code": {
|
|
3480
|
+
"description": "Doubao-Seed-Code — это крупная модель от Volcengine, оптимизированная для Agentic Programming, демонстрирующая выдающиеся результаты в различных задачах программирования и агентных систем, поддерживает контекст до 256K."
|
|
3481
|
+
},
|
|
3398
3482
|
"wan2.2-t2i-flash": {
|
|
3399
3483
|
"description": "Экспресс-версия Wanxiang 2.2 — самая новая модель на данный момент. Полное обновление в креативности, стабильности и реалистичности, высокая скорость генерации и отличное соотношение цена-качество."
|
|
3400
3484
|
},
|
|
@@ -3422,8 +3506,24 @@
|
|
|
3422
3506
|
"wizardlm2:8x22b": {
|
|
3423
3507
|
"description": "WizardLM 2 — это языковая модель, предоставляемая Microsoft AI, которая особенно хорошо проявляет себя в сложных диалогах, многоязычных задачах, выводе и интеллектуальных помощниках."
|
|
3424
3508
|
},
|
|
3425
|
-
"x-ai/grok-4
|
|
3426
|
-
|
|
3509
|
+
"x-ai/grok-4": {
|
|
3510
|
+
"description": "Grok 4 — это флагманская модель логики от xAI, обладающая мощными возможностями логики и мультимодальности."
|
|
3511
|
+
},
|
|
3512
|
+
"x-ai/grok-4-fast": {
|
|
3513
|
+
"description": "Grok 4 Fast — это высокопроизводительная и недорогая модель от xAI (поддерживает окно контекста 2M), подходящая для сценариев с высокой нагрузкой и длинным контекстом."
|
|
3514
|
+
},
|
|
3515
|
+
"x-ai/grok-4-fast-non-reasoning": {
|
|
3516
|
+
"description": "Grok 4 Fast (Non-Reasoning) — это высокопроизводительная и недорогая мультимодальная модель от xAI (поддерживает окно контекста 2M), предназначенная для сценариев, чувствительных к задержке и стоимости, но не требующих включения логики внутри модели. Она работает параллельно с версией reasoning и может переключаться через параметр reasoning enable в API. Запросы и ответы могут использоваться xAI или OpenRouter для улучшения будущих моделей."
|
|
3517
|
+
},
|
|
3518
|
+
"x-ai/grok-4.1-fast": {
|
|
3519
|
+
"description": "Grok 4 Fast — это высокопроизводительная и недорогая модель от xAI (поддерживает окно контекста 2M), подходящая для сценариев с высокой нагрузкой и длинным контекстом."
|
|
3520
|
+
},
|
|
3521
|
+
"x-ai/grok-4.1-fast-non-reasoning": {
|
|
3522
|
+
"description": "Grok 4 Fast (Non-Reasoning) — это высокопроизводительная и недорогая мультимодальная модель от xAI (поддерживает окно контекста 2M), предназначенная для сценариев, чувствительных к задержке и стоимости, но не требующих включения логики внутри модели. Она работает параллельно с версией reasoning и может переключаться через параметр reasoning enable в API. Запросы и ответы могут использоваться xAI или OpenRouter для улучшения будущих моделей."
|
|
3523
|
+
},
|
|
3524
|
+
"x-ai/grok-code-fast-1": {
|
|
3525
|
+
"description": "Grok Code Fast 1 — это быстрая модель генерации кода от xAI, обеспечивающая читаемый и инженерно пригодный вывод."
|
|
3526
|
+
},
|
|
3427
3527
|
"x1": {
|
|
3428
3528
|
"description": "Модель Spark X1 будет дополнительно обновлена, и на основе уже существующих лидерских позиций в математических задачах, достигнет сопоставимых результатов в общих задачах, таких как рассуждение, генерация текста и понимание языка, с OpenAI o1 и DeepSeek R1."
|
|
3429
3529
|
},
|
|
@@ -3484,7 +3584,15 @@
|
|
|
3484
3584
|
"yi-vision-v2": {
|
|
3485
3585
|
"description": "Модель для сложных визуальных задач, обеспечивающая высокопроизводительное понимание и анализ на основе нескольких изображений."
|
|
3486
3586
|
},
|
|
3487
|
-
"z-ai/glm-4.
|
|
3587
|
+
"z-ai/glm-4.5": {
|
|
3588
|
+
"description": "GLM 4.5 — это флагманская модель от Z.AI, поддерживающая гибридный режим логики и оптимизированная для инженерных задач и длинного контекста."
|
|
3589
|
+
},
|
|
3590
|
+
"z-ai/glm-4.5-air": {
|
|
3591
|
+
"description": "GLM 4.5 Air — это облегчённая версия GLM 4.5, подходящая для сценариев с ограниченным бюджетом, при этом сохраняющая сильные логические способности."
|
|
3592
|
+
},
|
|
3593
|
+
"z-ai/glm-4.6": {
|
|
3594
|
+
"description": "GLM 4.6 — это флагманская модель от Z.AI с расширенной длиной контекста и улучшенными возможностями кодирования."
|
|
3595
|
+
},
|
|
3488
3596
|
"zai-org/GLM-4.5": {
|
|
3489
3597
|
"description": "GLM-4.5 — базовая модель, специально созданная для приложений с агентами, использующая архитектуру смешанных экспертов (Mixture-of-Experts). Модель глубоко оптимизирована для вызова инструментов, веб-браузинга, программной инженерии и фронтенд-разработки, поддерживает бесшовную интеграцию с кодовыми агентами, такими как Claude Code и Roo Code. GLM-4.5 использует смешанный режим вывода, адаптируясь к сложным рассуждениям и повседневным задачам."
|
|
3490
3598
|
},
|
|
@@ -3505,5 +3613,8 @@
|
|
|
3505
3613
|
},
|
|
3506
3614
|
"zai/glm-4.5v": {
|
|
3507
3615
|
"description": "GLM-4.5V построена на базе GLM-4.5-Air, наследуя проверенные технологии GLM-4.1V-Thinking и обеспечивая эффективное масштабирование благодаря мощной архитектуре MoE с 106 миллиардами параметров."
|
|
3616
|
+
},
|
|
3617
|
+
"zenmux/auto": {
|
|
3618
|
+
"description": "Функция автоматической маршрутизации ZenMux автоматически выбирает наиболее эффективную и производительную модель из поддерживаемых, в зависимости от содержания вашего запроса."
|
|
3508
3619
|
}
|
|
3509
3620
|
}
|
|
@@ -1715,6 +1715,9 @@
|
|
|
1715
1715
|
"google/gemini-2.5-pro-preview": {
|
|
1716
1716
|
"description": "Gemini 2.5 Pro Önizlemesi, Google'ın en gelişmiş düşünce modeli olup, kodlama, matematik ve STEM alanlarındaki karmaşık sorunları çözme yeteneğine sahiptir ve uzun bağlam kullanarak büyük veri setleri, kod tabanları ve belgeleri analiz edebilir."
|
|
1717
1717
|
},
|
|
1718
|
+
"google/gemini-3-pro-image-preview": {
|
|
1719
|
+
"description": "Gemini 3 Pro Image (Nano Banana Pro), Google'ın görüntü oluşturma modelidir ve çok modlu diyalogları destekler."
|
|
1720
|
+
},
|
|
1718
1721
|
"google/gemini-3-pro-image-preview-free": {
|
|
1719
1722
|
"description": "Gemini 3 Pro Image ücretsiz sürümüdür; sınırlı çok modlu üretim kotasını destekler."
|
|
1720
1723
|
},
|
|
@@ -2777,14 +2780,51 @@
|
|
|
2777
2780
|
"openai/gpt-4-turbo": {
|
|
2778
2781
|
"description": "OpenAI'den gpt-4-turbo, geniş genel bilgi ve alan uzmanlığına sahip olup, karmaşık doğal dil talimatlarını takip edebilir ve zor problemleri doğru şekilde çözebilir. Bilgi kesim tarihi Nisan 2023'tür ve 128.000 token bağlam penceresine sahiptir."
|
|
2779
2782
|
},
|
|
2780
|
-
"openai/gpt-4.1": {
|
|
2781
|
-
|
|
2782
|
-
|
|
2783
|
-
"openai/gpt-
|
|
2784
|
-
|
|
2785
|
-
|
|
2786
|
-
"openai/gpt-
|
|
2787
|
-
|
|
2783
|
+
"openai/gpt-4.1": {
|
|
2784
|
+
"description": "GPT-4.1 serisi, daha geniş bağlam ve daha güçlü mühendislik ile akıl yürütme yetenekleri sunar."
|
|
2785
|
+
},
|
|
2786
|
+
"openai/gpt-4.1-mini": {
|
|
2787
|
+
"description": "GPT-4.1 Mini, daha düşük gecikme ve daha iyi maliyet-performans oranı sunar, orta düzey bağlamlı senaryolar için uygundur."
|
|
2788
|
+
},
|
|
2789
|
+
"openai/gpt-4.1-nano": {
|
|
2790
|
+
"description": "GPT-4.1 Nano, son derece düşük maliyetli ve düşük gecikmeli bir seçenektir, sık tekrarlanan kısa diyaloglar veya sınıflandırma senaryoları için idealdir."
|
|
2791
|
+
},
|
|
2792
|
+
"openai/gpt-4o": {
|
|
2793
|
+
"description": "GPT-4o serisi, OpenAI'nin Omni modelidir; metin + görsel girdi ve metin çıktısını destekler."
|
|
2794
|
+
},
|
|
2795
|
+
"openai/gpt-4o-mini": {
|
|
2796
|
+
"description": "GPT-4o-mini, GPT-4o'nun hızlı ve küçük model versiyonudur, düşük gecikmeli metin-görsel karışık senaryolar için uygundur."
|
|
2797
|
+
},
|
|
2798
|
+
"openai/gpt-5": {
|
|
2799
|
+
"description": "GPT-5, OpenAI'nin yüksek performanslı modelidir ve geniş üretim ile araştırma görevleri için uygundur."
|
|
2800
|
+
},
|
|
2801
|
+
"openai/gpt-5-chat": {
|
|
2802
|
+
"description": "GPT-5 Chat, diyalog senaryoları için optimize edilmiş GPT-5 alt modelidir, etkileşim deneyimini artırmak için gecikmeyi azaltır."
|
|
2803
|
+
},
|
|
2804
|
+
"openai/gpt-5-codex": {
|
|
2805
|
+
"description": "GPT-5-Codex, kodlama senaryoları için daha da optimize edilmiş bir GPT-5 varyantıdır, büyük ölçekli kod iş akışları için uygundur."
|
|
2806
|
+
},
|
|
2807
|
+
"openai/gpt-5-mini": {
|
|
2808
|
+
"description": "GPT-5 Mini, GPT-5 ailesinin hafifletilmiş versiyonudur, düşük gecikme ve düşük maliyetli senaryolar için uygundur."
|
|
2809
|
+
},
|
|
2810
|
+
"openai/gpt-5-nano": {
|
|
2811
|
+
"description": "GPT-5 Nano, ailenin ultra küçük versiyonudur, maliyet ve gecikme açısından çok hassas senaryolar için uygundur."
|
|
2812
|
+
},
|
|
2813
|
+
"openai/gpt-5-pro": {
|
|
2814
|
+
"description": "GPT-5 Pro, OpenAI'nin amiral gemisi modelidir; daha güçlü akıl yürütme, kod üretimi ve kurumsal düzeyde işlevler sunar, test sırasında yönlendirme ve daha sıkı güvenlik politikalarını destekler."
|
|
2815
|
+
},
|
|
2816
|
+
"openai/gpt-5.1": {
|
|
2817
|
+
"description": "GPT-5.1, GPT-5 serisinin en yeni amiral gemisi modelidir; genel akıl yürütme, talimatlara uyum ve doğal diyalog alanlarında GPT-5'e göre önemli gelişmeler sunar, çok çeşitli görevler için uygundur."
|
|
2818
|
+
},
|
|
2819
|
+
"openai/gpt-5.1-chat": {
|
|
2820
|
+
"description": "GPT-5.1 Chat, GPT-5.1 ailesinin hafif üyesidir; düşük gecikmeli diyaloglar için optimize edilmiştir ve güçlü akıl yürütme ile talimat uygulama yeteneklerini korur."
|
|
2821
|
+
},
|
|
2822
|
+
"openai/gpt-5.1-codex": {
|
|
2823
|
+
"description": "GPT-5.1-Codex, yazılım mühendisliği ve kodlama iş akışları için optimize edilmiş bir GPT-5.1 varyantıdır; büyük yeniden yapılandırmalar, karmaşık hata ayıklama ve uzun süreli otonom kodlama görevleri için uygundur."
|
|
2824
|
+
},
|
|
2825
|
+
"openai/gpt-5.1-codex-mini": {
|
|
2826
|
+
"description": "GPT-5.1-Codex-Mini, GPT-5.1-Codex'in küçük ve hızlandırılmış versiyonudur; gecikme ve maliyet açısından hassas kodlama senaryoları için daha uygundur."
|
|
2827
|
+
},
|
|
2788
2828
|
"openai/gpt-oss-120b": {
|
|
2789
2829
|
"description": "Son derece yetenekli genel amaçlı büyük dil modeli olup, güçlü ve kontrol edilebilir çıkarım yeteneklerine sahiptir."
|
|
2790
2830
|
},
|
|
@@ -2809,7 +2849,9 @@
|
|
|
2809
2849
|
"openai/o3-mini-high": {
|
|
2810
2850
|
"description": "o3-mini yüksek akıl yürütme seviyesi, o1-mini ile aynı maliyet ve gecikme hedefleri altında yüksek zeka sunar."
|
|
2811
2851
|
},
|
|
2812
|
-
"openai/o4-mini": {
|
|
2852
|
+
"openai/o4-mini": {
|
|
2853
|
+
"description": "OpenAI o4-mini, düşük gecikmeli senaryolar için uygun olan OpenAI'nin küçük ve verimli akıl yürütme modelidir."
|
|
2854
|
+
},
|
|
2813
2855
|
"openai/o4-mini-high": {
|
|
2814
2856
|
"description": "o4-mini yüksek çıkarım seviyesinde, hızlı ve etkili çıkarım için optimize edilmiştir ve kodlama ile görsel görevlerde son derece yüksek verimlilik ve performans sergiler."
|
|
2815
2857
|
},
|
|
@@ -3011,13 +3053,21 @@
|
|
|
3011
3053
|
"qwen/qwen2.5-coder-7b-instruct": {
|
|
3012
3054
|
"description": "Güçlü orta ölçekli kod modeli, 32K bağlam uzunluğunu destekler, çok dilli programlama konusunda uzmandır."
|
|
3013
3055
|
},
|
|
3014
|
-
"qwen/qwen3-14b": {
|
|
3056
|
+
"qwen/qwen3-14b": {
|
|
3057
|
+
"description": "Qwen3-14B, Qwen serisinin 14B versiyonudur; genel akıl yürütme ve diyalog senaryoları için uygundur."
|
|
3058
|
+
},
|
|
3015
3059
|
"qwen/qwen3-14b:free": {
|
|
3016
3060
|
"description": "Qwen3-14B, Qwen3 serisindeki yoğun 14.8 milyar parametreli nedensel dil modelidir ve karmaşık akıl yürütme ve etkili diyalog için tasarlanmıştır. Matematik, programlama ve mantık akıl yürütme gibi görevler için 'düşünme' modu ile genel diyalog için 'düşünmeme' modu arasında sorunsuz geçiş yapmayı destekler. Bu model, talimat takibi, ajan araç kullanımı, yaratıcı yazım ve 100'den fazla dil ve lehçede çok dilli görevler için ince ayar yapılmıştır. 32K token bağlamını yerel olarak işler ve YaRN tabanlı genişletme ile 131K token'a kadar genişletilebilir."
|
|
3017
3061
|
},
|
|
3018
3062
|
"qwen/qwen3-235b-a22b": {
|
|
3019
3063
|
"description": "Qwen3-235B-A22B, Qwen tarafından geliştirilen 235B parametreli uzman karışımı (MoE) modelidir ve her ileri geçişte 22B parametreyi etkinleştirir. Karmaşık akıl yürütme, matematik ve kod görevleri için 'düşünme' modu ile genel diyalog verimliliği için 'düşünmeme' modu arasında sorunsuz geçiş yapmayı destekler. Bu model, güçlü akıl yürütme yetenekleri, çok dilli destek (100'den fazla dil ve lehçe), ileri düzey talimat takibi ve ajan araç çağırma yetenekleri sergiler. 32K token bağlam penceresini yerel olarak işler ve YaRN tabanlı genişletme ile 131K token'a kadar genişletilebilir."
|
|
3020
3064
|
},
|
|
3065
|
+
"qwen/qwen3-235b-a22b-2507": {
|
|
3066
|
+
"description": "Qwen3-235B-A22B-Instruct-2507, Qwen3 serisinin Instruct versiyonudur; çok dilli talimatlar ve uzun bağlam senaryolarını dengeler."
|
|
3067
|
+
},
|
|
3068
|
+
"qwen/qwen3-235b-a22b-thinking-2507": {
|
|
3069
|
+
"description": "Qwen3-235B-A22B-Thinking-2507, Qwen3'ün Thinking varyantıdır; karmaşık matematik ve akıl yürütme görevleri için güçlendirilmiştir."
|
|
3070
|
+
},
|
|
3021
3071
|
"qwen/qwen3-235b-a22b:free": {
|
|
3022
3072
|
"description": "Qwen3-235B-A22B, Qwen tarafından geliştirilen 235B parametreli uzman karışımı (MoE) modelidir ve her ileri geçişte 22B parametreyi etkinleştirir. Karmaşık akıl yürütme, matematik ve kod görevleri için 'düşünme' modu ile genel diyalog verimliliği için 'düşünmeme' modu arasında sorunsuz geçiş yapmayı destekler. Bu model, güçlü akıl yürütme yetenekleri, çok dilli destek (100'den fazla dil ve lehçe), ileri düzey talimat takibi ve ajan araç çağırma yetenekleri sergiler. 32K token bağlam penceresini yerel olarak işler ve YaRN tabanlı genişletme ile 131K token'a kadar genişletilebilir."
|
|
3023
3073
|
},
|
|
@@ -3036,6 +3086,21 @@
|
|
|
3036
3086
|
"qwen/qwen3-8b:free": {
|
|
3037
3087
|
"description": "Qwen3-8B, Qwen3 serisindeki yoğun 8.2 milyar parametreli nedensel dil modelidir ve akıl yürütme yoğun görevler ve etkili diyalog için tasarlanmıştır. Matematik, kodlama ve mantık akıl yürütme için 'düşünme' modu ile genel diyalog için 'düşünmeme' modu arasında sorunsuz geçiş yapmayı destekler. Bu model, talimat takibi, ajan entegrasyonu, yaratıcı yazım ve 100'den fazla dil ve lehçede çok dilli kullanım için ince ayar yapılmıştır. 32K token bağlam penceresini yerel olarak destekler ve YaRN aracılığıyla 131K token'a genişletilebilir."
|
|
3038
3088
|
},
|
|
3089
|
+
"qwen/qwen3-coder": {
|
|
3090
|
+
"description": "Qwen3-Coder, Qwen3'ün kod üretici ailesidir; uzun belgelerdeki kodu anlama ve üretme konusunda uzmandır."
|
|
3091
|
+
},
|
|
3092
|
+
"qwen/qwen3-coder-plus": {
|
|
3093
|
+
"description": "Qwen3-Coder-Plus, Qwen serisi için özel olarak optimize edilmiş bir kodlama ajan modelidir; daha karmaşık araç çağrıları ve uzun süreli oturumları destekler."
|
|
3094
|
+
},
|
|
3095
|
+
"qwen/qwen3-max": {
|
|
3096
|
+
"description": "Qwen3 Max, Qwen3 serisinin üst düzey akıl yürütme modelidir; çok dilli akıl yürütme ve araç entegrasyonu için uygundur."
|
|
3097
|
+
},
|
|
3098
|
+
"qwen/qwen3-max-preview": {
|
|
3099
|
+
"description": "Qwen3 Max (önizleme), Qwen serisinin gelişmiş akıl yürütme ve araç entegrasyonu için tasarlanmış Max versiyonudur (önizleme sürümü)."
|
|
3100
|
+
},
|
|
3101
|
+
"qwen/qwen3-vl-plus": {
|
|
3102
|
+
"description": "Qwen3 VL-Plus, Qwen3'ün görsel olarak geliştirilmiş versiyonudur; çok modlu akıl yürütme ve video işleme yeteneklerini artırır."
|
|
3103
|
+
},
|
|
3039
3104
|
"qwen2": {
|
|
3040
3105
|
"description": "Qwen2, Alibaba'nın yeni nesil büyük ölçekli dil modelidir, mükemmel performans ile çeşitli uygulama ihtiyaçlarını destekler."
|
|
3041
3106
|
},
|
|
@@ -3411,6 +3476,9 @@
|
|
|
3411
3476
|
"vercel/v0-1.5-md": {
|
|
3412
3477
|
"description": "Modern web uygulamaları oluşturmak, düzeltmek ve optimize etmek için v0 arkasındaki modele erişim; belirli çerçeveler için çıkarım ve güncel bilgi içerir."
|
|
3413
3478
|
},
|
|
3479
|
+
"volcengine/doubao-seed-code": {
|
|
3480
|
+
"description": "Doubao-Seed-Code, ByteDance Volcengine tarafından Agentic Programming için optimize edilmiş büyük bir modeldir; birçok programlama ve ajan benchmark'ında üstün performans gösterir ve 256K bağlamı destekler."
|
|
3481
|
+
},
|
|
3414
3482
|
"wan2.2-t2i-flash": {
|
|
3415
3483
|
"description": "Wanxiang 2.2 hızlı sürüm, mevcut en yeni modeldir. Yaratıcılık, kararlılık ve gerçekçilikte kapsamlı yükseltmeler sunar; hızlı üretim hızı ve yüksek maliyet performansı sağlar."
|
|
3416
3484
|
},
|
|
@@ -3438,8 +3506,24 @@
|
|
|
3438
3506
|
"wizardlm2:8x22b": {
|
|
3439
3507
|
"description": "WizardLM 2, Microsoft AI tarafından sunulan bir dil modelidir, karmaşık diyaloglar, çok dilli, akıl yürütme ve akıllı asistan alanlarında özellikle başarılıdır."
|
|
3440
3508
|
},
|
|
3441
|
-
"x-ai/grok-4
|
|
3442
|
-
|
|
3509
|
+
"x-ai/grok-4": {
|
|
3510
|
+
"description": "Grok 4, xAI'nin amiral gemisi akıl yürütme modelidir; güçlü akıl yürütme ve çok modlu yetenekler sunar."
|
|
3511
|
+
},
|
|
3512
|
+
"x-ai/grok-4-fast": {
|
|
3513
|
+
"description": "Grok 4 Fast, xAI'nin yüksek verimli, düşük maliyetli modelidir (2M bağlam penceresini destekler); yüksek eşzamanlılık ve uzun bağlam gerektiren senaryolar için uygundur."
|
|
3514
|
+
},
|
|
3515
|
+
"x-ai/grok-4-fast-non-reasoning": {
|
|
3516
|
+
"description": "Grok 4 Fast (Non-Reasoning), xAI'nin yüksek verimli, düşük maliyetli çok modlu modelidir (2M bağlam penceresini destekler); gecikme ve maliyet açısından hassas ancak model içi akıl yürütmeye ihtiyaç duymayan senaryolar için tasarlanmıştır. Bu model, Grok 4 Fast'in akıl yürütme versiyonu ile paralel çalışır ve API'deki reasoning enable parametresi ile gerektiğinde akıl yürütme özelliği etkinleştirilebilir. Prompts ve completions, xAI veya OpenRouter tarafından gelecekteki modellerin iyileştirilmesi için kullanılabilir."
|
|
3517
|
+
},
|
|
3518
|
+
"x-ai/grok-4.1-fast": {
|
|
3519
|
+
"description": "Grok 4 Fast, xAI'nin yüksek verimli, düşük maliyetli modelidir (2M bağlam penceresini destekler); yüksek eşzamanlılık ve uzun bağlam gerektiren senaryolar için uygundur."
|
|
3520
|
+
},
|
|
3521
|
+
"x-ai/grok-4.1-fast-non-reasoning": {
|
|
3522
|
+
"description": "Grok 4 Fast (Non-Reasoning), xAI'nin yüksek verimli, düşük maliyetli çok modlu modelidir (2M bağlam penceresini destekler); gecikme ve maliyet açısından hassas ancak model içi akıl yürütmeye ihtiyaç duymayan senaryolar için tasarlanmıştır. Bu model, Grok 4 Fast'in akıl yürütme versiyonu ile paralel çalışır ve API'deki reasoning enable parametresi ile gerektiğinde akıl yürütme özelliği etkinleştirilebilir. Prompts ve completions, xAI veya OpenRouter tarafından gelecekteki modellerin iyileştirilmesi için kullanılabilir."
|
|
3523
|
+
},
|
|
3524
|
+
"x-ai/grok-code-fast-1": {
|
|
3525
|
+
"description": "Grok Code Fast 1, xAI'nin hızlı kodlama modelidir; okunabilirlik ve mühendislik uyumluluğu yüksek çıktılar üretir."
|
|
3526
|
+
},
|
|
3443
3527
|
"x1": {
|
|
3444
3528
|
"description": "Spark X1 modeli daha da geliştirilecek; önceki matematik görevlerinde ulusal liderlik temelinde, akıl yürütme, metin üretimi, dil anlama gibi genel görevlerde OpenAI o1 ve DeepSeek R1 ile karşılaştırılabilir sonuçlar elde edilecektir."
|
|
3445
3529
|
},
|
|
@@ -3500,7 +3584,15 @@
|
|
|
3500
3584
|
"yi-vision-v2": {
|
|
3501
3585
|
"description": "Karmaşık görsel görevler için model, birden fazla resme dayalı yüksek performanslı anlama ve analiz yetenekleri sunar."
|
|
3502
3586
|
},
|
|
3503
|
-
"z-ai/glm-4.
|
|
3587
|
+
"z-ai/glm-4.5": {
|
|
3588
|
+
"description": "GLM 4.5, Z.AI'nin amiral gemisi modelidir; hibrit akıl yürütme modlarını destekler ve mühendislik ile uzun bağlam görevleri için optimize edilmiştir."
|
|
3589
|
+
},
|
|
3590
|
+
"z-ai/glm-4.5-air": {
|
|
3591
|
+
"description": "GLM 4.5 Air, GLM 4.5'in hafifletilmiş versiyonudur; maliyet hassas senaryolar için uygundur ve güçlü akıl yürütme yeteneklerini korur."
|
|
3592
|
+
},
|
|
3593
|
+
"z-ai/glm-4.6": {
|
|
3594
|
+
"description": "GLM 4.6, Z.AI'nin amiral gemisi modelidir; bağlam uzunluğunu ve kodlama yeteneklerini genişletmiştir."
|
|
3595
|
+
},
|
|
3504
3596
|
"zai-org/GLM-4.5": {
|
|
3505
3597
|
"description": "GLM-4.5, akıllı ajan uygulamaları için tasarlanmış temel modeldir ve Mixture-of-Experts (MoE) mimarisi kullanır. Araç çağrısı, web tarama, yazılım mühendisliği ve ön uç programlama alanlarında derin optimizasyonlar içerir. Claude Code, Roo Code gibi kod ajanlarına sorunsuz entegrasyon destekler. GLM-4.5, karmaşık çıkarım ve günlük kullanım gibi çeşitli senaryolara uyum sağlayan hibrit çıkarım moduna sahiptir."
|
|
3506
3598
|
},
|
|
@@ -3521,5 +3613,8 @@
|
|
|
3521
3613
|
},
|
|
3522
3614
|
"zai/glm-4.5v": {
|
|
3523
3615
|
"description": "GLM-4.5V, GLM-4.5-Air temel modeli üzerine inşa edilmiştir, GLM-4.1V-Thinking'in doğrulanmış teknolojisini devralır ve güçlü 106 milyar parametreli MoE mimarisi ile etkili ölçeklenebilirlik sağlar."
|
|
3616
|
+
},
|
|
3617
|
+
"zenmux/auto": {
|
|
3618
|
+
"description": "ZenMux'un otomatik yönlendirme özelliği, isteğinizin içeriğine göre desteklenen modeller arasında en iyi performans ve maliyet dengesine sahip olanı otomatik olarak seçer."
|
|
3524
3619
|
}
|
|
3525
3620
|
}
|
|
@@ -1715,6 +1715,9 @@
|
|
|
1715
1715
|
"google/gemini-2.5-pro-preview": {
|
|
1716
1716
|
"description": "Gemini 2.5 Pro Preview là mô hình tư duy tiên tiến nhất của Google, có khả năng suy luận các vấn đề phức tạp trong lĩnh vực mã hóa, toán học và STEM, cũng như phân tích các bộ dữ liệu lớn, kho mã và tài liệu bằng ngữ cảnh dài."
|
|
1717
1717
|
},
|
|
1718
|
+
"google/gemini-3-pro-image-preview": {
|
|
1719
|
+
"description": "Gemini 3 Pro Image (Nano Banana Pro) là mô hình tạo hình ảnh của Google, đồng thời hỗ trợ hội thoại đa phương thức."
|
|
1720
|
+
},
|
|
1718
1721
|
"google/gemini-3-pro-image-preview-free": {
|
|
1719
1722
|
"description": "Phiên bản miễn phí của Gemini 3 Pro Image, hỗ trợ tạo đa phương thức với hạn mức giới hạn."
|
|
1720
1723
|
},
|
|
@@ -1715,6 +1715,9 @@
|
|
|
1715
1715
|
"google/gemini-2.5-pro-preview": {
|
|
1716
1716
|
"description": "Gemini 2.5 Pro Preview 是 Google 最先進的思維模型,能夠對程式碼、數學和 STEM 領域的複雜問題進行推理,以及使用長上下文分析大型資料集、程式碼庫和文件。"
|
|
1717
1717
|
},
|
|
1718
|
+
"google/gemini-3-pro-image-preview": {
|
|
1719
|
+
"description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的圖像生成模型,同時支援多模態對話。"
|
|
1720
|
+
},
|
|
1718
1721
|
"google/gemini-3-pro-image-preview-free": {
|
|
1719
1722
|
"description": "Gemini 3 Pro Image 免費版,支援有限額度的多模態生成。"
|
|
1720
1723
|
},
|
package/package.json
CHANGED
|
@@ -1,6 +1,6 @@
|
|
|
1
1
|
{
|
|
2
2
|
"name": "@lobehub/lobehub",
|
|
3
|
-
"version": "2.0.0-next.
|
|
3
|
+
"version": "2.0.0-next.109",
|
|
4
4
|
"description": "LobeHub - an open-source,comprehensive AI Agent framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
|
5
5
|
"keywords": [
|
|
6
6
|
"framework",
|
|
@@ -1,8 +1,8 @@
|
|
|
1
1
|
import { AIChatModelCard } from '../types/aiModel';
|
|
2
2
|
|
|
3
|
-
//
|
|
3
|
+
// CometAPI model list based on src/config/modelProviders/cometapi.ts
|
|
4
4
|
const cometapiChatModels: AIChatModelCard[] = [
|
|
5
|
-
// GPT-5
|
|
5
|
+
// GPT-5 series
|
|
6
6
|
{
|
|
7
7
|
abilities: { functionCall: true, vision: true },
|
|
8
8
|
contextWindowTokens: 400_000,
|
|
@@ -46,7 +46,7 @@ const cometapiChatModels: AIChatModelCard[] = [
|
|
|
46
46
|
type: 'chat',
|
|
47
47
|
},
|
|
48
48
|
|
|
49
|
-
// GPT-4.1 / 4o
|
|
49
|
+
// GPT-4.1 / 4o series
|
|
50
50
|
{
|
|
51
51
|
abilities: { functionCall: true, vision: true },
|
|
52
52
|
contextWindowTokens: 1_047_576,
|
|
@@ -103,7 +103,7 @@ const cometapiChatModels: AIChatModelCard[] = [
|
|
|
103
103
|
type: 'chat',
|
|
104
104
|
},
|
|
105
105
|
|
|
106
|
-
// OpenAI o
|
|
106
|
+
// OpenAI o series
|
|
107
107
|
{
|
|
108
108
|
abilities: { vision: true },
|
|
109
109
|
contextWindowTokens: 200_000,
|
|
@@ -141,7 +141,7 @@ const cometapiChatModels: AIChatModelCard[] = [
|
|
|
141
141
|
type: 'chat',
|
|
142
142
|
},
|
|
143
143
|
|
|
144
|
-
// Anthropic Claude
|
|
144
|
+
// Anthropic Claude series
|
|
145
145
|
{
|
|
146
146
|
abilities: { functionCall: true, vision: true },
|
|
147
147
|
contextWindowTokens: 200_000,
|
|
@@ -212,7 +212,7 @@ const cometapiChatModels: AIChatModelCard[] = [
|
|
|
212
212
|
type: 'chat',
|
|
213
213
|
},
|
|
214
214
|
|
|
215
|
-
// Google Gemini
|
|
215
|
+
// Google Gemini series
|
|
216
216
|
{
|
|
217
217
|
abilities: { functionCall: true, vision: true },
|
|
218
218
|
contextWindowTokens: 1_114_112,
|
|
@@ -259,7 +259,7 @@ const cometapiChatModels: AIChatModelCard[] = [
|
|
|
259
259
|
type: 'chat',
|
|
260
260
|
},
|
|
261
261
|
|
|
262
|
-
// xAI Grok
|
|
262
|
+
// xAI Grok series
|
|
263
263
|
{
|
|
264
264
|
abilities: { functionCall: true, vision: true },
|
|
265
265
|
contextWindowTokens: 131_072,
|
|
@@ -291,7 +291,7 @@ const cometapiChatModels: AIChatModelCard[] = [
|
|
|
291
291
|
type: 'chat',
|
|
292
292
|
},
|
|
293
293
|
|
|
294
|
-
// DeepSeek
|
|
294
|
+
// DeepSeek series
|
|
295
295
|
{
|
|
296
296
|
abilities: { functionCall: true, vision: true },
|
|
297
297
|
contextWindowTokens: 128_000,
|
|
@@ -20,8 +20,8 @@ export const fluxKreaParamsSchema: ModelParamsSchema = {
|
|
|
20
20
|
|
|
21
21
|
export const qwenImageParamsSchema: ModelParamsSchema = {
|
|
22
22
|
cfg: { default: 2.5, max: 20, min: 0, step: 0.1 },
|
|
23
|
-
//
|
|
24
|
-
//
|
|
23
|
+
// Tested: fal width/height max support up to 1536
|
|
24
|
+
// Default values from https://chat.qwen.ai/ official website
|
|
25
25
|
height: { default: 1328, max: 1536, min: 512, step: 1 },
|
|
26
26
|
prompt: { default: '' },
|
|
27
27
|
seed: { default: null },
|
|
@@ -1,9 +1,9 @@
|
|
|
1
1
|
import { AIChatModelCard } from '../types/aiModel';
|
|
2
2
|
|
|
3
|
-
// NewAPI Router Provider -
|
|
4
|
-
//
|
|
3
|
+
// NewAPI Router Provider - Aggregates multiple AI services
|
|
4
|
+
// Models are fetched dynamically, not predefined
|
|
5
5
|
const newapiChatModels: AIChatModelCard[] = [
|
|
6
|
-
// NewAPI
|
|
6
|
+
// NewAPI as router provider, model list fetched dynamically via API
|
|
7
7
|
];
|
|
8
8
|
|
|
9
9
|
export const allModels = [...newapiChatModels];
|
|
@@ -1074,7 +1074,7 @@ export const openaiEmbeddingModels: AIEmbeddingModelCard[] = [
|
|
|
1074
1074
|
},
|
|
1075
1075
|
];
|
|
1076
1076
|
|
|
1077
|
-
//
|
|
1077
|
+
// Text-to-speech models
|
|
1078
1078
|
export const openaiTTSModels: AITTSModelCard[] = [
|
|
1079
1079
|
{
|
|
1080
1080
|
description: '最新的文本转语音模型,针对实时场景优化速度',
|
|
@@ -1109,7 +1109,7 @@ export const openaiTTSModels: AITTSModelCard[] = [
|
|
|
1109
1109
|
},
|
|
1110
1110
|
];
|
|
1111
1111
|
|
|
1112
|
-
//
|
|
1112
|
+
// Speech recognition models
|
|
1113
1113
|
export const openaiSTTModels: AISTTModelCard[] = [
|
|
1114
1114
|
{
|
|
1115
1115
|
description: '通用语音识别模型,支持多语言语音识别、语音翻译和语言识别。',
|
|
@@ -1161,7 +1161,7 @@ export const openaiSTTModels: AISTTModelCard[] = [
|
|
|
1161
1161
|
},
|
|
1162
1162
|
];
|
|
1163
1163
|
|
|
1164
|
-
//
|
|
1164
|
+
// Image generation models
|
|
1165
1165
|
export const openaiImageModels: AIImageModelCard[] = [
|
|
1166
1166
|
// https://platform.openai.com/docs/models/gpt-image-1
|
|
1167
1167
|
{
|
|
@@ -1276,7 +1276,7 @@ export const openaiImageModels: AIImageModelCard[] = [
|
|
|
1276
1276
|
},
|
|
1277
1277
|
];
|
|
1278
1278
|
|
|
1279
|
-
// GPT-4o
|
|
1279
|
+
// GPT-4o and GPT-4o-mini realtime models
|
|
1280
1280
|
export const openaiRealtimeModels: AIRealtimeModelCard[] = [
|
|
1281
1281
|
{
|
|
1282
1282
|
abilities: {
|