@lobehub/chat 1.126.2 → 1.127.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (56) hide show
  1. package/CHANGELOG.md +59 -0
  2. package/changelog/v1.json +21 -0
  3. package/docs/self-hosting/environment-variables/model-provider.mdx +2 -2
  4. package/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx +2 -2
  5. package/locales/ar/models.json +38 -11
  6. package/locales/bg-BG/models.json +38 -11
  7. package/locales/de-DE/models.json +38 -11
  8. package/locales/en-US/models.json +38 -11
  9. package/locales/es-ES/models.json +38 -11
  10. package/locales/fa-IR/models.json +38 -11
  11. package/locales/fr-FR/models.json +38 -11
  12. package/locales/it-IT/models.json +38 -11
  13. package/locales/ja-JP/models.json +38 -11
  14. package/locales/ko-KR/models.json +38 -11
  15. package/locales/nl-NL/models.json +38 -11
  16. package/locales/pl-PL/models.json +38 -11
  17. package/locales/pt-BR/models.json +38 -11
  18. package/locales/ru-RU/models.json +38 -11
  19. package/locales/tr-TR/models.json +38 -11
  20. package/locales/vi-VN/models.json +38 -11
  21. package/locales/zh-CN/image.json +3 -0
  22. package/locales/zh-CN/models.json +38 -11
  23. package/locales/zh-TW/models.json +38 -11
  24. package/package.json +3 -3
  25. package/packages/model-bank/package.json +1 -0
  26. package/packages/model-bank/src/aiModels/cometapi.ts +349 -0
  27. package/packages/model-bank/src/aiModels/fal.ts +46 -7
  28. package/packages/model-bank/src/aiModels/index.ts +3 -0
  29. package/packages/model-bank/src/aiModels/volcengine.ts +51 -21
  30. package/packages/model-bank/src/standard-parameters/index.ts +3 -0
  31. package/packages/model-runtime/src/cometapi/index.ts +49 -0
  32. package/packages/model-runtime/src/fal/index.test.ts +374 -0
  33. package/packages/model-runtime/src/fal/index.ts +23 -14
  34. package/packages/model-runtime/src/index.ts +1 -0
  35. package/packages/model-runtime/src/runtimeMap.ts +2 -0
  36. package/packages/model-runtime/src/types/type.ts +1 -0
  37. package/packages/model-runtime/src/volcengine/createImage.test.ts +522 -0
  38. package/packages/model-runtime/src/volcengine/createImage.ts +118 -0
  39. package/packages/model-runtime/src/volcengine/index.ts +2 -0
  40. package/packages/types/src/user/settings/keyVaults.ts +1 -0
  41. package/packages/utils/src/parseModels.test.ts +11 -8
  42. package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/components/CfgSliderInput.tsx +11 -0
  43. package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/components/StepsSliderInput.tsx +2 -2
  44. package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/index.tsx +9 -0
  45. package/src/config/llm.ts +6 -0
  46. package/src/config/modelProviders/cometapi.ts +24 -0
  47. package/src/config/modelProviders/index.ts +3 -0
  48. package/src/features/ChatInput/ActionBar/index.tsx +19 -1
  49. package/src/features/ChatInput/Desktop/index.tsx +7 -0
  50. package/src/features/ChatInput/InputEditor/index.tsx +4 -6
  51. package/src/features/ChatInput/TypoBar/index.tsx +116 -103
  52. package/src/locales/default/image.ts +3 -0
  53. package/src/server/routers/async/image.ts +6 -1
  54. package/src/store/global/actions/workspacePane.ts +7 -0
  55. package/src/store/global/initialState.ts +2 -0
  56. package/src/store/global/selectors/systemStatus.ts +2 -0
@@ -53,6 +53,9 @@
53
53
  "Baichuan4-Turbo": {
54
54
  "description": "Model o najlepszych możliwościach w kraju, przewyższający zagraniczne modele w zadaniach związanych z wiedzą encyklopedyczną, długimi tekstami i twórczością w języku chińskim. Posiada również wiodące w branży możliwości multimodalne, osiągając doskonałe wyniki w wielu autorytatywnych testach."
55
55
  },
56
+ "ByteDance-Seed/Seed-OSS-36B-Instruct": {
57
+ "description": "Seed-OSS to seria otwartych modeli językowych dużej skali opracowanych przez zespół Seed ByteDance, zaprojektowanych specjalnie do zaawansowanego przetwarzania długich kontekstów, wnioskowania, agentów i zdolności ogólnych. Model Seed-OSS-36B-Instruct z tej serii to model dostrojony instrukcyjnie z 36 miliardami parametrów, natywnie obsługujący bardzo długie konteksty, co pozwala na jednorazowe przetwarzanie ogromnych dokumentów lub złożonych baz kodu. Model jest szczególnie zoptymalizowany pod kątem wnioskowania, generowania kodu i zadań agentów (np. użycia narzędzi), zachowując jednocześnie zrównoważone i doskonałe zdolności ogólne. Jedną z kluczowych cech tego modelu jest funkcja „budżetu myślenia” (Thinking Budget), która pozwala użytkownikom elastycznie dostosowywać długość wnioskowania, skutecznie zwiększając efektywność w praktycznych zastosowaniach."
58
+ },
56
59
  "DeepSeek-R1": {
57
60
  "description": "Najnowocześniejszy, wydajny LLM, specjalizujący się w wnioskowaniu, matematyce i programowaniu."
58
61
  },
@@ -81,7 +84,13 @@
81
84
  "description": "Dostawca modelu: platforma sophnet. DeepSeek V3 Fast to szybka wersja o wysokim TPS modelu DeepSeek V3 0324, w pełni nienkwantyzowana, z ulepszonym kodem i zdolnościami matematycznymi, zapewniająca szybszą reakcję!"
82
85
  },
83
86
  "DeepSeek-V3.1": {
84
- "description": "DeepSeek-V3.1 to nowy hybrydowy model wnioskowania opracowany przez DeepSeek, obsługujący dwa tryby wnioskowania: myślenia i bezmyślny, z wyższą efektywnością myślenia niż DeepSeek-R1-0528. Dzięki optymalizacji po treningu, wykorzystanie narzędzi agenta i wydajność zadań inteligentnych agentów zostały znacznie poprawione."
87
+ "description": "DeepSeek-V3.1 tryb bez myślenia; DeepSeek-V3.1 to nowy hybrydowy model wnioskowania od DeepSeek, obsługujący dwa tryby: myślenia i bez myślenia, z wyższą efektywnością myślenia niż DeepSeek-R1-0528. Po optymalizacji post-treningowej znacznie poprawiono użycie narzędzi agenta oraz wydajność zadań agentów."
88
+ },
89
+ "DeepSeek-V3.1-Fast": {
90
+ "description": "DeepSeek V3.1 Fast to szybka wersja DeepSeek V3.1 o wysokim TPS. Hybrydowy tryb myślenia: poprzez zmianę szablonu rozmowy jeden model może obsługiwać jednocześnie tryb myślenia i bez myślenia. Inteligentniejsze wywoływanie narzędzi: dzięki optymalizacji po treningu model znacząco poprawił wydajność w użyciu narzędzi i zadaniach agentów."
91
+ },
92
+ "DeepSeek-V3.1-Think": {
93
+ "description": "DeepSeek-V3.1 tryb myślenia; DeepSeek-V3.1 to nowy hybrydowy model wnioskowania od DeepSeek, obsługujący dwa tryby: myślenia i bez myślenia, z wyższą efektywnością myślenia niż DeepSeek-R1-0528. Po optymalizacji post-treningowej znacznie poprawiono użycie narzędzi agenta oraz wydajność zadań agentów."
85
94
  },
86
95
  "Doubao-lite-128k": {
87
96
  "description": "Doubao-lite oferuje niezwykle szybkie reakcje i lepszy stosunek jakości do ceny, zapewniając klientom elastyczne opcje dla różnych scenariuszy. Obsługuje wnioskowanie i dostrajanie z kontekstem do 128k."
@@ -809,12 +818,6 @@
809
818
  "command-r7b-12-2024": {
810
819
  "description": "command-r7b-12-2024 to mała i wydajna zaktualizowana wersja, wydana w grudniu 2024 roku. Doskonale sprawdza się w zadaniach wymagających złożonego rozumowania i wieloetapowego przetwarzania, takich jak RAG, korzystanie z narzędzi i agenci."
811
820
  },
812
- "compound-beta": {
813
- "description": "Compound-beta to złożony system AI wspierany przez wiele otwartych modeli dostępnych w GroqCloud, który inteligentnie i selektywnie wykorzystuje narzędzia do odpowiadania na zapytania użytkowników."
814
- },
815
- "compound-beta-mini": {
816
- "description": "Compound-beta-mini to złożony system AI wspierany przez publicznie dostępne modele w GroqCloud, który inteligentnie i selektywnie wykorzystuje narzędzia do odpowiadania na zapytania użytkowników."
817
- },
818
821
  "computer-use-preview": {
819
822
  "description": "Model computer-use-preview to dedykowany model zaprojektowany specjalnie do „narzędzi użycia komputera”, wytrenowany do rozumienia i wykonywania zadań związanych z komputerem."
820
823
  },
@@ -1055,6 +1058,9 @@
1055
1058
  "doubao-seed-1.6-thinking": {
1056
1059
  "description": "Model Doubao-Seed-1.6-thinking ma znacznie wzmocnione zdolności myślenia, w porównaniu do Doubao-1.5-thinking-pro osiąga dalsze ulepszenia w podstawowych umiejętnościach takich jak kodowanie, matematyka i rozumowanie logiczne, wspiera również rozumienie wizualne. Obsługuje kontekst do 256k oraz maksymalną długość wyjścia do 16k tokenów."
1057
1060
  },
1061
+ "doubao-seed-1.6-vision": {
1062
+ "description": "Doubao-Seed-1.6-vision to wizualny model głębokiego myślenia, który wykazuje silniejsze zdolności ogólnego rozumienia multimodalnego i wnioskowania w scenariuszach edukacyjnych, przeglądu obrazów, inspekcji i bezpieczeństwa oraz AI w wyszukiwaniu i odpowiadaniu na pytania. Obsługuje okno kontekstowe do 256k oraz maksymalną długość wyjścia do 64k tokenów."
1063
+ },
1058
1064
  "doubao-seedream-3-0-t2i-250415": {
1059
1065
  "description": "Model generowania obrazów Doubao opracowany przez zespół Seed ByteDance, obsługujący wejścia tekstowe i obrazowe, oferujący wysoką kontrolę i jakość generowanych obrazów. Generuje obrazy na podstawie tekstowych wskazówek."
1060
1066
  },
@@ -1400,9 +1406,6 @@
1400
1406
  "google/gemini-2.5-flash-image-preview": {
1401
1407
  "description": "Eksperymentalny model Gemini 2.5 Flash, wspierający generowanie obrazów."
1402
1408
  },
1403
- "google/gemini-2.5-flash-image-preview:free": {
1404
- "description": "Eksperymentalny model Gemini 2.5 Flash, wspierający generowanie obrazów."
1405
- },
1406
1409
  "google/gemini-2.5-flash-preview": {
1407
1410
  "description": "Gemini 2.5 Flash to najnowocześniejszy model główny Google, zaprojektowany z myślą o zaawansowanym wnioskowaniu, kodowaniu, matematyce i zadaniach naukowych. Zawiera wbudowaną zdolność 'myślenia', co pozwala mu na dostarczanie odpowiedzi z wyższą dokładnością i szczegółowym przetwarzaniem kontekstu.\n\nUwaga: ten model ma dwa warianty: myślenie i niemyslenie. Ceny wyjściowe różnią się znacznie w zależności od tego, czy zdolność myślenia jest aktywowana. Jeśli wybierzesz standardowy wariant (bez sufiksu ':thinking'), model wyraźnie unika generowania tokenów myślenia.\n\nAby skorzystać z zdolności myślenia i otrzymać tokeny myślenia, musisz wybrać wariant ':thinking', co spowoduje wyższe ceny wyjściowe za myślenie.\n\nPonadto Gemini 2.5 Flash można konfigurować za pomocą parametru 'maksymalna liczba tokenów do wnioskowania', jak opisano w dokumentacji (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1408
1411
  },
@@ -1442,6 +1445,9 @@
1442
1445
  "google/gemma-2b-it": {
1443
1446
  "description": "Gemma Instruct (2B) oferuje podstawowe możliwości przetwarzania poleceń, idealne do lekkich aplikacji."
1444
1447
  },
1448
+ "google/gemma-3-12b-it": {
1449
+ "description": "Gemma 3 12B to otwarty model językowy Google, ustanawiający nowe standardy w zakresie efektywności i wydajności."
1450
+ },
1445
1451
  "google/gemma-3-1b-it": {
1446
1452
  "description": "Gemma 3 1B to otwarty model językowy Google, ustanawiający nowe standardy w zakresie efektywności i wydajności."
1447
1453
  },
@@ -1607,6 +1613,12 @@
1607
1613
  "grok-code-fast-1": {
1608
1614
  "description": "Z radością przedstawiamy grok-code-fast-1, szybki i ekonomiczny model inferencyjny, który doskonale sprawdza się w kodowaniu agentów."
1609
1615
  },
1616
+ "groq/compound": {
1617
+ "description": "Compound to złożony system AI wspierany przez wiele dostępnych publicznie modeli w GroqCloud, który inteligentnie i selektywnie wykorzystuje narzędzia do odpowiadania na zapytania użytkowników."
1618
+ },
1619
+ "groq/compound-mini": {
1620
+ "description": "Compound-mini to złożony system AI wspierany przez dostępne publicznie modele w GroqCloud, który inteligentnie i selektywnie wykorzystuje narzędzia do odpowiadania na zapytania użytkowników."
1621
+ },
1610
1622
  "gryphe/mythomax-l2-13b": {
1611
1623
  "description": "MythoMax l2 13B to model językowy łączący kreatywność i inteligencję, zintegrowany z wieloma wiodącymi modelami."
1612
1624
  },
@@ -1662,7 +1674,7 @@
1662
1674
  "description": "Znacząca poprawa zdolności w zakresie zaawansowanej matematyki, logiki i kodowania, optymalizacja stabilności wyjścia modelu oraz zwiększenie zdolności do pracy z długimi tekstami."
1663
1675
  },
1664
1676
  "hunyuan-t1-latest": {
1665
- "description": "Pierwszy na świecie ultra-duży model wnioskowania Hybrid-Transformer-Mamba, rozszerzający zdolności wnioskowania, z niezwykle szybkim dekodowaniem, lepiej dostosowany do ludzkich preferencji."
1677
+ "description": "Znacząco poprawia zdolności głównego modelu wolnego myślenia w zakresie zaawansowanej matematyki, złożonego wnioskowania, trudnego kodowania, przestrzegania instrukcji oraz jakości tworzenia tekstów."
1666
1678
  },
1667
1679
  "hunyuan-t1-vision": {
1668
1680
  "description": "Model głębokiego myślenia multimodalnego Hunyuan, obsługujący natywne łańcuchy myślowe multimodalne, doskonały w różnych scenariuszach wnioskowania obrazowego, z wyraźną przewagą nad modelami szybkiego myślenia w rozwiązywaniu problemów ścisłych."
@@ -1766,6 +1778,9 @@
1766
1778
  "kimi-k2-0711-preview": {
1767
1779
  "description": "kimi-k2 to podstawowy model architektury MoE o potężnych zdolnościach kodowania i agenta, z łączną liczbą parametrów 1T i 32B aktywowanych parametrów. W testach wydajności na benchmarkach obejmujących ogólne rozumowanie, programowanie, matematykę i agentów model K2 przewyższa inne popularne modele open source."
1768
1780
  },
1781
+ "kimi-k2-0905-preview": {
1782
+ "description": "Model kimi-k2-0905-preview obsługuje długość kontekstu do 256k, oferując silniejsze zdolności Agentic Coding, bardziej estetyczny i praktyczny kod frontendowy oraz lepsze rozumienie kontekstu."
1783
+ },
1769
1784
  "kimi-k2-turbo-preview": {
1770
1785
  "description": "kimi-k2 to bazowy model z architekturą MoE, dysponujący wyjątkowymi możliwościami w zakresie kodowania i agentów, z łączną liczbą parametrów 1T oraz 32B parametrów aktywacyjnych. W standardowych testach wydajności (benchmarkach) dla głównych kategorii takich jak wnioskowanie z wiedzy ogólnej, programowanie, matematyka i agenty, model K2 przewyższa inne popularne otwarte modele."
1771
1786
  },
@@ -2165,9 +2180,18 @@
2165
2180
  "moonshotai/Kimi-K2-Instruct": {
2166
2181
  "description": "Kimi K2 to podstawowy model architektury MoE o potężnych zdolnościach kodowania i agenta, z łączną liczbą parametrów 1 biliona i 32 miliardami aktywowanych parametrów. W testach wydajności w zakresie ogólnej wiedzy, programowania, matematyki i zadań agenta model K2 przewyższa inne popularne otwarte modele."
2167
2182
  },
2183
+ "moonshotai/Kimi-K2-Instruct-0905": {
2184
+ "description": "Model kimi-k2-0905-preview obsługuje długość kontekstu do 256k, oferując silniejsze zdolności Agentic Coding, bardziej estetyczny i praktyczny kod frontendowy oraz lepsze rozumienie kontekstu."
2185
+ },
2186
+ "moonshotai/kimi-k2-0905": {
2187
+ "description": "Model kimi-k2-0905-preview obsługuje długość kontekstu do 256k, oferując silniejsze zdolności Agentic Coding, bardziej estetyczny i praktyczny kod frontendowy oraz lepsze rozumienie kontekstu."
2188
+ },
2168
2189
  "moonshotai/kimi-k2-instruct": {
2169
2190
  "description": "kimi-k2 to podstawowy model architektury MoE o wyjątkowych zdolnościach w zakresie kodowania i agentów, z łączną liczbą parametrów 1T i 32B aktywnych parametrów. W testach wydajnościowych obejmujących ogólną wiedzę, programowanie, matematykę i agentów, model K2 przewyższa inne popularne modele open source."
2170
2191
  },
2192
+ "moonshotai/kimi-k2-instruct-0905": {
2193
+ "description": "Model kimi-k2-0905-preview obsługuje długość kontekstu do 256k, oferując silniejsze zdolności Agentic Coding, bardziej estetyczny i praktyczny kod frontendowy oraz lepsze rozumienie kontekstu."
2194
+ },
2171
2195
  "nousresearch/hermes-2-pro-llama-3-8b": {
2172
2196
  "description": "Hermes 2 Pro Llama 3 8B to ulepszona wersja Nous Hermes 2, zawierająca najnowsze wewnętrznie opracowane zbiory danych."
2173
2197
  },
@@ -2549,6 +2573,9 @@
2549
2573
  "qwen3-coder-plus": {
2550
2574
  "description": "Model kodowania Tongyi Qianwen. Najnowsza seria modeli Qwen3-Coder oparta na Qwen3 to modele generujące kod, posiadające potężne zdolności agenta kodującego, biegłe w wywoływaniu narzędzi i interakcji ze środowiskiem, umożliwiające autonomiczne programowanie, łącząc doskonałe umiejętności kodowania z uniwersalnymi zdolnościami."
2551
2575
  },
2576
+ "qwen3-max-preview": {
2577
+ "description": "Preview modelu Max z serii Qwen 3, który w porównaniu do serii 2.5 znacząco poprawia ogólne zdolności, w tym rozumienie tekstu w języku chińskim i angielskim, przestrzeganie złożonych instrukcji, zdolności do zadań otwartych i subiektywnych, wielojęzyczność oraz wywoływanie narzędzi; model generuje mniej halucynacji wiedzy."
2578
+ },
2552
2579
  "qwq": {
2553
2580
  "description": "QwQ to eksperymentalny model badawczy, skoncentrowany na zwiększeniu zdolności wnioskowania AI."
2554
2581
  },
@@ -53,6 +53,9 @@
53
53
  "Baichuan4-Turbo": {
54
54
  "description": "Modelo com a melhor capacidade do país, superando modelos estrangeiros em tarefas em chinês como enciclopédia, textos longos e criação de conteúdo. Também possui capacidades multimodais líderes da indústria, com excelente desempenho em várias avaliações de referência."
55
55
  },
56
+ "ByteDance-Seed/Seed-OSS-36B-Instruct": {
57
+ "description": "Seed-OSS é uma série de grandes modelos de linguagem de código aberto desenvolvidos pela equipe Seed da ByteDance, projetados para processamento poderoso de contexto longo, raciocínio, agentes inteligentes e capacidades gerais. O Seed-OSS-36B-Instruct desta série é um modelo ajustado por instruções com 36 bilhões de parâmetros, que suporta nativamente comprimentos de contexto ultra longos, permitindo processar grandes volumes de documentos ou bases de código complexas de uma só vez. Este modelo é especialmente otimizado para tarefas de raciocínio, geração de código e agentes (como uso de ferramentas), mantendo um equilíbrio e desempenho geral excelentes. Uma característica marcante deste modelo é a função \"Orçamento de Pensamento\" (Thinking Budget), que permite aos usuários ajustar flexivelmente o comprimento do raciocínio conforme necessário, melhorando efetivamente a eficiência do raciocínio em aplicações práticas."
58
+ },
56
59
  "DeepSeek-R1": {
57
60
  "description": "LLM eficiente de ponta, especializado em raciocínio, matemática e programação."
58
61
  },
@@ -81,7 +84,13 @@
81
84
  "description": "Fornecedor do modelo: plataforma sophnet. DeepSeek V3 Fast é a versão de alta velocidade e alto TPS do DeepSeek V3 0324, totalmente não quantificada, com capacidades aprimoradas de código e matemática, respondendo de forma mais rápida!"
82
85
  },
83
86
  "DeepSeek-V3.1": {
84
- "description": "DeepSeek-V3.1 é o novo modelo híbrido de raciocínio lançado pela DeepSeek, suportando dois modos de raciocínio: com e sem pensamento, com eficiência de pensamento superior ao DeepSeek-R1-0528. Após otimização pós-treinamento, o uso de ferramentas Agent e o desempenho em tarefas inteligentes foram significativamente aprimorados."
87
+ "description": "DeepSeek-V3.1 - modo sem pensamento; DeepSeek-V3.1 é um novo modelo híbrido de raciocínio lançado pela DeepSeek, suportando dois modos de raciocínio: com e sem pensamento, com eficiência de pensamento superior ao DeepSeek-R1-0528. Otimizado pós-treinamento, o uso de ferramentas por agentes e o desempenho em tarefas de agentes foram significativamente aprimorados."
88
+ },
89
+ "DeepSeek-V3.1-Fast": {
90
+ "description": "DeepSeek V3.1 Fast é a versão de alta TPS e alta velocidade do DeepSeek V3.1. Modo híbrido de pensamento: através da alteração do template de chat, um único modelo pode suportar simultaneamente os modos com e sem pensamento. Chamadas de ferramentas mais inteligentes: com otimização pós-treinamento, o desempenho do modelo no uso de ferramentas e em tarefas de agentes foi significativamente melhorado."
91
+ },
92
+ "DeepSeek-V3.1-Think": {
93
+ "description": "DeepSeek-V3.1 - modo com pensamento; DeepSeek-V3.1 é um novo modelo híbrido de raciocínio lançado pela DeepSeek, suportando dois modos de raciocínio: com e sem pensamento, com eficiência de pensamento superior ao DeepSeek-R1-0528. Otimizado pós-treinamento, o uso de ferramentas por agentes e o desempenho em tarefas de agentes foram significativamente aprimorados."
85
94
  },
86
95
  "Doubao-lite-128k": {
87
96
  "description": "Doubao-lite oferece velocidade de resposta extrema e melhor custo-benefício, proporcionando opções mais flexíveis para diferentes cenários dos clientes. Suporta inferência e fine-tuning com janela de contexto de 128k."
@@ -809,12 +818,6 @@
809
818
  "command-r7b-12-2024": {
810
819
  "description": "O command-r7b-12-2024 é uma versão compacta e eficiente, lançada em dezembro de 2024. Ele se destaca em tarefas que exigem raciocínio complexo e processamento em múltiplas etapas, como RAG, uso de ferramentas e agentes."
811
820
  },
812
- "compound-beta": {
813
- "description": "Compound-beta é um sistema de IA composto, suportado por vários modelos abertos disponíveis no GroqCloud, que pode usar ferramentas de forma inteligente e seletiva para responder a consultas dos usuários."
814
- },
815
- "compound-beta-mini": {
816
- "description": "Compound-beta-mini é um sistema de IA composto, suportado por modelos abertos disponíveis no GroqCloud, que pode usar ferramentas de forma inteligente e seletiva para responder a consultas dos usuários."
817
- },
818
821
  "computer-use-preview": {
819
822
  "description": "O modelo computer-use-preview é um modelo dedicado projetado para \"ferramentas de uso de computador\", treinado para entender e executar tarefas relacionadas a computadores."
820
823
  },
@@ -1055,6 +1058,9 @@
1055
1058
  "doubao-seed-1.6-thinking": {
1056
1059
  "description": "Doubao-Seed-1.6-thinking tem capacidade de pensamento significativamente reforçada, melhorando ainda mais habilidades básicas como codificação, matemática e raciocínio lógico em comparação com Doubao-1.5-thinking-pro, além de suportar compreensão visual. Suporta janela de contexto de 256k e saída de até 16k tokens."
1057
1060
  },
1061
+ "doubao-seed-1.6-vision": {
1062
+ "description": "Doubao-Seed-1.6-vision é um modelo de pensamento profundo visual que demonstra capacidades multimodais gerais mais fortes em cenários como educação, revisão de imagens, inspeção e segurança, e busca e resposta por IA. Suporta janela de contexto de 256k e comprimento máximo de saída de até 64k tokens."
1063
+ },
1058
1064
  "doubao-seedream-3-0-t2i-250415": {
1059
1065
  "description": "O modelo de geração de imagens Doubao foi desenvolvido pela equipe Seed da ByteDance, suportando entrada de texto e imagem, oferecendo uma experiência de geração de imagens altamente controlável e de alta qualidade. Gera imagens baseadas em prompts textuais."
1060
1066
  },
@@ -1400,9 +1406,6 @@
1400
1406
  "google/gemini-2.5-flash-image-preview": {
1401
1407
  "description": "Modelo experimental Gemini 2.5 Flash, com suporte para geração de imagens."
1402
1408
  },
1403
- "google/gemini-2.5-flash-image-preview:free": {
1404
- "description": "Modelo experimental Gemini 2.5 Flash, com suporte para geração de imagens."
1405
- },
1406
1409
  "google/gemini-2.5-flash-preview": {
1407
1410
  "description": "O Gemini 2.5 Flash é o modelo principal mais avançado do Google, projetado para raciocínio avançado, codificação, matemática e tarefas científicas. Ele possui a capacidade de 'pensar' embutida, permitindo que forneça respostas com maior precisão e um tratamento de contexto mais detalhado.\n\nNota: Este modelo possui duas variantes: com e sem 'pensamento'. A precificação da saída varia significativamente dependendo da ativação da capacidade de pensamento. Se você escolher a variante padrão (sem o sufixo ':thinking'), o modelo evitará explicitamente gerar tokens de pensamento.\n\nPara aproveitar a capacidade de pensamento e receber tokens de pensamento, você deve escolher a variante ':thinking', que resultará em uma precificação de saída de pensamento mais alta.\n\nAlém disso, o Gemini 2.5 Flash pode ser configurado através do parâmetro 'número máximo de tokens para raciocínio', conforme descrito na documentação (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1408
1411
  },
@@ -1442,6 +1445,9 @@
1442
1445
  "google/gemma-2b-it": {
1443
1446
  "description": "Gemma Instruct (2B) oferece capacidade básica de processamento de instruções, adequada para aplicações leves."
1444
1447
  },
1448
+ "google/gemma-3-12b-it": {
1449
+ "description": "Gemma 3 12B é um modelo de linguagem open source do Google que estabelece novos padrões em eficiência e desempenho."
1450
+ },
1445
1451
  "google/gemma-3-1b-it": {
1446
1452
  "description": "Gemma 3 1B é um modelo de linguagem de código aberto do Google que estabelece novos padrões em eficiência e desempenho."
1447
1453
  },
@@ -1607,6 +1613,12 @@
1607
1613
  "grok-code-fast-1": {
1608
1614
  "description": "Temos o prazer de apresentar o grok-code-fast-1, um modelo de inferência rápido e econômico, que se destaca na codificação de agentes."
1609
1615
  },
1616
+ "groq/compound": {
1617
+ "description": "Compound é um sistema de IA composto, suportado por vários modelos abertos disponíveis no GroqCloud, que pode usar ferramentas de forma inteligente e seletiva para responder às consultas dos usuários."
1618
+ },
1619
+ "groq/compound-mini": {
1620
+ "description": "Compound-mini é um sistema de IA composto, suportado por modelos públicos disponíveis no GroqCloud, que pode usar ferramentas de forma inteligente e seletiva para responder às consultas dos usuários."
1621
+ },
1610
1622
  "gryphe/mythomax-l2-13b": {
1611
1623
  "description": "MythoMax l2 13B é um modelo de linguagem que combina criatividade e inteligência, integrando vários modelos de ponta."
1612
1624
  },
@@ -1662,7 +1674,7 @@
1662
1674
  "description": "Melhora significativa em matemática avançada, lógica e habilidades de codificação, otimiza a estabilidade da saída do modelo e aprimora a capacidade de lidar com textos longos."
1663
1675
  },
1664
1676
  "hunyuan-t1-latest": {
1665
- "description": "O primeiro modelo de inferência Hybrid-Transformer-Mamba em larga escala da indústria, que expande a capacidade de inferência, possui uma velocidade de decodificação excepcional e alinha-se ainda mais às preferências humanas."
1677
+ "description": "Melhora significativamente as capacidades do modelo principal de pensamento lento em matemática avançada, raciocínio complexo, código difícil, conformidade com instruções e qualidade de criação de texto."
1666
1678
  },
1667
1679
  "hunyuan-t1-vision": {
1668
1680
  "description": "Modelo de pensamento profundo multimodal Hunyuan, suporta cadeias de pensamento nativas multimodais de longo alcance, excelente em diversos cenários de raciocínio com imagens, com melhorias significativas em problemas científicos em comparação com modelos de pensamento rápido."
@@ -1766,6 +1778,9 @@
1766
1778
  "kimi-k2-0711-preview": {
1767
1779
  "description": "kimi-k2 é um modelo base com arquitetura MoE, com capacidades excepcionais em código e agentes, totalizando 1T de parâmetros e 32B de parâmetros ativados. Nos principais benchmarks de raciocínio de conhecimento geral, programação, matemática e agentes, o modelo K2 supera outros modelos open source populares."
1768
1780
  },
1781
+ "kimi-k2-0905-preview": {
1782
+ "description": "O modelo kimi-k2-0905-preview possui comprimento de contexto de 256k, com capacidades aprimoradas de Agentic Coding, maior estética e praticidade do código front-end, além de melhor compreensão do contexto."
1783
+ },
1769
1784
  "kimi-k2-turbo-preview": {
1770
1785
  "description": "kimi-k2 é um modelo base com arquitetura MoE que oferece capacidades avançadas para programação e agentes, com 1T de parâmetros totais e 32B de parâmetros ativados. Em testes de benchmark nas principais categorias — raciocínio de conhecimento geral, programação, matemática e agentes — o desempenho do modelo K2 supera outros modelos de código aberto mais populares."
1771
1786
  },
@@ -2165,9 +2180,18 @@
2165
2180
  "moonshotai/Kimi-K2-Instruct": {
2166
2181
  "description": "Kimi K2 é um modelo base com arquitetura MoE e capacidades avançadas de código e agente, com 1 trilhão de parâmetros totais e 32 bilhões ativados. Em testes de desempenho em raciocínio geral, programação, matemática e agentes, o modelo K2 supera outros modelos open source populares."
2167
2182
  },
2183
+ "moonshotai/Kimi-K2-Instruct-0905": {
2184
+ "description": "O modelo kimi-k2-0905-preview possui comprimento de contexto de 256k, com capacidades aprimoradas de Agentic Coding, maior estética e praticidade do código front-end, além de melhor compreensão do contexto."
2185
+ },
2186
+ "moonshotai/kimi-k2-0905": {
2187
+ "description": "O modelo kimi-k2-0905-preview possui comprimento de contexto de 256k, com capacidades aprimoradas de Agentic Coding, maior estética e praticidade do código front-end, além de melhor compreensão do contexto."
2188
+ },
2168
2189
  "moonshotai/kimi-k2-instruct": {
2169
2190
  "description": "kimi-k2 é um modelo base com arquitetura MoE que possui capacidades avançadas de código e agente, com um total de 1 trilhão de parâmetros e 32 bilhões de parâmetros ativados. Nos testes de desempenho de referência em categorias principais como raciocínio de conhecimento geral, programação, matemática e agentes, o modelo K2 supera outros modelos open source populares."
2170
2191
  },
2192
+ "moonshotai/kimi-k2-instruct-0905": {
2193
+ "description": "O modelo kimi-k2-0905-preview possui comprimento de contexto de 256k, com capacidades aprimoradas de Agentic Coding, maior estética e praticidade do código front-end, além de melhor compreensão do contexto."
2194
+ },
2171
2195
  "nousresearch/hermes-2-pro-llama-3-8b": {
2172
2196
  "description": "Hermes 2 Pro Llama 3 8B é uma versão aprimorada do Nous Hermes 2, contendo os conjuntos de dados mais recentes desenvolvidos internamente."
2173
2197
  },
@@ -2549,6 +2573,9 @@
2549
2573
  "qwen3-coder-plus": {
2550
2574
  "description": "Modelo de código Tongyi Qianwen. A mais recente série de modelos Qwen3-Coder é baseada no Qwen3 para geração de código, com forte capacidade de agente de codificação, especializada em chamadas de ferramentas e interação com o ambiente, capaz de programação autônoma, combinando excelente habilidade de codificação com capacidades gerais."
2551
2575
  },
2576
+ "qwen3-max-preview": {
2577
+ "description": "Versão Preview do modelo Max da série Qwen 3, com melhorias significativas em relação à série 2.5 em capacidades gerais, compreensão de texto em chinês e inglês, conformidade com instruções complexas, tarefas subjetivas abertas, multilinguismo e chamadas de ferramentas; o modelo apresenta menos alucinações de conhecimento."
2578
+ },
2552
2579
  "qwq": {
2553
2580
  "description": "QwQ é um modelo de pesquisa experimental, focado em melhorar a capacidade de raciocínio da IA."
2554
2581
  },
@@ -53,6 +53,9 @@
53
53
  "Baichuan4-Turbo": {
54
54
  "description": "Модель обладает лучшими в стране возможностями, превосходя зарубежные модели в задачах на китайском языке, таких как энциклопедические знания, длинные тексты и генерация контента. Также обладает передовыми мультимодальными возможностями и демонстрирует отличные результаты в нескольких авторитетных оценочных тестах."
55
55
  },
56
+ "ByteDance-Seed/Seed-OSS-36B-Instruct": {
57
+ "description": "Seed-OSS — это серия открытых крупных языковых моделей, разработанных командой Seed компании ByteDance, специально созданных для мощной обработки длинных контекстов, рассуждений, агентов и универсальных возможностей. Модель Seed-OSS-36B-Instruct из этой серии имеет 36 миллиардов параметров и является моделью с донастройкой по инструкциям, изначально поддерживающей сверхдлинные контексты, что позволяет ей обрабатывать огромные документы или сложные кодовые базы за один раз. Эта модель специально оптимизирована для рассуждений, генерации кода и задач агентов (например, использования инструментов), при этом сохраняя сбалансированные и выдающиеся универсальные способности. Одной из ключевых особенностей модели является функция «Бюджет размышлений» (Thinking Budget), позволяющая пользователям гибко регулировать длину рассуждений по необходимости, что эффективно повышает производительность в реальных приложениях."
58
+ },
56
59
  "DeepSeek-R1": {
57
60
  "description": "Современная эффективная LLM, специализирующаяся на логическом выводе, математике и программировании."
58
61
  },
@@ -81,7 +84,13 @@
81
84
  "description": "Поставщик модели: платформа sophnet. DeepSeek V3 Fast — это высокоскоростная версия DeepSeek V3 0324 с высокой пропускной способностью (TPS), полностью не квантизированная, с улучшенными возможностями кода и математики, обеспечивающая более быструю реакцию!"
82
85
  },
83
86
  "DeepSeek-V3.1": {
84
- "description": "DeepSeek-V3.1 — это новая гибридная модель рассуждений от DeepSeek, поддерживающая два режима рассуждений: с размышлением и без размышления, с более высокой эффективностью размышлений по сравнению с DeepSeek-R1-0528. После посттренировочной оптимизации значительно улучшена работа с инструментами агента и выполнение задач интеллектуального агента."
87
+ "description": "DeepSeek-V3.1 — режим без размышлений; DeepSeek-V3.1 — новая гибридная модель рассуждений от DeepSeek, поддерживающая два режима: с размышлениями и без. По сравнению с DeepSeek-R1-0528, эффективность размышлений выше. После посттренировки значительно улучшены использование инструментов агентом и выполнение задач агентов."
88
+ },
89
+ "DeepSeek-V3.1-Fast": {
90
+ "description": "DeepSeek V3.1 Fast — высокопроизводительная версия DeepSeek V3.1 с высокой пропускной способностью (TPS). Гибридный режим размышлений: с изменением шаблона чата одна модель может одновременно поддерживать режимы с размышлениями и без. Более интеллектуальный вызов инструментов: благодаря посттренировке значительно улучшена работа модели с инструментами и выполнение агентских задач."
91
+ },
92
+ "DeepSeek-V3.1-Think": {
93
+ "description": "DeepSeek-V3.1 — режим с размышлениями; DeepSeek-V3.1 — новая гибридная модель рассуждений от DeepSeek, поддерживающая два режима: с размышлениями и без. По сравнению с DeepSeek-R1-0528, эффективность размышлений выше. После посттренировки значительно улучшены использование инструментов агентом и выполнение задач агентов."
85
94
  },
86
95
  "Doubao-lite-128k": {
87
96
  "description": "Doubao-lite обладает исключительной скоростью отклика и лучшим соотношением цена-качество, предоставляя клиентам более гибкие варианты для различных сценариев. Поддерживает вывод и дообучение с контекстным окном в 128k."
@@ -809,12 +818,6 @@
809
818
  "command-r7b-12-2024": {
810
819
  "description": "command-r7b-12-2024 — это компактная и эффективная обновленная версия, выпущенная в декабре 2024 года. Она демонстрирует отличные результаты в задачах, требующих сложного рассуждения и многократной обработки, таких как RAG, использование инструментов и агентирование."
811
820
  },
812
- "compound-beta": {
813
- "description": "Compound-beta — это комплексная AI-система, поддерживаемая несколькими открытыми доступными моделями в GroqCloud, которая может интеллектуально и выборочно использовать инструменты для ответа на запросы пользователей."
814
- },
815
- "compound-beta-mini": {
816
- "description": "Compound-beta-mini — это комплексная AI-система, поддерживаемая открытыми доступными моделями в GroqCloud, которая может интеллектуально и выборочно использовать инструменты для ответа на запросы пользователей."
817
- },
818
821
  "computer-use-preview": {
819
822
  "description": "Модель computer-use-preview специально разработана для «инструментов использования компьютера» и обучена понимать и выполнять задачи, связанные с компьютером."
820
823
  },
@@ -1055,6 +1058,9 @@
1055
1058
  "doubao-seed-1.6-thinking": {
1056
1059
  "description": "Модель Doubao-Seed-1.6-thinking значительно улучшена в плане мышления, по сравнению с Doubao-1.5-thinking-pro дополнительно повышены базовые способности в программировании, математике и логическом рассуждении, поддерживается визуальное понимание. Поддерживает контекстное окно 256k и максимальную длину вывода до 16k токенов."
1057
1060
  },
1061
+ "doubao-seed-1.6-vision": {
1062
+ "description": "Doubao-Seed-1.6-vision — модель глубокого визуального размышления, демонстрирующая более сильные универсальные мультимодальные способности понимания и рассуждения в таких сценариях, как образование, проверка изображений, инспекции и безопасность, а также AI-поиск и ответы на вопросы. Поддерживает окно контекста до 256k и максимальную длину вывода до 64k токенов."
1063
+ },
1058
1064
  "doubao-seedream-3-0-t2i-250415": {
1059
1065
  "description": "Модель генерации изображений Doubao разработана командой Seed компании ByteDance, поддерживает ввод текста и изображений, обеспечивая высококонтролируемый и качественный опыт генерации изображений на основе текстовых подсказок."
1060
1066
  },
@@ -1400,9 +1406,6 @@
1400
1406
  "google/gemini-2.5-flash-image-preview": {
1401
1407
  "description": "Экспериментальная модель Gemini 2.5 Flash, поддерживающая генерацию изображений."
1402
1408
  },
1403
- "google/gemini-2.5-flash-image-preview:free": {
1404
- "description": "Экспериментальная модель Gemini 2.5 Flash, поддерживающая генерацию изображений."
1405
- },
1406
1409
  "google/gemini-2.5-flash-preview": {
1407
1410
  "description": "Gemini 2.5 Flash — это самая современная основная модель от Google, разработанная для сложного рассуждения, кодирования, математических и научных задач. Она включает встроенную способность \"думать\", что позволяет ей давать ответы с более высокой точностью и детализированной обработкой контекста.\n\nОбратите внимание: эта модель имеет два варианта: с \"думанием\" и без. Цены на вывод значительно различаются в зависимости от того, активирована ли способность думать. Если вы выберете стандартный вариант (без суффикса \":thinking\"), модель явно избегает генерации токенов для размышлений.\n\nЧтобы воспользоваться способностью думать и получать токены для размышлений, вы должны выбрать вариант \":thinking\", что приведет к более высокой цене на вывод размышлений.\n\nКроме того, Gemini 2.5 Flash можно настроить с помощью параметра \"максимальное количество токенов для рассуждения\", как указано в документации (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1408
1411
  },
@@ -1442,6 +1445,9 @@
1442
1445
  "google/gemma-2b-it": {
1443
1446
  "description": "Gemma Instruct (2B) предлагает базовые возможности обработки команд, подходящие для легковесных приложений."
1444
1447
  },
1448
+ "google/gemma-3-12b-it": {
1449
+ "description": "Gemma 3 12B — открытая языковая модель от Google, установившая новые стандарты эффективности и производительности."
1450
+ },
1445
1451
  "google/gemma-3-1b-it": {
1446
1452
  "description": "Gemma 3 1B — это открытая языковая модель от Google, установившая новые стандарты в эффективности и производительности."
1447
1453
  },
@@ -1607,6 +1613,12 @@
1607
1613
  "grok-code-fast-1": {
1608
1614
  "description": "Мы рады представить grok-code-fast-1 — быстрый и экономичный модель вывода, которая отлично справляется с кодированием агентов."
1609
1615
  },
1616
+ "groq/compound": {
1617
+ "description": "Compound — это комплексная AI-система, поддерживаемая несколькими открытыми моделями, уже доступными в GroqCloud, которая интеллектуально и выборочно использует инструменты для ответа на запросы пользователей."
1618
+ },
1619
+ "groq/compound-mini": {
1620
+ "description": "Compound-mini — это комплексная AI-система, поддерживаемая открытыми моделями, уже доступными в GroqCloud, которая интеллектуально и выборочно использует инструменты для ответа на запросы пользователей."
1621
+ },
1610
1622
  "gryphe/mythomax-l2-13b": {
1611
1623
  "description": "MythoMax l2 13B — это языковая модель, объединяющая креативность и интеллект, основанная на нескольких ведущих моделях."
1612
1624
  },
@@ -1662,7 +1674,7 @@
1662
1674
  "description": "Значительное улучшение способностей в сложной математике, логике и программировании, оптимизация стабильности вывода модели и повышение возможностей работы с длинными текстами."
1663
1675
  },
1664
1676
  "hunyuan-t1-latest": {
1665
- "description": "Первый в отрасли сверхмасштабный гибридный трансформер-Mamba для вывода, расширяющий возможности вывода, обладающий высокой скоростью декодирования и лучше соответствующий человеческим предпочтениям."
1677
+ "description": "Значительно улучшает способности основной модели медленного размышления в сложной математике, сложных рассуждениях, сложном кодировании, следовании инструкциям и качестве текстового творчества."
1666
1678
  },
1667
1679
  "hunyuan-t1-vision": {
1668
1680
  "description": "Глубокая мультимодальная модель понимания Hunyuan с нативной цепочкой размышлений для мультимодальных данных, отлично справляется с различными задачами рассуждения на изображениях, значительно превосходя модели быстрого мышления в решении научных задач."
@@ -1766,6 +1778,9 @@
1766
1778
  "kimi-k2-0711-preview": {
1767
1779
  "description": "kimi-k2 — базовая модель с архитектурой MoE, обладающая мощными возможностями кода и агента, с общим числом параметров 1 триллион и 32 миллиарда активных параметров. В тестах производительности по основным категориям, таким как универсальное знание, программирование, математика и агенты, модель K2 превосходит другие ведущие открытые модели."
1768
1780
  },
1781
+ "kimi-k2-0905-preview": {
1782
+ "description": "Модель kimi-k2-0905-preview с длиной контекста 256k обладает более сильными возможностями агентного кодирования, улучшенной эстетикой и практичностью фронтенд-кода, а также лучшим пониманием контекста."
1783
+ },
1769
1784
  "kimi-k2-turbo-preview": {
1770
1785
  "description": "kimi-k2 — это базовая модель архитектуры MoE с выдающимися возможностями в области программирования и агентов. Общий объём параметров — 1 трлн, активируемые параметры — 32 млрд. В бенчмарках по основным категориям (общее знание и рассуждение, программирование, математика, агенты и пр.) модель K2 демонстрирует результаты выше, чем у других ведущих открытых моделей."
1771
1786
  },
@@ -2165,9 +2180,18 @@
2165
2180
  "moonshotai/Kimi-K2-Instruct": {
2166
2181
  "description": "Kimi K2 — базовая модель на архитектуре MoE с выдающимися возможностями в кодировании и агентских задачах, с общим числом параметров 1 триллион и 32 миллиардами активируемых параметров. В тестах на универсальное знание, программирование, математику и агентские задачи производительность модели K2 превосходит другие ведущие открытые модели."
2167
2182
  },
2183
+ "moonshotai/Kimi-K2-Instruct-0905": {
2184
+ "description": "Модель kimi-k2-0905-preview с длиной контекста 256k обладает более сильными возможностями агентного кодирования, улучшенной эстетикой и практичностью фронтенд-кода, а также лучшим пониманием контекста."
2185
+ },
2186
+ "moonshotai/kimi-k2-0905": {
2187
+ "description": "Модель kimi-k2-0905-preview с длиной контекста 256k обладает более сильными возможностями агентного кодирования, улучшенной эстетикой и практичностью фронтенд-кода, а также лучшим пониманием контекста."
2188
+ },
2168
2189
  "moonshotai/kimi-k2-instruct": {
2169
2190
  "description": "kimi-k2 — базовая модель на архитектуре MoE с мощными возможностями кода и агента, общий объем параметров 1 триллион, активные параметры 32 миллиарда. В тестах производительности по основным категориям, таким как общие знания, программирование, математика и агенты, модель K2 превосходит другие популярные открытые модели."
2170
2191
  },
2192
+ "moonshotai/kimi-k2-instruct-0905": {
2193
+ "description": "Модель kimi-k2-0905-preview с длиной контекста 256k обладает более сильными возможностями агентного кодирования, улучшенной эстетикой и практичностью фронтенд-кода, а также лучшим пониманием контекста."
2194
+ },
2171
2195
  "nousresearch/hermes-2-pro-llama-3-8b": {
2172
2196
  "description": "Hermes 2 Pro Llama 3 8B — это обновленная версия Nous Hermes 2, содержащая последние внутренние разработанные наборы данных."
2173
2197
  },
@@ -2549,6 +2573,9 @@
2549
2573
  "qwen3-coder-plus": {
2550
2574
  "description": "Модель кода Tongyi Qianwen. Последняя серия моделей Qwen3-Coder основана на Qwen3 и представляет собой модель генерации кода с мощными возможностями Coding Agent, отлично справляющуюся с вызовом инструментов и взаимодействием с окружением, способную к автономному программированию, обладающую выдающимися кодировочными и универсальными способностями."
2551
2575
  },
2576
+ "qwen3-max-preview": {
2577
+ "description": "Предварительная версия модели серии Qwen 3 Max, которая значительно превосходит серию 2.5 по универсальным возможностям, включая понимание текста на китайском и английском языках, выполнение сложных инструкций, способности к субъективным открытым задачам, многоязычность и вызов инструментов; модель демонстрирует меньше искажений знаний."
2578
+ },
2552
2579
  "qwq": {
2553
2580
  "description": "QwQ — это экспериментальная исследовательская модель, сосредоточенная на повышении возможностей вывода ИИ."
2554
2581
  },
@@ -53,6 +53,9 @@
53
53
  "Baichuan4-Turbo": {
54
54
  "description": "Model yetenekleri ülke içinde birinci, bilgi ansiklopedisi, uzun metinler, yaratıcı üretim gibi Çince görevlerde uluslararası ana akım modelleri aşmaktadır. Ayrıca, sektörde lider çok modlu yeteneklere sahip olup, birçok yetkili değerlendirme ölçütünde mükemmel performans sergilemektedir."
55
55
  },
56
+ "ByteDance-Seed/Seed-OSS-36B-Instruct": {
57
+ "description": "Seed-OSS, ByteDance Seed ekibi tarafından geliştirilen, güçlü uzun bağlam işleme, akıl yürütme, ajan (agent) ve genel yetenekler için tasarlanmış bir dizi açık kaynaklı büyük dil modelidir. Bu serideki Seed-OSS-36B-Instruct, 36 milyar parametreye sahip bir talimat ince ayar modelidir ve doğal olarak çok uzun bağlam uzunluğunu destekleyerek, büyük belgeleri veya karmaşık kod tabanlarını tek seferde işleyebilmesini sağlar. Model, akıl yürütme, kod üretimi ve araç kullanımı gibi ajan görevlerinde özel olarak optimize edilmiştir ve dengeli, üstün genel yetenekler sunar. Modelin önemli bir özelliği olan “Düşünme Bütçesi” fonksiyonu, kullanıcıların ihtiyaçlarına göre akıl yürütme uzunluğunu esnek şekilde ayarlamasına olanak tanır ve böylece gerçek uygulamalarda akıl yürütme verimliliğini artırır."
58
+ },
56
59
  "DeepSeek-R1": {
57
60
  "description": "En gelişmiş verimli LLM, akıl yürütme, matematik ve programlama konularında uzmandır."
58
61
  },
@@ -81,7 +84,13 @@
81
84
  "description": "Model sağlayıcısı: sophnet platformu. DeepSeek V3 Fast, DeepSeek V3 0324 sürümünün yüksek TPS hızlı versiyonudur, tam performanslı ve kuantize edilmemiştir, kodlama ve matematik yetenekleri daha güçlüdür, yanıt süresi daha hızlıdır!"
82
85
  },
83
86
  "DeepSeek-V3.1": {
84
- "description": "DeepSeek-V3.1, DeepSeek'in tamamen yeni hibrit çıkarım modeli olup, düşünme ve düşünmeme olmak üzere iki çıkarım modunu destekler ve DeepSeek-R1-0528'e kıyasla düşünme verimliliği daha yüksektir. Post-Training optimizasyonu sayesinde, Agent araç kullanımı ve akıllı görev performansı önemli ölçüde artırılmıştır."
87
+ "description": "DeepSeek-V3.1-Düşünme modu dışı; DeepSeek-V3.1, DeepSeek tarafından yeni sunulan hibrit akıl yürütme modelidir ve düşünme ile düşünmeme olmak üzere iki akıl yürütme modunu destekler. DeepSeek-R1-0528 modeline kıyasla düşünme verimliliği daha yüksektir. Sonrası eğitim optimizasyonları sayesinde, ajan araç kullanımı ve akıllı ajan görevlerinde performans önemli ölçüde artmıştır."
88
+ },
89
+ "DeepSeek-V3.1-Fast": {
90
+ "description": "DeepSeek V3.1 Fast, DeepSeek V3.1 sürümünün yüksek TPS hızlı versiyonudur. Hibrit düşünme modu: Sohbet şablonunu değiştirerek, tek bir model hem düşünme hem de düşünmeme modlarını destekleyebilir. Daha akıllı araç çağrısı: Sonrası eğitim optimizasyonları sayesinde model, araç kullanımı ve ajan görevlerindeki performansını belirgin şekilde artırmıştır."
91
+ },
92
+ "DeepSeek-V3.1-Think": {
93
+ "description": "DeepSeek-V3.1-Düşünme modu; DeepSeek-V3.1, DeepSeek tarafından yeni sunulan hibrit akıl yürütme modelidir ve düşünme ile düşünmeme olmak üzere iki akıl yürütme modunu destekler. DeepSeek-R1-0528 modeline kıyasla düşünme verimliliği daha yüksektir. Sonrası eğitim optimizasyonları sayesinde, ajan araç kullanımı ve akıllı ajan görevlerinde performans önemli ölçüde artmıştır."
85
94
  },
86
95
  "Doubao-lite-128k": {
87
96
  "description": "Doubao-lite, son derece hızlı yanıt süresi ve daha iyi fiyat-performans oranı ile müşterilere farklı senaryolar için daha esnek seçenekler sunar. 128k bağlam penceresi ile çıkarım ve ince ayar desteği sağlar."
@@ -809,12 +818,6 @@
809
818
  "command-r7b-12-2024": {
810
819
  "description": "command-r7b-12-2024, 2024 yılının Aralık ayında piyasaya sürülen küçük ve verimli bir güncellenmiş versiyondur. RAG, araç kullanımı, ajan gibi karmaşık akıl yürütme ve çok adımlı işlemler gerektiren görevlerde mükemmel performans sergilemektedir."
811
820
  },
812
- "compound-beta": {
813
- "description": "Compound-beta, GroqCloud'da desteklenen birden fazla açık kullanılabilir modelden güç alan bir bileşik AI sistemidir, kullanıcı sorgularını yanıtlamak için araçları akıllıca ve seçici bir şekilde kullanabilir."
814
- },
815
- "compound-beta-mini": {
816
- "description": "Compound-beta-mini, GroqCloud'da desteklenen açık kullanılabilir modellerden güç alan bir bileşik AI sistemidir, kullanıcı sorgularını yanıtlamak için araçları akıllıca ve seçici bir şekilde kullanabilir."
817
- },
818
821
  "computer-use-preview": {
819
822
  "description": "computer-use-preview modeli, \"Bilgisayar Kullanım Araçları\" için özel olarak tasarlanmış ve bilgisayarla ilgili görevleri anlama ve yerine getirme konusunda eğitilmiş özel bir modeldir."
820
823
  },
@@ -1055,6 +1058,9 @@
1055
1058
  "doubao-seed-1.6-thinking": {
1056
1059
  "description": "Doubao-Seed-1.6-thinking modeli düşünme yeteneğinde büyük gelişme göstermiştir, Doubao-1.5-thinking-pro ile karşılaştırıldığında Kodlama, Matematik ve mantıksal akıl yürütme gibi temel yeteneklerde daha da iyileşmiştir, görsel anlayışı destekler. 256k bağlam penceresini destekler ve çıktı uzunluğu maksimum 16k token olabilir."
1057
1060
  },
1061
+ "doubao-seed-1.6-vision": {
1062
+ "description": "Doubao-Seed-1.6-vision görsel derin düşünme modeli, eğitim, görüntü denetimi, denetim ve güvenlik ile AI arama ve soru-cevap gibi senaryolarda daha güçlü genel çok modlu anlama ve akıl yürütme yetenekleri sergiler. 256k bağlam penceresini destekler ve çıktı uzunluğu maksimum 64k token olabilir."
1063
+ },
1058
1064
  "doubao-seedream-3-0-t2i-250415": {
1059
1065
  "description": "Doubao görüntü oluşturma modeli, ByteDance Seed ekibi tarafından geliştirilmiştir; metin ve görüntü girişlerini destekler ve yüksek kontrol edilebilirlik ile yüksek kaliteli görüntü üretimi sunar. Metin istemlerine dayalı görüntü oluşturur."
1060
1066
  },
@@ -1400,9 +1406,6 @@
1400
1406
  "google/gemini-2.5-flash-image-preview": {
1401
1407
  "description": "Gemini 2.5 Flash deneysel modeli, görüntü oluşturmayı destekler."
1402
1408
  },
1403
- "google/gemini-2.5-flash-image-preview:free": {
1404
- "description": "Gemini 2.5 Flash deneysel modeli, görüntü oluşturmayı destekler."
1405
- },
1406
1409
  "google/gemini-2.5-flash-preview": {
1407
1410
  "description": "Gemini 2.5 Flash, Google'ın en gelişmiş ana modelidir ve ileri düzey akıl yürütme, kodlama, matematik ve bilimsel görevler için tasarlanmıştır. Daha yüksek doğruluk ve ayrıntılı bağlam işleme ile yanıtlar sunabilen yerleşik 'düşünme' yeteneğine sahiptir.\n\nNot: Bu modelin iki varyantı vardır: düşünme ve düşünmeme. Çıktı fiyatlandırması, düşünme yeteneğinin etkin olup olmamasına göre önemli ölçüde farklılık gösterir. Standart varyantı (':thinking' eki olmadan) seçerseniz, model açıkça düşünme tokenleri üretmekten kaçınacaktır.\n\nDüşünme yeteneğinden yararlanmak ve düşünme tokenleri almak için, ':thinking' varyantını seçmelisiniz; bu, daha yüksek düşünme çıktı fiyatlandırması ile sonuçlanacaktır.\n\nAyrıca, Gemini 2.5 Flash, belgede belirtildiği gibi 'akıl yürütme maksimum token sayısı' parametresi ile yapılandırılabilir (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1408
1411
  },
@@ -1442,6 +1445,9 @@
1442
1445
  "google/gemma-2b-it": {
1443
1446
  "description": "Gemma Instruct (2B), temel talimat işleme yetenekleri sunar ve hafif uygulamalar için uygundur."
1444
1447
  },
1448
+ "google/gemma-3-12b-it": {
1449
+ "description": "Gemma 3 12B, Google tarafından geliştirilen açık kaynaklı bir dil modelidir ve verimlilik ile performansta yeni standartlar belirlemiştir."
1450
+ },
1445
1451
  "google/gemma-3-1b-it": {
1446
1452
  "description": "Gemma 3 1B, Google tarafından geliştirilen açık kaynaklı bir dil modelidir ve verimlilik ile performansta yeni standartlar belirlemiştir."
1447
1453
  },
@@ -1607,6 +1613,12 @@
1607
1613
  "grok-code-fast-1": {
1608
1614
  "description": "Hızlı ve ekonomik bir çıkarım modeli olan grok-code-fast-1'i sunmaktan mutluluk duyuyoruz; ajan kodlamasında mükemmel performans sergiler."
1609
1615
  },
1616
+ "groq/compound": {
1617
+ "description": "Compound, GroqCloud’da desteklenen birden fazla açık erişimli model tarafından desteklenen birleşik bir yapay zeka sistemidir ve kullanıcı sorgularını yanıtlamak için araçları akıllıca ve seçici şekilde kullanabilir."
1618
+ },
1619
+ "groq/compound-mini": {
1620
+ "description": "Compound-mini, GroqCloud’da desteklenen açık erişimli modeller tarafından desteklenen birleşik bir yapay zeka sistemidir ve kullanıcı sorgularını yanıtlamak için araçları akıllıca ve seçici şekilde kullanabilir."
1621
+ },
1610
1622
  "gryphe/mythomax-l2-13b": {
1611
1623
  "description": "MythoMax l2 13B, birden fazla üst düzey modelin birleşimiyle yaratıcı ve zeka odaklı bir dil modelidir."
1612
1624
  },
@@ -1662,7 +1674,7 @@
1662
1674
  "description": "Zorlu matematik, mantık ve kodlama yeteneklerinde büyük iyileştirmeler sağlar, model çıktı kararlılığını optimize eder ve uzun metin işleme kapasitesini artırır."
1663
1675
  },
1664
1676
  "hunyuan-t1-latest": {
1665
- "description": "Sektördeki ilk ultra büyük ölçekli Hybrid-Transformer-Mamba çıkarım modeli, çıkarım yeteneklerini genişletir, yüksek çözümleme hızı sunar ve insan tercihleri ile daha iyi hizalanır."
1677
+ "description": "Ana modelin yavaş düşünme modelinin yüksek zorlukta matematik, karmaşık akıl yürütme, zor kodlama, talimat uyumu ve metin oluşturma kalitesi gibi yeteneklerinde büyük gelişmeler sağlar."
1666
1678
  },
1667
1679
  "hunyuan-t1-vision": {
1668
1680
  "description": "Hunyuan çok modlu anlayış derin düşünme modeli, çok modlu doğal uzun düşünce zincirini destekler, çeşitli görsel çıkarım senaryolarında uzmandır ve fen bilimleri problemlerinde hızlı düşünme modellerine kıyasla kapsamlı iyileşme sağlar."
@@ -1766,6 +1778,9 @@
1766
1778
  "kimi-k2-0711-preview": {
1767
1779
  "description": "kimi-k2, son derece güçlü kodlama ve Agent yeteneklerine sahip MoE mimarili temel bir modeldir. Toplam parametre sayısı 1T, aktif parametre sayısı 32B'dir. Genel bilgi çıkarımı, programlama, matematik, Agent gibi ana kategorilerde yapılan kıyaslama testlerinde K2 modeli, diğer önde gelen açık kaynak modelleri geride bırakmıştır."
1768
1780
  },
1781
+ "kimi-k2-0905-preview": {
1782
+ "description": "kimi-k2-0905-preview modelinin bağlam uzunluğu 256k’dır, daha güçlü Agentic Kodlama yeteneklerine, ön uç kodlarının estetik ve işlevselliğinde belirgin gelişmelere ve daha iyi bağlam anlama yeteneğine sahiptir."
1783
+ },
1769
1784
  "kimi-k2-turbo-preview": {
1770
1785
  "description": "kimi-k2, son derece güçlü kod yazma ve Agent yeteneklerine sahip MoE mimarisine dayanan bir temel modeldir; toplam parametre sayısı 1T, aktif (etkin) parametre sayısı 32B. Genel bilgi çıkarımı, programlama, matematik ve Agent gibi ana kategorilerde yapılan karşılaştırmalı performans testlerinde K2 modelinin performansı diğer önde gelen açık kaynak modellerinin üzerindedir."
1771
1786
  },
@@ -2165,9 +2180,18 @@
2165
2180
  "moonshotai/Kimi-K2-Instruct": {
2166
2181
  "description": "Kimi K2, güçlü kodlama ve ajan yeteneklerine sahip MoE mimarili temel modeldir; toplam 1 trilyon parametre, 32 milyar aktif parametreye sahiptir. Genel bilgi çıkarımı, programlama, matematik ve ajan gibi ana kategorilerdeki kıyaslama testlerinde K2 modeli diğer önde gelen açık kaynak modelleri geride bırakır."
2167
2182
  },
2183
+ "moonshotai/Kimi-K2-Instruct-0905": {
2184
+ "description": "kimi-k2-0905-preview modelinin bağlam uzunluğu 256k’dır, daha güçlü Agentic Kodlama yeteneklerine, ön uç kodlarının estetik ve işlevselliğinde belirgin gelişmelere ve daha iyi bağlam anlama yeteneğine sahiptir."
2185
+ },
2186
+ "moonshotai/kimi-k2-0905": {
2187
+ "description": "kimi-k2-0905-preview modelinin bağlam uzunluğu 256k’dır, daha güçlü Agentic Kodlama yeteneklerine, ön uç kodlarının estetik ve işlevselliğinde belirgin gelişmelere ve daha iyi bağlam anlama yeteneğine sahiptir."
2188
+ },
2168
2189
  "moonshotai/kimi-k2-instruct": {
2169
2190
  "description": "kimi-k2, güçlü kodlama ve Ajan yeteneklerine sahip MoE mimarili temel bir modeldir, toplam parametre sayısı 1T, aktif parametre sayısı 32B'dir. Genel bilgi çıkarımı, programlama, matematik ve Ajan gibi ana kategorilerde yapılan kıyaslama testlerinde, K2 modeli diğer önde gelen açık kaynak modellerini geride bırakmaktadır."
2170
2191
  },
2192
+ "moonshotai/kimi-k2-instruct-0905": {
2193
+ "description": "kimi-k2-0905-preview modelinin bağlam uzunluğu 256k’dır, daha güçlü Agentic Kodlama yeteneklerine, ön uç kodlarının estetik ve işlevselliğinde belirgin gelişmelere ve daha iyi bağlam anlama yeteneğine sahiptir."
2194
+ },
2171
2195
  "nousresearch/hermes-2-pro-llama-3-8b": {
2172
2196
  "description": "Hermes 2 Pro Llama 3 8B, Nous Hermes 2'nin güncellenmiş versiyonudur ve en son iç geliştirme veri setlerini içermektedir."
2173
2197
  },
@@ -2549,6 +2573,9 @@
2549
2573
  "qwen3-coder-plus": {
2550
2574
  "description": "Tongyi Qianwen kod modeli. En yeni Qwen3-Coder serisi modeller, Qwen3 tabanlı kod üretim modelleridir, güçlü Kodlama Ajanı yeteneklerine sahiptir, araç çağrıları ve ortam etkileşiminde uzmandır, bağımsız programlama yapabilir, üstün kodlama yeteneklerinin yanı sıra genel yeteneklere de sahiptir."
2551
2575
  },
2576
+ "qwen3-max-preview": {
2577
+ "description": "Tongyi Qianwen 3 serisi Max modelinin önizleme sürümüdür. 2.5 serisine kıyasla genel yeteneklerde büyük gelişmeler göstermiştir; Çince ve İngilizce genel metin anlama, karmaşık talimat uyumu, öznel açık görevler, çok dilli yetenekler ve araç çağrısı yetenekleri belirgin şekilde artmıştır; model bilgi yanılgıları daha azdır."
2578
+ },
2552
2579
  "qwq": {
2553
2580
  "description": "QwQ, AI akıl yürütme yeteneklerini artırmaya odaklanan deneysel bir araştırma modelidir."
2554
2581
  },