@lobehub/chat 1.117.1 → 1.118.1

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (97) hide show
  1. package/.env.example +8 -0
  2. package/AGENTS.md +133 -0
  3. package/CHANGELOG.md +58 -0
  4. package/changelog/v1.json +21 -0
  5. package/locales/ar/chat.json +6 -1
  6. package/locales/ar/error.json +8 -8
  7. package/locales/ar/models.json +21 -0
  8. package/locales/ar/providers.json +3 -0
  9. package/locales/bg-BG/chat.json +6 -1
  10. package/locales/bg-BG/error.json +8 -8
  11. package/locales/bg-BG/models.json +21 -0
  12. package/locales/bg-BG/providers.json +3 -0
  13. package/locales/de-DE/chat.json +6 -1
  14. package/locales/de-DE/error.json +7 -7
  15. package/locales/de-DE/models.json +21 -0
  16. package/locales/de-DE/providers.json +3 -0
  17. package/locales/en-US/chat.json +6 -1
  18. package/locales/en-US/error.json +4 -4
  19. package/locales/en-US/models.json +21 -0
  20. package/locales/en-US/providers.json +3 -0
  21. package/locales/es-ES/chat.json +6 -1
  22. package/locales/es-ES/error.json +9 -9
  23. package/locales/es-ES/models.json +21 -0
  24. package/locales/es-ES/providers.json +3 -0
  25. package/locales/fa-IR/chat.json +6 -1
  26. package/locales/fa-IR/error.json +9 -9
  27. package/locales/fa-IR/models.json +21 -0
  28. package/locales/fa-IR/providers.json +3 -0
  29. package/locales/fr-FR/chat.json +6 -1
  30. package/locales/fr-FR/error.json +9 -9
  31. package/locales/fr-FR/models.json +21 -0
  32. package/locales/fr-FR/providers.json +3 -0
  33. package/locales/it-IT/chat.json +6 -1
  34. package/locales/it-IT/error.json +7 -7
  35. package/locales/it-IT/models.json +21 -0
  36. package/locales/it-IT/providers.json +3 -0
  37. package/locales/ja-JP/chat.json +6 -1
  38. package/locales/ja-JP/error.json +8 -8
  39. package/locales/ja-JP/models.json +21 -0
  40. package/locales/ja-JP/providers.json +3 -0
  41. package/locales/ko-KR/chat.json +6 -1
  42. package/locales/ko-KR/error.json +8 -8
  43. package/locales/ko-KR/models.json +21 -0
  44. package/locales/ko-KR/providers.json +3 -0
  45. package/locales/nl-NL/chat.json +6 -1
  46. package/locales/nl-NL/error.json +8 -8
  47. package/locales/nl-NL/models.json +21 -0
  48. package/locales/nl-NL/providers.json +3 -0
  49. package/locales/pl-PL/chat.json +6 -1
  50. package/locales/pl-PL/error.json +9 -9
  51. package/locales/pl-PL/models.json +21 -0
  52. package/locales/pl-PL/providers.json +3 -0
  53. package/locales/pt-BR/chat.json +6 -1
  54. package/locales/pt-BR/error.json +8 -8
  55. package/locales/pt-BR/models.json +21 -0
  56. package/locales/pt-BR/providers.json +3 -0
  57. package/locales/ru-RU/chat.json +6 -1
  58. package/locales/ru-RU/error.json +7 -7
  59. package/locales/ru-RU/models.json +21 -0
  60. package/locales/ru-RU/providers.json +3 -0
  61. package/locales/tr-TR/chat.json +6 -1
  62. package/locales/tr-TR/error.json +9 -9
  63. package/locales/tr-TR/models.json +21 -0
  64. package/locales/tr-TR/providers.json +3 -0
  65. package/locales/vi-VN/chat.json +6 -1
  66. package/locales/vi-VN/models.json +21 -0
  67. package/locales/vi-VN/providers.json +3 -0
  68. package/locales/zh-CN/chat.json +6 -1
  69. package/locales/zh-CN/models.json +21 -0
  70. package/locales/zh-CN/providers.json +3 -0
  71. package/locales/zh-TW/chat.json +6 -1
  72. package/locales/zh-TW/error.json +4 -4
  73. package/locales/zh-TW/models.json +21 -0
  74. package/locales/zh-TW/providers.json +3 -0
  75. package/next.config.ts +22 -6
  76. package/package.json +1 -1
  77. package/packages/model-runtime/src/akashchat/index.ts +43 -0
  78. package/packages/model-runtime/src/google/index.ts +17 -3
  79. package/packages/model-runtime/src/index.ts +1 -0
  80. package/packages/model-runtime/src/openai/__snapshots__/index.test.ts.snap +1 -1
  81. package/packages/model-runtime/src/runtimeMap.ts +2 -0
  82. package/packages/model-runtime/src/types/chat.ts +4 -0
  83. package/packages/model-runtime/src/types/type.ts +1 -0
  84. package/packages/model-runtime/src/utils/modelParse.ts +14 -1
  85. package/packages/types/src/agent/chatConfig.ts +1 -0
  86. package/packages/types/src/aiModel.ts +2 -1
  87. package/packages/types/src/user/settings/keyVaults.ts +1 -0
  88. package/src/app/[variants]/(main)/settings/llm/ProviderList/providers.tsx +2 -0
  89. package/src/config/aiModels/akashchat.ts +84 -0
  90. package/src/config/aiModels/google.ts +8 -6
  91. package/src/config/aiModels/index.ts +3 -0
  92. package/src/config/llm.ts +6 -0
  93. package/src/config/modelProviders/akashchat.ts +17 -0
  94. package/src/config/modelProviders/index.ts +3 -0
  95. package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +13 -1
  96. package/src/locales/default/chat.ts +4 -0
  97. package/src/services/chat.ts +4 -0
@@ -74,6 +74,9 @@
74
74
  "DeepSeek-V3": {
75
75
  "description": "DeepSeek-V3 to model MoE opracowany przez firmę DeepSeek. Wyniki DeepSeek-V3 w wielu testach przewyższają inne modele open source, takie jak Qwen2.5-72B i Llama-3.1-405B, a jego wydajność jest porównywalna z najlepszymi zamkniętymi modelami na świecie, takimi jak GPT-4o i Claude-3.5-Sonnet."
76
76
  },
77
+ "DeepSeek-V3-1": {
78
+ "description": "DeepSeek V3.1: model nowej generacji do wnioskowania, poprawiający zdolności do złożonych rozumowań i myślenia łańcuchowego, idealny do zadań wymagających dogłębnej analizy."
79
+ },
77
80
  "DeepSeek-V3-Fast": {
78
81
  "description": "Dostawca modelu: platforma sophnet. DeepSeek V3 Fast to szybka wersja o wysokim TPS modelu DeepSeek V3 0324, w pełni nienkwantyzowana, z ulepszonym kodem i zdolnościami matematycznymi, zapewniająca szybszą reakcję!"
79
82
  },
@@ -170,6 +173,9 @@
170
173
  "Llama-3.2-90B-Vision-Instruct\t": {
171
174
  "description": "Zaawansowane zdolności wnioskowania obrazów, odpowiednie do zastosowań w agentach rozumienia wizualnego."
172
175
  },
176
+ "Meta-Llama-3-3-70B-Instruct": {
177
+ "description": "Llama 3.3 70B: uniwersalny model Transformer, odpowiedni do zadań dialogowych i generowania tekstu."
178
+ },
173
179
  "Meta-Llama-3.1-405B-Instruct": {
174
180
  "description": "Model tekstowy Llama 3.1 dostosowany do instrukcji, zoptymalizowany do wielojęzycznych przypadków użycia dialogów, osiągający doskonałe wyniki w wielu dostępnych modelach czatu, zarówno otwartych, jak i zamkniętych, w powszechnych benchmarkach branżowych."
175
181
  },
@@ -188,6 +194,9 @@
188
194
  "Meta-Llama-3.3-70B-Instruct": {
189
195
  "description": "Llama 3.3 to najnowocześniejszy wielojęzyczny otwarty model językowy z serii Llama, oferujący wydajność porównywalną z modelem 405B przy bardzo niskich kosztach. Oparty na strukturze Transformer, poprawiony dzięki nadzorowanemu dostrajaniu (SFT) oraz uczeniu ze wzmocnieniem opartym na ludzkiej opinii (RLHF), co zwiększa jego użyteczność i bezpieczeństwo. Jego wersja dostosowana do instrukcji została zoptymalizowana do wielojęzycznych dialogów, osiągając lepsze wyniki niż wiele dostępnych modeli czatu, zarówno otwartych, jak i zamkniętych, w wielu branżowych benchmarkach. Data graniczna wiedzy to grudzień 2023."
190
196
  },
197
+ "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
198
+ "description": "Llama 4 Maverick: duży model oparty na architekturze Mixture-of-Experts, oferujący efektywną strategię aktywacji ekspertów dla doskonałej wydajności podczas wnioskowania."
199
+ },
191
200
  "MiniMax-M1": {
192
201
  "description": "Nowy, samodzielnie opracowany model inferencyjny. Globalny lider: 80K łańcuchów myślowych x 1M wejść, efektywność porównywalna z najlepszymi modelami zagranicznymi."
193
202
  },
@@ -377,6 +386,9 @@
377
386
  "Qwen3-235B": {
378
387
  "description": "Qwen3-235B-A22B to model MoE (ekspert mieszany), który wprowadza „hybrydowy tryb rozumowania”, umożliwiający użytkownikom płynne przełączanie się między trybem myślenia a trybem bez myślenia. Obsługuje rozumienie i rozumowanie w 119 językach i dialektach oraz posiada zaawansowane możliwości wywoływania narzędzi. W testach porównawczych obejmujących zdolności ogólne, kodowanie, matematykę, wielojęzyczność, wiedzę i rozumowanie konkuruje z czołowymi modelami rynkowymi, takimi jak DeepSeek R1, OpenAI o1, o3-mini, Grok 3 oraz Google Gemini 2.5 Pro."
379
388
  },
389
+ "Qwen3-235B-A22B-Instruct-2507-FP8": {
390
+ "description": "Qwen3 235B A22B Instruct 2507: model zoptymalizowany pod kątem zaawansowanego wnioskowania i instrukcji dialogowych, z hybrydową architekturą ekspertów zapewniającą efektywność wnioskowania przy dużej liczbie parametrów."
391
+ },
380
392
  "Qwen3-32B": {
381
393
  "description": "Qwen3-32B to model gęsty (Dense Model), który wprowadza „hybrydowy tryb rozumowania”, umożliwiający użytkownikom płynne przełączanie się między trybem myślenia a trybem bez myślenia. Dzięki ulepszonej architekturze modelu, zwiększonej ilości danych treningowych oraz bardziej efektywnym metodom treningu, jego ogólna wydajność jest porównywalna z Qwen2.5-72B."
382
394
  },
@@ -1364,6 +1376,12 @@
1364
1376
  "google/gemini-2.5-flash": {
1365
1377
  "description": "Gemini 2.5 Flash to najnowocześniejszy model główny Google, zaprojektowany specjalnie do zaawansowanego rozumowania, kodowania, matematyki i zadań naukowych. Zawiera wbudowaną zdolność „myślenia”, co pozwala na generowanie odpowiedzi o wyższej dokładności i bardziej szczegółowej analizie kontekstu.\n\nUwaga: ten model ma dwie odmiany: z myśleniem i bez myślenia. Cena wyjścia różni się znacząco w zależności od tego, czy zdolność myślenia jest aktywna. Jeśli wybierzesz standardową odmianę (bez sufiksu „:thinking”), model wyraźnie unika generowania tokenów myślenia.\n\nAby skorzystać ze zdolności myślenia i otrzymywać tokeny myślenia, musisz wybrać odmianę „:thinking”, co wiąże się z wyższą ceną za wyjście myślenia.\n\nPonadto Gemini 2.5 Flash można konfigurować za pomocą parametru „maksymalna liczba tokenów do rozumowania”, jak opisano w dokumentacji (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1366
1378
  },
1379
+ "google/gemini-2.5-flash-image-preview": {
1380
+ "description": "Eksperymentalny model Gemini 2.5 Flash, wspierający generowanie obrazów."
1381
+ },
1382
+ "google/gemini-2.5-flash-image-preview:free": {
1383
+ "description": "Eksperymentalny model Gemini 2.5 Flash, wspierający generowanie obrazów."
1384
+ },
1367
1385
  "google/gemini-2.5-flash-preview": {
1368
1386
  "description": "Gemini 2.5 Flash to najnowocześniejszy model główny Google, zaprojektowany z myślą o zaawansowanym wnioskowaniu, kodowaniu, matematyce i zadaniach naukowych. Zawiera wbudowaną zdolność 'myślenia', co pozwala mu na dostarczanie odpowiedzi z wyższą dokładnością i szczegółowym przetwarzaniem kontekstu.\n\nUwaga: ten model ma dwa warianty: myślenie i niemyslenie. Ceny wyjściowe różnią się znacznie w zależności od tego, czy zdolność myślenia jest aktywowana. Jeśli wybierzesz standardowy wariant (bez sufiksu ':thinking'), model wyraźnie unika generowania tokenów myślenia.\n\nAby skorzystać z zdolności myślenia i otrzymać tokeny myślenia, musisz wybrać wariant ':thinking', co spowoduje wyższe ceny wyjściowe za myślenie.\n\nPonadto Gemini 2.5 Flash można konfigurować za pomocą parametru 'maksymalna liczba tokenów do wnioskowania', jak opisano w dokumentacji (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1369
1387
  },
@@ -1535,6 +1553,9 @@
1535
1553
  "gpt-oss": {
1536
1554
  "description": "GPT-OSS 20B to otwarty model językowy wydany przez OpenAI, wykorzystujący technologię kwantyzacji MXFP4, odpowiedni do uruchamiania na wysokiej klasy konsumenckich GPU lub komputerach Apple Silicon Mac. Model ten doskonale sprawdza się w generowaniu dialogów, pisaniu kodu oraz zadaniach wnioskowania, obsługując wywołania funkcji i korzystanie z narzędzi."
1537
1555
  },
1556
+ "gpt-oss-120b": {
1557
+ "description": "GPT-OSS-120B MXFP4: skwantowany model Transformer, który zachowuje wysoką wydajność nawet przy ograniczonych zasobach."
1558
+ },
1538
1559
  "gpt-oss:120b": {
1539
1560
  "description": "GPT-OSS 120B to duży otwarty model językowy wydany przez OpenAI, wykorzystujący technologię kwantyzacji MXFP4, przeznaczony jako model flagowy. Wymaga środowiska wielo-GPU lub wysokowydajnej stacji roboczej, oferując znakomitą wydajność w złożonym wnioskowaniu, generowaniu kodu oraz przetwarzaniu wielojęzycznym, wspierając zaawansowane wywołania funkcji i integrację narzędzi."
1540
1561
  },
@@ -11,6 +11,9 @@
11
11
  "aihubmix": {
12
12
  "description": "AiHubMix zapewnia dostęp do różnych modeli AI za pośrednictwem zunifikowanego interfejsu API."
13
13
  },
14
+ "akashchat": {
15
+ "description": "Akash to rynek zasobów chmurowych bez konieczności uzyskiwania zezwoleń, oferujący konkurencyjne ceny w porównaniu z tradycyjnymi dostawcami chmury."
16
+ },
14
17
  "anthropic": {
15
18
  "description": "Anthropic to firma skoncentrowana na badaniach i rozwoju sztucznej inteligencji, oferująca szereg zaawansowanych modeli językowych, takich jak Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus i Claude 3 Haiku. Modele te osiągają idealną równowagę między inteligencją, szybkością a kosztami, nadając się do różnych zastosowań, od obciążeń na poziomie przedsiębiorstw po szybkie odpowiedzi. Claude 3.5 Sonnet, jako najnowszy model, wyróżnia się w wielu ocenach, jednocześnie zachowując wysoką opłacalność."
16
19
  },
@@ -52,7 +52,11 @@
52
52
  "thinking": {
53
53
  "title": "Interruptor de Pensamento Profundo"
54
54
  },
55
- "title": "Funcionalidade de Extensão do Modelo"
55
+ "title": "Funcionalidade de Extensão do Modelo",
56
+ "urlContext": {
57
+ "desc": "Ao ativar, os links da web serão automaticamente analisados para obter o conteúdo real do contexto da página",
58
+ "title": "Extrair conteúdo do link da web"
59
+ }
56
60
  },
57
61
  "history": {
58
62
  "title": "O assistente lembrará apenas das últimas {{count}} mensagens"
@@ -125,6 +129,7 @@
125
129
  "inputWriteCached": "Entrada de cache de escrita",
126
130
  "output": "Saída",
127
131
  "outputAudio": "Saída de áudio",
132
+ "outputImage": "Saída de imagem",
128
133
  "outputText": "Saída de texto",
129
134
  "outputTitle": "Detalhes da saída",
130
135
  "reasoning": "Raciocínio profundo",
@@ -87,14 +87,14 @@
87
87
  "FreePlanLimit": "Atualmente, você é um usuário gratuito e não pode usar essa função. Por favor, faça upgrade para um plano pago para continuar usando.",
88
88
  "GoogleAIBlockReason": {
89
89
  "BLOCKLIST": "Seu conteúdo contém palavras proibidas. Verifique e modifique sua entrada e tente novamente.",
90
- "IMAGE_SAFETY": "A geração da imagem foi bloqueada por motivos de segurança. Tente modificar sua solicitação de geração de imagem.",
91
- "LANGUAGE": "O idioma que você está usando não é suportado no momento. Tente perguntar novamente em inglês ou em outro idioma suportado.",
92
- "OTHER": "O conteúdo foi bloqueado por motivo desconhecido. Tente reformular sua solicitação.",
93
- "PROHIBITED_CONTENT": "Sua solicitação pode conter conteúdo proibido. Ajuste seu pedido para garantir que esteja em conformidade com as diretrizes de uso.",
94
- "RECITATION": "Seu conteúdo foi bloqueado por possível violação de direitos autorais. Tente usar conteúdo original ou reformular sua solicitação.",
95
- "SAFETY": "Seu conteúdo foi bloqueado pelas regras de segurança. Tente ajustar sua solicitação, evitando conteúdo potencialmente nocivo ou inadequado.",
96
- "SPII": "Seu conteúdo pode conter informações pessoais sensíveis (SPII). Para proteger a privacidade, remova as informações sensíveis e tente novamente.",
97
- "default": "Conteúdo bloqueado: {{blockReason}}. Ajuste sua solicitação e tente novamente."
90
+ "IMAGE_SAFETY": "A geração da imagem foi bloqueada por motivos de segurança. Tente alterar seu pedido de geração de imagem.",
91
+ "LANGUAGE": "O idioma que você usou não é suportado no momento. Tente refazer a solicitação em inglês ou em outro idioma suportado.",
92
+ "OTHER": "O conteúdo foi bloqueado por um motivo desconhecido. Tente reformular sua solicitação.",
93
+ "PROHIBITED_CONTENT": "Seu pedido pode conter conteúdo proibido. Ajuste sua solicitação para garantir que esteja em conformidade com as diretrizes de uso.",
94
+ "RECITATION": "Seu conteúdo foi bloqueado por possível violação de direitos autorais. Tente usar conteúdo original ou reformular seu pedido.",
95
+ "SAFETY": "Seu conteúdo foi bloqueado por políticas de segurança. Tente ajustar sua solicitação para evitar conteúdo potencialmente nocivo ou inadequado.",
96
+ "SPII": "Seu conteúdo pode conter informações pessoais sensíveis. Para proteger a privacidade, remova essas informações e tente novamente.",
97
+ "default": "Conteúdo bloqueado: {{blockReason}}Ajuste sua solicitação e tente novamente"
98
98
  },
99
99
  "InsufficientQuota": "Desculpe, a cota dessa chave atingiu o limite. Verifique se o saldo da conta é suficiente ou aumente a cota da chave e tente novamente.",
100
100
  "InvalidAccessCode": "Senha de acesso inválida ou em branco. Por favor, insira a senha de acesso correta ou adicione uma Chave de API personalizada.",
@@ -74,6 +74,9 @@
74
74
  "DeepSeek-V3": {
75
75
  "description": "DeepSeek-V3 é um modelo MoE desenvolvido internamente pela DeepSeek. Os resultados de várias avaliações do DeepSeek-V3 superaram outros modelos de código aberto, como Qwen2.5-72B e Llama-3.1-405B, e seu desempenho é comparável aos melhores modelos fechados do mundo, como GPT-4o e Claude-3.5-Sonnet."
76
76
  },
77
+ "DeepSeek-V3-1": {
78
+ "description": "DeepSeek V3.1: modelo de inferência de próxima geração, aprimorado para raciocínio complexo e pensamento em cadeia, ideal para tarefas que exigem análise profunda."
79
+ },
77
80
  "DeepSeek-V3-Fast": {
78
81
  "description": "Fornecedor do modelo: plataforma sophnet. DeepSeek V3 Fast é a versão de alta velocidade e alto TPS do DeepSeek V3 0324, totalmente não quantificada, com capacidades aprimoradas de código e matemática, respondendo de forma mais rápida!"
79
82
  },
@@ -170,6 +173,9 @@
170
173
  "Llama-3.2-90B-Vision-Instruct\t": {
171
174
  "description": "Capacidade avançada de raciocínio de imagem para aplicações de agentes de compreensão visual."
172
175
  },
176
+ "Meta-Llama-3-3-70B-Instruct": {
177
+ "description": "Llama 3.3 70B: modelo Transformer versátil, adequado para tarefas de diálogo e geração."
178
+ },
173
179
  "Meta-Llama-3.1-405B-Instruct": {
174
180
  "description": "Modelo de texto ajustado para instruções Llama 3.1, otimizado para casos de uso de diálogos multilíngues, apresentando desempenho superior em muitos modelos de chat de código aberto e fechados em benchmarks da indústria."
175
181
  },
@@ -188,6 +194,9 @@
188
194
  "Meta-Llama-3.3-70B-Instruct": {
189
195
  "description": "Llama 3.3 é o modelo de linguagem de código aberto multilíngue mais avançado da série Llama, oferecendo desempenho comparável ao modelo de 405B a um custo extremamente baixo. Baseado na estrutura Transformer, e aprimorado por meio de ajuste fino supervisionado (SFT) e aprendizado por reforço com feedback humano (RLHF) para aumentar a utilidade e a segurança. Sua versão ajustada para instruções é otimizada para diálogos multilíngues, superando muitos modelos de chat de código aberto e fechados em vários benchmarks da indústria. A data limite de conhecimento é dezembro de 2023."
190
196
  },
197
+ "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
198
+ "description": "Llama 4 Maverick: modelo de grande escala baseado em Mixture-of-Experts, oferecendo uma estratégia eficiente de ativação de especialistas para desempenho superior em inferência."
199
+ },
191
200
  "MiniMax-M1": {
192
201
  "description": "Modelo de inferência totalmente desenvolvido internamente. Líder mundial: 80K cadeias de pensamento x 1M de entradas, desempenho comparável aos melhores modelos internacionais."
193
202
  },
@@ -377,6 +386,9 @@
377
386
  "Qwen3-235B": {
378
387
  "description": "Qwen3-235B-A22B, modelo MoE (especialista misto), introduz o “modo de raciocínio híbrido”, permitindo aos usuários alternar perfeitamente entre os modos “reflexivo” e “não reflexivo”. Suporta compreensão e raciocínio em 119 idiomas e dialetos, além de possuir forte capacidade de chamada de ferramentas. Em testes de benchmark abrangentes, incluindo habilidades gerais, código, matemática, multilinguismo, conhecimento e raciocínio, compete com os principais grandes modelos do mercado, como DeepSeek R1, OpenAI o1, o3-mini, Grok 3 e Google Gemini 2.5 Pro."
379
388
  },
389
+ "Qwen3-235B-A22B-Instruct-2507-FP8": {
390
+ "description": "Qwen3 235B A22B Instruct 2507: modelo otimizado para raciocínio avançado e instruções de diálogo, com arquitetura híbrida de especialistas para manter eficiência em inferência com grande número de parâmetros."
391
+ },
380
392
  "Qwen3-32B": {
381
393
  "description": "Qwen3-32B, modelo denso (Dense Model), introduz o “modo de raciocínio híbrido”, permitindo aos usuários alternar perfeitamente entre os modos “reflexivo” e “não reflexivo”. Graças a melhorias na arquitetura do modelo, aumento dos dados de treinamento e métodos de treinamento mais eficazes, seu desempenho geral é comparável ao do Qwen2.5-72B."
382
394
  },
@@ -1364,6 +1376,12 @@
1364
1376
  "google/gemini-2.5-flash": {
1365
1377
  "description": "Gemini 2.5 Flash é o modelo principal mais avançado do Google, projetado para tarefas avançadas de raciocínio, codificação, matemática e ciências. Ele possui uma capacidade embutida de \"pensamento\", permitindo respostas com maior precisão e processamento detalhado do contexto.\n\nObservação: este modelo possui duas variantes: com pensamento e sem pensamento. O preço de saída varia significativamente dependendo se a capacidade de pensamento está ativada. Se você escolher a variante padrão (sem o sufixo \":thinking\"), o modelo evitará explicitamente gerar tokens de pensamento.\n\nPara utilizar a capacidade de pensamento e receber tokens de pensamento, você deve escolher a variante \":thinking\", o que resultará em um preço de saída mais alto para o pensamento.\n\nAlém disso, o Gemini 2.5 Flash pode ser configurado através do parâmetro \"máximo de tokens para raciocínio\", conforme descrito na documentação (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1366
1378
  },
1379
+ "google/gemini-2.5-flash-image-preview": {
1380
+ "description": "Modelo experimental Gemini 2.5 Flash, com suporte para geração de imagens."
1381
+ },
1382
+ "google/gemini-2.5-flash-image-preview:free": {
1383
+ "description": "Modelo experimental Gemini 2.5 Flash, com suporte para geração de imagens."
1384
+ },
1367
1385
  "google/gemini-2.5-flash-preview": {
1368
1386
  "description": "O Gemini 2.5 Flash é o modelo principal mais avançado do Google, projetado para raciocínio avançado, codificação, matemática e tarefas científicas. Ele possui a capacidade de 'pensar' embutida, permitindo que forneça respostas com maior precisão e um tratamento de contexto mais detalhado.\n\nNota: Este modelo possui duas variantes: com e sem 'pensamento'. A precificação da saída varia significativamente dependendo da ativação da capacidade de pensamento. Se você escolher a variante padrão (sem o sufixo ':thinking'), o modelo evitará explicitamente gerar tokens de pensamento.\n\nPara aproveitar a capacidade de pensamento e receber tokens de pensamento, você deve escolher a variante ':thinking', que resultará em uma precificação de saída de pensamento mais alta.\n\nAlém disso, o Gemini 2.5 Flash pode ser configurado através do parâmetro 'número máximo de tokens para raciocínio', conforme descrito na documentação (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1369
1387
  },
@@ -1535,6 +1553,9 @@
1535
1553
  "gpt-oss": {
1536
1554
  "description": "GPT-OSS 20B é um modelo de linguagem grande de código aberto lançado pela OpenAI, que utiliza a tecnologia de quantização MXFP4, adequado para execução em GPUs de consumo avançado ou Macs com Apple Silicon. Este modelo apresenta excelente desempenho em geração de diálogos, escrita de código e tarefas de raciocínio, suportando chamadas de funções e uso de ferramentas."
1537
1555
  },
1556
+ "gpt-oss-120b": {
1557
+ "description": "GPT-OSS-120B MXFP4: estrutura Transformer quantificada, mantendo desempenho robusto mesmo em recursos limitados."
1558
+ },
1538
1559
  "gpt-oss:120b": {
1539
1560
  "description": "GPT-OSS 120B é um modelo de linguagem grande de código aberto lançado pela OpenAI, utilizando a tecnologia de quantização MXFP4, sendo um modelo de ponta. Requer múltiplas GPUs ou estações de trabalho de alto desempenho para execução, oferecendo desempenho excepcional em raciocínio complexo, geração de código e processamento multilíngue, com suporte a chamadas avançadas de funções e integração de ferramentas."
1540
1561
  },
@@ -11,6 +11,9 @@
11
11
  "aihubmix": {
12
12
  "description": "AiHubMix oferece acesso a diversos modelos de IA por meio de uma API unificada."
13
13
  },
14
+ "akashchat": {
15
+ "description": "Akash é um mercado de recursos em nuvem sem necessidade de permissão, com preços competitivos em comparação aos provedores tradicionais de nuvem."
16
+ },
14
17
  "anthropic": {
15
18
  "description": "A Anthropic é uma empresa focada em pesquisa e desenvolvimento de inteligência artificial, oferecendo uma gama de modelos de linguagem avançados, como Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus e Claude 3 Haiku. Esses modelos alcançam um equilíbrio ideal entre inteligência, velocidade e custo, adequando-se a uma variedade de cenários de aplicação, desde cargas de trabalho empresariais até respostas rápidas. O Claude 3.5 Sonnet, como seu modelo mais recente, se destacou em várias avaliações, mantendo uma alta relação custo-benefício."
16
19
  },
@@ -52,7 +52,11 @@
52
52
  "thinking": {
53
53
  "title": "Переключатель глубокого мышления"
54
54
  },
55
- "title": "Расширенные функции модели"
55
+ "title": "Расширенные функции модели",
56
+ "urlContext": {
57
+ "desc": "При включении автоматически будет анализироваться ссылка на веб-страницу для получения фактического содержимого контекста страницы",
58
+ "title": "Извлечение содержимого веб-ссылки"
59
+ }
56
60
  },
57
61
  "history": {
58
62
  "title": "Ассистент будет помнить только последние {{count}} сообщений"
@@ -125,6 +129,7 @@
125
129
  "inputWriteCached": "Запись кэшированного ввода",
126
130
  "output": "Выход",
127
131
  "outputAudio": "Аудиовыход",
132
+ "outputImage": "Вывод изображения",
128
133
  "outputText": "Текстовый выход",
129
134
  "outputTitle": "Детали выхода",
130
135
  "reasoning": "Глубокое мышление",
@@ -86,14 +86,14 @@
86
86
  "ExceededContextWindow": "Содержимое текущего запроса превышает длину, которую модель может обработать. Пожалуйста, уменьшите объем содержимого и попробуйте снова.",
87
87
  "FreePlanLimit": "Вы являетесь бесплатным пользователем и не можете использовать эту функцию. Пожалуйста, перейдите на платный план для продолжения использования.",
88
88
  "GoogleAIBlockReason": {
89
- "BLOCKLIST": "Ваше содержимое содержит запрещённые выражения. Пожалуйста, проверьте и исправьте ваш ввод, затем попробуйте снова.",
89
+ "BLOCKLIST": "Ваш запрос содержит запрещённые слова. Пожалуйста, проверьте и измените ввод, затем повторите попытку.",
90
90
  "IMAGE_SAFETY": "Создание изображения было заблокировано по соображениям безопасности. Попробуйте изменить запрос на генерацию изображения.",
91
- "LANGUAGE": "Используемый вами язык пока не поддерживается. Пожалуйста, попробуйте задать вопрос на английском или другом поддерживаемом языке.",
92
- "OTHER": "Содержимое было заблокировано по неизвестной причине. Попробуйте переформулировать ваш запрос.",
93
- "PROHIBITED_CONTENT": "Ваш запрос может содержать запрещённый контент. Пожалуйста, измените запрос, чтобы он соответствовал правилам использования.",
94
- "RECITATION": "Ваше содержимое было заблокировано из-за возможного нарушения авторских прав. Попробуйте использовать оригинальный материал или переформулировать запрос.",
95
- "SAFETY": "Ваше содержимое было заблокировано в соответствии с политикой безопасности. Попробуйте изменить запрос, избегая потенциально вредоносного или неподобающего содержания.",
96
- "SPII": "Ваше содержимое может содержать чувствительные персональные данные. Для защиты приватности удалите соответствующую информацию и повторите попытку.",
91
+ "LANGUAGE": "Используемый вами язык временно не поддерживается. Попробуйте задать вопрос на английском или другом поддерживаемом языке.",
92
+ "OTHER": "Содержимое было заблокировано по неизвестной причине. Попробуйте переформулировать запрос.",
93
+ "PROHIBITED_CONTENT": "Ваш запрос может содержать запрещённый контент. Пожалуйста, отредактируйте запрос, чтобы он соответствовал правилам использования.",
94
+ "RECITATION": "Ваше содержимое было заблокировано из‑за возможного нарушения авторских прав. Попробуйте использовать оригинальный текст или переформулировать запрос.",
95
+ "SAFETY": "Ваше содержимое было заблокировано в соответствии с политикой безопасности. Попробуйте изменить запрос, избегая потенциально вредоносного или неподобающего материала.",
96
+ "SPII": "Ваш запрос может содержать конфиденциальную личную информацию. Для защиты приватности удалите соответствующие данные и попробуйте снова.",
97
97
  "default": "Содержимое заблокировано: {{blockReason}}. Пожалуйста, отредактируйте запрос и попробуйте снова."
98
98
  },
99
99
  "InsufficientQuota": "Извините, квота для этого ключа достигла предела. Пожалуйста, проверьте, достаточно ли средств на вашем счете, или увеличьте квоту ключа и попробуйте снова.",
@@ -74,6 +74,9 @@
74
74
  "DeepSeek-V3": {
75
75
  "description": "DeepSeek-V3 — это модель MoE, разработанная компанией DeepSeek. Результаты DeepSeek-V3 в нескольких оценках превосходят другие открытые модели, такие как Qwen2.5-72B и Llama-3.1-405B, и по производительности не уступают мировым ведущим закрытым моделям GPT-4o и Claude-3.5-Sonnet."
76
76
  },
77
+ "DeepSeek-V3-1": {
78
+ "description": "DeepSeek V3.1: модель следующего поколения для вывода, улучшенная для сложных рассуждений и цепочечного мышления, подходит для задач, требующих глубокого анализа."
79
+ },
77
80
  "DeepSeek-V3-Fast": {
78
81
  "description": "Поставщик модели: платформа sophnet. DeepSeek V3 Fast — это высокоскоростная версия DeepSeek V3 0324 с высокой пропускной способностью (TPS), полностью не квантизированная, с улучшенными возможностями кода и математики, обеспечивающая более быструю реакцию!"
79
82
  },
@@ -170,6 +173,9 @@
170
173
  "Llama-3.2-90B-Vision-Instruct\t": {
171
174
  "description": "Передовые способности к визуальному выводу, подходящие для приложений визуального понимания."
172
175
  },
176
+ "Meta-Llama-3-3-70B-Instruct": {
177
+ "description": "Llama 3.3 70B: универсальная модель Transformer, подходящая для диалогов и генеративных задач."
178
+ },
173
179
  "Meta-Llama-3.1-405B-Instruct": {
174
180
  "description": "Текстовая модель Llama 3.1 с оптимизацией под инструкции, разработанная для многоязычных диалоговых случаев, показывает отличные результаты по сравнению с многими доступными открытыми и закрытыми чат-моделями на общепринятых отраслевых бенчмарках."
175
181
  },
@@ -188,6 +194,9 @@
188
194
  "Meta-Llama-3.3-70B-Instruct": {
189
195
  "description": "Llama 3.3 — это самая современная многоязычная открытая языковая модель из серии Llama, которая позволяет получить производительность, сопоставимую с 405B моделями, по крайне низкой цене. Основана на структуре Transformer и улучшена с помощью контролируемой донастройки (SFT) и обучения с подкреплением на основе человеческой обратной связи (RLHF) для повышения полезности и безопасности. Ее версия с оптимизацией под инструкции специально разработана для многоязычных диалогов и показывает лучшие результаты по сравнению с многими открытыми и закрытыми чат-моделями на нескольких отраслевых бенчмарках. Дата окончания знаний — декабрь 2023 года."
190
196
  },
197
+ "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
198
+ "description": "Llama 4 Maverick: крупномасштабная модель на основе Mixture-of-Experts, обеспечивающая эффективную стратегию активации экспертов для превосходной производительности при выводе."
199
+ },
191
200
  "MiniMax-M1": {
192
201
  "description": "Совершенно новая собственная модель вывода. Мировой лидер: 80K цепочек мышления x 1M входов, эффективность сопоставима с ведущими зарубежными моделями."
193
202
  },
@@ -377,6 +386,9 @@
377
386
  "Qwen3-235B": {
378
387
  "description": "Qwen3-235B-A22B — модель MoE (гибридных экспертов), которая внедрила «гибридный режим рассуждений», позволяющий пользователям бесшовно переключаться между режимами «размышления» и «без размышлений». Поддерживает понимание и рассуждение на 119 языках и диалектах, обладает мощными возможностями вызова инструментов. По совокупности способностей, кода, математики, многоязычия, знаний и рассуждений модель конкурирует с ведущими современными крупными моделями на рынке, такими как DeepSeek R1, OpenAI o1, o3-mini, Grok 3 и Google Gemini 2.5 Pro."
379
388
  },
389
+ "Qwen3-235B-A22B-Instruct-2507-FP8": {
390
+ "description": "Qwen3 235B A22B Instruct 2507: модель, оптимизированная для продвинутых рассуждений и диалоговых инструкций, с гибридной экспертной архитектурой для поддержания эффективности вывода при большом количестве параметров."
391
+ },
380
392
  "Qwen3-32B": {
381
393
  "description": "Qwen3-32B — плотная модель (Dense Model), внедрившая «гибридный режим рассуждений», позволяющий пользователям бесшовно переключаться между режимами «размышления» и «без размышлений». Благодаря улучшениям архитектуры модели, увеличению объема обучающих данных и более эффективным методам обучения, общая производительность сопоставима с Qwen2.5-72B."
382
394
  },
@@ -1364,6 +1376,12 @@
1364
1376
  "google/gemini-2.5-flash": {
1365
1377
  "description": "Gemini 2.5 Flash — это передовая основная модель Google, специально разработанная для сложных задач рассуждения, кодирования, математики и науки. Она включает встроенную функцию «мышления», которая позволяет предоставлять ответы с более высокой точностью и тщательной обработкой контекста.\n\nВнимание: у этой модели есть два варианта: с мышлением и без. Ценообразование вывода значительно отличается в зависимости от активации функции мышления. Если вы выбираете стандартный вариант (без суффикса \":thinking\"), модель явно избегает генерации токенов мышления.\n\nЧтобы использовать функцию мышления и получать токены мышления, необходимо выбрать вариант с суффиксом \":thinking\", что приведет к более высокой стоимости вывода с мышлением.\n\nКроме того, Gemini 2.5 Flash можно настроить с помощью параметра «максимальное количество токенов для рассуждения», как описано в документации (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1366
1378
  },
1379
+ "google/gemini-2.5-flash-image-preview": {
1380
+ "description": "Экспериментальная модель Gemini 2.5 Flash, поддерживающая генерацию изображений."
1381
+ },
1382
+ "google/gemini-2.5-flash-image-preview:free": {
1383
+ "description": "Экспериментальная модель Gemini 2.5 Flash, поддерживающая генерацию изображений."
1384
+ },
1367
1385
  "google/gemini-2.5-flash-preview": {
1368
1386
  "description": "Gemini 2.5 Flash — это самая современная основная модель от Google, разработанная для сложного рассуждения, кодирования, математических и научных задач. Она включает встроенную способность \"думать\", что позволяет ей давать ответы с более высокой точностью и детализированной обработкой контекста.\n\nОбратите внимание: эта модель имеет два варианта: с \"думанием\" и без. Цены на вывод значительно различаются в зависимости от того, активирована ли способность думать. Если вы выберете стандартный вариант (без суффикса \":thinking\"), модель явно избегает генерации токенов для размышлений.\n\nЧтобы воспользоваться способностью думать и получать токены для размышлений, вы должны выбрать вариант \":thinking\", что приведет к более высокой цене на вывод размышлений.\n\nКроме того, Gemini 2.5 Flash можно настроить с помощью параметра \"максимальное количество токенов для рассуждения\", как указано в документации (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1369
1387
  },
@@ -1535,6 +1553,9 @@
1535
1553
  "gpt-oss": {
1536
1554
  "description": "GPT-OSS 20B — это открытая большая языковая модель, выпущенная OpenAI, использующая технологию квантования MXFP4, подходящая для работы на высокопроизводительных потребительских GPU или Apple Silicon Mac. Эта модель демонстрирует отличные результаты в генерации диалогов, написании кода и задачах рассуждения, поддерживает вызовы функций и использование инструментов."
1537
1555
  },
1556
+ "gpt-oss-120b": {
1557
+ "description": "GPT-OSS-120B MXFP4: квантизированная структура Transformer, сохраняющая высокую производительность при ограниченных ресурсах."
1558
+ },
1538
1559
  "gpt-oss:120b": {
1539
1560
  "description": "GPT-OSS 120B — крупная открытая языковая модель от OpenAI, использующая технологию квантования MXFP4, предназначенная для флагманских решений. Требует многопроцессорной GPU или высокопроизводительной рабочей станции для работы, обладает выдающейся производительностью в сложных задачах рассуждения, генерации кода и многоязыковой обработке, поддерживает расширенные вызовы функций и интеграцию инструментов."
1540
1561
  },
@@ -11,6 +11,9 @@
11
11
  "aihubmix": {
12
12
  "description": "AiHubMix предоставляет доступ к различным AI-моделям через единый API-интерфейс."
13
13
  },
14
+ "akashchat": {
15
+ "description": "Akash — это децентрализованный рынок облачных ресурсов без необходимости разрешений, предлагающий конкурентоспособные цены по сравнению с традиционными облачными провайдерами."
16
+ },
14
17
  "anthropic": {
15
18
  "description": "Anthropic — это компания, сосредоточенная на исследованиях и разработке искусственного интеллекта, предлагающая ряд передовых языковых моделей, таких как Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus и Claude 3 Haiku. Эти модели достигают идеального баланса между интеллектом, скоростью и стоимостью, подходя для различных сценариев применения, от корпоративных рабочих нагрузок до быстрого реагирования. Claude 3.5 Sonnet, как их последняя модель, показала отличные результаты в нескольких оценках, сохраняя при этом высокую стоимость-эффективность."
16
19
  },
@@ -52,7 +52,11 @@
52
52
  "thinking": {
53
53
  "title": "Derin Düşünme Anahtarı"
54
54
  },
55
- "title": "Model Genişletme Özellikleri"
55
+ "title": "Model Genişletme Özellikleri",
56
+ "urlContext": {
57
+ "desc": "Etkinleştirildiğinde, gerçek web sayfası bağlam içeriğini almak için web bağlantıları otomatik olarak çözümlenir",
58
+ "title": "Web Bağlantısı İçeriğini Çıkar"
59
+ }
56
60
  },
57
61
  "history": {
58
62
  "title": "Asistan yalnızca son {{count}} mesajı hatırlayacak"
@@ -125,6 +129,7 @@
125
129
  "inputWriteCached": "Giriş önbelleği yazma",
126
130
  "output": "Çıkış",
127
131
  "outputAudio": "Ses çıkışı",
132
+ "outputImage": "Görüntü Çıktısı",
128
133
  "outputText": "Metin çıkışı",
129
134
  "outputTitle": "Çıkış detayları",
130
135
  "reasoning": "Derin düşünme",
@@ -86,15 +86,15 @@
86
86
  "ExceededContextWindow": "Mevcut istek içeriği modelin işleyebileceği uzunluğu aşıyor, lütfen içerik miktarını azaltıp tekrar deneyin",
87
87
  "FreePlanLimit": "Şu anda ücretsiz bir kullanıcısınız, bu özelliği kullanamazsınız. Lütfen devam etmek için bir ücretli plana yükseltin.",
88
88
  "GoogleAIBlockReason": {
89
- "BLOCKLIST": "İçeriğiniz yasaklı kelimeler içeriyor. Lütfen girdinizi kontrol edip düzenledikten sonra tekrar deneyin.",
90
- "IMAGE_SAFETY": "Oluşturulan görüntü içeriği güvenlik nedeniyle engellendi. Lütfen görüntü oluşturma isteğinizi değiştirerek tekrar deneyin.",
91
- "LANGUAGE": "Kullandığınız dil şu anda desteklenmiyor. Lütfen İngilizce veya desteklenen diğer dilleri kullanarak tekrar deneyin.",
92
- "OTHER": "İçerik bilinmeyen bir nedenle engellendi. Lütfen isteğinizi tekrar ifade etmeyi deneyin.",
93
- "PROHIBITED_CONTENT": "İsteğiniz yasaklı içerik içerebilir. Lütfen isteğinizi düzenleyin ve kullanım kurallarına uygun olduğundan emin olun.",
94
- "RECITATION": "İçeriğiniz olası telif hakkı sorunları nedeniyle engellendi. Lütfen orijinal içerik kullanmayı veya isteğinizi yeniden ifade etmeyi deneyin.",
95
- "SAFETY": "İçeriğiniz güvenlik politikası nedeniyle engellendi. Lütfen isteğinizi, olası zararlı veya uygunsuz içerik içermeyecek şekilde düzenleyin.",
96
- "SPII": "İçeriğiniz hassas kişisel kimlik bilgileri içerebilir. Gizliliği korumak için ilgili hassas bilgileri kaldırıp tekrar deneyin.",
97
- "default": "İçerik engellendi: {{blockReason}}. Lütfen isteğinizi düzenledikten sonra tekrar deneyin."
89
+ "BLOCKLIST": "İçeriğiniz yasaklı kelimeler içeriyor. Lütfen girişinizi kontrol edin, düzenleyin ve tekrar deneyin.",
90
+ "IMAGE_SAFETY": "Oluşturulan görüntü içeriği güvenlik nedeniyle engellendi. Lütfen görüntü oluşturma isteğinizi değiştirip tekrar deneyin.",
91
+ "LANGUAGE": "Kullandığınız dil şu anda desteklenmiyor. Lütfen İngilizce veya desteklenen diğer dillerden birini kullanarak tekrar sorun.",
92
+ "OTHER": "İçerik bilinmeyen bir nedenle engellendi. Lütfen isteğinizi yeniden ifade etmeyi deneyin.",
93
+ "PROHIBITED_CONTENT": "İsteğiniz yasaklı içerik barındırıyor olabilir. Lütfen isteğinizi kullanım kurallarına uygun hale getirip tekrar deneyin.",
94
+ "RECITATION": "İçeriğiniz telif hakkı sorunları nedeniyle engellenmiş olabilir. Lütfen özgün içerik kullanmayı veya isteğinizi yeniden ifade etmeyi deneyin.",
95
+ "SAFETY": "İçeriğiniz güvenlik politikaları nedeniyle engellendi. Lütfen isteğinizi olası zararlı veya uygunsuz içerikten arındırarak düzenleyin ve tekrar deneyin.",
96
+ "SPII": "İçeriğiniz hassas kişisel kimlik bilgileri içerebilir. Gizliliği korumak için lütfen ilgili hassas bilgileri kaldırıp tekrar deneyin.",
97
+ "default": "İçerik engellendi: {{blockReason}}Lütfen isteğinizin içeriğini düzenleyip tekrar deneyin."
98
98
  },
99
99
  "InsufficientQuota": "Üzgünüm, bu anahtarın kotası (quota) dolmuş durumda, lütfen hesap bakiyenizi kontrol edin veya anahtar kotasını artırdıktan sonra tekrar deneyin",
100
100
  "InvalidAccessCode": "Geçersiz Erişim Kodu: Geçersiz veya boş bir şifre girdiniz. Lütfen doğru erişim şifresini girin veya özel API Anahtarı ekleyin.",
@@ -74,6 +74,9 @@
74
74
  "DeepSeek-V3": {
75
75
  "description": "DeepSeek-V3, Derin Arayış şirketi tarafından geliştirilen bir MoE modelidir. DeepSeek-V3, birçok değerlendirmede Qwen2.5-72B ve Llama-3.1-405B gibi diğer açık kaynak modelleri geride bırakmış ve performans açısından dünya çapında en iyi kapalı kaynak model olan GPT-4o ve Claude-3.5-Sonnet ile eşit seviyededir."
76
76
  },
77
+ "DeepSeek-V3-1": {
78
+ "description": "DeepSeek V3.1: Karmaşık çıkarım ve bağlantılı düşünme yeteneklerini geliştiren, derinlemesine analiz gerektiren görevler için uygun bir sonraki nesil çıkarım modeli."
79
+ },
77
80
  "DeepSeek-V3-Fast": {
78
81
  "description": "Model sağlayıcısı: sophnet platformu. DeepSeek V3 Fast, DeepSeek V3 0324 sürümünün yüksek TPS hızlı versiyonudur, tam performanslı ve kuantize edilmemiştir, kodlama ve matematik yetenekleri daha güçlüdür, yanıt süresi daha hızlıdır!"
79
82
  },
@@ -170,6 +173,9 @@
170
173
  "Llama-3.2-90B-Vision-Instruct\t": {
171
174
  "description": "Görsel anlama ajan uygulamaları için gelişmiş görüntü akıl yürütme yeteneği."
172
175
  },
176
+ "Meta-Llama-3-3-70B-Instruct": {
177
+ "description": "Llama 3.3 70B: Diyalog ve üretim görevleri için uygun, yüksek genel amaçlı Transformer modeli."
178
+ },
173
179
  "Meta-Llama-3.1-405B-Instruct": {
174
180
  "description": "Llama 3.1 talimat ayarlı metin modeli, çok dilli diyalog kullanım durumları için optimize edilmiştir ve birçok mevcut açık kaynak ve kapalı sohbet modelinde yaygın endüstri kıyaslamalarında mükemmel performans göstermektedir."
175
181
  },
@@ -188,6 +194,9 @@
188
194
  "Meta-Llama-3.3-70B-Instruct": {
189
195
  "description": "Llama 3.3, Llama serisinin en gelişmiş çok dilli açık kaynak büyük dil modelidir ve 405B modelinin performansını çok düşük maliyetle deneyimlemenizi sağlar. Transformer yapısına dayanmaktadır ve yararlılığını ve güvenliğini artırmak için denetimli ince ayar (SFT) ve insan geri bildirimi ile güçlendirilmiş öğrenme (RLHF) kullanılmıştır. Talimat ayarlı versiyonu çok dilli diyaloglar için optimize edilmiştir ve birçok endüstri kıyaslamasında birçok açık kaynak ve kapalı sohbet modelinden daha iyi performans göstermektedir. Bilgi kesim tarihi 2023 yılı Aralık ayıdır."
190
196
  },
197
+ "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
198
+ "description": "Llama 4 Maverick: Mixture-of-Experts tabanlı büyük ölçekli model, çıkarımda üstün performans için verimli uzman aktivasyon stratejisi sunar."
199
+ },
191
200
  "MiniMax-M1": {
192
201
  "description": "Tamamen kendi geliştirdiğimiz yeni çıkarım modeli. Küresel lider: 80K düşünce zinciri x 1M giriş, performansı uluslararası üst düzey modellerle eşdeğer."
193
202
  },
@@ -377,6 +386,9 @@
377
386
  "Qwen3-235B": {
378
387
  "description": "Qwen3-235B-A22B, MoE (Hibrit Uzman Modeli) modelidir ve \"Hibrit Akıl Yürütme Modu\"nu tanıtmaktadır. Kullanıcıların \"düşünme modu\" ile \"düşünme modu dışı\" arasında kesintisiz geçiş yapmasını destekler, 119 dil ve lehçede anlama ve akıl yürütme yeteneğine sahiptir ve güçlü araç çağırma kapasitesine sahiptir. Kapsamlı yetenekler, kodlama ve matematik, çok dilli yetenekler, bilgi ve akıl yürütme gibi çeşitli kıyaslama testlerinde, DeepSeek R1, OpenAI o1, o3-mini, Grok 3 ve Google Gemini 2.5 Pro gibi piyasadaki önde gelen büyük modellerle rekabet edebilmektedir."
379
388
  },
389
+ "Qwen3-235B-A22B-Instruct-2507-FP8": {
390
+ "description": "Qwen3 235B A22B Instruct 2507: Gelişmiş çıkarım ve diyalog talimatları için optimize edilmiş model, büyük ölçekli parametrelerde çıkarım verimliliğini koruyan karma uzman mimarisi."
391
+ },
380
392
  "Qwen3-32B": {
381
393
  "description": "Qwen3-32B, Yoğun Model (Dense Model) olup \"Hibrit Akıl Yürütme Modu\"nu tanıtmaktadır. Kullanıcıların \"düşünme modu\" ile \"düşünme modu dışı\" arasında kesintisiz geçiş yapmasını destekler. Model mimarisi iyileştirmeleri, artırılmış eğitim verisi ve daha etkili eğitim yöntemleri sayesinde genel performansı Qwen2.5-72B ile karşılaştırılabilir düzeydedir."
382
394
  },
@@ -1364,6 +1376,12 @@
1364
1376
  "google/gemini-2.5-flash": {
1365
1377
  "description": "Gemini 2.5 Flash, Google'ın en gelişmiş ana modeli olup, ileri düzey akıl yürütme, kodlama, matematik ve bilimsel görevler için tasarlanmıştır. Yerleşik \"düşünme\" yeteneği sayesinde, daha yüksek doğruluk ve ayrıntılı bağlam işleme ile yanıtlar sunabilir.\n\nNot: Bu modelin iki varyantı vardır: düşünme ve düşünmeme. Çıktı fiyatlandırması, düşünme yeteneğinin etkin olup olmamasına göre önemli ölçüde farklılık gösterir. Standart varyantı (\" :thinking\" eki olmayan) seçerseniz, model düşünme tokenları üretmekten açıkça kaçınır.\n\nDüşünme yeteneğinden yararlanmak ve düşünme tokenları almak için \" :thinking\" varyantını seçmeniz gerekir; bu, daha yüksek bir düşünme çıktı fiyatlandırmasıyla sonuçlanır.\n\nAyrıca, Gemini 2.5 Flash, belgelerde belirtildiği gibi (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning) \"maksimum akıl yürütme token sayısı\" parametresi ile yapılandırılabilir."
1366
1378
  },
1379
+ "google/gemini-2.5-flash-image-preview": {
1380
+ "description": "Gemini 2.5 Flash deneysel modeli, görüntü oluşturmayı destekler."
1381
+ },
1382
+ "google/gemini-2.5-flash-image-preview:free": {
1383
+ "description": "Gemini 2.5 Flash deneysel modeli, görüntü oluşturmayı destekler."
1384
+ },
1367
1385
  "google/gemini-2.5-flash-preview": {
1368
1386
  "description": "Gemini 2.5 Flash, Google'ın en gelişmiş ana modelidir ve ileri düzey akıl yürütme, kodlama, matematik ve bilimsel görevler için tasarlanmıştır. Daha yüksek doğruluk ve ayrıntılı bağlam işleme ile yanıtlar sunabilen yerleşik 'düşünme' yeteneğine sahiptir.\n\nNot: Bu modelin iki varyantı vardır: düşünme ve düşünmeme. Çıktı fiyatlandırması, düşünme yeteneğinin etkin olup olmamasına göre önemli ölçüde farklılık gösterir. Standart varyantı (':thinking' eki olmadan) seçerseniz, model açıkça düşünme tokenleri üretmekten kaçınacaktır.\n\nDüşünme yeteneğinden yararlanmak ve düşünme tokenleri almak için, ':thinking' varyantını seçmelisiniz; bu, daha yüksek düşünme çıktı fiyatlandırması ile sonuçlanacaktır.\n\nAyrıca, Gemini 2.5 Flash, belgede belirtildiği gibi 'akıl yürütme maksimum token sayısı' parametresi ile yapılandırılabilir (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1369
1387
  },
@@ -1535,6 +1553,9 @@
1535
1553
  "gpt-oss": {
1536
1554
  "description": "GPT-OSS 20B, OpenAI tarafından yayımlanan açık kaynaklı büyük dil modelidir ve MXFP4 kuantizasyon teknolojisini kullanır. Yüksek performanslı tüketici sınıfı GPU'lar veya Apple Silicon Mac üzerinde çalışmaya uygundur. Bu model, diyalog üretimi, kod yazımı ve çıkarım görevlerinde üstün performans sergiler ve fonksiyon çağrıları ile araç kullanımını destekler."
1537
1555
  },
1556
+ "gpt-oss-120b": {
1557
+ "description": "GPT-OSS-120B MXFP4 kuantize edilmiş Transformer yapısı, sınırlı kaynaklarda bile güçlü performans sağlar."
1558
+ },
1538
1559
  "gpt-oss:120b": {
1539
1560
  "description": "GPT-OSS 120B, OpenAI tarafından yayımlanan büyük ölçekli açık kaynak dil modelidir ve MXFP4 kuantizasyon teknolojisini kullanır. Amiral gemisi model olarak çoklu GPU veya yüksek performanslı iş istasyonu ortamlarında çalıştırılması gerekmektedir. Karmaşık çıkarım, kod üretimi ve çok dilli işleme konularında üstün performans sunar ve gelişmiş fonksiyon çağrıları ile araç entegrasyonunu destekler."
1540
1561
  },
@@ -11,6 +11,9 @@
11
11
  "aihubmix": {
12
12
  "description": "AiHubMix, çeşitli yapay zeka modellerine tek bir API arayüzü üzerinden erişim sağlar."
13
13
  },
14
+ "akashchat": {
15
+ "description": "Akash, geleneksel bulut sağlayıcılarına kıyasla rekabetçi fiyatlandırmaya sahip, izin gerektirmeyen bir bulut kaynakları pazar yeridir."
16
+ },
14
17
  "anthropic": {
15
18
  "description": "Anthropic, yapay zeka araştırma ve geliştirmeye odaklanan bir şirkettir. Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus ve Claude 3 Haiku gibi bir dizi gelişmiş dil modeli sunmaktadır. Bu modeller, zeka, hız ve maliyet arasında ideal bir denge sağlamaktadır ve kurumsal düzeydeki iş yüklerinden hızlı yanıt gerektiren çeşitli uygulama senaryolarına kadar geniş bir yelpazede kullanılmaktadır. Claude 3.5 Sonnet, en son modeli olarak, birçok değerlendirmede mükemmel performans sergilemekte ve yüksek maliyet etkinliğini korumaktadır."
16
19
  },
@@ -52,7 +52,11 @@
52
52
  "thinking": {
53
53
  "title": "Công tắc suy nghĩ sâu"
54
54
  },
55
- "title": "Chức năng mở rộng mô hình"
55
+ "title": "Chức năng mở rộng mô hình",
56
+ "urlContext": {
57
+ "desc": "Bật tính năng này sẽ tự động phân tích liên kết trang web để lấy nội dung ngữ cảnh thực tế của trang web",
58
+ "title": "Trích xuất nội dung liên kết trang web"
59
+ }
56
60
  },
57
61
  "history": {
58
62
  "title": "Trợ lý sẽ chỉ nhớ {{count}} tin nhắn cuối cùng"
@@ -125,6 +129,7 @@
125
129
  "inputWriteCached": "Ghi vào bộ nhớ đệm đầu vào",
126
130
  "output": "Xuất",
127
131
  "outputAudio": "Âm thanh xuất",
132
+ "outputImage": "Xuất hình ảnh",
128
133
  "outputText": "Văn bản xuất",
129
134
  "outputTitle": "Chi tiết xuất",
130
135
  "reasoning": "Suy nghĩ sâu sắc",
@@ -74,6 +74,9 @@
74
74
  "DeepSeek-V3": {
75
75
  "description": "DeepSeek-V3 là một mô hình MoE do công ty DeepSeek tự phát triển. Nhiều kết quả đánh giá của DeepSeek-V3 đã vượt qua các mô hình mã nguồn mở khác như Qwen2.5-72B và Llama-3.1-405B, và về hiệu suất không thua kém các mô hình đóng nguồn hàng đầu thế giới như GPT-4o và Claude-3.5-Sonnet."
76
76
  },
77
+ "DeepSeek-V3-1": {
78
+ "description": "DeepSeek V3.1: Mô hình suy luận thế hệ tiếp theo, nâng cao khả năng suy luận phức tạp và tư duy chuỗi, phù hợp cho các nhiệm vụ cần phân tích sâu."
79
+ },
77
80
  "DeepSeek-V3-Fast": {
78
81
  "description": "Nhà cung cấp mô hình: nền tảng sophnet. DeepSeek V3 Fast là phiên bản tốc độ cao TPS của DeepSeek V3 0324, không lượng tử hóa, có khả năng mã hóa và toán học mạnh mẽ hơn, phản hồi nhanh hơn!"
79
82
  },
@@ -170,6 +173,9 @@
170
173
  "Llama-3.2-90B-Vision-Instruct\t": {
171
174
  "description": "Khả năng suy luận hình ảnh cao cấp cho các ứng dụng đại lý hiểu biết thị giác."
172
175
  },
176
+ "Meta-Llama-3-3-70B-Instruct": {
177
+ "description": "Llama 3.3 70B: Mô hình Transformer đa năng, thích hợp cho các nhiệm vụ đối thoại và tạo nội dung."
178
+ },
173
179
  "Meta-Llama-3.1-405B-Instruct": {
174
180
  "description": "Mô hình văn bản được tinh chỉnh theo chỉ dẫn Llama 3.1, được tối ưu hóa cho các trường hợp sử dụng đối thoại đa ngôn ngữ, thể hiện xuất sắc trong nhiều mô hình trò chuyện mã nguồn mở và đóng có sẵn trên nhiều tiêu chuẩn ngành."
175
181
  },
@@ -188,6 +194,9 @@
188
194
  "Meta-Llama-3.3-70B-Instruct": {
189
195
  "description": "Llama 3.3 là mô hình ngôn ngữ lớn mã nguồn mở đa ngôn ngữ tiên tiến nhất trong dòng Llama, mang đến trải nghiệm hiệu suất tương đương mô hình 405B với chi phí cực thấp. Dựa trên cấu trúc Transformer, và được cải thiện tính hữu ích và an toàn thông qua tinh chỉnh giám sát (SFT) và học tăng cường từ phản hồi của con người (RLHF). Phiên bản tinh chỉnh theo chỉ dẫn của nó được tối ưu hóa cho các cuộc đối thoại đa ngôn ngữ, thể hiện tốt hơn nhiều mô hình trò chuyện mã nguồn mở và đóng trong nhiều tiêu chuẩn ngành. Ngày cắt đứt kiến thức là tháng 12 năm 2023."
190
196
  },
197
+ "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8": {
198
+ "description": "Llama 4 Maverick: Mô hình quy mô lớn dựa trên Mixture-of-Experts, cung cấp chiến lược kích hoạt chuyên gia hiệu quả để đạt hiệu suất xuất sắc trong suy luận."
199
+ },
191
200
  "MiniMax-M1": {
192
201
  "description": "Mô hình suy luận tự phát triển hoàn toàn mới. Dẫn đầu toàn cầu: 80K chuỗi tư duy x 1 triệu đầu vào, hiệu quả sánh ngang các mô hình hàng đầu quốc tế."
193
202
  },
@@ -377,6 +386,9 @@
377
386
  "Qwen3-235B": {
378
387
  "description": "Qwen3-235B-A22B là mô hình MoE (mô hình chuyên gia hỗn hợp), giới thiệu “chế độ suy luận hỗn hợp”, cho phép người dùng chuyển đổi liền mạch giữa “chế độ suy nghĩ” và “chế độ không suy nghĩ”. Mô hình hỗ trợ hiểu và suy luận bằng 119 ngôn ngữ và phương ngữ, đồng thời có khả năng gọi công cụ mạnh mẽ. Trong các bài kiểm tra chuẩn về năng lực tổng hợp, mã hóa và toán học, đa ngôn ngữ, kiến thức và suy luận, mô hình có thể cạnh tranh với các mô hình lớn hàng đầu trên thị trường hiện nay như DeepSeek R1, OpenAI o1, o3-mini, Grok 3 và Google Gemini 2.5 Pro."
379
388
  },
389
+ "Qwen3-235B-A22B-Instruct-2507-FP8": {
390
+ "description": "Qwen3 235B A22B Instruct 2507: Mô hình tối ưu hóa cho suy luận nâng cao và chỉ dẫn đối thoại, kiến trúc chuyên gia hỗn hợp giúp duy trì hiệu quả suy luận với số lượng tham số lớn."
391
+ },
380
392
  "Qwen3-32B": {
381
393
  "description": "Qwen3-32B là mô hình đặc (Dense Model), giới thiệu “chế độ suy luận hỗn hợp”, cho phép người dùng chuyển đổi liền mạch giữa “chế độ suy nghĩ” và “chế độ không suy nghĩ”. Nhờ cải tiến kiến trúc mô hình, tăng dữ liệu huấn luyện và phương pháp huấn luyện hiệu quả hơn, hiệu suất tổng thể tương đương với Qwen2.5-72B."
382
394
  },
@@ -1364,6 +1376,12 @@
1364
1376
  "google/gemini-2.5-flash": {
1365
1377
  "description": "Gemini 2.5 Flash là mô hình chủ lực tiên tiến nhất của Google, được thiết kế dành riêng cho các nhiệm vụ suy luận nâng cao, mã hóa, toán học và khoa học. Nó bao gồm khả năng \"suy nghĩ\" tích hợp, cho phép cung cấp các phản hồi với độ chính xác cao hơn và xử lý ngữ cảnh tinh tế hơn.\n\nLưu ý: Mô hình này có hai biến thể: có suy nghĩ và không suy nghĩ. Giá đầu ra có sự khác biệt đáng kể tùy thuộc vào việc khả năng suy nghĩ có được kích hoạt hay không. Nếu bạn chọn biến thể tiêu chuẩn (không có hậu tố \":thinking\"), mô hình sẽ rõ ràng tránh tạo ra các token suy nghĩ.\n\nĐể tận dụng khả năng suy nghĩ và nhận các token suy nghĩ, bạn phải chọn biến thể \":thinking\", điều này sẽ dẫn đến giá đầu ra suy nghĩ cao hơn.\n\nNgoài ra, Gemini 2.5 Flash có thể được cấu hình thông qua tham số \"Số token suy luận tối đa\", như được mô tả trong tài liệu (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1366
1378
  },
1379
+ "google/gemini-2.5-flash-image-preview": {
1380
+ "description": "Mô hình thử nghiệm Gemini 2.5 Flash, hỗ trợ tạo hình ảnh."
1381
+ },
1382
+ "google/gemini-2.5-flash-image-preview:free": {
1383
+ "description": "Mô hình thử nghiệm Gemini 2.5 Flash, hỗ trợ tạo hình ảnh."
1384
+ },
1367
1385
  "google/gemini-2.5-flash-preview": {
1368
1386
  "description": "Gemini 2.5 Flash là mô hình chủ lực tiên tiến nhất của Google, được thiết kế cho suy luận nâng cao, lập trình, toán học và các nhiệm vụ khoa học. Nó bao gồm khả năng 'suy nghĩ' tích hợp, cho phép nó cung cấp phản hồi với độ chính xác cao hơn và xử lý ngữ cảnh chi tiết hơn.\n\nLưu ý: Mô hình này có hai biến thể: suy nghĩ và không suy nghĩ. Giá đầu ra có sự khác biệt đáng kể tùy thuộc vào việc khả năng suy nghĩ có được kích hoạt hay không. Nếu bạn chọn biến thể tiêu chuẩn (không có hậu tố ':thinking'), mô hình sẽ rõ ràng tránh việc tạo ra các token suy nghĩ.\n\nĐể tận dụng khả năng suy nghĩ và nhận các token suy nghĩ, bạn phải chọn biến thể ':thinking', điều này sẽ tạo ra giá đầu ra suy nghĩ cao hơn.\n\nNgoài ra, Gemini 2.5 Flash có thể được cấu hình thông qua tham số 'số token tối đa cho suy luận', như đã mô tả trong tài liệu (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1369
1387
  },
@@ -1535,6 +1553,9 @@
1535
1553
  "gpt-oss": {
1536
1554
  "description": "GPT-OSS 20B là mô hình ngôn ngữ lớn mã nguồn mở do OpenAI phát hành, sử dụng công nghệ lượng tử hóa MXFP4, phù hợp để chạy trên GPU tiêu dùng cao cấp hoặc Mac Apple Silicon. Mô hình này thể hiện xuất sắc trong việc tạo đối thoại, viết mã và các nhiệm vụ suy luận, hỗ trợ gọi hàm và sử dụng công cụ."
1537
1555
  },
1556
+ "gpt-oss-120b": {
1557
+ "description": "GPT-OSS-120B MXFP4: Cấu trúc Transformer được lượng tử hóa, duy trì hiệu suất mạnh mẽ ngay cả khi tài nguyên hạn chế."
1558
+ },
1538
1559
  "gpt-oss:120b": {
1539
1560
  "description": "GPT-OSS 120B là mô hình ngôn ngữ lớn mã nguồn mở do OpenAI phát hành, sử dụng công nghệ lượng tử hóa MXFP4, thuộc dòng mô hình hàng đầu. Cần môi trường đa GPU hoặc máy trạm hiệu năng cao để vận hành, có hiệu suất vượt trội trong suy luận phức tạp, tạo mã và xử lý đa ngôn ngữ, hỗ trợ gọi hàm nâng cao và tích hợp bộ công cụ."
1540
1561
  },
@@ -11,6 +11,9 @@
11
11
  "aihubmix": {
12
12
  "description": "AiHubMix cung cấp truy cập đến nhiều mô hình AI thông qua một giao diện API thống nhất."
13
13
  },
14
+ "akashchat": {
15
+ "description": "Akash là một thị trường tài nguyên đám mây phi tập trung, có giá cả cạnh tranh so với các nhà cung cấp đám mây truyền thống."
16
+ },
14
17
  "anthropic": {
15
18
  "description": "Anthropic là một công ty tập trung vào nghiên cứu và phát triển trí tuệ nhân tạo, cung cấp một loạt các mô hình ngôn ngữ tiên tiến như Claude 3.5 Sonnet, Claude 3 Sonnet, Claude 3 Opus và Claude 3 Haiku. Những mô hình này đạt được sự cân bằng lý tưởng giữa trí thông minh, tốc độ và chi phí, phù hợp cho nhiều ứng dụng từ khối lượng công việc doanh nghiệp đến phản hồi nhanh. Claude 3.5 Sonnet, là mô hình mới nhất của họ, thể hiện xuất sắc trong nhiều đánh giá, đồng thời duy trì tỷ lệ hiệu suất cao."
16
19
  },