@lobehub/chat 1.119.2 → 1.120.1

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (74) hide show
  1. package/.vscode/settings.json +2 -3
  2. package/CHANGELOG.md +58 -0
  3. package/changelog/v1.json +21 -0
  4. package/locales/ar/models.json +24 -3
  5. package/locales/bg-BG/models.json +24 -3
  6. package/locales/de-DE/models.json +24 -3
  7. package/locales/en-US/models.json +24 -3
  8. package/locales/es-ES/models.json +24 -3
  9. package/locales/fa-IR/models.json +24 -3
  10. package/locales/fr-FR/models.json +24 -3
  11. package/locales/it-IT/models.json +24 -3
  12. package/locales/ja-JP/models.json +24 -3
  13. package/locales/ko-KR/models.json +24 -3
  14. package/locales/nl-NL/models.json +24 -3
  15. package/locales/pl-PL/models.json +24 -3
  16. package/locales/pt-BR/models.json +24 -3
  17. package/locales/ru-RU/models.json +24 -3
  18. package/locales/tr-TR/models.json +24 -3
  19. package/locales/vi-VN/models.json +24 -3
  20. package/locales/zh-CN/models.json +24 -3
  21. package/locales/zh-TW/models.json +24 -3
  22. package/package.json +2 -5
  23. package/packages/database/src/models/__tests__/generationBatch.test.ts +47 -1
  24. package/packages/database/src/models/generationBatch.ts +8 -1
  25. package/packages/model-bank/src/aiModels/aihubmix.ts +1 -1
  26. package/packages/model-bank/src/aiModels/google.ts +4 -4
  27. package/packages/model-bank/src/aiModels/openrouter.ts +2 -2
  28. package/packages/model-bank/src/aiModels/qwen.ts +3 -1
  29. package/packages/model-bank/src/aiModels/siliconcloud.ts +6 -0
  30. package/packages/model-bank/src/aiModels/vertexai.ts +2 -2
  31. package/packages/model-runtime/src/google/createImage.ts +52 -24
  32. package/packages/model-runtime/src/qwen/index.ts +1 -1
  33. package/packages/model-runtime/src/siliconcloud/index.ts +1 -1
  34. package/src/app/[variants]/(main)/(mobile)/me/settings/features/useCategory.tsx +2 -16
  35. package/src/app/[variants]/(main)/chat/@session/_layout/Desktop/SessionHeader.tsx +1 -3
  36. package/src/app/[variants]/(main)/chat/@session/_layout/Mobile/SessionHeader.tsx +1 -3
  37. package/src/app/[variants]/(main)/settings/hooks/useCategory.tsx +3 -21
  38. package/src/config/featureFlags/schema.test.ts +1 -2
  39. package/src/config/featureFlags/schema.ts +0 -6
  40. package/src/config/featureFlags/utils/parser.test.ts +7 -7
  41. package/src/database/_deprecated/core/index.ts +0 -1
  42. package/src/database/_deprecated/core/model.ts +4 -38
  43. package/src/database/_deprecated/models/message.ts +1 -1
  44. package/src/layout/GlobalProvider/StoreInitialization.tsx +0 -3
  45. package/src/store/serverConfig/selectors.test.ts +0 -1
  46. package/src/store/user/initialState.ts +1 -4
  47. package/src/store/user/selectors.ts +0 -1
  48. package/src/store/user/store.ts +1 -4
  49. package/docs/self-hosting/advanced/webrtc.mdx +0 -86
  50. package/docs/self-hosting/advanced/webrtc.zh-CN.mdx +0 -80
  51. package/src/app/[variants]/(main)/settings/sync/features/Alert.tsx +0 -53
  52. package/src/app/[variants]/(main)/settings/sync/features/DeviceInfo/Card.tsx +0 -42
  53. package/src/app/[variants]/(main)/settings/sync/features/DeviceInfo/DeviceName.tsx +0 -62
  54. package/src/app/[variants]/(main)/settings/sync/features/DeviceInfo/SystemIcon.tsx +0 -31
  55. package/src/app/[variants]/(main)/settings/sync/features/DeviceInfo/index.tsx +0 -103
  56. package/src/app/[variants]/(main)/settings/sync/features/WebRTC/ChannelNameInput.tsx +0 -45
  57. package/src/app/[variants]/(main)/settings/sync/features/WebRTC/SyncSwitch/index.css +0 -238
  58. package/src/app/[variants]/(main)/settings/sync/features/WebRTC/SyncSwitch/index.tsx +0 -79
  59. package/src/app/[variants]/(main)/settings/sync/features/WebRTC/generateRandomRoomName.ts +0 -4
  60. package/src/app/[variants]/(main)/settings/sync/features/WebRTC/index.tsx +0 -103
  61. package/src/app/[variants]/(main)/settings/sync/index.tsx +0 -17
  62. package/src/app/[variants]/(main)/settings/sync/page.tsx +0 -29
  63. package/src/database/_deprecated/core/sync.ts +0 -321
  64. package/src/features/SyncStatusInspector/DisableSync.tsx +0 -79
  65. package/src/features/SyncStatusInspector/EnableSync.tsx +0 -132
  66. package/src/features/SyncStatusInspector/EnableTag.tsx +0 -66
  67. package/src/features/SyncStatusInspector/index.tsx +0 -27
  68. package/src/hooks/useSyncData.ts +0 -50
  69. package/src/services/__tests__/sync.test.ts +0 -56
  70. package/src/services/sync.ts +0 -19
  71. package/src/store/user/slices/sync/action.test.ts +0 -164
  72. package/src/store/user/slices/sync/action.ts +0 -101
  73. package/src/store/user/slices/sync/initialState.ts +0 -13
  74. package/src/store/user/slices/sync/selectors.ts +0 -20
@@ -80,6 +80,9 @@
80
80
  "DeepSeek-V3-Fast": {
81
81
  "description": "Dostawca modelu: platforma sophnet. DeepSeek V3 Fast to szybka wersja o wysokim TPS modelu DeepSeek V3 0324, w pełni nienkwantyzowana, z ulepszonym kodem i zdolnościami matematycznymi, zapewniająca szybszą reakcję!"
82
82
  },
83
+ "DeepSeek-V3.1": {
84
+ "description": "DeepSeek-V3.1 to nowy hybrydowy model wnioskowania opracowany przez DeepSeek, obsługujący dwa tryby wnioskowania: myślenia i bezmyślny, z wyższą efektywnością myślenia niż DeepSeek-R1-0528. Dzięki optymalizacji po treningu, wykorzystanie narzędzi agenta i wydajność zadań inteligentnych agentów zostały znacznie poprawione."
85
+ },
83
86
  "Doubao-lite-128k": {
84
87
  "description": "Doubao-lite oferuje niezwykle szybkie reakcje i lepszy stosunek jakości do ceny, zapewniając klientom elastyczne opcje dla różnych scenariuszy. Obsługuje wnioskowanie i dostrajanie z kontekstem do 128k."
85
88
  },
@@ -134,9 +137,15 @@
134
137
  "ERNIE-Speed-Pro-128K": {
135
138
  "description": "Najnowocześniejszy model dużego języka opracowany przez Baidu w 2024 roku, charakteryzujący się doskonałymi zdolnościami ogólnymi, oferujący lepsze wyniki niż ERNIE Speed, odpowiedni jako model bazowy do dalszego dostosowywania, lepiej radzący sobie z problemami w specyficznych scenariuszach, a także zapewniający doskonałą wydajność wnioskowania."
136
139
  },
140
+ "FLUX-1.1-pro": {
141
+ "description": "FLUX.1.1 Pro"
142
+ },
137
143
  "FLUX.1-Kontext-dev": {
138
144
  "description": "FLUX.1-Kontext-dev to multimodalny model generowania i edycji obrazów opracowany przez Black Forest Labs, oparty na architekturze Rectified Flow Transformer, posiadający 12 miliardów parametrów. Skupia się na generowaniu, rekonstrukcji, wzmacnianiu i edycji obrazów w oparciu o podane warunki kontekstowe. Model łączy zalety kontrolowanej generacji modeli dyfuzyjnych z możliwościami modelowania kontekstu transformera, oferując wysoką jakość obrazów i szerokie zastosowanie w zadaniach takich jak naprawa, uzupełnianie i rekonstrukcja scen wizualnych."
139
145
  },
146
+ "FLUX.1-Kontext-pro": {
147
+ "description": "FLUX.1 Kontext [pro]"
148
+ },
140
149
  "FLUX.1-dev": {
141
150
  "description": "FLUX.1-dev to otwarty multimodalny model językowy (MLLM) opracowany przez Black Forest Labs, zoptymalizowany pod kątem zadań tekstowo-obrazowych, łączący zdolności rozumienia i generowania obrazów oraz tekstu. Bazuje na zaawansowanych dużych modelach językowych (np. Mistral-7B) i dzięki starannie zaprojektowanemu enkoderowi wizualnemu oraz wieloetapowemu dostrajaniu instrukcji umożliwia współpracę tekstu i obrazu oraz złożone wnioskowanie."
142
151
  },
@@ -266,6 +275,9 @@
266
275
  "Pro/deepseek-ai/DeepSeek-V3": {
267
276
  "description": "DeepSeek-V3 to model językowy z 6710 miliardami parametrów, oparty na architekturze mieszanych ekspertów (MoE), wykorzystujący wielogłowicową potencjalną uwagę (MLA) oraz strategię równoważenia obciążenia bez dodatkowych strat, co optymalizuje wydajność wnioskowania i treningu. Dzięki wstępnemu treningowi na 14,8 bilionach wysokiej jakości tokenów oraz nadzorowanemu dostrajaniu i uczeniu ze wzmocnieniem, DeepSeek-V3 przewyższa inne modele open source, zbliżając się do wiodących modeli zamkniętych."
268
277
  },
278
+ "Pro/deepseek-ai/DeepSeek-V3.1": {
279
+ "description": "DeepSeek-V3.1 to hybrydowy duży model językowy wydany przez DeepSeek AI, który wprowadza wiele istotnych ulepszeń w stosunku do poprzednich wersji. Jedną z innowacji jest integracja trybu myślenia (Thinking Mode) i trybu bezmyślnego (Non-thinking Mode), które użytkownik może elastycznie przełączać, dostosowując szablony rozmów do różnych zadań. Dzięki specjalnej optymalizacji po treningu, wersja V3.1 znacznie poprawiła wydajność w wywoływaniu narzędzi i zadaniach agenta, lepiej wspierając zewnętrzne narzędzia wyszukiwania oraz realizację wieloetapowych, złożonych zadań. Model bazuje na DeepSeek-V3.1-Base i został poddany dalszemu treningowi z zastosowaniem dwufazowej metody rozszerzania długich tekstów, co znacznie zwiększyło ilość danych treningowych i poprawiło działanie na długich dokumentach oraz rozbudowanym kodzie. Jako model open source, DeepSeek-V3.1 wykazuje zdolności porównywalne z najlepszymi zamkniętymi modelami w benchmarkach kodowania, matematyki i wnioskowania, a dzięki architekturze hybrydowych ekspertów (MoE) utrzymuje ogromną pojemność modelu przy jednoczesnym efektywnym obniżeniu kosztów wnioskowania."
280
+ },
269
281
  "Pro/moonshotai/Kimi-K2-Instruct": {
270
282
  "description": "Kimi K2 to podstawowy model architektury MoE o potężnych zdolnościach kodowania i agenta, z łączną liczbą parametrów 1 biliona i 32 miliardami aktywowanych parametrów. W testach wydajności w zakresie ogólnej wiedzy, programowania, matematyki i zadań agenta model K2 przewyższa inne popularne otwarte modele."
271
283
  },
@@ -845,6 +857,9 @@
845
857
  "deepseek-ai/DeepSeek-V3": {
846
858
  "description": "DeepSeek-V3 to model językowy z 6710 miliardami parametrów, oparty na mieszanych ekspertach (MoE), wykorzystujący wielogłowicową potencjalną uwagę (MLA) oraz architekturę DeepSeekMoE, łączącą strategię równoważenia obciążenia bez dodatkowych strat, co optymalizuje wydajność wnioskowania i treningu. Dzięki wstępnemu treningowi na 14,8 bilionach wysokiej jakości tokenów oraz nadzorowanemu dostrajaniu i uczeniu przez wzmacnianie, DeepSeek-V3 przewyższa inne modele open source, zbliżając się do wiodących modeli zamkniętych."
847
859
  },
860
+ "deepseek-ai/DeepSeek-V3.1": {
861
+ "description": "DeepSeek-V3.1 to hybrydowy duży model językowy wydany przez DeepSeek AI, który wprowadza wiele istotnych ulepszeń w stosunku do poprzednich wersji. Jedną z innowacji jest integracja trybu myślenia (Thinking Mode) i trybu bezmyślnego (Non-thinking Mode), które użytkownik może elastycznie przełączać, dostosowując szablony rozmów do różnych zadań. Dzięki specjalnej optymalizacji po treningu, wersja V3.1 znacznie poprawiła wydajność w wywoływaniu narzędzi i zadaniach agenta, lepiej wspierając zewnętrzne narzędzia wyszukiwania oraz realizację wieloetapowych, złożonych zadań. Model bazuje na DeepSeek-V3.1-Base i został poddany dalszemu treningowi z zastosowaniem dwufazowej metody rozszerzania długich tekstów, co znacznie zwiększyło ilość danych treningowych i poprawiło działanie na długich dokumentach oraz rozbudowanym kodzie. Jako model open source, DeepSeek-V3.1 wykazuje zdolności porównywalne z najlepszymi zamkniętymi modelami w benchmarkach kodowania, matematyki i wnioskowania, a dzięki architekturze hybrydowych ekspertów (MoE) utrzymuje ogromną pojemność modelu przy jednoczesnym efektywnym obniżeniu kosztów wnioskowania."
862
+ },
848
863
  "deepseek-ai/deepseek-llm-67b-chat": {
849
864
  "description": "DeepSeek 67B to zaawansowany model przeszkolony do złożonych dialogów."
850
865
  },
@@ -915,7 +930,7 @@
915
930
  "description": "DeepSeek R1 pełna wersja, z 671 miliardami parametrów, wspierająca wyszukiwanie w czasie rzeczywistym, z potężniejszymi zdolnościami rozumienia i generowania."
916
931
  },
917
932
  "deepseek-reasoner": {
918
- "description": "Model inferency wprowadzony przez DeepSeek. Przed wygenerowaniem ostatecznej odpowiedzi, model najpierw przedstawia fragment łańcucha myślowego, aby zwiększyć dokładność końcowej odpowiedzi."
933
+ "description": "Tryb myślenia DeepSeek V3.1. Przed wygenerowaniem ostatecznej odpowiedzi model najpierw tworzy łańcuch myślowy, aby zwiększyć dokładność końcowej odpowiedzi."
919
934
  },
920
935
  "deepseek-v2": {
921
936
  "description": "DeepSeek V2 to wydajny model językowy Mixture-of-Experts, odpowiedni do ekonomicznych potrzeb przetwarzania."
@@ -929,12 +944,18 @@
929
944
  "deepseek-v3-0324": {
930
945
  "description": "DeepSeek-V3-0324 to model MoE z 671 miliardami parametrów, który wyróżnia się w zakresie programowania i umiejętności technicznych, rozumienia kontekstu oraz przetwarzania długich tekstów."
931
946
  },
947
+ "deepseek-v3.1": {
948
+ "description": "DeepSeek-V3.1 to nowy hybrydowy model wnioskowania opracowany przez DeepSeek, obsługujący dwa tryby wnioskowania: myślenia i bezmyślny, z wyższą efektywnością myślenia niż DeepSeek-R1-0528. Dzięki optymalizacji po treningu, wykorzystanie narzędzi agenta i wydajność zadań inteligentnych agentów zostały znacznie poprawione. Obsługuje okno kontekstowe do 128k oraz maksymalną długość wyjścia do 64k tokenów."
949
+ },
932
950
  "deepseek/deepseek-chat-v3-0324": {
933
951
  "description": "DeepSeek V3 to model mieszany z 685B parametrami, będący najnowszą iteracją flagowej serii modeli czatu zespołu DeepSeek.\n\nDziedziczy po modelu [DeepSeek V3](/deepseek/deepseek-chat-v3) i wykazuje doskonałe wyniki w różnych zadaniach."
934
952
  },
935
953
  "deepseek/deepseek-chat-v3-0324:free": {
936
954
  "description": "DeepSeek V3 to model mieszany z 685B parametrami, będący najnowszą iteracją flagowej serii modeli czatu zespołu DeepSeek.\n\nDziedziczy po modelu [DeepSeek V3](/deepseek/deepseek-chat-v3) i wykazuje doskonałe wyniki w różnych zadaniach."
937
955
  },
956
+ "deepseek/deepseek-chat-v3.1": {
957
+ "description": "DeepSeek-V3.1 to duży hybrydowy model wnioskowania obsługujący długi kontekst 128K i efektywne przełączanie trybów, osiągający doskonałą wydajność i szybkość w wywoływaniu narzędzi, generowaniu kodu oraz złożonych zadaniach wnioskowania."
958
+ },
938
959
  "deepseek/deepseek-r1": {
939
960
  "description": "DeepSeek-R1 znacznie poprawił zdolności wnioskowania modelu przy minimalnej ilości oznaczonych danych. Przed wygenerowaniem ostatecznej odpowiedzi, model najpierw wygeneruje fragment myślenia, aby zwiększyć dokładność końcowej odpowiedzi."
940
961
  },
@@ -1230,10 +1251,10 @@
1230
1251
  "description": "Gemini 2.5 Flash to najbardziej opłacalny model Google, oferujący wszechstronne funkcje."
1231
1252
  },
1232
1253
  "gemini-2.5-flash-image-preview": {
1233
- "description": "Gemini 2.5 Flash Image Preview to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny firmy Google. Umożliwia tworzenie i edycję obrazów podczas konwersacji."
1254
+ "description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, który pozwala generować i edytować obrazy za pomocą rozmowy."
1234
1255
  },
1235
1256
  "gemini-2.5-flash-image-preview:image": {
1236
- "description": "Gemini 2.5 Flash Image Preview to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, który pozwala generować i edytować obrazy za pomocą rozmowy."
1257
+ "description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, który pozwala generować i edytować obrazy za pomocą rozmowy."
1237
1258
  },
1238
1259
  "gemini-2.5-flash-lite": {
1239
1260
  "description": "Gemini 2.5 Flash-Lite to najmniejszy i najbardziej opłacalny model Google, zaprojektowany z myślą o szerokim zastosowaniu."
@@ -80,6 +80,9 @@
80
80
  "DeepSeek-V3-Fast": {
81
81
  "description": "Fornecedor do modelo: plataforma sophnet. DeepSeek V3 Fast é a versão de alta velocidade e alto TPS do DeepSeek V3 0324, totalmente não quantificada, com capacidades aprimoradas de código e matemática, respondendo de forma mais rápida!"
82
82
  },
83
+ "DeepSeek-V3.1": {
84
+ "description": "DeepSeek-V3.1 é o novo modelo híbrido de raciocínio lançado pela DeepSeek, suportando dois modos de raciocínio: com e sem pensamento, com eficiência de pensamento superior ao DeepSeek-R1-0528. Após otimização pós-treinamento, o uso de ferramentas Agent e o desempenho em tarefas inteligentes foram significativamente aprimorados."
85
+ },
83
86
  "Doubao-lite-128k": {
84
87
  "description": "Doubao-lite oferece velocidade de resposta extrema e melhor custo-benefício, proporcionando opções mais flexíveis para diferentes cenários dos clientes. Suporta inferência e fine-tuning com janela de contexto de 128k."
85
88
  },
@@ -134,9 +137,15 @@
134
137
  "ERNIE-Speed-Pro-128K": {
135
138
  "description": "Modelo de linguagem de alto desempenho desenvolvido pela Baidu, lançado em 2024, com capacidades gerais excepcionais, apresentando resultados superiores ao ERNIE Speed, adequado como modelo base para ajuste fino, melhorando o tratamento de problemas em cenários específicos, enquanto mantém excelente desempenho de inferência."
136
139
  },
140
+ "FLUX-1.1-pro": {
141
+ "description": "FLUX.1.1 Pro"
142
+ },
137
143
  "FLUX.1-Kontext-dev": {
138
144
  "description": "FLUX.1-Kontext-dev é um modelo multimodal de geração e edição de imagens desenvolvido pela Black Forest Labs, baseado na arquitetura Rectified Flow Transformer, com 12 bilhões de parâmetros, focado em gerar, reconstruir, aprimorar ou editar imagens sob condições contextuais fornecidas. Combina as vantagens da geração controlada de modelos de difusão com a capacidade de modelagem contextual dos Transformers, suportando saída de imagens de alta qualidade e aplicável a tarefas como restauração, preenchimento e reconstrução visual de cenas."
139
145
  },
146
+ "FLUX.1-Kontext-pro": {
147
+ "description": "FLUX.1 Kontext [pro]"
148
+ },
140
149
  "FLUX.1-dev": {
141
150
  "description": "FLUX.1-dev é um modelo multimodal de linguagem open source desenvolvido pela Black Forest Labs, otimizado para tarefas de texto e imagem, integrando capacidades de compreensão e geração de imagens e texto. Baseado em avançados modelos de linguagem como Mistral-7B, utiliza codificadores visuais cuidadosamente projetados e ajuste fino em múltiplas etapas para alcançar processamento colaborativo de texto e imagem e raciocínio complexo."
142
151
  },
@@ -266,6 +275,9 @@
266
275
  "Pro/deepseek-ai/DeepSeek-V3": {
267
276
  "description": "DeepSeek-V3 é um modelo de linguagem com 671 bilhões de parâmetros, utilizando uma arquitetura de especialistas mistos (MoE) com atenção potencial de múltiplas cabeças (MLA) e uma estratégia de balanceamento de carga sem perda auxiliar, otimizando a eficiência de inferência e treinamento. Pré-treinado em 14,8 trilhões de tokens de alta qualidade, e ajustado por supervisão e aprendizado por reforço, o DeepSeek-V3 supera outros modelos de código aberto, aproximando-se de modelos fechados líderes."
268
277
  },
278
+ "Pro/deepseek-ai/DeepSeek-V3.1": {
279
+ "description": "DeepSeek-V3.1 é um modelo de linguagem grande em modo híbrido lançado pela DeepSeek AI, que traz várias melhorias importantes em relação à geração anterior. Uma inovação chave do modelo é a integração dos modos “Pensamento” (Thinking Mode) e “Não Pensamento” (Non-thinking Mode), permitindo que o usuário alterne flexivelmente entre eles ajustando o template de conversa para atender diferentes demandas. Com otimizações pós-treinamento específicas, o V3.1 apresenta desempenho significativamente melhorado em chamadas de ferramentas e tarefas Agent, suportando melhor ferramentas de busca externas e execução de tarefas complexas em múltiplas etapas. Baseado no DeepSeek-V3.1-Base, o modelo foi treinado adicionalmente com um método de expansão de texto longo em duas fases, aumentando substancialmente o volume de dados de treinamento, o que melhora seu desempenho no processamento de documentos longos e códigos extensos. Como modelo open source, o DeepSeek-V3.1 demonstra capacidades comparáveis a modelos fechados de ponta em benchmarks de codificação, matemática e raciocínio, e graças à sua arquitetura de especialistas mistos (MoE), mantém uma enorme capacidade de modelo enquanto reduz efetivamente os custos de inferência."
280
+ },
269
281
  "Pro/moonshotai/Kimi-K2-Instruct": {
270
282
  "description": "Kimi K2 é um modelo base com arquitetura MoE e capacidades avançadas de código e agente, com 1 trilhão de parâmetros totais e 32 bilhões ativados. Em testes de desempenho em raciocínio geral, programação, matemática e agentes, o modelo K2 supera outros modelos open source populares."
271
283
  },
@@ -845,6 +857,9 @@
845
857
  "deepseek-ai/DeepSeek-V3": {
846
858
  "description": "DeepSeek-V3 é um modelo de linguagem de especialistas mistos (MoE) com 671 bilhões de parâmetros, utilizando atenção latente de múltiplas cabeças (MLA) e a arquitetura DeepSeekMoE, combinando uma estratégia de balanceamento de carga sem perda auxiliar para otimizar a eficiência de inferência e treinamento. Após ser pré-treinado em 14,8 trilhões de tokens de alta qualidade e passar por ajuste fino supervisionado e aprendizado por reforço, o DeepSeek-V3 supera outros modelos de código aberto em desempenho, aproximando-se de modelos fechados líderes."
847
859
  },
860
+ "deepseek-ai/DeepSeek-V3.1": {
861
+ "description": "DeepSeek-V3.1 é um modelo de linguagem grande em modo híbrido lançado pela DeepSeek AI, que traz várias melhorias importantes em relação à geração anterior. Uma inovação chave do modelo é a integração dos modos “Pensamento” (Thinking Mode) e “Não Pensamento” (Non-thinking Mode), permitindo que o usuário alterne flexivelmente entre eles ajustando o template de conversa para atender diferentes demandas. Com otimizações pós-treinamento específicas, o V3.1 apresenta desempenho significativamente melhorado em chamadas de ferramentas e tarefas Agent, suportando melhor ferramentas de busca externas e execução de tarefas complexas em múltiplas etapas. Baseado no DeepSeek-V3.1-Base, o modelo foi treinado adicionalmente com um método de expansão de texto longo em duas fases, aumentando substancialmente o volume de dados de treinamento, o que melhora seu desempenho no processamento de documentos longos e códigos extensos. Como modelo open source, o DeepSeek-V3.1 demonstra capacidades comparáveis a modelos fechados de ponta em benchmarks de codificação, matemática e raciocínio, e graças à sua arquitetura de especialistas mistos (MoE), mantém uma enorme capacidade de modelo enquanto reduz efetivamente os custos de inferência."
862
+ },
848
863
  "deepseek-ai/deepseek-llm-67b-chat": {
849
864
  "description": "DeepSeek 67B é um modelo avançado treinado para diálogos de alta complexidade."
850
865
  },
@@ -915,7 +930,7 @@
915
930
  "description": "DeepSeek R1 versão completa, com 671B de parâmetros, suporta busca em tempo real, apresentando capacidades de compreensão e geração mais robustas."
916
931
  },
917
932
  "deepseek-reasoner": {
918
- "description": "Modelo de raciocínio lançado pela DeepSeek. Antes de fornecer a resposta final, o modelo gera uma cadeia de pensamento para aumentar a precisão da resposta final."
933
+ "description": "DeepSeek V3.1 no modo pensamento. Antes de fornecer a resposta final, o modelo gera uma cadeia de raciocínio para aumentar a precisão da resposta."
919
934
  },
920
935
  "deepseek-v2": {
921
936
  "description": "DeepSeek V2 é um modelo de linguagem eficiente Mixture-of-Experts, adequado para demandas de processamento econômico."
@@ -929,12 +944,18 @@
929
944
  "deepseek-v3-0324": {
930
945
  "description": "DeepSeek-V3-0324 é um modelo MoE com 671 bilhões de parâmetros, destacando-se em habilidades de programação e técnicas, compreensão de contexto e processamento de textos longos."
931
946
  },
947
+ "deepseek-v3.1": {
948
+ "description": "DeepSeek-V3.1 é o novo modelo híbrido de raciocínio lançado pela DeepSeek, suportando dois modos de raciocínio: com e sem pensamento, com eficiência de pensamento superior ao DeepSeek-R1-0528. Após otimização pós-treinamento, o uso de ferramentas Agent e o desempenho em tarefas inteligentes foram significativamente aprimorados. Suporta janela de contexto de 128k e comprimento máximo de saída de 64k tokens."
949
+ },
932
950
  "deepseek/deepseek-chat-v3-0324": {
933
951
  "description": "O DeepSeek V3 é um modelo misto especializado com 685B de parâmetros, sendo a mais recente iteração da série de modelos de chat da equipe DeepSeek.\n\nEle herda o modelo [DeepSeek V3](/deepseek/deepseek-chat-v3) e se destaca em várias tarefas."
934
952
  },
935
953
  "deepseek/deepseek-chat-v3-0324:free": {
936
954
  "description": "O DeepSeek V3 é um modelo misto especializado com 685B de parâmetros, sendo a mais recente iteração da série de modelos de chat da equipe DeepSeek.\n\nEle herda o modelo [DeepSeek V3](/deepseek/deepseek-chat-v3) e se destaca em várias tarefas."
937
955
  },
956
+ "deepseek/deepseek-chat-v3.1": {
957
+ "description": "DeepSeek-V3.1 é um grande modelo híbrido de raciocínio que suporta contexto longo de 128K e troca eficiente de modos, alcançando desempenho e velocidade excepcionais em chamadas de ferramentas, geração de código e tarefas complexas de raciocínio."
958
+ },
938
959
  "deepseek/deepseek-r1": {
939
960
  "description": "DeepSeek-R1 melhorou significativamente a capacidade de raciocínio do modelo com muito poucos dados rotulados. Antes de fornecer a resposta final, o modelo gera uma cadeia de pensamento para aumentar a precisão da resposta final."
940
961
  },
@@ -1230,10 +1251,10 @@
1230
1251
  "description": "Gemini 2.5 Flash é o modelo com melhor custo-benefício do Google, oferecendo funcionalidades abrangentes."
1231
1252
  },
1232
1253
  "gemini-2.5-flash-image-preview": {
1233
- "description": "Gemini 2.5 Flash Image Preview é o modelo multimodal nativo mais recente, mais rápido e mais eficiente do Google, que permite gerar e editar imagens por meio de conversas."
1254
+ "description": "Nano Banana é o mais recente, rápido e eficiente modelo multimodal nativo do Google, que permite gerar e editar imagens por meio de conversas."
1234
1255
  },
1235
1256
  "gemini-2.5-flash-image-preview:image": {
1236
- "description": "Gemini 2.5 Flash Image Preview é o mais recente, rápido e eficiente modelo multimodal nativo do Google, que permite gerar e editar imagens por meio de conversas."
1257
+ "description": "Nano Banana é o mais recente, rápido e eficiente modelo multimodal nativo do Google, que permite gerar e editar imagens por meio de conversas."
1237
1258
  },
1238
1259
  "gemini-2.5-flash-lite": {
1239
1260
  "description": "Gemini 2.5 Flash-Lite é o modelo mais compacto e com melhor custo-benefício do Google, projetado para uso em larga escala."
@@ -80,6 +80,9 @@
80
80
  "DeepSeek-V3-Fast": {
81
81
  "description": "Поставщик модели: платформа sophnet. DeepSeek V3 Fast — это высокоскоростная версия DeepSeek V3 0324 с высокой пропускной способностью (TPS), полностью не квантизированная, с улучшенными возможностями кода и математики, обеспечивающая более быструю реакцию!"
82
82
  },
83
+ "DeepSeek-V3.1": {
84
+ "description": "DeepSeek-V3.1 — это новая гибридная модель рассуждений от DeepSeek, поддерживающая два режима рассуждений: с размышлением и без размышления, с более высокой эффективностью размышлений по сравнению с DeepSeek-R1-0528. После посттренировочной оптимизации значительно улучшена работа с инструментами агента и выполнение задач интеллектуального агента."
85
+ },
83
86
  "Doubao-lite-128k": {
84
87
  "description": "Doubao-lite обладает исключительной скоростью отклика и лучшим соотношением цена-качество, предоставляя клиентам более гибкие варианты для различных сценариев. Поддерживает вывод и дообучение с контекстным окном в 128k."
85
88
  },
@@ -134,9 +137,15 @@
134
137
  "ERNIE-Speed-Pro-128K": {
135
138
  "description": "Новая высокопроизводительная языковая модель, разработанная Baidu в 2024 году, обладающая выдающимися универсальными возможностями, превосходящая ERNIE Speed, подходит для использования в качестве базовой модели для тонкой настройки, лучше справляясь с задачами в специфических сценариях, при этом обладая отличной производительностью вывода."
136
139
  },
140
+ "FLUX-1.1-pro": {
141
+ "description": "FLUX.1.1 Pro"
142
+ },
137
143
  "FLUX.1-Kontext-dev": {
138
144
  "description": "FLUX.1-Kontext-dev — мультимодальная модель генерации и редактирования изображений, разработанная Black Forest Labs на основе архитектуры Rectified Flow Transformer с масштабом 12 миллиардов параметров. Модель специализируется на генерации, реконструкции, улучшении и редактировании изображений с учётом заданного контекста. Она сочетает преимущества контролируемой генерации диффузионных моделей и контекстного моделирования Transformer, обеспечивая высококачественный вывод и широкое применение в задачах восстановления, дополнения и реконструкции визуальных сцен."
139
145
  },
146
+ "FLUX.1-Kontext-pro": {
147
+ "description": "FLUX.1 Kontext [pro]"
148
+ },
140
149
  "FLUX.1-dev": {
141
150
  "description": "FLUX.1-dev — это открытая мультимодальная языковая модель (Multimodal Language Model, MLLM), разработанная Black Forest Labs и оптимизированная для задач, связанных с изображениями и текстом. Она объединяет возможности понимания и генерации изображений и текста, построена на основе передовой большой языковой модели (например, Mistral-7B) и использует тщательно разработанный визуальный кодировщик и многоступенчатую инструкционную донастройку для совместной обработки изображений и текста, а также сложного вывода."
142
151
  },
@@ -266,6 +275,9 @@
266
275
  "Pro/deepseek-ai/DeepSeek-V3": {
267
276
  "description": "DeepSeek-V3 — это языковая модель с 6710 миллиардами параметров, использующая архитектуру смешанных экспертов (MoE) и многофункциональное внимание (MLA), в сочетании с стратегией балансировки нагрузки без вспомогательных потерь, оптимизирующая эффективность вывода и обучения. После предобучения на 14.8 триллионах высококачественных токенов и последующей контролируемой донастройки и обучения с подкреплением, DeepSeek-V3 превосходит другие открытые модели и приближается к ведущим закрытым моделям."
268
277
  },
278
+ "Pro/deepseek-ai/DeepSeek-V3.1": {
279
+ "description": "DeepSeek-V3.1 — гибридная большая языковая модель, выпущенная DeepSeek AI, которая включает множество важных улучшений по сравнению с предыдущими версиями. Главной инновацией модели является интеграция режимов «мышления» (Thinking Mode) и «без мышления» (Non-thinking Mode), которые пользователь может гибко переключать, изменяя шаблоны диалога для разных задач. Благодаря специализированной посттренировочной оптимизации V3.1 значительно улучшила производительность при вызове инструментов и выполнении задач агента, обеспечивая лучшую поддержку внешних поисковых инструментов и выполнение многошаговых сложных задач. Модель основана на DeepSeek-V3.1-Base и дообучена с использованием двухэтапного расширения длинных текстов, что значительно увеличило объем тренировочных данных и улучшило работу с длинными документами и большими объемами кода. Как открытая модель, DeepSeek-V3.1 демонстрирует сопоставимые с ведущими закрытыми моделями результаты в кодировании, математике и рассуждениях, а благодаря архитектуре с экспертами (MoE) сохраняет огромную емкость модели при эффективном снижении затрат на вывод."
280
+ },
269
281
  "Pro/moonshotai/Kimi-K2-Instruct": {
270
282
  "description": "Kimi K2 — базовая модель на архитектуре MoE с выдающимися возможностями в кодировании и агентских задачах, общим числом параметров 1 триллион и 32 миллиардами активируемых параметров. В тестах на универсальное знание, программирование, математику и агентские задачи производительность модели K2 превосходит другие ведущие открытые модели."
271
283
  },
@@ -845,6 +857,9 @@
845
857
  "deepseek-ai/DeepSeek-V3": {
846
858
  "description": "DeepSeek-V3 — это языковая модель смешанных экспертов (MoE) с 6710 миллиардами параметров, использующая многоголовое потенциальное внимание (MLA) и архитектуру DeepSeekMoE, в сочетании с стратегией балансировки нагрузки без вспомогательных потерь, оптимизирующей эффективность вывода и обучения. После предобучения на 14,8 триллионах высококачественных токенов и последующей супервизионной донастройки и обучения с подкреплением, DeepSeek-V3 превосходит другие открытые модели и приближается к ведущим закрытым моделям."
847
859
  },
860
+ "deepseek-ai/DeepSeek-V3.1": {
861
+ "description": "DeepSeek-V3.1 — гибридная большая языковая модель, выпущенная DeepSeek AI, которая включает множество важных улучшений по сравнению с предыдущими версиями. Главной инновацией модели является интеграция режимов «мышления» (Thinking Mode) и «без мышления» (Non-thinking Mode), которые пользователь может гибко переключать, изменяя шаблоны диалога для разных задач. Благодаря специализированной посттренировочной оптимизации V3.1 значительно улучшила производительность при вызове инструментов и выполнении задач агента, обеспечивая лучшую поддержку внешних поисковых инструментов и выполнение многошаговых сложных задач. Модель основана на DeepSeek-V3.1-Base и дообучена с использованием двухэтапного расширения длинных текстов, что значительно увеличило объем тренировочных данных и улучшило работу с длинными документами и большими объемами кода. Как открытая модель, DeepSeek-V3.1 демонстрирует сопоставимые с ведущими закрытыми моделями результаты в кодировании, математике и рассуждениях, а благодаря архитектуре с экспертами (MoE) сохраняет огромную емкость модели при эффективном снижении затрат на вывод."
862
+ },
848
863
  "deepseek-ai/deepseek-llm-67b-chat": {
849
864
  "description": "DeepSeek 67B — это передовая модель, обученная для высококомплексных диалогов."
850
865
  },
@@ -915,7 +930,7 @@
915
930
  "description": "DeepSeek R1 полная версия, имеющая 671B параметров, поддерживающая онлайн-поиск в реальном времени, обладающая более мощными способностями понимания и генерации."
916
931
  },
917
932
  "deepseek-reasoner": {
918
- "description": "Модель вывода, представленная DeepSeek. Перед тем как выдать окончательный ответ, модель сначала выводит цепочку размышлений, чтобы повысить точность окончательного ответа."
933
+ "description": "Режим размышления DeepSeek V3.1. Перед выводом окончательного ответа модель сначала генерирует цепочку рассуждений, чтобы повысить точность итогового результата."
919
934
  },
920
935
  "deepseek-v2": {
921
936
  "description": "DeepSeek V2 — это эффективная языковая модель Mixture-of-Experts, подходящая для экономически эффективных потребностей обработки."
@@ -929,12 +944,18 @@
929
944
  "deepseek-v3-0324": {
930
945
  "description": "DeepSeek-V3-0324 — это модель MoE с 671 миллиардами параметров, обладающая выдающимися способностями в программировании и технических навыках, понимании контекста и обработке длинных текстов."
931
946
  },
947
+ "deepseek-v3.1": {
948
+ "description": "DeepSeek-V3.1 — новая гибридная модель рассуждений от DeepSeek, поддерживающая два режима рассуждений: с размышлением и без размышления, с более высокой эффективностью размышлений по сравнению с DeepSeek-R1-0528. После посттренировочной оптимизации значительно улучшена работа с инструментами агента и выполнение задач интеллектуального агента. Поддерживает контекстное окно до 128k и максимальную длину вывода до 64k токенов."
949
+ },
932
950
  "deepseek/deepseek-chat-v3-0324": {
933
951
  "description": "DeepSeek V3 — это экспертная смешанная модель с 685B параметрами, являющаяся последней итерацией флагманской серии чат-моделей команды DeepSeek.\n\nОна унаследовала модель [DeepSeek V3](/deepseek/deepseek-chat-v3) и демонстрирует отличные результаты в различных задачах."
934
952
  },
935
953
  "deepseek/deepseek-chat-v3-0324:free": {
936
954
  "description": "DeepSeek V3 — это экспертная смешанная модель с 685B параметрами, являющаяся последней итерацией флагманской серии чат-моделей команды DeepSeek.\n\nОна унаследовала модель [DeepSeek V3](/deepseek/deepseek-chat-v3) и демонстрирует отличные результаты в различных задачах."
937
955
  },
956
+ "deepseek/deepseek-chat-v3.1": {
957
+ "description": "DeepSeek-V3.1 — крупная гибридная модель рассуждений с поддержкой длинного контекста до 128K и эффективным переключением режимов, демонстрирующая выдающуюся производительность и скорость при вызове инструментов, генерации кода и выполнении сложных задач рассуждений."
958
+ },
938
959
  "deepseek/deepseek-r1": {
939
960
  "description": "DeepSeek-R1 значительно улучшила способности модели к рассуждению при наличии лишь очень ограниченных размеченных данных. Перед тем как предоставить окончательный ответ, модель сначала выводит цепочку размышлений, чтобы повысить точность окончательного ответа."
940
961
  },
@@ -1230,10 +1251,10 @@
1230
1251
  "description": "Gemini 2.5 Flash — самая экономичная модель Google, предоставляющая полный набор функций."
1231
1252
  },
1232
1253
  "gemini-2.5-flash-image-preview": {
1233
- "description": "Gemini 2.5 Flash Image Preview — новейшая, самая быстрая и наиболее эффективная нативная мультимодальная модель Google, которая позволяет генерировать и редактировать изображения в диалоге."
1254
+ "description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, позволяющая создавать и редактировать изображения через диалог."
1234
1255
  },
1235
1256
  "gemini-2.5-flash-image-preview:image": {
1236
- "description": "Gemini 2.5 Flash Image Preview это новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, которая позволяет создавать и редактировать изображения через диалог."
1257
+ "description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, позволяющая создавать и редактировать изображения через диалог."
1237
1258
  },
1238
1259
  "gemini-2.5-flash-lite": {
1239
1260
  "description": "Gemini 2.5 Flash-Lite — это самая компактная и экономичная модель от Google, разработанная для масштабного использования."
@@ -80,6 +80,9 @@
80
80
  "DeepSeek-V3-Fast": {
81
81
  "description": "Model sağlayıcısı: sophnet platformu. DeepSeek V3 Fast, DeepSeek V3 0324 sürümünün yüksek TPS hızlı versiyonudur, tam performanslı ve kuantize edilmemiştir, kodlama ve matematik yetenekleri daha güçlüdür, yanıt süresi daha hızlıdır!"
82
82
  },
83
+ "DeepSeek-V3.1": {
84
+ "description": "DeepSeek-V3.1, DeepSeek'in tamamen yeni hibrit çıkarım modeli olup, düşünme ve düşünmeme olmak üzere iki çıkarım modunu destekler ve DeepSeek-R1-0528'e kıyasla düşünme verimliliği daha yüksektir. Post-Training optimizasyonu sayesinde, Agent araç kullanımı ve akıllı görev performansı önemli ölçüde artırılmıştır."
85
+ },
83
86
  "Doubao-lite-128k": {
84
87
  "description": "Doubao-lite, son derece hızlı yanıt süresi ve daha iyi fiyat-performans oranı ile müşterilere farklı senaryolar için daha esnek seçenekler sunar. 128k bağlam penceresi ile çıkarım ve ince ayar desteği sağlar."
85
88
  },
@@ -134,9 +137,15 @@
134
137
  "ERNIE-Speed-Pro-128K": {
135
138
  "description": "Baidu'nun 2024 yılında piyasaya sürdüğü kendi geliştirdiği yüksek performanslı büyük dil modeli, genel yetenekleri mükemmel olup, ERNIE Speed'den daha iyi sonuçlar verir, belirli senaryo sorunlarını daha iyi işlemek için temel model olarak ince ayar yapmak için uygundur ve mükemmel çıkarım performansına sahiptir."
136
139
  },
140
+ "FLUX-1.1-pro": {
141
+ "description": "FLUX.1.1 Pro"
142
+ },
137
143
  "FLUX.1-Kontext-dev": {
138
144
  "description": "FLUX.1-Kontext-dev, Black Forest Labs tarafından geliştirilen, Rectified Flow Transformer mimarisine dayanan çok modlu görüntü oluşturma ve düzenleme modelidir. 12 milyar parametreye sahip olup, verilen bağlam koşullarında görüntü oluşturma, yeniden yapılandırma, iyileştirme ve düzenleme işlemlerine odaklanır. Model, difüzyon modellerinin kontrollü üretim avantajlarını ve Transformer'ın bağlam modelleme yeteneklerini birleştirerek yüksek kaliteli görüntü çıktısı sağlar ve görüntü onarımı, tamamlama, görsel sahne yeniden yapılandırma gibi görevlerde geniş uygulama alanına sahiptir."
139
145
  },
146
+ "FLUX.1-Kontext-pro": {
147
+ "description": "FLUX.1 Kontext [pro]"
148
+ },
140
149
  "FLUX.1-dev": {
141
150
  "description": "FLUX.1-dev, Black Forest Labs tarafından geliştirilen açık kaynaklı çok modlu dil modelidir (Multimodal Language Model, MLLM). Görüntü ve metin anlama ile üretim yeteneklerini birleştirerek görsel ve metin görevleri için optimize edilmiştir. Mistral-7B gibi gelişmiş büyük dil modelleri temel alınarak, özenle tasarlanmış görsel kodlayıcı ve çok aşamalı talimat ince ayarı ile görsel-metinsel işbirliği ve karmaşık görev çıkarımı sağlar."
142
151
  },
@@ -266,6 +275,9 @@
266
275
  "Pro/deepseek-ai/DeepSeek-V3": {
267
276
  "description": "DeepSeek-V3, 6710 milyar parametreye sahip bir karma uzman (MoE) dil modelidir ve çok başlı potansiyel dikkat (MLA) ve DeepSeekMoE mimarisini kullanarak, yardımcı kayıplar olmadan yük dengeleme stratejileri ile çıkarım ve eğitim verimliliğini optimize etmektedir. 14.8 trilyon yüksek kaliteli token üzerinde önceden eğitilmiş ve denetimli ince ayar ve güçlendirilmiş öğrenme ile, DeepSeek-V3 performans açısından diğer açık kaynak modelleri geride bırakmakta ve lider kapalı kaynak modellere yaklaşmaktadır."
268
277
  },
278
+ "Pro/deepseek-ai/DeepSeek-V3.1": {
279
+ "description": "DeepSeek-V3.1, DeepSeek AI tarafından yayımlanan hibrit modlu büyük dil modelidir ve selef modellerine kıyasla birçok önemli yükseltme içermektedir. Modelin en büyük yeniliği, \"Düşünme Modu\" (Thinking Mode) ve \"Düşünmeme Modu\" (Non-thinking Mode) özelliklerini bir arada sunmasıdır; kullanıcılar sohbet şablonlarını ayarlayarak farklı görev ihtiyaçlarına esnek şekilde uyum sağlayabilirler. Özel post-training optimizasyonları sayesinde V3.1, araç çağrıları ve Agent görevlerinde performansını önemli ölçüde artırmış, dış arama araçlarını destekleme ve çok adımlı karmaşık görevleri yerine getirme kapasitesini geliştirmiştir. Model, DeepSeek-V3.1-Base üzerine post-training uygulanarak, iki aşamalı uzun metin genişletme yöntemiyle eğitim veri miktarını büyük ölçüde artırmış ve uzun belgeler ile uzun kod parçalarını işleme yeteneğini geliştirmiştir. Açık kaynaklı bir model olarak DeepSeek-V3.1, kodlama, matematik ve çıkarım gibi birçok kıyaslama testinde en iyi kapalı kaynak modellerle rekabet eden performans sergilemekte ve MoE (Mixture of Experts) mimarisi sayesinde büyük model kapasitesini korurken çıkarım maliyetlerini etkin şekilde düşürmektedir."
280
+ },
269
281
  "Pro/moonshotai/Kimi-K2-Instruct": {
270
282
  "description": "Kimi K2, güçlü kodlama ve ajan yeteneklerine sahip MoE mimarili temel modeldir; toplam 1 trilyon parametre, 32 milyar aktif parametreye sahiptir. Genel bilgi çıkarımı, programlama, matematik ve ajan gibi ana kategorilerdeki kıyaslama testlerinde K2 modeli diğer önde gelen açık kaynak modelleri geride bırakır."
271
283
  },
@@ -845,6 +857,9 @@
845
857
  "deepseek-ai/DeepSeek-V3": {
846
858
  "description": "DeepSeek-V3, 6710 milyar parametreye sahip bir karma uzman (MoE) dil modelidir. Çok başlı potansiyel dikkat (MLA) ve DeepSeekMoE mimarisini kullanarak, yardımcı kayıplar olmadan yük dengeleme stratejisi ile çıkarım ve eğitim verimliliğini optimize etmektedir. 14.8 trilyon yüksek kaliteli token üzerinde önceden eğitilmiş ve denetimli ince ayar ile tekrarlayan öğrenme gerçekleştirilmiştir; DeepSeek-V3, performans açısından diğer açık kaynaklı modelleri geride bırakmakta ve lider kapalı kaynaklı modellere yaklaşmaktadır."
847
859
  },
860
+ "deepseek-ai/DeepSeek-V3.1": {
861
+ "description": "DeepSeek-V3.1, DeepSeek AI tarafından yayımlanan hibrit modlu büyük dil modelidir ve selef modellerine kıyasla birçok önemli yükseltme içermektedir. Modelin en büyük yeniliği, \"Düşünme Modu\" (Thinking Mode) ve \"Düşünmeme Modu\" (Non-thinking Mode) özelliklerini bir arada sunmasıdır; kullanıcılar sohbet şablonlarını ayarlayarak farklı görev ihtiyaçlarına esnek şekilde uyum sağlayabilirler. Özel post-training optimizasyonları sayesinde V3.1, araç çağrıları ve Agent görevlerinde performansını önemli ölçüde artırmış, dış arama araçlarını destekleme ve çok adımlı karmaşık görevleri yerine getirme kapasitesini geliştirmiştir. Model, DeepSeek-V3.1-Base üzerine post-training uygulanarak, iki aşamalı uzun metin genişletme yöntemiyle eğitim veri miktarını büyük ölçüde artırmış ve uzun belgeler ile uzun kod parçalarını işleme yeteneğini geliştirmiştir. Açık kaynaklı bir model olarak DeepSeek-V3.1, kodlama, matematik ve çıkarım gibi birçok kıyaslama testinde en iyi kapalı kaynak modellerle rekabet eden performans sergilemekte ve MoE (Mixture of Experts) mimarisi sayesinde büyük model kapasitesini korurken çıkarım maliyetlerini etkin şekilde düşürmektedir."
862
+ },
848
863
  "deepseek-ai/deepseek-llm-67b-chat": {
849
864
  "description": "DeepSeek 67B, yüksek karmaşıklıkta diyaloglar için eğitilmiş gelişmiş bir modeldir."
850
865
  },
@@ -915,7 +930,7 @@
915
930
  "description": "DeepSeek R1 tam sürümü, 671B parametreye sahip olup, gerçek zamanlı çevrimiçi arama desteği ile daha güçlü anlama ve üretim yeteneklerine sahiptir."
916
931
  },
917
932
  "deepseek-reasoner": {
918
- "description": "DeepSeek tarafından sunulan bir akıl yürütme modeli. Model, nihai yanıtı vermeden önce bir düşünce zinciri içeriği sunarak nihai cevabın doğruluğunu artırır."
933
+ "description": "DeepSeek V3.1 Düşünme Modu. Nihai cevabı vermeden önce model, nihai yanıtın doğruluğunu artırmak için bir düşünce zinciri çıktısı üretir."
919
934
  },
920
935
  "deepseek-v2": {
921
936
  "description": "DeepSeek V2, ekonomik ve verimli işleme ihtiyaçları için uygun, etkili bir Mixture-of-Experts dil modelidir."
@@ -929,12 +944,18 @@
929
944
  "deepseek-v3-0324": {
930
945
  "description": "DeepSeek-V3-0324, 671B parametreye sahip bir MoE modelidir ve programlama ile teknik yetenekler, bağlam anlama ve uzun metin işleme gibi alanlarda belirgin avantajlar sunar."
931
946
  },
947
+ "deepseek-v3.1": {
948
+ "description": "DeepSeek-V3.1, DeepSeek'in tamamen yeni hibrit çıkarım modeli olup, düşünme ve düşünmeme olmak üzere iki çıkarım modunu destekler ve DeepSeek-R1-0528'e kıyasla düşünme verimliliği daha yüksektir. Post-Training optimizasyonu sayesinde, Agent araç kullanımı ve akıllı görev performansı önemli ölçüde artırılmıştır. 128k bağlam penceresini destekler ve çıktı uzunluğu maksimum 64k token'a kadar çıkabilir."
949
+ },
932
950
  "deepseek/deepseek-chat-v3-0324": {
933
951
  "description": "DeepSeek V3, 685B parametreye sahip bir uzman karışık modeldir ve DeepSeek ekibinin amiral gemisi sohbet modeli serisinin en son iterasyonudur.\n\nÇeşitli görevlerde mükemmel performans sergileyen [DeepSeek V3](/deepseek/deepseek-chat-v3) modelini devralmıştır."
934
952
  },
935
953
  "deepseek/deepseek-chat-v3-0324:free": {
936
954
  "description": "DeepSeek V3, 685B parametreye sahip bir uzman karışık modeldir ve DeepSeek ekibinin amiral gemisi sohbet modeli serisinin en son iterasyonudur.\n\nÇeşitli görevlerde mükemmel performans sergileyen [DeepSeek V3](/deepseek/deepseek-chat-v3) modelini devralmıştır."
937
955
  },
956
+ "deepseek/deepseek-chat-v3.1": {
957
+ "description": "DeepSeek-V3.1, 128K uzun bağlam ve verimli mod geçişini destekleyen büyük hibrit çıkarım modelidir; araç çağrıları, kod üretimi ve karmaşık çıkarım görevlerinde üstün performans ve hız sağlar."
958
+ },
938
959
  "deepseek/deepseek-r1": {
939
960
  "description": "DeepSeek-R1, yalnızca çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Model, nihai yanıtı vermeden önce bir düşünce zinciri içeriği sunarak nihai yanıtın doğruluğunu artırır."
940
961
  },
@@ -1230,10 +1251,10 @@
1230
1251
  "description": "Gemini 2.5 Flash, Google'ın en yüksek maliyet-performans modelidir ve kapsamlı özellikler sunar."
1231
1252
  },
1232
1253
  "gemini-2.5-flash-image-preview": {
1233
- "description": "Gemini 2.5 Flash Image Preview, Google'ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir; sohbet yoluyla görüntü oluşturmanıza ve düzenlemenize olanak tanır."
1254
+ "description": "Nano Banana, Google'ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir; diyalog yoluyla görüntü oluşturmanıza ve düzenlemenize olanak tanır."
1234
1255
  },
1235
1256
  "gemini-2.5-flash-image-preview:image": {
1236
- "description": "Gemini 2.5 Flash Image Preview, Google'ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir; sohbet yoluyla görüntü oluşturmanıza ve düzenlemenize olanak tanır."
1257
+ "description": "Nano Banana, Google'ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir; diyalog yoluyla görüntü oluşturmanıza ve düzenlemenize olanak tanır."
1237
1258
  },
1238
1259
  "gemini-2.5-flash-lite": {
1239
1260
  "description": "Gemini 2.5 Flash-Lite, Google'ın en küçük ve en uygun maliyetli modeli olup, geniş çaplı kullanım için tasarlanmıştır."
@@ -80,6 +80,9 @@
80
80
  "DeepSeek-V3-Fast": {
81
81
  "description": "Nhà cung cấp mô hình: nền tảng sophnet. DeepSeek V3 Fast là phiên bản tốc độ cao TPS của DeepSeek V3 0324, không lượng tử hóa, có khả năng mã hóa và toán học mạnh mẽ hơn, phản hồi nhanh hơn!"
82
82
  },
83
+ "DeepSeek-V3.1": {
84
+ "description": "DeepSeek-V3.1 là mô hình suy luận hỗn hợp hoàn toàn mới do DeepSeek phát hành, hỗ trợ hai chế độ suy luận: suy nghĩ và không suy nghĩ, với hiệu quả suy nghĩ cao hơn so với DeepSeek-R1-0528. Sau khi tối ưu hóa Post-Training, việc sử dụng công cụ Agent và hiệu suất nhiệm vụ của tác nhân được cải thiện đáng kể."
85
+ },
83
86
  "Doubao-lite-128k": {
84
87
  "description": "Doubao-lite sở hữu tốc độ phản hồi tối ưu, hiệu quả chi phí tốt hơn, cung cấp lựa chọn linh hoạt hơn cho các kịch bản khác nhau của khách hàng. Hỗ trợ suy luận và tinh chỉnh với cửa sổ ngữ cảnh 128k."
85
88
  },
@@ -134,9 +137,15 @@
134
137
  "ERNIE-Speed-Pro-128K": {
135
138
  "description": "Mô hình ngôn ngữ quy mô lớn hiệu suất cao do Baidu phát hành vào năm 2024, có khả năng tổng quát xuất sắc, hiệu quả tốt hơn ERNIE Speed, phù hợp làm mô hình nền để tinh chỉnh, xử lý tốt hơn các vấn đề trong các tình huống cụ thể, đồng thời có khả năng suy diễn tuyệt vời."
136
139
  },
140
+ "FLUX-1.1-pro": {
141
+ "description": "FLUX.1.1 Pro"
142
+ },
137
143
  "FLUX.1-Kontext-dev": {
138
144
  "description": "FLUX.1-Kontext-dev là mô hình tạo và chỉnh sửa hình ảnh đa phương thức dựa trên kiến trúc Rectified Flow Transformer do Black Forest Labs phát triển, với quy mô 12 tỷ tham số, tập trung vào việc tạo, tái cấu trúc, nâng cao hoặc chỉnh sửa hình ảnh dựa trên điều kiện ngữ cảnh cho trước. Mô hình kết hợp ưu điểm tạo có kiểm soát của mô hình khuếch tán và khả năng mô hình hóa ngữ cảnh của Transformer, hỗ trợ xuất hình ảnh chất lượng cao, ứng dụng rộng rãi trong sửa chữa hình ảnh, hoàn thiện hình ảnh, tái cấu trúc cảnh quan trực quan."
139
145
  },
146
+ "FLUX.1-Kontext-pro": {
147
+ "description": "FLUX.1 Kontext [pro]"
148
+ },
140
149
  "FLUX.1-dev": {
141
150
  "description": "FLUX.1-dev là mô hình ngôn ngữ đa phương thức mã nguồn mở do Black Forest Labs phát triển, tối ưu cho các tác vụ kết hợp hình ảnh và văn bản. Nó tích hợp khả năng hiểu và tạo hình ảnh cùng văn bản, xây dựng trên nền tảng các mô hình ngôn ngữ lớn tiên tiến như Mistral-7B, thông qua bộ mã hóa thị giác thiết kế tinh vi và điều chỉnh chỉ dẫn đa giai đoạn, đạt được khả năng xử lý phối hợp hình ảnh-văn bản và suy luận tác vụ phức tạp."
142
151
  },
@@ -266,6 +275,9 @@
266
275
  "Pro/deepseek-ai/DeepSeek-V3": {
267
276
  "description": "DeepSeek-V3 là một mô hình ngôn ngữ hỗn hợp chuyên gia (MoE) với 6710 tỷ tham số, sử dụng chú ý tiềm ẩn đa đầu (MLA) và kiến trúc DeepSeekMoE, kết hợp chiến lược cân bằng tải không có tổn thất phụ trợ, tối ưu hóa hiệu suất suy diễn và đào tạo. Thông qua việc được tiền huấn luyện trên 14.8 triệu tỷ token chất lượng cao, và thực hiện tinh chỉnh giám sát và học tăng cường, DeepSeek-V3 vượt trội hơn các mô hình mã nguồn mở khác, gần với các mô hình đóng kín hàng đầu."
268
277
  },
278
+ "Pro/deepseek-ai/DeepSeek-V3.1": {
279
+ "description": "DeepSeek-V3.1 là mô hình ngôn ngữ lớn chế độ hỗn hợp do DeepSeek AI phát hành, với nhiều nâng cấp quan trọng dựa trên phiên bản trước. Một đổi mới lớn của mô hình là tích hợp \"Chế độ suy nghĩ\" (Thinking Mode) và \"Chế độ không suy nghĩ\" (Non-thinking Mode) trong cùng một mô hình, người dùng có thể linh hoạt chuyển đổi bằng cách điều chỉnh mẫu trò chuyện để phù hợp với các yêu cầu nhiệm vụ khác nhau. Qua tối ưu hóa sau huấn luyện chuyên biệt, V3.1 đã cải thiện đáng kể hiệu suất trong việc gọi công cụ và nhiệm vụ Agent, hỗ trợ tốt hơn cho các công cụ tìm kiếm bên ngoài và thực hiện các nhiệm vụ phức tạp nhiều bước. Mô hình được huấn luyện tiếp dựa trên DeepSeek-V3.1-Base, sử dụng phương pháp mở rộng văn bản dài hai giai đoạn, tăng đáng kể lượng dữ liệu huấn luyện, giúp cải thiện khả năng xử lý tài liệu dài và mã nguồn dài. Là một mô hình mã nguồn mở, DeepSeek-V3.1 thể hiện năng lực tương đương với các mô hình đóng hàng đầu trong các bài kiểm tra chuẩn về mã hóa, toán học và suy luận, đồng thời với kiến trúc chuyên gia hỗn hợp (MoE), nó duy trì dung lượng mô hình lớn trong khi giảm chi phí suy luận hiệu quả."
280
+ },
269
281
  "Pro/moonshotai/Kimi-K2-Instruct": {
270
282
  "description": "Kimi K2 là mô hình nền tảng kiến trúc MoE với khả năng mã hóa và đại lý vượt trội, tổng tham số 1T, tham số kích hoạt 32B. Trong các bài kiểm tra chuẩn về suy luận kiến thức chung, lập trình, toán học và đại lý, hiệu suất của mô hình K2 vượt trội so với các mô hình mã nguồn mở phổ biến khác."
271
283
  },
@@ -845,6 +857,9 @@
845
857
  "deepseek-ai/DeepSeek-V3": {
846
858
  "description": "DeepSeek-V3 là một mô hình ngôn ngữ hỗn hợp chuyên gia (MoE) với 6710 tỷ tham số, sử dụng chú ý tiềm ẩn đa đầu (MLA) và kiến trúc DeepSeekMoE, kết hợp với chiến lược cân bằng tải không có tổn thất phụ trợ, tối ưu hóa hiệu suất suy diễn và đào tạo. Thông qua việc được tiền huấn luyện trên 14.8 triệu tỷ token chất lượng cao, và thực hiện tinh chỉnh giám sát và học tăng cường, DeepSeek-V3 vượt trội về hiệu suất so với các mô hình mã nguồn mở khác, gần gũi với các mô hình đóng nguồn hàng đầu."
847
859
  },
860
+ "deepseek-ai/DeepSeek-V3.1": {
861
+ "description": "DeepSeek-V3.1 là mô hình ngôn ngữ lớn chế độ hỗn hợp do DeepSeek AI phát hành, với nhiều nâng cấp quan trọng dựa trên phiên bản trước. Một đổi mới lớn của mô hình là tích hợp \"Chế độ suy nghĩ\" (Thinking Mode) và \"Chế độ không suy nghĩ\" (Non-thinking Mode) trong cùng một mô hình, người dùng có thể linh hoạt chuyển đổi bằng cách điều chỉnh mẫu trò chuyện để phù hợp với các yêu cầu nhiệm vụ khác nhau. Qua tối ưu hóa sau huấn luyện chuyên biệt, V3.1 đã cải thiện đáng kể hiệu suất trong việc gọi công cụ và nhiệm vụ Agent, hỗ trợ tốt hơn cho các công cụ tìm kiếm bên ngoài và thực hiện các nhiệm vụ phức tạp nhiều bước. Mô hình được huấn luyện tiếp dựa trên DeepSeek-V3.1-Base, sử dụng phương pháp mở rộng văn bản dài hai giai đoạn, tăng đáng kể lượng dữ liệu huấn luyện, giúp cải thiện khả năng xử lý tài liệu dài và mã nguồn dài. Là một mô hình mã nguồn mở, DeepSeek-V3.1 thể hiện năng lực tương đương với các mô hình đóng hàng đầu trong các bài kiểm tra chuẩn về mã hóa, toán học và suy luận, đồng thời với kiến trúc chuyên gia hỗn hợp (MoE), nó duy trì dung lượng mô hình lớn trong khi giảm chi phí suy luận hiệu quả."
862
+ },
848
863
  "deepseek-ai/deepseek-llm-67b-chat": {
849
864
  "description": "DeepSeek 67B là mô hình tiên tiến được huấn luyện cho các cuộc đối thoại phức tạp."
850
865
  },
@@ -915,7 +930,7 @@
915
930
  "description": "DeepSeek R1 phiên bản đầy đủ, có 671B tham số, hỗ trợ tìm kiếm trực tuyến theo thời gian thực, có khả năng hiểu và tạo ra mạnh mẽ hơn."
916
931
  },
917
932
  "deepseek-reasoner": {
918
- "description": " hình suy diễn do DeepSeek phát triển. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một đoạn nội dung chuỗi suy nghĩ để nâng cao độ chính xác của câu trả lời cuối."
933
+ "description": "DeepSeek V3.1 Chế độ suy nghĩ. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ nhằm nâng cao độ chính xác của câu trả lời cuối cùng."
919
934
  },
920
935
  "deepseek-v2": {
921
936
  "description": "DeepSeek V2 là mô hình ngôn ngữ Mixture-of-Experts hiệu quả, phù hợp cho các nhu cầu xử lý tiết kiệm."
@@ -929,12 +944,18 @@
929
944
  "deepseek-v3-0324": {
930
945
  "description": "DeepSeek-V3-0324 là mô hình MoE với 671B tham số, nổi bật trong khả năng lập trình và kỹ thuật, hiểu ngữ cảnh và xử lý văn bản dài."
931
946
  },
947
+ "deepseek-v3.1": {
948
+ "description": "DeepSeek-V3.1 là mô hình suy luận hỗn hợp hoàn toàn mới do DeepSeek phát hành, hỗ trợ hai chế độ suy luận: suy nghĩ và không suy nghĩ, với hiệu quả suy nghĩ cao hơn so với DeepSeek-R1-0528. Sau khi tối ưu hóa Post-Training, việc sử dụng công cụ Agent và hiệu suất nhiệm vụ của tác nhân được cải thiện đáng kể. Hỗ trợ cửa sổ ngữ cảnh 128k, độ dài đầu ra tối đa lên đến 64k tokens."
949
+ },
932
950
  "deepseek/deepseek-chat-v3-0324": {
933
951
  "description": "DeepSeek V3 là một mô hình hỗn hợp chuyên gia với 685B tham số, là phiên bản mới nhất trong dòng mô hình trò chuyện flagship của đội ngũ DeepSeek.\n\nNó kế thừa mô hình [DeepSeek V3](/deepseek/deepseek-chat-v3) và thể hiện xuất sắc trong nhiều nhiệm vụ."
934
952
  },
935
953
  "deepseek/deepseek-chat-v3-0324:free": {
936
954
  "description": "DeepSeek V3 là một mô hình hỗn hợp chuyên gia với 685B tham số, là phiên bản mới nhất trong dòng mô hình trò chuyện flagship của đội ngũ DeepSeek.\n\nNó kế thừa mô hình [DeepSeek V3](/deepseek/deepseek-chat-v3) và thể hiện xuất sắc trong nhiều nhiệm vụ."
937
955
  },
956
+ "deepseek/deepseek-chat-v3.1": {
957
+ "description": "DeepSeek-V3.1 là mô hình suy luận hỗn hợp lớn hỗ trợ ngữ cảnh dài 128K và chuyển đổi chế độ hiệu quả, đạt hiệu suất và tốc độ xuất sắc trong việc gọi công cụ, tạo mã và các nhiệm vụ suy luận phức tạp."
958
+ },
938
959
  "deepseek/deepseek-r1": {
939
960
  "description": "DeepSeek-R1 đã nâng cao khả năng suy luận của mô hình một cách đáng kể với rất ít dữ liệu được gán nhãn. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ để nâng cao độ chính xác của câu trả lời cuối cùng."
940
961
  },
@@ -1230,10 +1251,10 @@
1230
1251
  "description": "Gemini 2.5 Flash là mô hình có hiệu suất chi phí tốt nhất của Google, cung cấp đầy đủ các chức năng."
1231
1252
  },
1232
1253
  "gemini-2.5-flash-image-preview": {
1233
- "description": "Gemini 2.5 Flash Image Preview là mô hình đa phương thức nguyên bản mới nhất, nhanh nhất và hiệu quả nhất của Google; cho phép bạn tạo và chỉnh sửa hình ảnh thông qua hội thoại."
1254
+ "description": "Nano Banana là mô hình đa phương thức nguyên bản mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép bạn tạo và chỉnh sửa hình ảnh thông qua đối thoại."
1234
1255
  },
1235
1256
  "gemini-2.5-flash-image-preview:image": {
1236
- "description": "Gemini 2.5 Flash Image Preview là mô hình đa phương thức gốc mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép bạn tạo và chỉnh sửa hình ảnh thông qua đối thoại."
1257
+ "description": "Nano Banana là mô hình đa phương thức nguyên bản mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép bạn tạo và chỉnh sửa hình ảnh thông qua đối thoại."
1237
1258
  },
1238
1259
  "gemini-2.5-flash-lite": {
1239
1260
  "description": "Gemini 2.5 Flash-Lite là mô hình nhỏ nhất và có hiệu suất chi phí tốt nhất của Google, được thiết kế dành cho việc sử dụng quy mô lớn."
@@ -80,6 +80,9 @@
80
80
  "DeepSeek-V3-Fast": {
81
81
  "description": "模型供应商为:sophnet平台。DeepSeek V3 Fast 是 DeepSeek V3 0324 版本的高TPS极速版,满血非量化,代码与数学能力更强,响应更快!"
82
82
  },
83
+ "DeepSeek-V3.1": {
84
+ "description": "DeepSeek-V3.1 是深度求索全新推出的混合推理模型,支持思考与非思考2种推理模式,较 DeepSeek-R1-0528 思考效率更高。经 Post-Training 优化,Agent 工具使用与智能体任务表现大幅提升。"
85
+ },
83
86
  "Doubao-lite-128k": {
84
87
  "description": "Doubao-lite 拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持128k上下文窗口的推理和精调。"
85
88
  },
@@ -134,9 +137,15 @@
134
137
  "ERNIE-Speed-Pro-128K": {
135
138
  "description": "百度2024年最新发布的自研高性能大语言模型,通用能力优异,效果比ERNIE Speed更优,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。"
136
139
  },
140
+ "FLUX-1.1-pro": {
141
+ "description": "FLUX.1.1 Pro"
142
+ },
137
143
  "FLUX.1-Kontext-dev": {
138
144
  "description": "FLUX.1-Kontext-dev 是由 Black Forest Labs 开发的一款基于 Rectified Flow Transformer 架构 的多模态图像生成与编辑模型,拥有 12B(120 亿)参数规模,专注于在给定上下文条件下生成、重构、增强或编辑图像。该模型结合了扩散模型的可控生成优势与 Transformer 的上下文建模能力,支持高质量图像输出,广泛适用于图像修复、图像补全、视觉场景重构等任务。"
139
145
  },
146
+ "FLUX.1-Kontext-pro": {
147
+ "description": "FLUX.1 Kontext [pro]"
148
+ },
140
149
  "FLUX.1-dev": {
141
150
  "description": "FLUX.1-dev 是由 Black Forest Labs 开发的一款开源 多模态语言模型(Multimodal Language Model, MLLM),专为图文任务优化,融合了图像和文本的理解与生成能力。它建立在先进的大语言模型(如 Mistral-7B)基础上,通过精心设计的视觉编码器与多阶段指令微调,实现了图文协同处理与复杂任务推理的能力。"
142
151
  },
@@ -266,6 +275,9 @@
266
275
  "Pro/deepseek-ai/DeepSeek-V3": {
267
276
  "description": "DeepSeek-V3 是一款拥有 6710 亿参数的混合专家(MoE)语言模型,采用多头潜在注意力(MLA)和 DeepSeekMoE 架构,结合无辅助损失的负载平衡策略,优化推理和训练效率。通过在 14.8 万亿高质量tokens上预训练,并进行监督微调和强化学习,DeepSeek-V3 在性能上超越其他开源模型,接近领先闭源模型。"
268
277
  },
278
+ "Pro/deepseek-ai/DeepSeek-V3.1": {
279
+ "description": "DeepSeek-V3.1 是由深度求索(DeepSeek AI)发布的混合模式大语言模型,它在前代模型的基础上进行了多方面的重要升级。该模型的一大创新是集成了“思考模式”(Thinking Mode)和“非思考模式”(Non-thinking Mode)于一体,用户可以通过调整聊天模板灵活切换,以适应不同的任务需求。通过专门的训练后优化,V3.1 在工具调用和 Agent 任务方面的性能得到了显著增强,能够更好地支持外部搜索工具和执行多步复杂任务。该模型基于 DeepSeek-V3.1-Base 进行后训练,通过两阶段长文本扩展方法,大幅增加了训练数据量,使其在处理长文档和长篇代码方面表现更佳。作为一个开源模型,DeepSeek-V3.1 在编码、数学和推理等多个基准测试中展现了与顶尖闭源模型相媲美的能力,同时凭借其混合专家(MoE)架构,在保持巨大模型容量的同时,有效降低了推理成本。"
280
+ },
269
281
  "Pro/moonshotai/Kimi-K2-Instruct": {
270
282
  "description": "Kimi K2 是一款具备超强代码和 Agent 能力的 MoE 架构基础模型,总参数 1T,激活参数 32B。在通用知识推理、编程、数学、Agent 等主要类别的基准性能测试中,K2 模型的性能超过其他主流开源模型。"
271
283
  },
@@ -845,6 +857,9 @@
845
857
  "deepseek-ai/DeepSeek-V3": {
846
858
  "description": "DeepSeek-V3 是一款拥有 6710 亿参数的混合专家(MoE)语言模型,采用多头潜在注意力(MLA)和 DeepSeekMoE 架构,结合无辅助损失的负载平衡策略,优化推理和训练效率。通过在 14.8 万亿高质量tokens上预训练,并进行监督微调和强化学习,DeepSeek-V3 在性能上超越其他开源模型,接近领先闭源模型。"
847
859
  },
860
+ "deepseek-ai/DeepSeek-V3.1": {
861
+ "description": "DeepSeek-V3.1 是由深度求索(DeepSeek AI)发布的混合模式大语言模型,它在前代模型的基础上进行了多方面的重要升级。该模型的一大创新是集成了“思考模式”(Thinking Mode)和“非思考模式”(Non-thinking Mode)于一体,用户可以通过调整聊天模板灵活切换,以适应不同的任务需求。通过专门的训练后优化,V3.1 在工具调用和 Agent 任务方面的性能得到了显著增强,能够更好地支持外部搜索工具和执行多步复杂任务。该模型基于 DeepSeek-V3.1-Base 进行后训练,通过两阶段长文本扩展方法,大幅增加了训练数据量,使其在处理长文档和长篇代码方面表现更佳。作为一个开源模型,DeepSeek-V3.1 在编码、数学和推理等多个基准测试中展现了与顶尖闭源模型相媲美的能力,同时凭借其混合专家(MoE)架构,在保持巨大模型容量的同时,有效降低了推理成本。"
862
+ },
848
863
  "deepseek-ai/deepseek-llm-67b-chat": {
849
864
  "description": "DeepSeek LLM Chat (67B) 是创新的 AI 模型 提供深度语言理解和互动能力。"
850
865
  },
@@ -915,7 +930,7 @@
915
930
  "description": "DeepSeek R1 满血版,拥有 671B 参数,支持实时联网搜索,具有更强大的理解和生成能力。"
916
931
  },
917
932
  "deepseek-reasoner": {
918
- "description": "DeepSeek 推出的推理模型。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。"
933
+ "description": "DeepSeek V3.1 思考模式。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。"
919
934
  },
920
935
  "deepseek-v2": {
921
936
  "description": "DeepSeek V2 是高效的 Mixture-of-Experts 语言模型,适用于经济高效的处理需求。"
@@ -929,12 +944,18 @@
929
944
  "deepseek-v3-0324": {
930
945
  "description": "DeepSeek-V3-0324 为671B 参数 MoE 模型,在编程与技术能力、上下文理解与长文本处理等方面优势突出。"
931
946
  },
947
+ "deepseek-v3.1": {
948
+ "description": "DeepSeek-V3.1 是深度求索全新推出的混合推理模型,支持思考与非思考2种推理模式,较 DeepSeek-R1-0528 思考效率更高。经 Post-Training 优化,Agent 工具使用与智能体任务表现大幅提升。支持 128k 上下文窗口,输出长度支持最大 64k tokens。"
949
+ },
932
950
  "deepseek/deepseek-chat-v3-0324": {
933
951
  "description": "DeepSeek V3 是一个 685B 参数的专家混合模型,是 DeepSeek 团队旗舰聊天模型系列的最新迭代。\n\n它继承了 [DeepSeek V3](/deepseek/deepseek-chat-v3) 模型,并在各种任务上表现出色。"
934
952
  },
935
953
  "deepseek/deepseek-chat-v3-0324:free": {
936
954
  "description": "DeepSeek V3 是一个 685B 参数的专家混合模型,是 DeepSeek 团队旗舰聊天模型系列的最新迭代。\n\n它继承了 [DeepSeek V3](/deepseek/deepseek-chat-v3) 模型,并在各种任务上表现出色。"
937
955
  },
956
+ "deepseek/deepseek-chat-v3.1": {
957
+ "description": "DeepSeek-V3.1是一款支持128K长上下文和高效模式切换的大型混合推理模型,它在工具调用、代码生成和复杂推理任务上实现了卓越的性能与速度。"
958
+ },
938
959
  "deepseek/deepseek-r1": {
939
960
  "description": "DeepSeek R1是DeepSeek团队发布的最新开源模型,具备非常强悍的推理性能,尤其在数学、编程和推理任务上达到了与OpenAI的o1模型相当的水平。"
940
961
  },
@@ -1230,10 +1251,10 @@
1230
1251
  "description": "Gemini 2.5 Flash 是 Google 性价比最高的模型,提供全面的功能。"
1231
1252
  },
1232
1253
  "gemini-2.5-flash-image-preview": {
1233
- "description": "Gemini 2.5 Flash Image Preview 是 Google 最新、最快、最高效的原生多模态模型,它允许您通过对话生成和编辑图像。"
1254
+ "description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,它允许您通过对话生成和编辑图像。"
1234
1255
  },
1235
1256
  "gemini-2.5-flash-image-preview:image": {
1236
- "description": "Gemini 2.5 Flash Image Preview 是 Google 最新、最快、最高效的原生多模态模型,它允许您通过对话生成和编辑图像。"
1257
+ "description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,它允许您通过对话生成和编辑图像。"
1237
1258
  },
1238
1259
  "gemini-2.5-flash-lite": {
1239
1260
  "description": "Gemini 2.5 Flash-Lite 是 Google 最小、性价比最高的模型,专为大规模使用而设计。"