@lobehub/chat 1.136.0 → 1.136.2
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +42 -0
- package/Dockerfile.database +1 -1
- package/changelog/v1.json +14 -0
- package/locales/ar/models.json +22 -10
- package/locales/ar/providers.json +3 -0
- package/locales/bg-BG/models.json +22 -10
- package/locales/bg-BG/providers.json +3 -0
- package/locales/de-DE/models.json +22 -10
- package/locales/de-DE/providers.json +3 -0
- package/locales/en-US/models.json +22 -10
- package/locales/en-US/providers.json +3 -0
- package/locales/es-ES/models.json +22 -10
- package/locales/es-ES/providers.json +3 -0
- package/locales/fa-IR/models.json +22 -10
- package/locales/fa-IR/providers.json +3 -0
- package/locales/fr-FR/models.json +22 -10
- package/locales/fr-FR/providers.json +3 -0
- package/locales/it-IT/models.json +22 -10
- package/locales/it-IT/providers.json +3 -0
- package/locales/ja-JP/models.json +22 -10
- package/locales/ja-JP/providers.json +3 -0
- package/locales/ko-KR/models.json +22 -10
- package/locales/ko-KR/providers.json +3 -0
- package/locales/nl-NL/models.json +22 -10
- package/locales/nl-NL/providers.json +3 -0
- package/locales/pl-PL/models.json +22 -10
- package/locales/pl-PL/providers.json +3 -0
- package/locales/pt-BR/models.json +22 -10
- package/locales/pt-BR/providers.json +3 -0
- package/locales/ru-RU/models.json +22 -10
- package/locales/ru-RU/providers.json +3 -0
- package/locales/tr-TR/models.json +22 -10
- package/locales/tr-TR/providers.json +3 -0
- package/locales/vi-VN/models.json +22 -10
- package/locales/vi-VN/providers.json +3 -0
- package/locales/zh-CN/models.json +22 -10
- package/locales/zh-CN/providers.json +3 -0
- package/locales/zh-TW/models.json +22 -10
- package/locales/zh-TW/providers.json +3 -0
- package/package.json +1 -1
- package/packages/const/src/index.ts +1 -0
- package/packages/utils/src/toolCall.ts +1 -2
- package/packages/web-crawler/package.json +1 -0
- package/packages/web-crawler/src/crawImpl/naive.ts +2 -1
|
@@ -32,6 +32,9 @@
|
|
|
32
32
|
"bfl": {
|
|
33
33
|
"description": "Een toonaangevend, grensverleggend onderzoeksinstituut voor kunstmatige intelligentie dat de visuele infrastructuur van morgen bouwt."
|
|
34
34
|
},
|
|
35
|
+
"cerebras": {
|
|
36
|
+
"description": "Cerebras is een AI-inferentieplatform gebaseerd op het speciale CS-3-systeem, ontworpen om 's werelds snelste, realtime reagerende en hoog-throughput LLM-diensten te leveren. Het is speciaal ontwikkeld om vertragingen te elimineren en complexe AI-workflows te versnellen, zoals realtime codegeneratie en agenttaken."
|
|
37
|
+
},
|
|
35
38
|
"cloudflare": {
|
|
36
39
|
"description": "Voer machine learning-modellen aan, aangedreven door serverloze GPU's, uit op het wereldwijde netwerk van Cloudflare."
|
|
37
40
|
},
|
|
@@ -1532,6 +1532,9 @@
|
|
|
1532
1532
|
"glm-zero-preview": {
|
|
1533
1533
|
"description": "GLM-Zero-Preview posiada silne zdolności do złożonego wnioskowania, wyróżniając się w dziedzinach takich jak wnioskowanie logiczne, matematyka i programowanie."
|
|
1534
1534
|
},
|
|
1535
|
+
"glm4.6:355b": {
|
|
1536
|
+
"description": "Najnowszy flagowy model Zhipu, GLM-4.6 (355B), znacznie przewyższa swojego poprzednika w zakresie zaawansowanego kodowania, przetwarzania długich tekstów, wnioskowania i zdolności agentowych. Szczególnie w programowaniu dorównuje Claude Sonnet 4, stając się czołowym modelem kodującym w Chinach."
|
|
1537
|
+
},
|
|
1535
1538
|
"google/gemini-2.0-flash": {
|
|
1536
1539
|
"description": "Gemini 2.0 Flash oferuje funkcje nowej generacji i ulepszenia, w tym doskonałą szybkość, wbudowane użycie narzędzi, generowanie multimodalne oraz okno kontekstu o rozmiarze 1 miliona tokenów."
|
|
1537
1540
|
},
|
|
@@ -1757,9 +1760,6 @@
|
|
|
1757
1760
|
"gpt-realtime": {
|
|
1758
1761
|
"description": "Uniwersalny model czasu rzeczywistego, obsługujący tekstowe i audio wejścia i wyjścia oraz wejścia obrazów."
|
|
1759
1762
|
},
|
|
1760
|
-
"grok-2-1212": {
|
|
1761
|
-
"description": "Model ten poprawił dokładność, przestrzeganie instrukcji oraz zdolności wielojęzyczne."
|
|
1762
|
-
},
|
|
1763
1763
|
"grok-2-image-1212": {
|
|
1764
1764
|
"description": "Nasz najnowszy model generowania obrazów potrafi tworzyć żywe i realistyczne obrazy na podstawie tekstowych wskazówek. Sprawdza się doskonale w marketingu, mediach społecznościowych i rozrywce."
|
|
1765
1765
|
},
|
|
@@ -1769,15 +1769,9 @@
|
|
|
1769
1769
|
"grok-3": {
|
|
1770
1770
|
"description": "Flagowy model, specjalizujący się w ekstrakcji danych, programowaniu i streszczaniu tekstów na poziomie korporacyjnym, z głęboką wiedzą w dziedzinach finansów, medycyny, prawa i nauki."
|
|
1771
1771
|
},
|
|
1772
|
-
"grok-3-fast": {
|
|
1773
|
-
"description": "Flagowy model, specjalizujący się w ekstrakcji danych, programowaniu i streszczaniu tekstów na poziomie korporacyjnym, z głęboką wiedzą w dziedzinach finansów, medycyny, prawa i nauki."
|
|
1774
|
-
},
|
|
1775
1772
|
"grok-3-mini": {
|
|
1776
1773
|
"description": "Lekki model, który najpierw analizuje przed rozmową. Działa szybko i inteligentnie, odpowiedni do zadań logicznych nie wymagających głębokiej wiedzy dziedzinowej, z możliwością śledzenia pierwotnego toku myślenia."
|
|
1777
1774
|
},
|
|
1778
|
-
"grok-3-mini-fast": {
|
|
1779
|
-
"description": "Lekki model, który najpierw analizuje przed rozmową. Działa szybko i inteligentnie, odpowiedni do zadań logicznych nie wymagających głębokiej wiedzy dziedzinowej, z możliwością śledzenia pierwotnego toku myślenia."
|
|
1780
|
-
},
|
|
1781
1775
|
"grok-4": {
|
|
1782
1776
|
"description": "Nasz najnowszy i najpotężniejszy model flagowy, który wyróżnia się doskonałymi wynikami w przetwarzaniu języka naturalnego, obliczeniach matematycznych i rozumowaniu — to idealny wszechstronny zawodnik."
|
|
1783
1777
|
},
|
|
@@ -1860,7 +1854,7 @@
|
|
|
1860
1854
|
"description": "Najnowszy model wielomodalny t1-vision Hunyuan z głębokim rozumowaniem, obsługujący natywne łańcuchy myślowe wielomodalne, z kompleksową poprawą w stosunku do poprzedniej domyślnej wersji modelu."
|
|
1861
1855
|
},
|
|
1862
1856
|
"hunyuan-t1-vision-20250916": {
|
|
1863
|
-
"description": "
|
|
1857
|
+
"description": "Najnowszy model głębokiego rozumienia wizualnego Hunyuan t1-vision oferuje kompleksowe ulepszenia w porównaniu do poprzedniej wersji w zadaniach takich jak ogólne pytania i odpowiedzi na podstawie obrazu i tekstu, lokalizacja wizualna, OCR, analiza wykresów, rozwiązywanie zadań ze zdjęć oraz kreatywne tworzenie na podstawie obrazów. Znacząco poprawiono również obsługę języka angielskiego i języków niszowych."
|
|
1864
1858
|
},
|
|
1865
1859
|
"hunyuan-turbo": {
|
|
1866
1860
|
"description": "Hunyuan to nowa generacja dużego modelu językowego w wersji próbnej, wykorzystująca nową strukturę modelu mieszanych ekspertów (MoE), która w porównaniu do hunyuan-pro charakteryzuje się szybszą efektywnością wnioskowania i lepszymi wynikami."
|
|
@@ -2021,6 +2015,9 @@
|
|
|
2021
2015
|
"llama-3.2-vision-instruct": {
|
|
2022
2016
|
"description": "Model Llama 3.2-Vision zoptymalizowany jest do rozpoznawania wizualnego, wnioskowania na podstawie obrazów, opisywania obrazów oraz odpowiadania na typowe pytania związane z obrazami."
|
|
2023
2017
|
},
|
|
2018
|
+
"llama-3.3-70b": {
|
|
2019
|
+
"description": "Llama 3.3 70B: średnio-duży model Llama, łączący zdolności wnioskowania z wysoką przepustowością."
|
|
2020
|
+
},
|
|
2024
2021
|
"llama-3.3-70b-instruct": {
|
|
2025
2022
|
"description": "Llama 3.3 to najnowocześniejszy wielojęzyczny, otwarty model językowy z serii Llama, który oferuje wydajność porównywalną z modelem 405B przy bardzo niskich kosztach. Opiera się na strukturze Transformer i poprawia użyteczność oraz bezpieczeństwo dzięki nadzorowanemu dostrajaniu (SFT) i uczeniu ze wzmocnieniem na podstawie ludzkich opinii (RLHF). Jego wersja dostosowana do instrukcji jest zoptymalizowana do wielojęzycznych rozmów i w wielu branżowych benchmarkach przewyższa wiele otwartych i zamkniętych modeli czatu. Data graniczna wiedzy to grudzień 2023."
|
|
2026
2023
|
},
|
|
@@ -2030,6 +2027,12 @@
|
|
|
2030
2027
|
"llama-3.3-instruct": {
|
|
2031
2028
|
"description": "Model Llama 3.3 zoptymalizowany do rozmów, który w standardowych testach branżowych przewyższa wiele istniejących modeli czatowych o otwartym kodzie."
|
|
2032
2029
|
},
|
|
2030
|
+
"llama-4-maverick-17b-128e-instruct": {
|
|
2031
|
+
"description": "Llama 4 Maverick: wysokowydajny model z serii Llama, idealny do zaawansowanego wnioskowania, rozwiązywania złożonych problemów i zadań opartych na instrukcjach."
|
|
2032
|
+
},
|
|
2033
|
+
"llama-4-scout-17b-16e-instruct": {
|
|
2034
|
+
"description": "Llama 4 Scout: wysokowydajny model z serii Llama, zaprojektowany do zastosowań wymagających dużej przepustowości i niskich opóźnień."
|
|
2035
|
+
},
|
|
2033
2036
|
"llama3-70b-8192": {
|
|
2034
2037
|
"description": "Meta Llama 3 70B oferuje niezrównane możliwości przetwarzania złożoności, dostosowane do projektów o wysokich wymaganiach."
|
|
2035
2038
|
},
|
|
@@ -2045,6 +2048,9 @@
|
|
|
2045
2048
|
"llama3.1": {
|
|
2046
2049
|
"description": "Llama 3.1 to wiodący model wydany przez Meta, obsługujący do 405B parametrów, mogący być stosowany w złożonych dialogach, tłumaczeniach wielojęzycznych i analizie danych."
|
|
2047
2050
|
},
|
|
2051
|
+
"llama3.1-8b": {
|
|
2052
|
+
"description": "Llama 3.1 8B: lekka i niskolatencyjna wersja modelu Llama, odpowiednia do lekkich zadań inferencyjnych i interaktywnych online."
|
|
2053
|
+
},
|
|
2048
2054
|
"llama3.1:405b": {
|
|
2049
2055
|
"description": "Llama 3.1 to wiodący model wydany przez Meta, obsługujący do 405B parametrów, mogący być stosowany w złożonych dialogach, tłumaczeniach wielojęzycznych i analizie danych."
|
|
2050
2056
|
},
|
|
@@ -2642,6 +2648,12 @@
|
|
|
2642
2648
|
"qvq-plus": {
|
|
2643
2649
|
"description": "Model wnioskowania wizualnego. Obsługuje wejścia wizualne oraz generowanie łańcuchów myślowych. Wersja plus po modelu qvq-max, charakteryzuje się szybszym wnioskowaniem oraz lepszą równowagą między efektywnością a kosztami w porównaniu do qvq-max."
|
|
2644
2650
|
},
|
|
2651
|
+
"qwen-3-32b": {
|
|
2652
|
+
"description": "Qwen 3 32B: model z serii Qwen, który doskonale sprawdza się w zadaniach wielojęzycznych i programistycznych, odpowiedni do średnioskalowej produkcji."
|
|
2653
|
+
},
|
|
2654
|
+
"qwen-3-coder-480b": {
|
|
2655
|
+
"description": "Qwen 3 Coder 480B: model z długim kontekstem, zaprojektowany do generowania kodu i realizacji złożonych zadań programistycznych."
|
|
2656
|
+
},
|
|
2645
2657
|
"qwen-coder-plus": {
|
|
2646
2658
|
"description": "Model kodowania Tongyi Qianwen."
|
|
2647
2659
|
},
|
|
@@ -32,6 +32,9 @@
|
|
|
32
32
|
"bfl": {
|
|
33
33
|
"description": "Wiodące, przełomowe laboratorium badawcze sztucznej inteligencji, tworzące wizualną infrastrukturę jutra."
|
|
34
34
|
},
|
|
35
|
+
"cerebras": {
|
|
36
|
+
"description": "Cerebras to platforma do wnioskowania AI oparta na dedykowanym systemie CS-3, zaprojektowana w celu zapewnienia najszybszej na świecie, reakcji w czasie rzeczywistym oraz wysokiej przepustowości usług LLM. Stworzona została, aby eliminować opóźnienia i przyspieszać złożone przepływy pracy AI, takie jak generowanie kodu w czasie rzeczywistym i zadania agentowe."
|
|
37
|
+
},
|
|
35
38
|
"cloudflare": {
|
|
36
39
|
"description": "Uruchamiaj modele uczenia maszynowego napędzane przez GPU w globalnej sieci Cloudflare."
|
|
37
40
|
},
|
|
@@ -1532,6 +1532,9 @@
|
|
|
1532
1532
|
"glm-zero-preview": {
|
|
1533
1533
|
"description": "O GLM-Zero-Preview possui uma poderosa capacidade de raciocínio complexo, destacando-se em áreas como raciocínio lógico, matemática e programação."
|
|
1534
1534
|
},
|
|
1535
|
+
"glm4.6:355b": {
|
|
1536
|
+
"description": "O mais novo modelo carro-chefe da Zhipu, o GLM-4.6 (355B), supera amplamente sua geração anterior em codificação avançada, processamento de textos longos, raciocínio e capacidades de agentes inteligentes. Em especial, seu desempenho em programação está alinhado ao Claude Sonnet 4, tornando-se o principal modelo de codificação da China."
|
|
1537
|
+
},
|
|
1535
1538
|
"google/gemini-2.0-flash": {
|
|
1536
1539
|
"description": "Gemini 2.0 Flash oferece funcionalidades de próxima geração e melhorias, incluindo velocidade excepcional, uso integrado de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens."
|
|
1537
1540
|
},
|
|
@@ -1757,9 +1760,6 @@
|
|
|
1757
1760
|
"gpt-realtime": {
|
|
1758
1761
|
"description": "Modelo universal em tempo real, suportando entrada e saída de texto e áudio, além de entrada de imagem."
|
|
1759
1762
|
},
|
|
1760
|
-
"grok-2-1212": {
|
|
1761
|
-
"description": "Este modelo apresenta melhorias em precisão, conformidade com instruções e capacidade multilíngue."
|
|
1762
|
-
},
|
|
1763
1763
|
"grok-2-image-1212": {
|
|
1764
1764
|
"description": "Nosso mais recente modelo de geração de imagens pode criar imagens vívidas e realistas a partir de prompts textuais. Apresenta excelente desempenho em marketing, mídias sociais e entretenimento."
|
|
1765
1765
|
},
|
|
@@ -1769,15 +1769,9 @@
|
|
|
1769
1769
|
"grok-3": {
|
|
1770
1770
|
"description": "Modelo de nível flagship, especializado em extração de dados, programação e resumo de texto para aplicações empresariais, com profundo conhecimento em finanças, saúde, direito e ciências."
|
|
1771
1771
|
},
|
|
1772
|
-
"grok-3-fast": {
|
|
1773
|
-
"description": "Modelo de nível flagship, especializado em extração de dados, programação e resumo de texto para aplicações empresariais, com profundo conhecimento em finanças, saúde, direito e ciências."
|
|
1774
|
-
},
|
|
1775
1772
|
"grok-3-mini": {
|
|
1776
1773
|
"description": "Modelo leve que pensa antes de responder. Rápido e inteligente, adequado para tarefas lógicas que não exigem conhecimento profundo de domínio, e capaz de fornecer o rastro original do pensamento."
|
|
1777
1774
|
},
|
|
1778
|
-
"grok-3-mini-fast": {
|
|
1779
|
-
"description": "Modelo leve que pensa antes de responder. Rápido e inteligente, adequado para tarefas lógicas que não exigem conhecimento profundo de domínio, e capaz de fornecer o rastro original do pensamento."
|
|
1780
|
-
},
|
|
1781
1775
|
"grok-4": {
|
|
1782
1776
|
"description": "Nosso mais recente e poderoso modelo principal, com desempenho excepcional em processamento de linguagem natural, cálculo matemático e raciocínio — um competidor versátil perfeito."
|
|
1783
1777
|
},
|
|
@@ -1860,7 +1854,7 @@
|
|
|
1860
1854
|
"description": "A versão mais recente do modelo de pensamento profundo multimodal t1-vision da Hunyuan, que suporta cadeias de pensamento nativas multimodais, com melhorias abrangentes em relação à versão padrão anterior."
|
|
1861
1855
|
},
|
|
1862
1856
|
"hunyuan-t1-vision-20250916": {
|
|
1863
|
-
"description": "
|
|
1857
|
+
"description": "A versão mais recente do modelo de visão com raciocínio profundo Hunyuan t1-vision apresenta melhorias abrangentes em tarefas como perguntas e respostas visuais, localização visual, OCR, gráficos, resolução de problemas a partir de fotos e criação baseada em imagens. Houve também uma otimização significativa nas capacidades em inglês e em idiomas menos comuns."
|
|
1864
1858
|
},
|
|
1865
1859
|
"hunyuan-turbo": {
|
|
1866
1860
|
"description": "Versão de pré-visualização do novo modelo de linguagem de próxima geração Hunyuan, utilizando uma nova estrutura de modelo de especialistas mistos (MoE), com eficiência de inferência mais rápida e desempenho superior em comparação ao Hunyuan-Pro."
|
|
@@ -2021,6 +2015,9 @@
|
|
|
2021
2015
|
"llama-3.2-vision-instruct": {
|
|
2022
2016
|
"description": "O modelo Llama 3.2-Vision com ajuste fino de instruções foi otimizado para reconhecimento visual, raciocínio com imagens, descrição de imagens e respostas a perguntas gerais relacionadas a imagens."
|
|
2023
2017
|
},
|
|
2018
|
+
"llama-3.3-70b": {
|
|
2019
|
+
"description": "Llama 3.3 70B: modelo Llama de médio a grande porte, equilibrando capacidade de raciocínio e desempenho de processamento."
|
|
2020
|
+
},
|
|
2024
2021
|
"llama-3.3-70b-instruct": {
|
|
2025
2022
|
"description": "Llama 3.3 é o modelo de linguagem de código aberto multilíngue mais avançado da série Llama, oferecendo desempenho comparável ao modelo 405B a um custo extremamente baixo. Baseado na estrutura Transformer, e aprimorado por meio de ajuste fino supervisionado (SFT) e aprendizado por reforço com feedback humano (RLHF) para aumentar a utilidade e a segurança. Sua versão ajustada para instruções é otimizada para diálogos multilíngues, superando muitos modelos de chat de código aberto e fechado em vários benchmarks da indústria. A data limite de conhecimento é dezembro de 2023."
|
|
2026
2023
|
},
|
|
@@ -2030,6 +2027,12 @@
|
|
|
2030
2027
|
"llama-3.3-instruct": {
|
|
2031
2028
|
"description": "O modelo Llama 3.3 com ajuste fino de instruções foi otimizado para cenários de diálogo, superando muitos modelos de chat open-source existentes em benchmarks comuns do setor."
|
|
2032
2029
|
},
|
|
2030
|
+
"llama-4-maverick-17b-128e-instruct": {
|
|
2031
|
+
"description": "Llama 4 Maverick: modelo de alto desempenho da série Llama, ideal para raciocínio avançado, resolução de problemas complexos e tarefas baseadas em instruções."
|
|
2032
|
+
},
|
|
2033
|
+
"llama-4-scout-17b-16e-instruct": {
|
|
2034
|
+
"description": "Llama 4 Scout: modelo de alto desempenho da série Llama, adequado para cenários que exigem alta taxa de processamento e baixa latência."
|
|
2035
|
+
},
|
|
2033
2036
|
"llama3-70b-8192": {
|
|
2034
2037
|
"description": "Meta Llama 3 70B oferece capacidade de processamento incomparável para complexidade, projetado sob medida para projetos de alta demanda."
|
|
2035
2038
|
},
|
|
@@ -2045,6 +2048,9 @@
|
|
|
2045
2048
|
"llama3.1": {
|
|
2046
2049
|
"description": "Llama 3.1 é um modelo líder lançado pela Meta, suportando até 405B de parâmetros, aplicável em diálogos complexos, tradução multilíngue e análise de dados."
|
|
2047
2050
|
},
|
|
2051
|
+
"llama3.1-8b": {
|
|
2052
|
+
"description": "Llama 3.1 8B: variante compacta e de baixa latência do Llama, ideal para inferência leve e interações em tempo real."
|
|
2053
|
+
},
|
|
2048
2054
|
"llama3.1:405b": {
|
|
2049
2055
|
"description": "Llama 3.1 é um modelo líder lançado pela Meta, suportando até 405B de parâmetros, aplicável em diálogos complexos, tradução multilíngue e análise de dados."
|
|
2050
2056
|
},
|
|
@@ -2642,6 +2648,12 @@
|
|
|
2642
2648
|
"qvq-plus": {
|
|
2643
2649
|
"description": "Modelo de raciocínio visual. Suporta entrada visual e saída em cadeia de pensamento. Versão plus lançada após o modelo qvq-max, com velocidade de raciocínio mais rápida e melhor equilíbrio entre desempenho e custo em comparação ao qvq-max."
|
|
2644
2650
|
},
|
|
2651
|
+
"qwen-3-32b": {
|
|
2652
|
+
"description": "Qwen 3 32B: modelo da série Qwen com excelente desempenho em tarefas multilíngues e de codificação, adequado para aplicações de produção em escala média."
|
|
2653
|
+
},
|
|
2654
|
+
"qwen-3-coder-480b": {
|
|
2655
|
+
"description": "Qwen 3 Coder 480B: modelo com contexto longo voltado para geração de código e tarefas complexas de programação."
|
|
2656
|
+
},
|
|
2645
2657
|
"qwen-coder-plus": {
|
|
2646
2658
|
"description": "Modelo de código Tongyi Qianwen."
|
|
2647
2659
|
},
|
|
@@ -32,6 +32,9 @@
|
|
|
32
32
|
"bfl": {
|
|
33
33
|
"description": "Laboratório líder de pesquisa de ponta em inteligência artificial, construindo a infraestrutura visual do amanhã."
|
|
34
34
|
},
|
|
35
|
+
"cerebras": {
|
|
36
|
+
"description": "Cerebras é uma plataforma de inferência de IA baseada em seu sistema dedicado CS-3, projetada para oferecer o serviço de LLM mais rápido do mundo, com resposta em tempo real e alta taxa de transferência. Foi desenvolvida para eliminar a latência e acelerar fluxos de trabalho complexos de IA, como geração de código em tempo real e tarefas de agentes."
|
|
37
|
+
},
|
|
35
38
|
"cloudflare": {
|
|
36
39
|
"description": "Execute modelos de aprendizado de máquina impulsionados por GPU sem servidor na rede global da Cloudflare."
|
|
37
40
|
},
|
|
@@ -1532,6 +1532,9 @@
|
|
|
1532
1532
|
"glm-zero-preview": {
|
|
1533
1533
|
"description": "GLM-Zero-Preview обладает мощными способностями к сложному выводу, демонстрируя отличные результаты в области логического вывода, математики и программирования."
|
|
1534
1534
|
},
|
|
1535
|
+
"glm4.6:355b": {
|
|
1536
|
+
"description": "Флагманская модель Zhizhi GLM-4.6 (355B) значительно превосходит предыдущие версии в области продвинутого программирования, обработки длинных текстов, логического вывода и интеллектуальных агентов. Особенно в программировании она сопоставима с Claude Sonnet 4, становясь ведущей моделью кодирования в Китае."
|
|
1537
|
+
},
|
|
1535
1538
|
"google/gemini-2.0-flash": {
|
|
1536
1539
|
"description": "Gemini 2.0 Flash предлагает функции следующего поколения и улучшенные возможности, включая выдающуюся скорость, встроенное использование инструментов, мультимодальную генерацию и контекстное окно на 1 миллион токенов."
|
|
1537
1540
|
},
|
|
@@ -1757,9 +1760,6 @@
|
|
|
1757
1760
|
"gpt-realtime": {
|
|
1758
1761
|
"description": "Универсальная модель реального времени с поддержкой текстового и аудиовхода/выхода, а также поддержки ввода изображений."
|
|
1759
1762
|
},
|
|
1760
|
-
"grok-2-1212": {
|
|
1761
|
-
"description": "Модель улучшена в точности, соблюдении инструкций и многоязычных возможностях."
|
|
1762
|
-
},
|
|
1763
1763
|
"grok-2-image-1212": {
|
|
1764
1764
|
"description": "Наша новейшая модель генерации изображений способна создавать живые и реалистичные изображения на основе текстовых подсказок. Она отлично подходит для маркетинга, социальных сетей и развлекательных приложений."
|
|
1765
1765
|
},
|
|
@@ -1769,15 +1769,9 @@
|
|
|
1769
1769
|
"grok-3": {
|
|
1770
1770
|
"description": "Флагманская модель, специализирующаяся на извлечении данных, программировании и резюмировании текста для корпоративных приложений, обладающая глубокими знаниями в финансах, медицине, юриспруденции и науке."
|
|
1771
1771
|
},
|
|
1772
|
-
"grok-3-fast": {
|
|
1773
|
-
"description": "Флагманская модель, специализирующаяся на извлечении данных, программировании и резюмировании текста для корпоративных приложений, обладающая глубокими знаниями в финансах, медицине, юриспруденции и науке."
|
|
1774
|
-
},
|
|
1775
1772
|
"grok-3-mini": {
|
|
1776
1773
|
"description": "Легковесная модель, которая сначала обдумывает ответ перед разговором. Быстрая и умная, подходит для логических задач без глубоких отраслевых знаний и позволяет проследить исходные размышления."
|
|
1777
1774
|
},
|
|
1778
|
-
"grok-3-mini-fast": {
|
|
1779
|
-
"description": "Легковесная модель, которая сначала обдумывает ответ перед разговором. Быстрая и умная, подходит для логических задач без глубоких отраслевых знаний и позволяет проследить исходные размышления."
|
|
1780
|
-
},
|
|
1781
1775
|
"grok-4": {
|
|
1782
1776
|
"description": "Наша новейшая и самая мощная флагманская модель, демонстрирующая выдающиеся результаты в обработке естественного языка, математических вычислениях и логическом рассуждении — идеальный универсальный инструмент."
|
|
1783
1777
|
},
|
|
@@ -1860,7 +1854,7 @@
|
|
|
1860
1854
|
"description": "Последняя версия модели hunyuan t1-vision для мультимодального понимания с глубокой цепочкой мышления, поддерживающая нативные мультимодальные цепочки рассуждений, с существенным улучшением по сравнению с предыдущей версией по умолчанию."
|
|
1861
1855
|
},
|
|
1862
1856
|
"hunyuan-t1-vision-20250916": {
|
|
1863
|
-
"description": "
|
|
1857
|
+
"description": "Последняя версия визуальной модели глубокого мышления Hunyuan t1-vision значительно улучшена по сравнению с предыдущей в задачах общего визуально-текстового ответа, визуального позиционирования, OCR, анализа графиков, решения задач по фото и визуального творчества. Существенно повышены возможности работы с английским и малыми языками."
|
|
1864
1858
|
},
|
|
1865
1859
|
"hunyuan-turbo": {
|
|
1866
1860
|
"description": "Предварительная версия нового поколения языковой модели Hunyuan, использующая совершенно новую структуру смешанной экспертной модели (MoE), которая обеспечивает более быструю эффективность вывода и более сильные результаты по сравнению с hunyuan-pro."
|
|
@@ -2021,6 +2015,9 @@
|
|
|
2021
2015
|
"llama-3.2-vision-instruct": {
|
|
2022
2016
|
"description": "Модель Llama 3.2-Vision с тонкой настройкой команд оптимизирована для визуального распознавания, анализа изображений, описания изображений и ответов на общие вопросы, связанные с изображениями."
|
|
2023
2017
|
},
|
|
2018
|
+
"llama-3.3-70b": {
|
|
2019
|
+
"description": "Llama 3.3 70B: средне-крупная модель Llama, сочетающая логические способности и высокую пропускную способность."
|
|
2020
|
+
},
|
|
2024
2021
|
"llama-3.3-70b-instruct": {
|
|
2025
2022
|
"description": "Llama 3.3 — это самая современная многоязычная открытая языковая модель из серии Llama, которая позволяет получить производительность, сопоставимую с 405B моделями, по очень низкой цене. Основана на структуре Transformer и улучшена с помощью контролируемой донастройки (SFT) и обучения с подкреплением на основе человеческой обратной связи (RLHF) для повышения полезности и безопасности. Ее версия с оптимизацией под инструкции специально разработана для многоязычных диалогов и показывает лучшие результаты по сравнению с множеством открытых и закрытых моделей чата на различных отраслевых бенчмарках. Дата окончания знаний — декабрь 2023 года."
|
|
2026
2023
|
},
|
|
@@ -2030,6 +2027,12 @@
|
|
|
2030
2027
|
"llama-3.3-instruct": {
|
|
2031
2028
|
"description": "Модель Llama 3.3 с тонкой настройкой инструкций оптимизирована для диалоговых сценариев и превосходит многие существующие модели с открытым исходным кодом в стандартных отраслевых тестах."
|
|
2032
2029
|
},
|
|
2030
|
+
"llama-4-maverick-17b-128e-instruct": {
|
|
2031
|
+
"description": "Llama 4 Maverick: высокопроизводительная модель серии Llama, подходящая для продвинутого логического вывода, решения сложных задач и выполнения инструкций."
|
|
2032
|
+
},
|
|
2033
|
+
"llama-4-scout-17b-16e-instruct": {
|
|
2034
|
+
"description": "Llama 4 Scout: высокопроизводительная модель серии Llama, оптимизированная для сценариев с высокой пропускной способностью и низкой задержкой."
|
|
2035
|
+
},
|
|
2033
2036
|
"llama3-70b-8192": {
|
|
2034
2037
|
"description": "Meta Llama 3 70B предлагает непревзойдённые возможности обработки сложности, специально разработанные для высоких требований проектов."
|
|
2035
2038
|
},
|
|
@@ -2045,6 +2048,9 @@
|
|
|
2045
2048
|
"llama3.1": {
|
|
2046
2049
|
"description": "Llama 3.1 — это передовая модель, выпущенная Meta, поддерживающая до 405B параметров, применимая в сложных диалогах, многоязычном переводе и анализе данных."
|
|
2047
2050
|
},
|
|
2051
|
+
"llama3.1-8b": {
|
|
2052
|
+
"description": "Llama 3.1 8B: компактный и низкозадерживающий вариант Llama, подходящий для легких онлайн-инференций и интерактивных сценариев."
|
|
2053
|
+
},
|
|
2048
2054
|
"llama3.1:405b": {
|
|
2049
2055
|
"description": "Llama 3.1 — это передовая модель, выпущенная Meta, поддерживающая до 405B параметров, применимая в сложных диалогах, многоязычном переводе и анализе данных."
|
|
2050
2056
|
},
|
|
@@ -2642,6 +2648,12 @@
|
|
|
2642
2648
|
"qvq-plus": {
|
|
2643
2649
|
"description": "Модель визуального рассуждения. Поддерживает визуальный ввод и вывод цепочек рассуждений, версия plus, выпущенная после модели qvq-max. По сравнению с qvq-max, серия qvq-plus обеспечивает более высокую скорость рассуждений и более сбалансированное соотношение эффективности и затрат."
|
|
2644
2650
|
},
|
|
2651
|
+
"qwen-3-32b": {
|
|
2652
|
+
"description": "Qwen 3 32B: модель серии Qwen с отличной производительностью в многоязычных и программных задачах, подходящая для средне-масштабного промышленного применения."
|
|
2653
|
+
},
|
|
2654
|
+
"qwen-3-coder-480b": {
|
|
2655
|
+
"description": "Qwen 3 Coder 480B: модель с длинным контекстом, ориентированная на генерацию кода и выполнение сложных программных задач."
|
|
2656
|
+
},
|
|
2645
2657
|
"qwen-coder-plus": {
|
|
2646
2658
|
"description": "Модель кода Tongyi Qianwen."
|
|
2647
2659
|
},
|
|
@@ -32,6 +32,9 @@
|
|
|
32
32
|
"bfl": {
|
|
33
33
|
"description": "Ведущая лаборатория передовых исследований в области искусственного интеллекта, создающая визуальную инфраструктуру будущего."
|
|
34
34
|
},
|
|
35
|
+
"cerebras": {
|
|
36
|
+
"description": "Cerebras — это платформа ИИ-инференции на базе специализированной системы CS-3, разработанная для предоставления самых быстрых в мире, с мгновенным откликом и высокой пропускной способностью LLM-сервисов. Она специально создана для устранения задержек и ускорения сложных рабочих процессов ИИ, таких как генерация кода в реальном времени и выполнение агентных задач."
|
|
37
|
+
},
|
|
35
38
|
"cloudflare": {
|
|
36
39
|
"description": "Запуск моделей машинного обучения на базе серверов GPU в глобальной сети Cloudflare."
|
|
37
40
|
},
|
|
@@ -1532,6 +1532,9 @@
|
|
|
1532
1532
|
"glm-zero-preview": {
|
|
1533
1533
|
"description": "GLM-Zero-Preview, karmaşık akıl yürütme yeteneklerine sahip olup, mantıksal akıl yürütme, matematik, programlama gibi alanlarda mükemmel performans sergilemektedir."
|
|
1534
1534
|
},
|
|
1535
|
+
"glm4.6:355b": {
|
|
1536
|
+
"description": "Zhipu'nun en yeni amiral gemisi modeli GLM-4.6 (355B), gelişmiş kodlama, uzun metin işleme, akıl yürütme ve yapay zeka ajanı yeteneklerinde seleflerini tamamen geride bırakıyor. Özellikle programlama yetenekleri açısından Claude Sonnet 4 ile aynı seviyeye ulaşarak, Çin'deki en iyi Kodlama modellerinden biri haline gelmiştir."
|
|
1537
|
+
},
|
|
1535
1538
|
"google/gemini-2.0-flash": {
|
|
1536
1539
|
"description": "Gemini 2.0 Flash, üstün hız, yerleşik araç kullanımı, çok modlu üretim ve 1 milyon token bağlam penceresi dahil olmak üzere yeni nesil özellikler ve geliştirmeler sunar."
|
|
1537
1540
|
},
|
|
@@ -1757,9 +1760,6 @@
|
|
|
1757
1760
|
"gpt-realtime": {
|
|
1758
1761
|
"description": "Metin ve sesin gerçek zamanlı giriş ve çıkışını destekleyen genel amaçlı gerçek zamanlı model, ayrıca görüntü girişini de destekler."
|
|
1759
1762
|
},
|
|
1760
|
-
"grok-2-1212": {
|
|
1761
|
-
"description": "Bu model, doğruluk, talimat takibi ve çok dilli yetenekler açısından geliştirilmiştir."
|
|
1762
|
-
},
|
|
1763
1763
|
"grok-2-image-1212": {
|
|
1764
1764
|
"description": "En yeni görüntü oluşturma modelimiz, metin istemlerine dayanarak canlı ve gerçekçi görüntüler oluşturabilir. Pazarlama, sosyal medya ve eğlence gibi alanlarda görüntü üretiminde mükemmel performans sergiler."
|
|
1765
1765
|
},
|
|
@@ -1769,15 +1769,9 @@
|
|
|
1769
1769
|
"grok-3": {
|
|
1770
1770
|
"description": "Amiral gemisi model olup, veri çıkarımı, programlama ve metin özetleme gibi kurumsal uygulamalarda uzmandır; finans, sağlık, hukuk ve bilim alanlarında derin bilgiye sahiptir."
|
|
1771
1771
|
},
|
|
1772
|
-
"grok-3-fast": {
|
|
1773
|
-
"description": "Amiral gemisi model olup, veri çıkarımı, programlama ve metin özetleme gibi kurumsal uygulamalarda uzmandır; finans, sağlık, hukuk ve bilim alanlarında derin bilgiye sahiptir."
|
|
1774
|
-
},
|
|
1775
1772
|
"grok-3-mini": {
|
|
1776
1773
|
"description": "Hafif model olup, konuşma öncesi düşünür. Hızlı ve akıllı çalışır, derin alan bilgisi gerektirmeyen mantıksal görevler için uygundur ve orijinal düşünce izlerini elde edebilir."
|
|
1777
1774
|
},
|
|
1778
|
-
"grok-3-mini-fast": {
|
|
1779
|
-
"description": "Hafif model olup, konuşma öncesi düşünür. Hızlı ve akıllı çalışır, derin alan bilgisi gerektirmeyen mantıksal görevler için uygundur ve orijinal düşünce izlerini elde edebilir."
|
|
1780
|
-
},
|
|
1781
1775
|
"grok-4": {
|
|
1782
1776
|
"description": "En yeni ve en güçlü amiral gemisi modelimiz, doğal dil işleme, matematiksel hesaplama ve akıl yürütme alanlarında üstün performans sergiliyor — mükemmel bir çok yönlü oyuncu."
|
|
1783
1777
|
},
|
|
@@ -1860,7 +1854,7 @@
|
|
|
1860
1854
|
"description": "Hunyuan'ın en yeni t1-vision çok modlu anlama derin düşünme modeli, çok modlu doğal düşünce zincirini destekler ve önceki nesil varsayılan modele kıyasla kapsamlı iyileştirmeler sunar."
|
|
1861
1855
|
},
|
|
1862
1856
|
"hunyuan-t1-vision-20250916": {
|
|
1863
|
-
"description": "Hunyuan
|
|
1857
|
+
"description": "Hunyuan'ın en son sürümü t1-vision, görsel derin düşünme modeli olarak önceki versiyona kıyasla genel görsel-sözel soru-cevap, görsel konumlandırma, OCR, grafik yorumlama, soru çözme ve görsel yaratıcılık gibi görevlerde kapsamlı iyileştirmeler sunar. İngilizce ve az konuşulan dillerdeki performansı da belirgin şekilde geliştirilmiştir."
|
|
1864
1858
|
},
|
|
1865
1859
|
"hunyuan-turbo": {
|
|
1866
1860
|
"description": "Hunyuan'ın yeni nesil büyük dil modelinin önizleme sürümü, tamamen yeni bir karma uzman modeli (MoE) yapısı kullanır ve hunyuan-pro'ya kıyasla daha hızlı çıkarım verimliliği ve daha güçlü performans sunar."
|
|
@@ -2021,6 +2015,9 @@
|
|
|
2021
2015
|
"llama-3.2-vision-instruct": {
|
|
2022
2016
|
"description": "Llama 3.2-Vision komut ince ayarlı modeli, görsel tanıma, görüntü çıkarımı, görüntü açıklama ve görüntülerle ilgili genel soruları yanıtlamak için optimize edilmiştir."
|
|
2023
2017
|
},
|
|
2018
|
+
"llama-3.3-70b": {
|
|
2019
|
+
"description": "Llama 3.3 70B: Orta-büyük ölçekli Llama modeli, akıl yürütme yeteneği ile yüksek işlem hacmini dengeler."
|
|
2020
|
+
},
|
|
2024
2021
|
"llama-3.3-70b-instruct": {
|
|
2025
2022
|
"description": "Llama 3.3, Llama serisinin en gelişmiş çok dilli açık kaynak büyük dil modelidir ve 405B modelinin performansını çok düşük maliyetle deneyimlemenizi sağlar. Transformer yapısına dayanmaktadır ve denetimli ince ayar (SFT) ve insan geri bildirimi ile güçlendirilmiş öğrenme (RLHF) ile faydalılığını ve güvenliğini artırmıştır. Talimat ayarlı versiyonu, çok dilli diyaloglar için optimize edilmiştir ve birçok endüstri kıyaslamasında birçok açık kaynak ve kapalı sohbet modelinden daha iyi performans göstermektedir. Bilgi kesim tarihi 2023 Aralık'tır."
|
|
2026
2023
|
},
|
|
@@ -2030,6 +2027,12 @@
|
|
|
2030
2027
|
"llama-3.3-instruct": {
|
|
2031
2028
|
"description": "Llama 3.3 komut ince ayarlı modeli, diyalog senaryoları için optimize edilmiştir ve yaygın endüstri kıyaslamalarında birçok mevcut açık kaynaklı sohbet modelini geride bırakmaktadır."
|
|
2032
2029
|
},
|
|
2030
|
+
"llama-4-maverick-17b-128e-instruct": {
|
|
2031
|
+
"description": "Llama 4 Maverick: Yüksek performanslı Llama serisi modeli; gelişmiş akıl yürütme, karmaşık problem çözme ve komut takibi görevleri için uygundur."
|
|
2032
|
+
},
|
|
2033
|
+
"llama-4-scout-17b-16e-instruct": {
|
|
2034
|
+
"description": "Llama 4 Scout: Yüksek performanslı Llama serisi modeli; yüksek işlem hacmi ve düşük gecikme gerektiren senaryolar için idealdir."
|
|
2035
|
+
},
|
|
2033
2036
|
"llama3-70b-8192": {
|
|
2034
2037
|
"description": "Meta Llama 3 70B, eşsiz karmaşıklık işleme yeteneği sunar ve yüksek talepli projeler için özel olarak tasarlanmıştır."
|
|
2035
2038
|
},
|
|
@@ -2045,6 +2048,9 @@
|
|
|
2045
2048
|
"llama3.1": {
|
|
2046
2049
|
"description": "Llama 3.1, Meta tarafından sunulan öncü bir modeldir, 405B parametreye kadar destekler ve karmaşık diyaloglar, çok dilli çeviri ve veri analizi alanlarında kullanılabilir."
|
|
2047
2050
|
},
|
|
2051
|
+
"llama3.1-8b": {
|
|
2052
|
+
"description": "Llama 3.1 8B: Küçük boyutlu, düşük gecikmeli Llama varyantı; hafif çevrimiçi akıl yürütme ve etkileşimli kullanım senaryoları için uygundur."
|
|
2053
|
+
},
|
|
2048
2054
|
"llama3.1:405b": {
|
|
2049
2055
|
"description": "Llama 3.1, Meta tarafından sunulan öncü bir modeldir, 405B parametreye kadar destekler ve karmaşık diyaloglar, çok dilli çeviri ve veri analizi alanlarında kullanılabilir."
|
|
2050
2056
|
},
|
|
@@ -2642,6 +2648,12 @@
|
|
|
2642
2648
|
"qvq-plus": {
|
|
2643
2649
|
"description": "Görsel çıkarım modeli. Görsel girişleri ve düşünce zinciri çıktısını destekler; qvq-max modelinin ardından gelen plus versiyonudur. qvq-max modeline kıyasla, qvq-plus serisi modeller daha hızlı çıkarım yapar ve performans ile maliyet arasında daha dengeli bir sonuç sunar."
|
|
2644
2650
|
},
|
|
2651
|
+
"qwen-3-32b": {
|
|
2652
|
+
"description": "Qwen 3 32B: Qwen serisi, çok dilli ve kodlama görevlerinde üstün performans gösterir; orta ölçekli üretim kullanımı için uygundur."
|
|
2653
|
+
},
|
|
2654
|
+
"qwen-3-coder-480b": {
|
|
2655
|
+
"description": "Qwen 3 Coder 480B: Kod üretimi ve karmaşık programlama görevleri için tasarlanmış uzun bağlamlı bir modeldir."
|
|
2656
|
+
},
|
|
2645
2657
|
"qwen-coder-plus": {
|
|
2646
2658
|
"description": "Tongyi Qianwen kodlama modeli."
|
|
2647
2659
|
},
|
|
@@ -32,6 +32,9 @@
|
|
|
32
32
|
"bfl": {
|
|
33
33
|
"description": "Önde gelen bir ileri düzey yapay zeka araştırma laboratuvarı; yarının görsel altyapısını inşa ediyor."
|
|
34
34
|
},
|
|
35
|
+
"cerebras": {
|
|
36
|
+
"description": "Cerebras, özel CS-3 sistemi üzerine kurulu bir yapay zeka çıkarım platformudur. Gerçek zamanlı yanıtlar ve yüksek veri işleme kapasitesiyle dünyanın en hızlı LLM hizmetini sunmayı hedefler. Gecikmeleri ortadan kaldırmak ve gerçek zamanlı kod üretimi ile aracı görevler gibi karmaşık yapay zeka iş akışlarını hızlandırmak için tasarlanmıştır."
|
|
37
|
+
},
|
|
35
38
|
"cloudflare": {
|
|
36
39
|
"description": "Cloudflare'ın küresel ağı üzerinde sunucusuz GPU destekli makine öğrenimi modelleri çalıştırın."
|
|
37
40
|
},
|
|
@@ -1532,6 +1532,9 @@
|
|
|
1532
1532
|
"glm-zero-preview": {
|
|
1533
1533
|
"description": "GLM-Zero-Preview có khả năng suy luận phức tạp mạnh mẽ, thể hiện xuất sắc trong các lĩnh vực suy luận logic, toán học, lập trình."
|
|
1534
1534
|
},
|
|
1535
|
+
"glm4.6:355b": {
|
|
1536
|
+
"description": "Mô hình hàng đầu mới nhất của Zhipu - GLM-4.6 (355B) vượt trội hoàn toàn so với thế hệ trước về mã hóa nâng cao, xử lý văn bản dài, suy luận và khả năng tác nhân thông minh. Đặc biệt, năng lực lập trình đã đạt đến mức tương đương với Claude Sonnet 4, trở thành mô hình Coding hàng đầu tại Trung Quốc."
|
|
1537
|
+
},
|
|
1535
1538
|
"google/gemini-2.0-flash": {
|
|
1536
1539
|
"description": "Gemini 2.0 Flash cung cấp các tính năng thế hệ tiếp theo và cải tiến, bao gồm tốc độ vượt trội, sử dụng công cụ tích hợp, tạo đa phương thức và cửa sổ ngữ cảnh 1 triệu token."
|
|
1537
1540
|
},
|
|
@@ -1757,9 +1760,6 @@
|
|
|
1757
1760
|
"gpt-realtime": {
|
|
1758
1761
|
"description": "Mô hình thời gian thực chung, hỗ trợ đầu vào và đầu ra văn bản, âm thanh theo thời gian thực, đồng thời hỗ trợ đầu vào hình ảnh."
|
|
1759
1762
|
},
|
|
1760
|
-
"grok-2-1212": {
|
|
1761
|
-
"description": "Mô hình này đã được cải thiện về độ chính xác, khả năng tuân thủ hướng dẫn và khả năng đa ngôn ngữ."
|
|
1762
|
-
},
|
|
1763
1763
|
"grok-2-image-1212": {
|
|
1764
1764
|
"description": "Mô hình tạo hình ảnh mới nhất của chúng tôi có thể tạo ra hình ảnh sống động và chân thực dựa trên gợi ý văn bản. Nó thể hiện xuất sắc trong các lĩnh vực marketing, mạng xã hội và giải trí."
|
|
1765
1765
|
},
|
|
@@ -1769,15 +1769,9 @@
|
|
|
1769
1769
|
"grok-3": {
|
|
1770
1770
|
"description": "Mô hình chủ lực, xuất sắc trong trích xuất dữ liệu, lập trình và tóm tắt văn bản cho các ứng dụng doanh nghiệp, sở hữu kiến thức sâu rộng trong các lĩnh vực tài chính, y tế, pháp lý và khoa học."
|
|
1771
1771
|
},
|
|
1772
|
-
"grok-3-fast": {
|
|
1773
|
-
"description": "Mô hình chủ lực, xuất sắc trong trích xuất dữ liệu, lập trình và tóm tắt văn bản cho các ứng dụng doanh nghiệp, sở hữu kiến thức sâu rộng trong các lĩnh vực tài chính, y tế, pháp lý và khoa học."
|
|
1774
|
-
},
|
|
1775
1772
|
"grok-3-mini": {
|
|
1776
1773
|
"description": "Mô hình nhẹ, suy nghĩ trước khi trả lời. Chạy nhanh, thông minh, phù hợp cho các nhiệm vụ logic không đòi hỏi kiến thức chuyên sâu và có thể truy xuất được chuỗi suy nghĩ gốc."
|
|
1777
1774
|
},
|
|
1778
|
-
"grok-3-mini-fast": {
|
|
1779
|
-
"description": "Mô hình nhẹ, suy nghĩ trước khi trả lời. Chạy nhanh, thông minh, phù hợp cho các nhiệm vụ logic không đòi hỏi kiến thức chuyên sâu và có thể truy xuất được chuỗi suy nghĩ gốc."
|
|
1780
|
-
},
|
|
1781
1775
|
"grok-4": {
|
|
1782
1776
|
"description": "Mô hình hàng đầu mới nhất và mạnh mẽ nhất của chúng tôi, thể hiện xuất sắc trong xử lý ngôn ngữ tự nhiên, tính toán toán học và suy luận — một lựa chọn toàn diện hoàn hảo."
|
|
1783
1777
|
},
|
|
@@ -1860,7 +1854,7 @@
|
|
|
1860
1854
|
"description": "Phiên bản mới nhất của Hunyuan t1-vision là mô hình suy nghĩ sâu đa phương thức, hỗ trợ chuỗi tư duy dài nguyên bản đa phương thức, cải thiện toàn diện so với phiên bản mặc định thế hệ trước."
|
|
1861
1855
|
},
|
|
1862
1856
|
"hunyuan-t1-vision-20250916": {
|
|
1863
|
-
"description": "
|
|
1857
|
+
"description": "Phiên bản mới nhất của mô hình tư duy thị giác Hunyuan t1-vision đã được nâng cấp toàn diện so với phiên bản trước trong các nhiệm vụ như hỏi đáp hình ảnh, định vị thị giác, OCR, biểu đồ, giải bài tập qua ảnh và sáng tạo từ hình ảnh. Khả năng xử lý tiếng Anh và các ngôn ngữ ít phổ biến cũng được cải thiện rõ rệt."
|
|
1864
1858
|
},
|
|
1865
1859
|
"hunyuan-turbo": {
|
|
1866
1860
|
"description": "Phiên bản xem trước của thế hệ mới mô hình ngôn ngữ lớn Hunyuan, sử dụng cấu trúc mô hình chuyên gia hỗn hợp (MoE) hoàn toàn mới, so với hunyuan-pro, hiệu suất suy diễn nhanh hơn và hiệu quả mạnh mẽ hơn."
|
|
@@ -2021,6 +2015,9 @@
|
|
|
2021
2015
|
"llama-3.2-vision-instruct": {
|
|
2022
2016
|
"description": "Mô hình Llama 3.2-Vision đã được tối ưu hóa để nhận dạng hình ảnh, suy luận hình ảnh, mô tả hình ảnh và trả lời các câu hỏi thông thường liên quan đến hình ảnh."
|
|
2023
2017
|
},
|
|
2018
|
+
"llama-3.3-70b": {
|
|
2019
|
+
"description": "Llama 3.3 70B: Mô hình Llama cỡ trung, cân bằng giữa khả năng suy luận và hiệu suất xử lý."
|
|
2020
|
+
},
|
|
2024
2021
|
"llama-3.3-70b-instruct": {
|
|
2025
2022
|
"description": "Llama 3.3 là mô hình ngôn ngữ lớn mã nguồn mở đa ngôn ngữ tiên tiến nhất trong dòng Llama, mang đến trải nghiệm hiệu suất tương đương với mô hình 405B với chi phí cực thấp. Dựa trên cấu trúc Transformer, và được cải thiện tính hữu ích và an toàn thông qua tinh chỉnh giám sát (SFT) và học tăng cường từ phản hồi của con người (RLHF). Phiên bản tinh chỉnh theo chỉ dẫn của nó được tối ưu hóa cho đối thoại đa ngôn ngữ, thể hiện tốt hơn nhiều mô hình trò chuyện mã nguồn mở và đóng kín trong nhiều tiêu chuẩn ngành. Ngày cắt đứt kiến thức là tháng 12 năm 2023."
|
|
2026
2023
|
},
|
|
@@ -2030,6 +2027,12 @@
|
|
|
2030
2027
|
"llama-3.3-instruct": {
|
|
2031
2028
|
"description": "Mô hình Llama 3.3 được tối ưu hóa cho các tình huống đối thoại, và đã vượt qua nhiều mô hình trò chuyện nguồn mở hiện có trong các bài kiểm tra chuẩn ngành phổ biến."
|
|
2032
2029
|
},
|
|
2030
|
+
"llama-4-maverick-17b-128e-instruct": {
|
|
2031
|
+
"description": "Llama 4 Maverick: Mô hình hiệu suất cao thuộc dòng Llama, phù hợp với các nhiệm vụ suy luận nâng cao, giải quyết vấn đề phức tạp và tuân theo chỉ dẫn."
|
|
2032
|
+
},
|
|
2033
|
+
"llama-4-scout-17b-16e-instruct": {
|
|
2034
|
+
"description": "Llama 4 Scout: Mô hình hiệu suất cao thuộc dòng Llama, lý tưởng cho các tình huống yêu cầu thông lượng cao và độ trễ thấp."
|
|
2035
|
+
},
|
|
2033
2036
|
"llama3-70b-8192": {
|
|
2034
2037
|
"description": "Meta Llama 3 70B cung cấp khả năng xử lý phức tạp vô song, được thiết kế riêng cho các dự án yêu cầu cao."
|
|
2035
2038
|
},
|
|
@@ -2045,6 +2048,9 @@
|
|
|
2045
2048
|
"llama3.1": {
|
|
2046
2049
|
"description": "Llama 3.1 là mô hình tiên tiến do Meta phát hành, hỗ trợ lên đến 405B tham số, có thể áp dụng cho các cuộc đối thoại phức tạp, dịch đa ngôn ngữ và phân tích dữ liệu."
|
|
2047
2050
|
},
|
|
2051
|
+
"llama3.1-8b": {
|
|
2052
|
+
"description": "Llama 3.1 8B: Phiên bản Llama nhỏ gọn, độ trễ thấp, phù hợp với các tình huống suy luận trực tuyến nhẹ và tương tác thời gian thực."
|
|
2053
|
+
},
|
|
2048
2054
|
"llama3.1:405b": {
|
|
2049
2055
|
"description": "Llama 3.1 là mô hình tiên tiến do Meta phát hành, hỗ trợ lên đến 405B tham số, có thể áp dụng cho các cuộc đối thoại phức tạp, dịch đa ngôn ngữ và phân tích dữ liệu."
|
|
2050
2056
|
},
|
|
@@ -2642,6 +2648,12 @@
|
|
|
2642
2648
|
"qvq-plus": {
|
|
2643
2649
|
"description": "Mô hình suy luận thị giác. Hỗ trợ đầu vào hình ảnh và đầu ra chuỗi suy nghĩ, phiên bản plus ra mắt sau mô hình qvq-max, với tốc độ suy luận nhanh hơn, hiệu quả và chi phí cân bằng hơn so với qvq-max."
|
|
2644
2650
|
},
|
|
2651
|
+
"qwen-3-32b": {
|
|
2652
|
+
"description": "Qwen 3 32B: Mô hình dòng Qwen có hiệu suất tốt trong các nhiệm vụ đa ngôn ngữ và lập trình, thích hợp cho các ứng dụng sản xuất quy mô trung bình."
|
|
2653
|
+
},
|
|
2654
|
+
"qwen-3-coder-480b": {
|
|
2655
|
+
"description": "Qwen 3 Coder 480B: Mô hình ngữ cảnh dài dành cho sinh mã và các nhiệm vụ lập trình phức tạp."
|
|
2656
|
+
},
|
|
2645
2657
|
"qwen-coder-plus": {
|
|
2646
2658
|
"description": "Mô hình mã hóa Tongyi Qianwen."
|
|
2647
2659
|
},
|
|
@@ -32,6 +32,9 @@
|
|
|
32
32
|
"bfl": {
|
|
33
33
|
"description": "Phòng thí nghiệm nghiên cứu trí tuệ nhân tạo tiên phong dẫn đầu, kiến tạo cơ sở hạ tầng thị giác cho ngày mai."
|
|
34
34
|
},
|
|
35
|
+
"cerebras": {
|
|
36
|
+
"description": "Cerebras là một nền tảng suy luận AI dựa trên hệ thống chuyên dụng CS-3, được thiết kế để cung cấp dịch vụ LLM nhanh nhất thế giới, phản hồi theo thời gian thực và thông lượng cao, nhằm loại bỏ độ trễ và tăng tốc các quy trình làm việc AI phức tạp như tạo mã theo thời gian thực và các tác vụ đại lý."
|
|
37
|
+
},
|
|
35
38
|
"cloudflare": {
|
|
36
39
|
"description": "Chạy các mô hình học máy được hỗ trợ bởi GPU không máy chủ trên mạng lưới toàn cầu của Cloudflare."
|
|
37
40
|
},
|