@lobehub/chat 1.97.12 → 1.97.13
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +26 -0
- package/changelog/v1.json +9 -0
- package/locales/ar/chat.json +3 -0
- package/locales/ar/models.json +8 -8
- package/locales/bg-BG/chat.json +3 -0
- package/locales/bg-BG/models.json +6 -6
- package/locales/de-DE/chat.json +3 -0
- package/locales/de-DE/models.json +4 -4
- package/locales/en-US/chat.json +3 -0
- package/locales/en-US/models.json +4 -4
- package/locales/es-ES/chat.json +3 -0
- package/locales/es-ES/models.json +5 -5
- package/locales/fa-IR/chat.json +3 -0
- package/locales/fa-IR/models.json +6 -6
- package/locales/fr-FR/chat.json +3 -0
- package/locales/fr-FR/models.json +3 -3
- package/locales/it-IT/chat.json +3 -0
- package/locales/it-IT/models.json +3 -3
- package/locales/ja-JP/chat.json +3 -0
- package/locales/ja-JP/models.json +6 -6
- package/locales/ko-KR/chat.json +3 -0
- package/locales/ko-KR/models.json +7 -7
- package/locales/nl-NL/chat.json +3 -0
- package/locales/nl-NL/models.json +4 -4
- package/locales/pl-PL/chat.json +3 -0
- package/locales/pl-PL/models.json +6 -6
- package/locales/pt-BR/chat.json +3 -0
- package/locales/pt-BR/models.json +2 -20
- package/locales/ru-RU/chat.json +3 -0
- package/locales/ru-RU/models.json +5 -5
- package/locales/tr-TR/chat.json +3 -0
- package/locales/tr-TR/models.json +7 -7
- package/locales/vi-VN/chat.json +3 -0
- package/locales/vi-VN/models.json +4 -4
- package/locales/zh-CN/chat.json +3 -0
- package/locales/zh-CN/models.json +1 -1
- package/locales/zh-TW/chat.json +3 -0
- package/locales/zh-TW/models.json +1 -1
- package/package.json +1 -1
- package/src/config/aiModels/google.ts +5 -40
- package/src/config/aiModels/openai.ts +50 -41
- package/src/config/aiModels/volcengine.ts +58 -53
- package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +11 -0
- package/src/features/ChatInput/ActionBar/Model/ThinkingSlider.tsx +57 -0
- package/src/libs/model-runtime/volcengine/index.ts +9 -5
- package/src/locales/default/chat.ts +3 -0
- package/src/services/chat.ts +4 -0
- package/src/types/agent/chatConfig.ts +1 -0
- package/src/types/aiModel.ts +4 -0
@@ -666,7 +666,7 @@
|
|
666
666
|
"description": "Codestral is een geavanceerd generatief model dat zich richt op codegeneratie, geoptimaliseerd voor tussentijdse invulling en code-aanvultaken."
|
667
667
|
},
|
668
668
|
"codex-mini-latest": {
|
669
|
-
"description": "codex-mini-latest is een
|
669
|
+
"description": "codex-mini-latest is een fijn afgestemde versie van o4-mini, speciaal ontworpen voor Codex CLI. Voor direct gebruik via de API raden we aan te beginnen met gpt-4.1."
|
670
670
|
},
|
671
671
|
"cognitivecomputations/dolphin-mixtral-8x22b": {
|
672
672
|
"description": "Dolphin Mixtral 8x22B is een model ontworpen voor instructievolging, gesprekken en programmeren."
|
@@ -924,7 +924,7 @@
|
|
924
924
|
"description": "Doubao-Seed-1.6-flash is een multimodaal diepdenkend model met extreem snelle inferentiesnelheid, TPOT slechts 10ms; ondersteunt zowel tekst- als visueel begrip, met tekstbegrip dat beter is dan de vorige lite-generatie en visueel begrip dat vergelijkbaar is met concurrerende pro-serie modellen. Ondersteunt een contextvenster van 256k en een maximale uitvoerlengte van 16k tokens."
|
925
925
|
},
|
926
926
|
"doubao-seed-1.6-thinking": {
|
927
|
-
"description": "Doubao-Seed-1.6-thinking model heeft sterk verbeterde denkvermogens
|
927
|
+
"description": "Doubao-Seed-1.6-thinking model heeft sterk verbeterde denkvermogens, met verdere verbeteringen in basisvaardigheden zoals coderen, wiskunde en logisch redeneren ten opzichte van Doubao-1.5-thinking-pro, en ondersteunt visueel begrip. Ondersteunt een contextvenster van 256k en een maximale uitvoerlengte van 16k tokens."
|
928
928
|
},
|
929
929
|
"emohaa": {
|
930
930
|
"description": "Emohaa is een psychologisch model met professionele adviescapaciteiten, dat gebruikers helpt emotionele problemen te begrijpen."
|
@@ -1346,7 +1346,7 @@
|
|
1346
1346
|
"grok-3-mini-fast": {
|
1347
1347
|
"description": "Lichtgewicht model dat eerst nadenkt voor het reageren. Snel en intelligent, geschikt voor logische taken zonder diepgaande domeinkennis en kan de oorspronkelijke denkprocessen vastleggen."
|
1348
1348
|
},
|
1349
|
-
"grok-4
|
1349
|
+
"grok-4": {
|
1350
1350
|
"description": "Ons nieuwste en krachtigste vlaggenschipmodel, uitmuntend in natuurlijke taalverwerking, wiskundige berekeningen en redeneren — een perfecte allrounder."
|
1351
1351
|
},
|
1352
1352
|
"gryphe/mythomax-l2-13b": {
|
@@ -1884,7 +1884,7 @@
|
|
1884
1884
|
"description": "o3-mini is ons nieuwste kleine inferentiemodel dat hoge intelligentie biedt met dezelfde kosten- en vertragingdoelen als o1-mini."
|
1885
1885
|
},
|
1886
1886
|
"o3-pro": {
|
1887
|
-
"description": "Het o3-pro model gebruikt meer rekenkracht om dieper na te denken en altijd betere antwoorden te bieden, alleen
|
1887
|
+
"description": "Het o3-pro model gebruikt meer rekenkracht om dieper na te denken en altijd betere antwoorden te bieden, alleen te gebruiken onder de Responses API."
|
1888
1888
|
},
|
1889
1889
|
"o4-mini": {
|
1890
1890
|
"description": "o4-mini is ons nieuwste compacte model uit de o-serie. Het is geoptimaliseerd voor snelle en efficiënte inferentie, met een hoge efficiëntie en prestaties in codering en visuele taken."
|
package/locales/pl-PL/chat.json
CHANGED
@@ -918,13 +918,13 @@
|
|
918
918
|
"description": "Doubao-1.5-vision-lite to nowo zaktualizowany model multimodalny, który obsługuje rozpoznawanie obrazów o dowolnej rozdzielczości i ekstremalnych proporcjach, wzmacniając zdolności wnioskowania wizualnego, rozpoznawania dokumentów, rozumienia szczegółowych informacji i przestrzegania instrukcji. Obsługuje okno kontekstowe 128k, maksymalna długość wyjścia to 16k tokenów."
|
919
919
|
},
|
920
920
|
"doubao-seed-1.6": {
|
921
|
-
"description": "Doubao-Seed-1.6 to nowy,
|
921
|
+
"description": "Doubao-Seed-1.6 to nowy, wielomodalny model głębokiego myślenia, obsługujący trzy tryby myślenia: auto, thinking i non-thinking. W trybie non-thinking model osiąga znacznie lepsze wyniki w porównaniu do Doubao-1.5-pro/250115. Obsługuje kontekst do 256k oraz maksymalną długość wyjścia do 16k tokenów."
|
922
922
|
},
|
923
923
|
"doubao-seed-1.6-flash": {
|
924
|
-
"description": "Doubao-Seed-1.6-flash to ultraszybki
|
924
|
+
"description": "Doubao-Seed-1.6-flash to ultraszybki model wielomodalnego głębokiego myślenia, z czasem TPOT zaledwie 10 ms; obsługuje zarówno rozumienie tekstu, jak i obrazu, z lepszymi zdolnościami tekstowymi niż poprzednia generacja lite oraz wizualnymi porównywalnymi do modeli pro konkurencji. Obsługuje kontekst do 256k oraz maksymalną długość wyjścia do 16k tokenów."
|
925
925
|
},
|
926
926
|
"doubao-seed-1.6-thinking": {
|
927
|
-
"description": "Model Doubao-Seed-1.6-thinking ma znacznie wzmocnione zdolności myślenia, w porównaniu
|
927
|
+
"description": "Model Doubao-Seed-1.6-thinking ma znacznie wzmocnione zdolności myślenia, w porównaniu do Doubao-1.5-thinking-pro osiąga dalsze ulepszenia w podstawowych umiejętnościach takich jak kodowanie, matematyka i rozumowanie logiczne, wspiera również rozumienie wizualne. Obsługuje kontekst do 256k oraz maksymalną długość wyjścia do 16k tokenów."
|
928
928
|
},
|
929
929
|
"emohaa": {
|
930
930
|
"description": "Emohaa to model psychologiczny, posiadający profesjonalne umiejętności doradcze, pomagający użytkownikom zrozumieć problemy emocjonalne."
|
@@ -1346,7 +1346,7 @@
|
|
1346
1346
|
"grok-3-mini-fast": {
|
1347
1347
|
"description": "Lekki model, który najpierw analizuje przed rozmową. Działa szybko i inteligentnie, odpowiedni do zadań logicznych nie wymagających głębokiej wiedzy dziedzinowej, z możliwością śledzenia pierwotnego toku myślenia."
|
1348
1348
|
},
|
1349
|
-
"grok-4
|
1349
|
+
"grok-4": {
|
1350
1350
|
"description": "Nasz najnowszy i najpotężniejszy model flagowy, który wyróżnia się doskonałymi wynikami w przetwarzaniu języka naturalnego, obliczeniach matematycznych i rozumowaniu — to idealny wszechstronny zawodnik."
|
1351
1351
|
},
|
1352
1352
|
"gryphe/mythomax-l2-13b": {
|
@@ -1872,7 +1872,7 @@
|
|
1872
1872
|
"description": "o1 to nowy model wnioskowania OpenAI, odpowiedni do złożonych zadań wymagających szerokiej wiedzy ogólnej. Model ten ma kontekst 128K i datę graniczną wiedzy z października 2023 roku."
|
1873
1873
|
},
|
1874
1874
|
"o1-pro": {
|
1875
|
-
"description": "Modele serii o1 są trenowane z wykorzystaniem uczenia ze wzmocnieniem, potrafią myśleć przed udzieleniem odpowiedzi i wykonywać złożone zadania rozumowania. Model o1-pro wykorzystuje więcej zasobów obliczeniowych
|
1875
|
+
"description": "Modele z serii o1 są trenowane z wykorzystaniem uczenia ze wzmocnieniem, potrafią myśleć przed udzieleniem odpowiedzi i wykonywać złożone zadania rozumowania. Model o1-pro wykorzystuje więcej zasobów obliczeniowych, aby prowadzić głębsze rozważania i stale dostarczać lepsze odpowiedzi."
|
1876
1876
|
},
|
1877
1877
|
"o3": {
|
1878
1878
|
"description": "o3 to wszechstronny i potężny model, który doskonale sprawdza się w wielu dziedzinach. Ustanawia nowe standardy w zadaniach matematycznych, naukowych, programistycznych i wizualnych. Jest również biegły w pisaniu technicznym i przestrzeganiu instrukcji. Użytkownicy mogą go wykorzystać do analizy tekstów, kodów i obrazów, rozwiązując złożone problemy wieloetapowe."
|
@@ -1884,7 +1884,7 @@
|
|
1884
1884
|
"description": "o3-mini to nasz najnowszy mały model wnioskowania, który oferuje wysoką inteligencję przy tych samych kosztach i celach opóźnienia co o1-mini."
|
1885
1885
|
},
|
1886
1886
|
"o3-pro": {
|
1887
|
-
"description": "Model o3-pro wykorzystuje większą moc obliczeniową do głębszego myślenia i zawsze dostarcza lepsze odpowiedzi,
|
1887
|
+
"description": "Model o3-pro wykorzystuje większą moc obliczeniową do głębszego myślenia i zawsze dostarcza lepsze odpowiedzi, dostępny wyłącznie przez API Responses."
|
1888
1888
|
},
|
1889
1889
|
"o4-mini": {
|
1890
1890
|
"description": "o4-mini to nasz najnowszy mały model z serii o. Został zoptymalizowany do szybkiego i efektywnego wnioskowania, osiągając wysoką wydajność i efektywność w zadaniach kodowania i wizualnych."
|
package/locales/pt-BR/chat.json
CHANGED
@@ -665,9 +665,6 @@
|
|
665
665
|
"codestral-latest": {
|
666
666
|
"description": "Codestral é um modelo gerador de ponta focado em geração de código, otimizado para preenchimento intermediário e tarefas de conclusão de código."
|
667
667
|
},
|
668
|
-
"codex-mini-latest": {
|
669
|
-
"description": "codex-mini-latest é uma versão ajustada do o4-mini, especialmente para o Codex CLI. Para uso direto via API, recomendamos começar com o gpt-4.1."
|
670
|
-
},
|
671
668
|
"cognitivecomputations/dolphin-mixtral-8x22b": {
|
672
669
|
"description": "Dolphin Mixtral 8x22B é um modelo projetado para seguir instruções, diálogos e programação."
|
673
670
|
},
|
@@ -917,15 +914,6 @@
|
|
917
914
|
"doubao-1.5-vision-lite": {
|
918
915
|
"description": "Doubao-1.5-vision-lite é um modelo multimodal atualizado, suportando reconhecimento de imagens de qualquer resolução e proporções extremas, melhorando a capacidade de raciocínio visual, reconhecimento de documentos, compreensão de informações detalhadas e seguimento de instruções. Suporta uma janela de contexto de 128k, com comprimento de saída de até 16k tokens."
|
919
916
|
},
|
920
|
-
"doubao-seed-1.6": {
|
921
|
-
"description": "Doubao-Seed-1.6 é um novo modelo multimodal de pensamento profundo, suportando três modos de pensamento: auto, thinking e non-thinking. No modo non-thinking, o desempenho do modelo melhora significativamente em comparação com Doubao-1.5-pro/250115. Suporta janela de contexto de 256k e comprimento máximo de saída de 16k tokens."
|
922
|
-
},
|
923
|
-
"doubao-seed-1.6-flash": {
|
924
|
-
"description": "Doubao-Seed-1.6-flash é um modelo multimodal de pensamento profundo com velocidade de inferência extrema, TPOT de apenas 10ms; suporta compreensão de texto e visual, com capacidade de compreensão textual superior à geração lite anterior e compreensão visual comparável aos modelos pro da concorrência. Suporta janela de contexto de 256k e comprimento máximo de saída de 16k tokens."
|
925
|
-
},
|
926
|
-
"doubao-seed-1.6-thinking": {
|
927
|
-
"description": "O modelo Doubao-Seed-1.6-thinking tem capacidade de pensamento significativamente reforçada, melhorando ainda mais as habilidades básicas em Coding, Matemática e raciocínio lógico em comparação com Doubao-1.5-thinking-pro, além de suportar compreensão visual. Suporta janela de contexto de 256k e comprimento máximo de saída de 16k tokens."
|
928
|
-
},
|
929
917
|
"emohaa": {
|
930
918
|
"description": "O Emohaa é um modelo psicológico com capacidade de consultoria profissional, ajudando os usuários a entender questões emocionais."
|
931
919
|
},
|
@@ -1346,8 +1334,8 @@
|
|
1346
1334
|
"grok-3-mini-fast": {
|
1347
1335
|
"description": "Modelo leve que pensa antes de responder. Rápido e inteligente, adequado para tarefas lógicas que não exigem conhecimento profundo de domínio, e capaz de fornecer o rastro original do pensamento."
|
1348
1336
|
},
|
1349
|
-
"grok-4
|
1350
|
-
"description": "Nosso
|
1337
|
+
"grok-4": {
|
1338
|
+
"description": "Nosso mais recente e poderoso modelo principal, com desempenho excepcional em processamento de linguagem natural, cálculo matemático e raciocínio — um competidor versátil perfeito."
|
1351
1339
|
},
|
1352
1340
|
"gryphe/mythomax-l2-13b": {
|
1353
1341
|
"description": "MythoMax l2 13B é um modelo de linguagem que combina criatividade e inteligência, integrando vários modelos de ponta."
|
@@ -1871,9 +1859,6 @@
|
|
1871
1859
|
"o1-preview": {
|
1872
1860
|
"description": "o1 é o novo modelo de raciocínio da OpenAI, adequado para tarefas complexas que exigem amplo conhecimento geral. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023."
|
1873
1861
|
},
|
1874
|
-
"o1-pro": {
|
1875
|
-
"description": "A série de modelos o1 é treinada com aprendizado por reforço, capaz de pensar antes de responder e executar tarefas complexas de raciocínio. O modelo o1-pro utiliza mais recursos computacionais para um pensamento mais profundo, oferecendo respostas de qualidade superior de forma contínua."
|
1876
|
-
},
|
1877
1862
|
"o3": {
|
1878
1863
|
"description": "o3 é um modelo versátil e poderoso, com excelente desempenho em várias áreas. Ele estabelece novos padrões para tarefas de matemática, ciência, programação e raciocínio visual. Também é bom em redação técnica e seguimento de instruções. Os usuários podem utilizá-lo para analisar textos, códigos e imagens, resolvendo problemas complexos em múltiplas etapas."
|
1879
1864
|
},
|
@@ -1883,9 +1868,6 @@
|
|
1883
1868
|
"o3-mini": {
|
1884
1869
|
"description": "o3-mini é nosso mais recente modelo de inferência em miniatura, oferecendo alta inteligência com os mesmos custos e metas de latência que o o1-mini."
|
1885
1870
|
},
|
1886
|
-
"o3-pro": {
|
1887
|
-
"description": "O modelo o3-pro utiliza mais computação para pensar mais profundamente e sempre fornecer melhores respostas, suportado apenas para uso via Responses API."
|
1888
|
-
},
|
1889
1871
|
"o4-mini": {
|
1890
1872
|
"description": "o4-mini é nosso mais recente modelo compacto da série o. Ele é otimizado para inferência rápida e eficaz, apresentando alta eficiência e desempenho em tarefas de codificação e visuais."
|
1891
1873
|
},
|
package/locales/ru-RU/chat.json
CHANGED
@@ -918,13 +918,13 @@
|
|
918
918
|
"description": "Doubao-1.5-vision-lite — это новая усовершенствованная мультимодальная модель, поддерживающая распознавание изображений с любым разрешением и экстремальным соотношением сторон, улучшая способности к визуальному выводу, распознаванию документов, пониманию детальной информации и соблюдению инструкций. Поддерживает контекстное окно 128k, максимальная длина вывода составляет 16k токенов."
|
919
919
|
},
|
920
920
|
"doubao-seed-1.6": {
|
921
|
-
"description": "Doubao-Seed-1.6 — новая мультимодальная модель глубокого мышления, поддерживающая три режима мышления: auto, thinking и non-thinking. В режиме non-thinking производительность модели значительно выше по сравнению с Doubao-1.5-pro/250115. Поддерживает контекстное окно
|
921
|
+
"description": "Doubao-Seed-1.6 — новая мультимодальная модель глубокого мышления, поддерживающая три режима мышления: auto, thinking и non-thinking. В режиме non-thinking производительность модели значительно выше по сравнению с Doubao-1.5-pro/250115. Поддерживает контекстное окно размером 256k и максимальную длину вывода до 16k токенов."
|
922
922
|
},
|
923
923
|
"doubao-seed-1.6-flash": {
|
924
|
-
"description": "Doubao-Seed-1.6-flash — мультимодальная модель глубокого мышления с
|
924
|
+
"description": "Doubao-Seed-1.6-flash — мультимодальная модель глубокого мышления с экстремально высокой скоростью вывода, TPOT занимает всего 10 мс; поддерживает понимание текста и визуальных данных, текстовое понимание превосходит предыдущую lite-версию, визуальное понимание сопоставимо с pro-серией конкурентов. Поддерживает контекстное окно 256k и максимальную длину вывода до 16k токенов."
|
925
925
|
},
|
926
926
|
"doubao-seed-1.6-thinking": {
|
927
|
-
"description": "Модель Doubao-Seed-1.6-thinking значительно
|
927
|
+
"description": "Модель Doubao-Seed-1.6-thinking значительно улучшена в плане мышления, по сравнению с Doubao-1.5-thinking-pro дополнительно повышены базовые способности в программировании, математике и логическом рассуждении, поддерживается визуальное понимание. Поддерживает контекстное окно 256k и максимальную длину вывода до 16k токенов."
|
928
928
|
},
|
929
929
|
"emohaa": {
|
930
930
|
"description": "Emohaa — это психологическая модель, обладающая профессиональными консультационными способностями, помогающая пользователям понимать эмоциональные проблемы."
|
@@ -1346,8 +1346,8 @@
|
|
1346
1346
|
"grok-3-mini-fast": {
|
1347
1347
|
"description": "Легковесная модель, которая сначала обдумывает ответ перед разговором. Быстрая и умная, подходит для логических задач без глубоких отраслевых знаний и позволяет проследить исходные размышления."
|
1348
1348
|
},
|
1349
|
-
"grok-4
|
1350
|
-
"description": "Наша новейшая и самая мощная флагманская модель, демонстрирующая выдающиеся результаты в обработке естественного языка, математических вычислениях и
|
1349
|
+
"grok-4": {
|
1350
|
+
"description": "Наша новейшая и самая мощная флагманская модель, демонстрирующая выдающиеся результаты в обработке естественного языка, математических вычислениях и логическом рассуждении — идеальный универсальный инструмент."
|
1351
1351
|
},
|
1352
1352
|
"gryphe/mythomax-l2-13b": {
|
1353
1353
|
"description": "MythoMax l2 13B — это языковая модель, объединяющая креативность и интеллект, основанная на нескольких ведущих моделях."
|
package/locales/tr-TR/chat.json
CHANGED
@@ -666,7 +666,7 @@
|
|
666
666
|
"description": "Codestral, kod üretimine odaklanan son teknoloji bir üretim modelidir, ara doldurma ve kod tamamlama görevlerini optimize etmiştir."
|
667
667
|
},
|
668
668
|
"codex-mini-latest": {
|
669
|
-
"description": "codex-mini-latest, Codex CLI için özel olarak
|
669
|
+
"description": "codex-mini-latest, Codex CLI için özel olarak ince ayarlanmış o4-mini versiyonudur. API üzerinden doğrudan kullanım için, gpt-4.1'den başlamanızı öneririz."
|
670
670
|
},
|
671
671
|
"cognitivecomputations/dolphin-mixtral-8x22b": {
|
672
672
|
"description": "Dolphin Mixtral 8x22B, talimat takibi, diyalog ve programlama için tasarlanmış bir modeldir."
|
@@ -726,7 +726,7 @@
|
|
726
726
|
"description": "Compound-beta-mini, GroqCloud'da desteklenen açık kullanılabilir modellerden güç alan bir bileşik AI sistemidir, kullanıcı sorgularını yanıtlamak için araçları akıllıca ve seçici bir şekilde kullanabilir."
|
727
727
|
},
|
728
728
|
"computer-use-preview": {
|
729
|
-
"description": "computer-use-preview modeli, \"Bilgisayar Kullanım Araçları\" için özel olarak tasarlanmış
|
729
|
+
"description": "computer-use-preview modeli, \"Bilgisayar Kullanım Araçları\" için özel olarak tasarlanmış ve bilgisayarla ilgili görevleri anlama ve yerine getirme konusunda eğitilmiş özel bir modeldir."
|
730
730
|
},
|
731
731
|
"dall-e-2": {
|
732
732
|
"description": "İkinci nesil DALL·E modeli, daha gerçekçi ve doğru görüntü üretimi destekler, çözünürlüğü birinci neslin 4 katıdır."
|
@@ -924,7 +924,7 @@
|
|
924
924
|
"description": "Doubao-Seed-1.6-flash, TPOT sadece 10ms olan son derece hızlı çok modlu derin düşünme modelidir; hem metin hem de görsel anlayışı destekler, metin anlama yeteneği önceki lite neslini aşar, görsel anlama ise rakiplerin pro serisi modelleriyle eşdeğerdir. 256k bağlam penceresini destekler ve çıktı uzunluğu maksimum 16k token olabilir."
|
925
925
|
},
|
926
926
|
"doubao-seed-1.6-thinking": {
|
927
|
-
"description": "Doubao-Seed-1.6-thinking modeli düşünme yeteneğinde büyük gelişme göstermiştir
|
927
|
+
"description": "Doubao-Seed-1.6-thinking modeli düşünme yeteneğinde büyük gelişme göstermiştir, Doubao-1.5-thinking-pro ile karşılaştırıldığında Kodlama, Matematik ve mantıksal akıl yürütme gibi temel yeteneklerde daha da iyileşmiştir, görsel anlayışı destekler. 256k bağlam penceresini destekler ve çıktı uzunluğu maksimum 16k token olabilir."
|
928
928
|
},
|
929
929
|
"emohaa": {
|
930
930
|
"description": "Emohaa, duygusal sorunları anlamalarına yardımcı olmak için profesyonel danışmanlık yeteneklerine sahip bir psikolojik modeldir."
|
@@ -1305,7 +1305,7 @@
|
|
1305
1305
|
"description": "GPT-4o mini, OpenAI'nin GPT-4 Omni'den sonra tanıttığı en yeni modeldir. Görsel ve metin girişi destekler ve metin çıktısı verir. En gelişmiş küçük model olarak, diğer son zamanlardaki öncü modellere göre çok daha ucuzdur ve GPT-3.5 Turbo'dan %60'tan fazla daha ucuzdur. En son teknolojiyi korurken, önemli bir maliyet etkinliği sunar. GPT-4o mini, MMLU testinde %82 puan almış olup, şu anda sohbet tercihleri açısından GPT-4'ün üzerinde yer almaktadır."
|
1306
1306
|
},
|
1307
1307
|
"gpt-4o-mini-audio-preview": {
|
1308
|
-
"description": "GPT-4o mini Ses modeli,
|
1308
|
+
"description": "GPT-4o mini Ses modeli, sesli giriş ve çıkışı destekler."
|
1309
1309
|
},
|
1310
1310
|
"gpt-4o-mini-realtime-preview": {
|
1311
1311
|
"description": "GPT-4o-mini gerçek zamanlı versiyonu, ses ve metin için gerçek zamanlı giriş ve çıkış desteği sunar."
|
@@ -1346,7 +1346,7 @@
|
|
1346
1346
|
"grok-3-mini-fast": {
|
1347
1347
|
"description": "Hafif model olup, konuşma öncesi düşünür. Hızlı ve akıllı çalışır, derin alan bilgisi gerektirmeyen mantıksal görevler için uygundur ve orijinal düşünce izlerini elde edebilir."
|
1348
1348
|
},
|
1349
|
-
"grok-4
|
1349
|
+
"grok-4": {
|
1350
1350
|
"description": "En yeni ve en güçlü amiral gemisi modelimiz, doğal dil işleme, matematiksel hesaplama ve akıl yürütme alanlarında üstün performans sergiliyor — mükemmel bir çok yönlü oyuncu."
|
1351
1351
|
},
|
1352
1352
|
"gryphe/mythomax-l2-13b": {
|
@@ -1872,7 +1872,7 @@
|
|
1872
1872
|
"description": "o1, OpenAI'nin geniş genel bilgiye ihtiyaç duyan karmaşık görevler için uygun yeni bir akıl yürütme modelidir. Bu model, 128K bağlam ve Ekim 2023 bilgi kesim tarihi ile donatılmıştır."
|
1873
1873
|
},
|
1874
1874
|
"o1-pro": {
|
1875
|
-
"description": "o1 serisi modeller,
|
1875
|
+
"description": "o1 serisi modeller, yanıtlamadan önce düşünme yapabilen ve karmaşık akıl yürütme görevlerini yerine getirebilen pekiştirmeli öğrenme ile eğitilmiştir. o1-pro modeli, daha derin düşünme için daha fazla hesaplama kaynağı kullanır ve böylece sürekli olarak daha kaliteli yanıtlar sunar."
|
1876
1876
|
},
|
1877
1877
|
"o3": {
|
1878
1878
|
"description": "o3, çok çeşitli alanlarda mükemmel performans gösteren çok yönlü güçlü bir modeldir. Matematik, bilim, programlama ve görsel çıkarım görevlerinde yeni standartlar belirler. Ayrıca teknik yazım ve talimat takibi konusunda da uzmandır. Kullanıcılar, metin, kod ve görüntüleri analiz ederek çok adımlı karmaşık sorunları çözebilir."
|
@@ -1884,7 +1884,7 @@
|
|
1884
1884
|
"description": "o3-mini, aynı maliyet ve gecikme hedefleriyle yüksek zeka sunan en yeni küçük ölçekli çıkarım modelimizdir."
|
1885
1885
|
},
|
1886
1886
|
"o3-pro": {
|
1887
|
-
"description": "o3-pro modeli, daha derin düşünmek ve her zaman daha iyi yanıtlar sunmak için daha fazla hesaplama kullanır
|
1887
|
+
"description": "o3-pro modeli, daha derin düşünmek ve her zaman daha iyi yanıtlar sunmak için daha fazla hesaplama kullanır, yalnızca Responses API altında kullanılabilir."
|
1888
1888
|
},
|
1889
1889
|
"o4-mini": {
|
1890
1890
|
"description": "o4-mini, en yeni küçük o serisi modelimizdir. Hızlı ve etkili çıkarım için optimize edilmiştir ve kodlama ile görsel görevlerde son derece yüksek verimlilik ve performans sergiler."
|
package/locales/vi-VN/chat.json
CHANGED
@@ -726,7 +726,7 @@
|
|
726
726
|
"description": "Compound-beta-mini là một hệ thống AI phức hợp, được hỗ trợ bởi các mô hình có sẵn công khai trong GroqCloud, có khả năng thông minh và chọn lọc sử dụng công cụ để trả lời các truy vấn của người dùng."
|
727
727
|
},
|
728
728
|
"computer-use-preview": {
|
729
|
-
"description": "Mô hình computer-use-preview được thiết kế chuyên biệt cho
|
729
|
+
"description": "Mô hình computer-use-preview được thiết kế chuyên biệt cho “công cụ sử dụng máy tính”, được huấn luyện để hiểu và thực hiện các nhiệm vụ liên quan đến máy tính."
|
730
730
|
},
|
731
731
|
"dall-e-2": {
|
732
732
|
"description": "Mô hình DALL·E thế hệ thứ hai, hỗ trợ tạo hình ảnh chân thực và chính xác hơn, với độ phân giải gấp 4 lần thế hệ đầu tiên."
|
@@ -924,7 +924,7 @@
|
|
924
924
|
"description": "Doubao-Seed-1.6-flash là mô hình suy nghĩ sâu đa phương thức với tốc độ suy luận tối ưu, TPOT chỉ cần 10ms; đồng thời hỗ trợ hiểu văn bản và hình ảnh, khả năng hiểu văn bản vượt trội so với thế hệ lite trước, khả năng hiểu hình ảnh sánh ngang với các mô hình pro của đối thủ. Hỗ trợ cửa sổ ngữ cảnh 256k, độ dài đầu ra tối đa 16k tokens."
|
925
925
|
},
|
926
926
|
"doubao-seed-1.6-thinking": {
|
927
|
-
"description": "Mô hình Doubao-Seed-1.6-thinking có khả năng suy nghĩ được tăng cường đáng kể, so với Doubao-1.5-thinking-pro, nâng cao hơn nữa các năng lực cơ bản như
|
927
|
+
"description": "Mô hình Doubao-Seed-1.6-thinking có khả năng suy nghĩ được tăng cường đáng kể, so với Doubao-1.5-thinking-pro, nâng cao hơn nữa các năng lực cơ bản như lập trình, toán học, suy luận logic, đồng thời hỗ trợ hiểu hình ảnh. Hỗ trợ cửa sổ ngữ cảnh 256k, độ dài đầu ra tối đa 16k tokens."
|
928
928
|
},
|
929
929
|
"emohaa": {
|
930
930
|
"description": "Emohaa là mô hình tâm lý, có khả năng tư vấn chuyên nghiệp, giúp người dùng hiểu các vấn đề cảm xúc."
|
@@ -1346,7 +1346,7 @@
|
|
1346
1346
|
"grok-3-mini-fast": {
|
1347
1347
|
"description": "Mô hình nhẹ, suy nghĩ trước khi trả lời. Chạy nhanh, thông minh, phù hợp cho các nhiệm vụ logic không đòi hỏi kiến thức chuyên sâu và có thể truy xuất được chuỗi suy nghĩ gốc."
|
1348
1348
|
},
|
1349
|
-
"grok-4
|
1349
|
+
"grok-4": {
|
1350
1350
|
"description": "Mô hình hàng đầu mới nhất và mạnh mẽ nhất của chúng tôi, thể hiện xuất sắc trong xử lý ngôn ngữ tự nhiên, tính toán toán học và suy luận — một lựa chọn toàn diện hoàn hảo."
|
1351
1351
|
},
|
1352
1352
|
"gryphe/mythomax-l2-13b": {
|
@@ -1884,7 +1884,7 @@
|
|
1884
1884
|
"description": "o3-mini là mô hình suy diễn nhỏ gọn mới nhất của chúng tôi, cung cấp trí thông minh cao với chi phí và độ trễ tương tự như o1-mini."
|
1885
1885
|
},
|
1886
1886
|
"o3-pro": {
|
1887
|
-
"description": "Mô hình o3-pro sử dụng nhiều tài nguyên tính toán hơn để suy nghĩ sâu hơn và luôn cung cấp câu trả lời tốt hơn, chỉ hỗ trợ sử dụng dưới API Responses."
|
1887
|
+
"description": "Mô hình o3-pro sử dụng nhiều tài nguyên tính toán hơn để suy nghĩ sâu sắc hơn và luôn cung cấp câu trả lời tốt hơn, chỉ hỗ trợ sử dụng dưới API Responses."
|
1888
1888
|
},
|
1889
1889
|
"o4-mini": {
|
1890
1890
|
"description": "o4-mini là mô hình nhỏ gọn mới nhất trong dòng o của chúng tôi. Nó được tối ưu hóa cho suy luận nhanh chóng và hiệu quả, thể hiện hiệu suất và hiệu quả cao trong các nhiệm vụ mã hóa và hình ảnh."
|
package/locales/zh-CN/chat.json
CHANGED
@@ -1346,7 +1346,7 @@
|
|
1346
1346
|
"grok-3-mini-fast": {
|
1347
1347
|
"description": "轻量级模型,回话前会先思考。运行快速、智能,适用于不需要深层领域知识的逻辑任务,并能获取原始的思维轨迹。"
|
1348
1348
|
},
|
1349
|
-
"grok-4
|
1349
|
+
"grok-4": {
|
1350
1350
|
"description": "我们最新最强大的旗舰模型,在自然语言处理、数学计算和推理方面表现卓越 —— 是一款完美的全能型选手。"
|
1351
1351
|
},
|
1352
1352
|
"gryphe/mythomax-l2-13b": {
|
package/locales/zh-TW/chat.json
CHANGED
@@ -1346,7 +1346,7 @@
|
|
1346
1346
|
"grok-3-mini-fast": {
|
1347
1347
|
"description": "輕量級模型,對話前會先思考。運行快速、智能,適用於不需要深層領域知識的邏輯任務,並能獲取原始的思維軌跡。"
|
1348
1348
|
},
|
1349
|
-
"grok-4
|
1349
|
+
"grok-4": {
|
1350
1350
|
"description": "我們最新最強大的旗艦模型,在自然語言處理、數學計算和推理方面表現卓越 —— 是一款完美的全能型選手。"
|
1351
1351
|
},
|
1352
1352
|
"gryphe/mythomax-l2-13b": {
|
package/package.json
CHANGED
@@ -1,6 +1,6 @@
|
|
1
1
|
{
|
2
2
|
"name": "@lobehub/chat",
|
3
|
-
"version": "1.97.
|
3
|
+
"version": "1.97.13",
|
4
4
|
"description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
5
5
|
"keywords": [
|
6
6
|
"framework",
|
@@ -40,6 +40,7 @@ const googleChatModels: AIChatModelCard[] = [
|
|
40
40
|
id: 'gemini-2.5-pro-preview-06-05',
|
41
41
|
maxOutput: 65_536,
|
42
42
|
pricing: {
|
43
|
+
cachedInput: 0.31, // prompts <= 200k tokens
|
43
44
|
input: 1.25, // prompts <= 200k tokens
|
44
45
|
output: 10, // prompts <= 200k tokens
|
45
46
|
},
|
@@ -65,6 +66,7 @@ const googleChatModels: AIChatModelCard[] = [
|
|
65
66
|
id: 'gemini-2.5-pro-preview-05-06',
|
66
67
|
maxOutput: 65_536,
|
67
68
|
pricing: {
|
69
|
+
cachedInput: 0.31, // prompts <= 200k tokens
|
68
70
|
input: 1.25, // prompts <= 200k tokens
|
69
71
|
output: 10, // prompts <= 200k tokens
|
70
72
|
},
|
@@ -138,6 +140,7 @@ const googleChatModels: AIChatModelCard[] = [
|
|
138
140
|
id: 'gemini-2.5-flash-preview-05-20',
|
139
141
|
maxOutput: 65_536,
|
140
142
|
pricing: {
|
143
|
+
cachedInput: 0.0375,
|
141
144
|
input: 0.15,
|
142
145
|
output: 3.5, // Thinking
|
143
146
|
},
|
@@ -162,6 +165,7 @@ const googleChatModels: AIChatModelCard[] = [
|
|
162
165
|
id: 'gemini-2.5-flash-preview-04-17',
|
163
166
|
maxOutput: 65_536,
|
164
167
|
pricing: {
|
168
|
+
cachedInput: 0.0375,
|
165
169
|
input: 0.15,
|
166
170
|
output: 3.5, // Thinking
|
167
171
|
},
|
@@ -187,7 +191,7 @@ const googleChatModels: AIChatModelCard[] = [
|
|
187
191
|
maxOutput: 65_536,
|
188
192
|
pricing: {
|
189
193
|
input: 0.15,
|
190
|
-
output: 3.5,
|
194
|
+
output: 3.5,
|
191
195
|
},
|
192
196
|
settings: {
|
193
197
|
searchImpl: 'params',
|
@@ -314,7 +318,6 @@ const googleChatModels: AIChatModelCard[] = [
|
|
314
318
|
id: 'gemini-2.0-flash-lite',
|
315
319
|
maxOutput: 8192,
|
316
320
|
pricing: {
|
317
|
-
cachedInput: 0.018_75,
|
318
321
|
input: 0.075,
|
319
322
|
output: 0.3,
|
320
323
|
},
|
@@ -331,7 +334,6 @@ const googleChatModels: AIChatModelCard[] = [
|
|
331
334
|
id: 'gemini-2.0-flash-lite-001',
|
332
335
|
maxOutput: 8192,
|
333
336
|
pricing: {
|
334
|
-
cachedInput: 0.018_75,
|
335
337
|
input: 0.075,
|
336
338
|
output: 0.3,
|
337
339
|
},
|
@@ -366,7 +368,6 @@ const googleChatModels: AIChatModelCard[] = [
|
|
366
368
|
id: 'learnlm-2.0-flash-experimental',
|
367
369
|
maxOutput: 32_768,
|
368
370
|
pricing: {
|
369
|
-
cachedInput: 0,
|
370
371
|
input: 0,
|
371
372
|
output: 0,
|
372
373
|
},
|
@@ -383,7 +384,6 @@ const googleChatModels: AIChatModelCard[] = [
|
|
383
384
|
id: 'learnlm-1.5-pro-experimental',
|
384
385
|
maxOutput: 8192,
|
385
386
|
pricing: {
|
386
|
-
cachedInput: 0,
|
387
387
|
input: 0,
|
388
388
|
output: 0,
|
389
389
|
},
|
@@ -408,23 +408,6 @@ const googleChatModels: AIChatModelCard[] = [
|
|
408
408
|
releasedAt: '2024-09-25',
|
409
409
|
type: 'chat',
|
410
410
|
},
|
411
|
-
{
|
412
|
-
abilities: {
|
413
|
-
functionCall: true,
|
414
|
-
vision: true,
|
415
|
-
},
|
416
|
-
contextWindowTokens: 1_008_192,
|
417
|
-
description: 'Gemini 1.5 Flash 001 是一款高效的多模态模型,支持广泛应用的扩展。',
|
418
|
-
displayName: 'Gemini 1.5 Flash 001',
|
419
|
-
id: 'gemini-1.5-flash-001', // Deprecated on 2025-05-27
|
420
|
-
maxOutput: 8192,
|
421
|
-
pricing: {
|
422
|
-
cachedInput: 0.018_75,
|
423
|
-
input: 0.075,
|
424
|
-
output: 0.3,
|
425
|
-
},
|
426
|
-
type: 'chat',
|
427
|
-
},
|
428
411
|
{
|
429
412
|
abilities: {
|
430
413
|
functionCall: true,
|
@@ -444,24 +427,6 @@ const googleChatModels: AIChatModelCard[] = [
|
|
444
427
|
releasedAt: '2024-09-24',
|
445
428
|
type: 'chat',
|
446
429
|
},
|
447
|
-
{
|
448
|
-
abilities: {
|
449
|
-
functionCall: true,
|
450
|
-
vision: true,
|
451
|
-
},
|
452
|
-
contextWindowTokens: 2_008_192,
|
453
|
-
description: 'Gemini 1.5 Pro 001 是可扩展的多模态AI解决方案,支持广泛的复杂任务。',
|
454
|
-
displayName: 'Gemini 1.5 Pro 001 (Paid)',
|
455
|
-
id: 'gemini-1.5-pro-001', // Deprecated on 2025-05-27
|
456
|
-
maxOutput: 8192,
|
457
|
-
pricing: {
|
458
|
-
cachedInput: 0.3125,
|
459
|
-
input: 1.25,
|
460
|
-
output: 5,
|
461
|
-
},
|
462
|
-
releasedAt: '2024-02-15',
|
463
|
-
type: 'chat',
|
464
|
-
},
|
465
430
|
{
|
466
431
|
abilities: {
|
467
432
|
functionCall: true,
|