@lobehub/chat 1.97.11 → 1.97.13

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (58) hide show
  1. package/CHANGELOG.md +51 -0
  2. package/changelog/v1.json +18 -0
  3. package/locales/ar/chat.json +3 -0
  4. package/locales/ar/models.json +8 -8
  5. package/locales/bg-BG/chat.json +3 -0
  6. package/locales/bg-BG/models.json +6 -6
  7. package/locales/de-DE/chat.json +3 -0
  8. package/locales/de-DE/models.json +4 -4
  9. package/locales/en-US/chat.json +3 -0
  10. package/locales/en-US/models.json +4 -4
  11. package/locales/es-ES/chat.json +3 -0
  12. package/locales/es-ES/models.json +5 -5
  13. package/locales/fa-IR/chat.json +3 -0
  14. package/locales/fa-IR/models.json +6 -6
  15. package/locales/fr-FR/chat.json +3 -0
  16. package/locales/fr-FR/models.json +3 -3
  17. package/locales/it-IT/chat.json +3 -0
  18. package/locales/it-IT/models.json +3 -3
  19. package/locales/ja-JP/chat.json +3 -0
  20. package/locales/ja-JP/models.json +6 -6
  21. package/locales/ko-KR/chat.json +3 -0
  22. package/locales/ko-KR/models.json +7 -7
  23. package/locales/nl-NL/chat.json +3 -0
  24. package/locales/nl-NL/models.json +4 -4
  25. package/locales/pl-PL/chat.json +3 -0
  26. package/locales/pl-PL/models.json +6 -6
  27. package/locales/pt-BR/chat.json +3 -0
  28. package/locales/pt-BR/models.json +2 -20
  29. package/locales/ru-RU/chat.json +3 -0
  30. package/locales/ru-RU/models.json +5 -5
  31. package/locales/tr-TR/chat.json +3 -0
  32. package/locales/tr-TR/models.json +7 -7
  33. package/locales/vi-VN/chat.json +3 -0
  34. package/locales/vi-VN/models.json +4 -4
  35. package/locales/zh-CN/chat.json +3 -0
  36. package/locales/zh-CN/models.json +1 -1
  37. package/locales/zh-TW/chat.json +3 -0
  38. package/locales/zh-TW/models.json +1 -1
  39. package/package.json +1 -5
  40. package/src/config/aiModels/google.ts +5 -40
  41. package/src/config/aiModels/openai.ts +50 -41
  42. package/src/config/aiModels/volcengine.ts +58 -53
  43. package/src/config/aiModels/xai.ts +1 -1
  44. package/src/database/migrations/0026_add_autovacuum_tuning.sql +12 -0
  45. package/src/database/migrations/meta/0026_snapshot.json +5703 -0
  46. package/src/database/migrations/meta/_journal.json +7 -0
  47. package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +11 -0
  48. package/src/features/ChatInput/ActionBar/Model/ThinkingSlider.tsx +57 -0
  49. package/src/libs/model-runtime/bedrock/index.ts +32 -1
  50. package/src/libs/model-runtime/utils/streams/bedrock/common.ts +2 -1
  51. package/src/libs/model-runtime/utils/streams/protocol.ts +16 -0
  52. package/src/libs/model-runtime/utils/streams/qwen.ts +4 -2
  53. package/src/libs/model-runtime/volcengine/index.ts +9 -5
  54. package/src/libs/model-runtime/xai/index.ts +6 -3
  55. package/src/locales/default/chat.ts +3 -0
  56. package/src/services/chat.ts +4 -0
  57. package/src/types/agent/chatConfig.ts +1 -0
  58. package/src/types/aiModel.ts +4 -0
@@ -918,13 +918,13 @@
918
918
  "description": "Doubao-1.5-vision-lite는 새롭게 업그레이드된 다중 모드 대모델로, 임의의 해상도와 극단적인 가로 세로 비율의 이미지 인식을 지원하며, 시각적 추론, 문서 인식, 세부 정보 이해 및 지시 준수 능력을 강화합니다. 128k 문맥 창을 지원하며, 최대 16k 토큰의 출력 길이를 지원합니다."
919
919
  },
920
920
  "doubao-seed-1.6": {
921
- "description": "Doubao-Seed-1.6은 완전히 새로워진 다중 모달 심층 사고 모델로, auto/thinking/non-thinking 세 가지 사고 모드를 모두 지원합니다. non-thinking 모드에서 모델 성능은 Doubao-1.5-pro/250115에 비해 크게 향상되었습니다. 256k 컨텍스트 윈도우를 지원하며, 출력 길이는 최대 16k 토큰까지 가능합니다."
921
+ "description": "Doubao-Seed-1.6은 완전히 새로워진 다중 모달 심층 사고 모델로, auto/thinking/non-thinking 세 가지 사고 모드를 모두 지원합니다. non-thinking 모드에서는 Doubao-1.5-pro/250115에 비해 모델 성능이 크게 향상되었습니다. 256k 컨텍스트 창을 지원하며, 출력 길이는 최대 16k 토큰까지 가능합니다."
922
922
  },
923
923
  "doubao-seed-1.6-flash": {
924
- "description": "Doubao-Seed-1.6-flash는 추론 속도가 극대화된 다중 모달 심층 사고 모델로, TPOT가 단 10ms에 불과합니다. 텍스트와 시각 이해를 모두 지원하며, 텍스트 이해 능력은 이전 세대 lite를 능가하고, 시각 이해는 경쟁사 pro 시리즈 모델과 견줄 만합니다. 256k 컨텍스트 윈도우를 지원하며, 출력 길이는 최대 16k 토큰까지 가능합니다."
924
+ "description": "Doubao-Seed-1.6-flash는 추론 속도가 극대화된 다중 모달 심층 사고 모델로, TPOT가 단 10ms에 불과합니다. 텍스트와 시각 이해를 모두 지원하며, 텍스트 이해 능력은 이전 세대 lite를 능가하고, 시각 이해는 경쟁사 pro 시리즈 모델과 견줄 만합니다. 256k 컨텍스트 창을 지원하며, 출력 길이는 최대 16k 토큰까지 가능합니다."
925
925
  },
926
926
  "doubao-seed-1.6-thinking": {
927
- "description": "Doubao-Seed-1.6-thinking 모델은 사고 능력이 크게 강화되어 Doubao-1.5-thinking-pro에 비해 코딩, 수학, 논리 추론 등 기본 능력이 더욱 향상되었으며, 시각 이해를 지원합니다. 256k 컨텍스트 윈도우를 지원하며, 출력 길이는 최대 16k 토큰까지 가능합니다."
927
+ "description": "Doubao-Seed-1.6-thinking 모델은 사고 능력이 크게 강화되어 Doubao-1.5-thinking-pro에 비해 코딩, 수학, 논리 추론 등 기본 능력이 더욱 향상되었으며, 시각 이해도 지원합니다. 256k 컨텍스트 창을 지원하며, 출력 길이는 최대 16k 토큰까지 가능합니다."
928
928
  },
929
929
  "emohaa": {
930
930
  "description": "Emohaa는 심리 모델로, 전문 상담 능력을 갖추고 있어 사용자가 감정 문제를 이해하는 데 도움을 줍니다."
@@ -1346,8 +1346,8 @@
1346
1346
  "grok-3-mini-fast": {
1347
1347
  "description": "경량 모델로, 대화 전에 먼저 사고합니다. 빠르고 지능적으로 작동하며, 깊은 도메인 지식이 필요 없는 논리 작업에 적합하고 원시 사고 경로를 획득할 수 있습니다."
1348
1348
  },
1349
- "grok-4-0709": {
1350
- "description": "저희의 최신이자 가장 강력한 플래그십 모델로, 자연어 처리, 수학 계산 및 추론에서 뛰어난 성능을 자랑합니다 — 완벽한 만능 선수입니다."
1349
+ "grok-4": {
1350
+ "description": "저희의 최신이자 가장 강력한 플래그십 모델로, 자연어 처리, 수학 계산 및 추론에서 뛰어난 성능을 자랑합니다 — 완벽한 만능형 선수입니다."
1351
1351
  },
1352
1352
  "gryphe/mythomax-l2-13b": {
1353
1353
  "description": "MythoMax l2 13B는 여러 최상위 모델을 통합한 창의성과 지능이 결합된 언어 모델입니다."
@@ -1872,7 +1872,7 @@
1872
1872
  "description": "o1은 OpenAI의 새로운 추론 모델로, 광범위한 일반 지식이 필요한 복잡한 작업에 적합합니다. 이 모델은 128K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다."
1873
1873
  },
1874
1874
  "o1-pro": {
1875
- "description": "o1 시리즈 모델은 강화 학습을 통해 훈련되어 답변 전에 사고를 수행하고 복잡한 추론 작업을 실행할 수 있습니다. o1-pro 모델은 더 많은 계산 자원을 사용하여 더 깊이 사고함으로써 지속적으로 더 우수한 답변을 제공합니다."
1875
+ "description": "o1 시리즈 모델은 강화 학습을 통해 훈련되어 답변 전에 사고를 진행하고 복잡한 추론 작업을 수행할 수 있습니다. o1-pro 모델은 더 많은 계산 자원을 사용하여 더 깊이 사고함으로써 지속적으로 더 우수한 답변을 제공합니다."
1876
1876
  },
1877
1877
  "o3": {
1878
1878
  "description": "o3는 다재다능한 강력한 모델로, 여러 분야에서 뛰어난 성능을 발휘합니다. 수학, 과학, 프로그래밍 및 시각적 추론 작업에서 새로운 기준을 세웠습니다. 기술 작문 및 지시 준수에도 능숙합니다. 사용자는 이를 통해 텍스트, 코드 및 이미지를 분석하고, 다단계 복잡한 문제를 해결할 수 있습니다."
@@ -1884,7 +1884,7 @@
1884
1884
  "description": "o3-mini는 최신 소형 추론 모델로, o1-mini와 동일한 비용과 지연 목표에서 높은 지능을 제공합니다."
1885
1885
  },
1886
1886
  "o3-pro": {
1887
- "description": "o3-pro 모델은 더 많은 계산을 사용하여 더 깊이 사고하고 항상 더 나은 답변을 제공하며, Responses API에서만 사용할 수 있습니다."
1887
+ "description": "o3-pro 모델은 더 많은 계산을 사용하여 더 깊이 사고하고 항상 더 나은 답변을 제공하며, Responses API에서만 사용 가능합니다."
1888
1888
  },
1889
1889
  "o4-mini": {
1890
1890
  "description": "o4-mini는 최신 소형 o 시리즈 모델로, 빠르고 효율적인 추론을 위해 최적화되어 있으며, 코딩 및 시각적 작업에서 매우 높은 효율성과 성능을 자랑합니다."
@@ -46,6 +46,9 @@
46
46
  "reasoningEffort": {
47
47
  "title": "Redeneringsinspanning"
48
48
  },
49
+ "thinking": {
50
+ "title": "Diepdenkschakelaar"
51
+ },
49
52
  "title": "Modeluitbreidingsfunctie"
50
53
  },
51
54
  "history": {
@@ -666,7 +666,7 @@
666
666
  "description": "Codestral is een geavanceerd generatief model dat zich richt op codegeneratie, geoptimaliseerd voor tussentijdse invulling en code-aanvultaken."
667
667
  },
668
668
  "codex-mini-latest": {
669
- "description": "codex-mini-latest is een verfijnde versie van o4-mini, speciaal ontworpen voor Codex CLI. Voor direct gebruik via de API raden we aan te beginnen met gpt-4.1."
669
+ "description": "codex-mini-latest is een fijn afgestemde versie van o4-mini, speciaal ontworpen voor Codex CLI. Voor direct gebruik via de API raden we aan te beginnen met gpt-4.1."
670
670
  },
671
671
  "cognitivecomputations/dolphin-mixtral-8x22b": {
672
672
  "description": "Dolphin Mixtral 8x22B is een model ontworpen voor instructievolging, gesprekken en programmeren."
@@ -924,7 +924,7 @@
924
924
  "description": "Doubao-Seed-1.6-flash is een multimodaal diepdenkend model met extreem snelle inferentiesnelheid, TPOT slechts 10ms; ondersteunt zowel tekst- als visueel begrip, met tekstbegrip dat beter is dan de vorige lite-generatie en visueel begrip dat vergelijkbaar is met concurrerende pro-serie modellen. Ondersteunt een contextvenster van 256k en een maximale uitvoerlengte van 16k tokens."
925
925
  },
926
926
  "doubao-seed-1.6-thinking": {
927
- "description": "Doubao-Seed-1.6-thinking model heeft sterk verbeterde denkvermogens. Vergeleken met Doubao-1.5-thinking-pro zijn de basisvaardigheden in coderen, wiskunde en logisch redeneren verder verbeterd, met ondersteuning voor visueel begrip. Ondersteunt een contextvenster van 256k en een maximale uitvoerlengte van 16k tokens."
927
+ "description": "Doubao-Seed-1.6-thinking model heeft sterk verbeterde denkvermogens, met verdere verbeteringen in basisvaardigheden zoals coderen, wiskunde en logisch redeneren ten opzichte van Doubao-1.5-thinking-pro, en ondersteunt visueel begrip. Ondersteunt een contextvenster van 256k en een maximale uitvoerlengte van 16k tokens."
928
928
  },
929
929
  "emohaa": {
930
930
  "description": "Emohaa is een psychologisch model met professionele adviescapaciteiten, dat gebruikers helpt emotionele problemen te begrijpen."
@@ -1346,7 +1346,7 @@
1346
1346
  "grok-3-mini-fast": {
1347
1347
  "description": "Lichtgewicht model dat eerst nadenkt voor het reageren. Snel en intelligent, geschikt voor logische taken zonder diepgaande domeinkennis en kan de oorspronkelijke denkprocessen vastleggen."
1348
1348
  },
1349
- "grok-4-0709": {
1349
+ "grok-4": {
1350
1350
  "description": "Ons nieuwste en krachtigste vlaggenschipmodel, uitmuntend in natuurlijke taalverwerking, wiskundige berekeningen en redeneren — een perfecte allrounder."
1351
1351
  },
1352
1352
  "gryphe/mythomax-l2-13b": {
@@ -1884,7 +1884,7 @@
1884
1884
  "description": "o3-mini is ons nieuwste kleine inferentiemodel dat hoge intelligentie biedt met dezelfde kosten- en vertragingdoelen als o1-mini."
1885
1885
  },
1886
1886
  "o3-pro": {
1887
- "description": "Het o3-pro model gebruikt meer rekenkracht om dieper na te denken en altijd betere antwoorden te bieden, alleen ondersteund onder de Responses API."
1887
+ "description": "Het o3-pro model gebruikt meer rekenkracht om dieper na te denken en altijd betere antwoorden te bieden, alleen te gebruiken onder de Responses API."
1888
1888
  },
1889
1889
  "o4-mini": {
1890
1890
  "description": "o4-mini is ons nieuwste compacte model uit de o-serie. Het is geoptimaliseerd voor snelle en efficiënte inferentie, met een hoge efficiëntie en prestaties in codering en visuele taken."
@@ -46,6 +46,9 @@
46
46
  "reasoningEffort": {
47
47
  "title": "Intensywność rozumowania"
48
48
  },
49
+ "thinking": {
50
+ "title": "Przełącznik głębokiego myślenia"
51
+ },
49
52
  "title": "Funkcje rozszerzenia modelu"
50
53
  },
51
54
  "history": {
@@ -918,13 +918,13 @@
918
918
  "description": "Doubao-1.5-vision-lite to nowo zaktualizowany model multimodalny, który obsługuje rozpoznawanie obrazów o dowolnej rozdzielczości i ekstremalnych proporcjach, wzmacniając zdolności wnioskowania wizualnego, rozpoznawania dokumentów, rozumienia szczegółowych informacji i przestrzegania instrukcji. Obsługuje okno kontekstowe 128k, maksymalna długość wyjścia to 16k tokenów."
919
919
  },
920
920
  "doubao-seed-1.6": {
921
- "description": "Doubao-Seed-1.6 to nowy, multimodalny model głębokiego myślenia, obsługujący trzy tryby myślenia: auto, thinking i non-thinking. W trybie non-thinking model osiąga znacznie lepsze wyniki w porównaniu z Doubao-1.5-pro/250115. Obsługuje kontekst do 256k oraz maksymalną długość wyjścia do 16k tokenów."
921
+ "description": "Doubao-Seed-1.6 to nowy, wielomodalny model głębokiego myślenia, obsługujący trzy tryby myślenia: auto, thinking i non-thinking. W trybie non-thinking model osiąga znacznie lepsze wyniki w porównaniu do Doubao-1.5-pro/250115. Obsługuje kontekst do 256k oraz maksymalną długość wyjścia do 16k tokenów."
922
922
  },
923
923
  "doubao-seed-1.6-flash": {
924
- "description": "Doubao-Seed-1.6-flash to ultraszybki multimodalny model głębokiego myślenia, z czasem TPOT wynoszącym zaledwie 10 ms; obsługuje zarówno rozumienie tekstu, jak i obrazu, z lepszymi zdolnościami tekstowymi niż poprzednia generacja lite oraz wizualnymi porównywalnymi do modeli pro konkurencji. Obsługuje kontekst do 256k oraz maksymalną długość wyjścia do 16k tokenów."
924
+ "description": "Doubao-Seed-1.6-flash to ultraszybki model wielomodalnego głębokiego myślenia, z czasem TPOT zaledwie 10 ms; obsługuje zarówno rozumienie tekstu, jak i obrazu, z lepszymi zdolnościami tekstowymi niż poprzednia generacja lite oraz wizualnymi porównywalnymi do modeli pro konkurencji. Obsługuje kontekst do 256k oraz maksymalną długość wyjścia do 16k tokenów."
925
925
  },
926
926
  "doubao-seed-1.6-thinking": {
927
- "description": "Model Doubao-Seed-1.6-thinking ma znacznie wzmocnione zdolności myślenia, w porównaniu z Doubao-1.5-thinking-pro osiąga dalsze ulepszenia w podstawowych umiejętnościach takich jak kodowanie, matematyka i rozumowanie logiczne, wspiera również rozumienie wizualne. Obsługuje kontekst do 256k oraz maksymalną długość wyjścia do 16k tokenów."
927
+ "description": "Model Doubao-Seed-1.6-thinking ma znacznie wzmocnione zdolności myślenia, w porównaniu do Doubao-1.5-thinking-pro osiąga dalsze ulepszenia w podstawowych umiejętnościach takich jak kodowanie, matematyka i rozumowanie logiczne, wspiera również rozumienie wizualne. Obsługuje kontekst do 256k oraz maksymalną długość wyjścia do 16k tokenów."
928
928
  },
929
929
  "emohaa": {
930
930
  "description": "Emohaa to model psychologiczny, posiadający profesjonalne umiejętności doradcze, pomagający użytkownikom zrozumieć problemy emocjonalne."
@@ -1346,7 +1346,7 @@
1346
1346
  "grok-3-mini-fast": {
1347
1347
  "description": "Lekki model, który najpierw analizuje przed rozmową. Działa szybko i inteligentnie, odpowiedni do zadań logicznych nie wymagających głębokiej wiedzy dziedzinowej, z możliwością śledzenia pierwotnego toku myślenia."
1348
1348
  },
1349
- "grok-4-0709": {
1349
+ "grok-4": {
1350
1350
  "description": "Nasz najnowszy i najpotężniejszy model flagowy, który wyróżnia się doskonałymi wynikami w przetwarzaniu języka naturalnego, obliczeniach matematycznych i rozumowaniu — to idealny wszechstronny zawodnik."
1351
1351
  },
1352
1352
  "gryphe/mythomax-l2-13b": {
@@ -1872,7 +1872,7 @@
1872
1872
  "description": "o1 to nowy model wnioskowania OpenAI, odpowiedni do złożonych zadań wymagających szerokiej wiedzy ogólnej. Model ten ma kontekst 128K i datę graniczną wiedzy z października 2023 roku."
1873
1873
  },
1874
1874
  "o1-pro": {
1875
- "description": "Modele serii o1 są trenowane z wykorzystaniem uczenia ze wzmocnieniem, potrafią myśleć przed udzieleniem odpowiedzi i wykonywać złożone zadania rozumowania. Model o1-pro wykorzystuje więcej zasobów obliczeniowych do głębszego myślenia, co pozwala na ciągłe dostarczanie lepszych odpowiedzi."
1875
+ "description": "Modele z serii o1 są trenowane z wykorzystaniem uczenia ze wzmocnieniem, potrafią myśleć przed udzieleniem odpowiedzi i wykonywać złożone zadania rozumowania. Model o1-pro wykorzystuje więcej zasobów obliczeniowych, aby prowadzić głębsze rozważania i stale dostarczać lepsze odpowiedzi."
1876
1876
  },
1877
1877
  "o3": {
1878
1878
  "description": "o3 to wszechstronny i potężny model, który doskonale sprawdza się w wielu dziedzinach. Ustanawia nowe standardy w zadaniach matematycznych, naukowych, programistycznych i wizualnych. Jest również biegły w pisaniu technicznym i przestrzeganiu instrukcji. Użytkownicy mogą go wykorzystać do analizy tekstów, kodów i obrazów, rozwiązując złożone problemy wieloetapowe."
@@ -1884,7 +1884,7 @@
1884
1884
  "description": "o3-mini to nasz najnowszy mały model wnioskowania, który oferuje wysoką inteligencję przy tych samych kosztach i celach opóźnienia co o1-mini."
1885
1885
  },
1886
1886
  "o3-pro": {
1887
- "description": "Model o3-pro wykorzystuje większą moc obliczeniową do głębszego myślenia i zawsze dostarcza lepsze odpowiedzi, jest dostępny wyłącznie przez API Responses."
1887
+ "description": "Model o3-pro wykorzystuje większą moc obliczeniową do głębszego myślenia i zawsze dostarcza lepsze odpowiedzi, dostępny wyłącznie przez API Responses."
1888
1888
  },
1889
1889
  "o4-mini": {
1890
1890
  "description": "o4-mini to nasz najnowszy mały model z serii o. Został zoptymalizowany do szybkiego i efektywnego wnioskowania, osiągając wysoką wydajność i efektywność w zadaniach kodowania i wizualnych."
@@ -46,6 +46,9 @@
46
46
  "reasoningEffort": {
47
47
  "title": "Intensidade de Raciocínio"
48
48
  },
49
+ "thinking": {
50
+ "title": "Interruptor de Pensamento Profundo"
51
+ },
49
52
  "title": "Funcionalidade de Extensão do Modelo"
50
53
  },
51
54
  "history": {
@@ -665,9 +665,6 @@
665
665
  "codestral-latest": {
666
666
  "description": "Codestral é um modelo gerador de ponta focado em geração de código, otimizado para preenchimento intermediário e tarefas de conclusão de código."
667
667
  },
668
- "codex-mini-latest": {
669
- "description": "codex-mini-latest é uma versão ajustada do o4-mini, especialmente para o Codex CLI. Para uso direto via API, recomendamos começar com o gpt-4.1."
670
- },
671
668
  "cognitivecomputations/dolphin-mixtral-8x22b": {
672
669
  "description": "Dolphin Mixtral 8x22B é um modelo projetado para seguir instruções, diálogos e programação."
673
670
  },
@@ -917,15 +914,6 @@
917
914
  "doubao-1.5-vision-lite": {
918
915
  "description": "Doubao-1.5-vision-lite é um modelo multimodal atualizado, suportando reconhecimento de imagens de qualquer resolução e proporções extremas, melhorando a capacidade de raciocínio visual, reconhecimento de documentos, compreensão de informações detalhadas e seguimento de instruções. Suporta uma janela de contexto de 128k, com comprimento de saída de até 16k tokens."
919
916
  },
920
- "doubao-seed-1.6": {
921
- "description": "Doubao-Seed-1.6 é um novo modelo multimodal de pensamento profundo, suportando três modos de pensamento: auto, thinking e non-thinking. No modo non-thinking, o desempenho do modelo melhora significativamente em comparação com Doubao-1.5-pro/250115. Suporta janela de contexto de 256k e comprimento máximo de saída de 16k tokens."
922
- },
923
- "doubao-seed-1.6-flash": {
924
- "description": "Doubao-Seed-1.6-flash é um modelo multimodal de pensamento profundo com velocidade de inferência extrema, TPOT de apenas 10ms; suporta compreensão de texto e visual, com capacidade de compreensão textual superior à geração lite anterior e compreensão visual comparável aos modelos pro da concorrência. Suporta janela de contexto de 256k e comprimento máximo de saída de 16k tokens."
925
- },
926
- "doubao-seed-1.6-thinking": {
927
- "description": "O modelo Doubao-Seed-1.6-thinking tem capacidade de pensamento significativamente reforçada, melhorando ainda mais as habilidades básicas em Coding, Matemática e raciocínio lógico em comparação com Doubao-1.5-thinking-pro, além de suportar compreensão visual. Suporta janela de contexto de 256k e comprimento máximo de saída de 16k tokens."
928
- },
929
917
  "emohaa": {
930
918
  "description": "O Emohaa é um modelo psicológico com capacidade de consultoria profissional, ajudando os usuários a entender questões emocionais."
931
919
  },
@@ -1346,8 +1334,8 @@
1346
1334
  "grok-3-mini-fast": {
1347
1335
  "description": "Modelo leve que pensa antes de responder. Rápido e inteligente, adequado para tarefas lógicas que não exigem conhecimento profundo de domínio, e capaz de fornecer o rastro original do pensamento."
1348
1336
  },
1349
- "grok-4-0709": {
1350
- "description": "Nosso modelo mais recente e poderoso, com desempenho excepcional em processamento de linguagem natural, cálculo matemático e raciocínio — um competidor versátil perfeito."
1337
+ "grok-4": {
1338
+ "description": "Nosso mais recente e poderoso modelo principal, com desempenho excepcional em processamento de linguagem natural, cálculo matemático e raciocínio — um competidor versátil perfeito."
1351
1339
  },
1352
1340
  "gryphe/mythomax-l2-13b": {
1353
1341
  "description": "MythoMax l2 13B é um modelo de linguagem que combina criatividade e inteligência, integrando vários modelos de ponta."
@@ -1871,9 +1859,6 @@
1871
1859
  "o1-preview": {
1872
1860
  "description": "o1 é o novo modelo de raciocínio da OpenAI, adequado para tarefas complexas que exigem amplo conhecimento geral. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023."
1873
1861
  },
1874
- "o1-pro": {
1875
- "description": "A série de modelos o1 é treinada com aprendizado por reforço, capaz de pensar antes de responder e executar tarefas complexas de raciocínio. O modelo o1-pro utiliza mais recursos computacionais para um pensamento mais profundo, oferecendo respostas de qualidade superior de forma contínua."
1876
- },
1877
1862
  "o3": {
1878
1863
  "description": "o3 é um modelo versátil e poderoso, com excelente desempenho em várias áreas. Ele estabelece novos padrões para tarefas de matemática, ciência, programação e raciocínio visual. Também é bom em redação técnica e seguimento de instruções. Os usuários podem utilizá-lo para analisar textos, códigos e imagens, resolvendo problemas complexos em múltiplas etapas."
1879
1864
  },
@@ -1883,9 +1868,6 @@
1883
1868
  "o3-mini": {
1884
1869
  "description": "o3-mini é nosso mais recente modelo de inferência em miniatura, oferecendo alta inteligência com os mesmos custos e metas de latência que o o1-mini."
1885
1870
  },
1886
- "o3-pro": {
1887
- "description": "O modelo o3-pro utiliza mais computação para pensar mais profundamente e sempre fornecer melhores respostas, suportado apenas para uso via Responses API."
1888
- },
1889
1871
  "o4-mini": {
1890
1872
  "description": "o4-mini é nosso mais recente modelo compacto da série o. Ele é otimizado para inferência rápida e eficaz, apresentando alta eficiência e desempenho em tarefas de codificação e visuais."
1891
1873
  },
@@ -46,6 +46,9 @@
46
46
  "reasoningEffort": {
47
47
  "title": "Интенсивность рассуждений"
48
48
  },
49
+ "thinking": {
50
+ "title": "Переключатель глубокого мышления"
51
+ },
49
52
  "title": "Расширенные функции модели"
50
53
  },
51
54
  "history": {
@@ -918,13 +918,13 @@
918
918
  "description": "Doubao-1.5-vision-lite — это новая усовершенствованная мультимодальная модель, поддерживающая распознавание изображений с любым разрешением и экстремальным соотношением сторон, улучшая способности к визуальному выводу, распознаванию документов, пониманию детальной информации и соблюдению инструкций. Поддерживает контекстное окно 128k, максимальная длина вывода составляет 16k токенов."
919
919
  },
920
920
  "doubao-seed-1.6": {
921
- "description": "Doubao-Seed-1.6 — новая мультимодальная модель глубокого мышления, поддерживающая три режима мышления: auto, thinking и non-thinking. В режиме non-thinking производительность модели значительно выше по сравнению с Doubao-1.5-pro/250115. Поддерживает контекстное окно до 256k и максимальную длину вывода до 16k токенов."
921
+ "description": "Doubao-Seed-1.6 — новая мультимодальная модель глубокого мышления, поддерживающая три режима мышления: auto, thinking и non-thinking. В режиме non-thinking производительность модели значительно выше по сравнению с Doubao-1.5-pro/250115. Поддерживает контекстное окно размером 256k и максимальную длину вывода до 16k токенов."
922
922
  },
923
923
  "doubao-seed-1.6-flash": {
924
- "description": "Doubao-Seed-1.6-flash — мультимодальная модель глубокого мышления с предельной скоростью вывода, TPOT занимает всего 10 мс; поддерживает понимание текста и визуальных данных, текстовое понимание превосходит предыдущую lite-версию, визуальное понимание сопоставимо с pro-серией конкурентов. Поддерживает контекстное окно до 256k и максимальную длину вывода до 16k токенов."
924
+ "description": "Doubao-Seed-1.6-flash — мультимодальная модель глубокого мышления с экстремально высокой скоростью вывода, TPOT занимает всего 10 мс; поддерживает понимание текста и визуальных данных, текстовое понимание превосходит предыдущую lite-версию, визуальное понимание сопоставимо с pro-серией конкурентов. Поддерживает контекстное окно 256k и максимальную длину вывода до 16k токенов."
925
925
  },
926
926
  "doubao-seed-1.6-thinking": {
927
- "description": "Модель Doubao-Seed-1.6-thinking значительно усилена в способности к мышлению, по сравнению с Doubao-1.5-thinking-pro улучшены базовые навыки в программировании, математике и логическом рассуждении, поддерживает визуальное понимание. Поддерживает контекстное окно до 256k и максимальную длину вывода до 16k токенов."
927
+ "description": "Модель Doubao-Seed-1.6-thinking значительно улучшена в плане мышления, по сравнению с Doubao-1.5-thinking-pro дополнительно повышены базовые способности в программировании, математике и логическом рассуждении, поддерживается визуальное понимание. Поддерживает контекстное окно 256k и максимальную длину вывода до 16k токенов."
928
928
  },
929
929
  "emohaa": {
930
930
  "description": "Emohaa — это психологическая модель, обладающая профессиональными консультационными способностями, помогающая пользователям понимать эмоциональные проблемы."
@@ -1346,8 +1346,8 @@
1346
1346
  "grok-3-mini-fast": {
1347
1347
  "description": "Легковесная модель, которая сначала обдумывает ответ перед разговором. Быстрая и умная, подходит для логических задач без глубоких отраслевых знаний и позволяет проследить исходные размышления."
1348
1348
  },
1349
- "grok-4-0709": {
1350
- "description": "Наша новейшая и самая мощная флагманская модель, демонстрирующая выдающиеся результаты в обработке естественного языка, математических вычислениях и рассуждениях — идеальный универсальный инструмент."
1349
+ "grok-4": {
1350
+ "description": "Наша новейшая и самая мощная флагманская модель, демонстрирующая выдающиеся результаты в обработке естественного языка, математических вычислениях и логическом рассуждении — идеальный универсальный инструмент."
1351
1351
  },
1352
1352
  "gryphe/mythomax-l2-13b": {
1353
1353
  "description": "MythoMax l2 13B — это языковая модель, объединяющая креативность и интеллект, основанная на нескольких ведущих моделях."
@@ -46,6 +46,9 @@
46
46
  "reasoningEffort": {
47
47
  "title": "Akıl Yürütme Gücü"
48
48
  },
49
+ "thinking": {
50
+ "title": "Derin Düşünme Anahtarı"
51
+ },
49
52
  "title": "Model Genişletme Özellikleri"
50
53
  },
51
54
  "history": {
@@ -666,7 +666,7 @@
666
666
  "description": "Codestral, kod üretimine odaklanan son teknoloji bir üretim modelidir, ara doldurma ve kod tamamlama görevlerini optimize etmiştir."
667
667
  },
668
668
  "codex-mini-latest": {
669
- "description": "codex-mini-latest, Codex CLI için özel olarak tasarlanmış o4-mini'nin ince ayar versiyonudur. API üzerinden doğrudan kullanım için, gpt-4.1'den başlamanızı öneririz."
669
+ "description": "codex-mini-latest, Codex CLI için özel olarak ince ayarlanmış o4-mini versiyonudur. API üzerinden doğrudan kullanım için, gpt-4.1'den başlamanızı öneririz."
670
670
  },
671
671
  "cognitivecomputations/dolphin-mixtral-8x22b": {
672
672
  "description": "Dolphin Mixtral 8x22B, talimat takibi, diyalog ve programlama için tasarlanmış bir modeldir."
@@ -726,7 +726,7 @@
726
726
  "description": "Compound-beta-mini, GroqCloud'da desteklenen açık kullanılabilir modellerden güç alan bir bileşik AI sistemidir, kullanıcı sorgularını yanıtlamak için araçları akıllıca ve seçici bir şekilde kullanabilir."
727
727
  },
728
728
  "computer-use-preview": {
729
- "description": "computer-use-preview modeli, \"Bilgisayar Kullanım Araçları\" için özel olarak tasarlanmış bir modeldir ve bilgisayarla ilgili görevleri anlama ve yerine getirme konusunda eğitilmiştir."
729
+ "description": "computer-use-preview modeli, \"Bilgisayar Kullanım Araçları\" için özel olarak tasarlanmış ve bilgisayarla ilgili görevleri anlama ve yerine getirme konusunda eğitilmiş özel bir modeldir."
730
730
  },
731
731
  "dall-e-2": {
732
732
  "description": "İkinci nesil DALL·E modeli, daha gerçekçi ve doğru görüntü üretimi destekler, çözünürlüğü birinci neslin 4 katıdır."
@@ -924,7 +924,7 @@
924
924
  "description": "Doubao-Seed-1.6-flash, TPOT sadece 10ms olan son derece hızlı çok modlu derin düşünme modelidir; hem metin hem de görsel anlayışı destekler, metin anlama yeteneği önceki lite neslini aşar, görsel anlama ise rakiplerin pro serisi modelleriyle eşdeğerdir. 256k bağlam penceresini destekler ve çıktı uzunluğu maksimum 16k token olabilir."
925
925
  },
926
926
  "doubao-seed-1.6-thinking": {
927
- "description": "Doubao-Seed-1.6-thinking modeli düşünme yeteneğinde büyük gelişme göstermiştir; Doubao-1.5-thinking-pro ile karşılaştırıldığında Kodlama, Matematik ve mantıksal akıl yürütme gibi temel yeteneklerde daha da iyileşmiştir ve görsel anlayışı destekler. 256k bağlam penceresini destekler ve çıktı uzunluğu maksimum 16k token olabilir."
927
+ "description": "Doubao-Seed-1.6-thinking modeli düşünme yeteneğinde büyük gelişme göstermiştir, Doubao-1.5-thinking-pro ile karşılaştırıldığında Kodlama, Matematik ve mantıksal akıl yürütme gibi temel yeteneklerde daha da iyileşmiştir, görsel anlayışı destekler. 256k bağlam penceresini destekler ve çıktı uzunluğu maksimum 16k token olabilir."
928
928
  },
929
929
  "emohaa": {
930
930
  "description": "Emohaa, duygusal sorunları anlamalarına yardımcı olmak için profesyonel danışmanlık yeteneklerine sahip bir psikolojik modeldir."
@@ -1305,7 +1305,7 @@
1305
1305
  "description": "GPT-4o mini, OpenAI'nin GPT-4 Omni'den sonra tanıttığı en yeni modeldir. Görsel ve metin girişi destekler ve metin çıktısı verir. En gelişmiş küçük model olarak, diğer son zamanlardaki öncü modellere göre çok daha ucuzdur ve GPT-3.5 Turbo'dan %60'tan fazla daha ucuzdur. En son teknolojiyi korurken, önemli bir maliyet etkinliği sunar. GPT-4o mini, MMLU testinde %82 puan almış olup, şu anda sohbet tercihleri açısından GPT-4'ün üzerinde yer almaktadır."
1306
1306
  },
1307
1307
  "gpt-4o-mini-audio-preview": {
1308
- "description": "GPT-4o mini Ses modeli, ses giriş ve çıkışını destekler."
1308
+ "description": "GPT-4o mini Ses modeli, sesli giriş ve çıkışı destekler."
1309
1309
  },
1310
1310
  "gpt-4o-mini-realtime-preview": {
1311
1311
  "description": "GPT-4o-mini gerçek zamanlı versiyonu, ses ve metin için gerçek zamanlı giriş ve çıkış desteği sunar."
@@ -1346,7 +1346,7 @@
1346
1346
  "grok-3-mini-fast": {
1347
1347
  "description": "Hafif model olup, konuşma öncesi düşünür. Hızlı ve akıllı çalışır, derin alan bilgisi gerektirmeyen mantıksal görevler için uygundur ve orijinal düşünce izlerini elde edebilir."
1348
1348
  },
1349
- "grok-4-0709": {
1349
+ "grok-4": {
1350
1350
  "description": "En yeni ve en güçlü amiral gemisi modelimiz, doğal dil işleme, matematiksel hesaplama ve akıl yürütme alanlarında üstün performans sergiliyor — mükemmel bir çok yönlü oyuncu."
1351
1351
  },
1352
1352
  "gryphe/mythomax-l2-13b": {
@@ -1872,7 +1872,7 @@
1872
1872
  "description": "o1, OpenAI'nin geniş genel bilgiye ihtiyaç duyan karmaşık görevler için uygun yeni bir akıl yürütme modelidir. Bu model, 128K bağlam ve Ekim 2023 bilgi kesim tarihi ile donatılmıştır."
1873
1873
  },
1874
1874
  "o1-pro": {
1875
- "description": "o1 serisi modeller, güçlendirilmiş öğrenme ile eğitilmiş olup, yanıtlamadan önce düşünme yapabilir ve karmaşık akıl yürütme görevlerini yerine getirebilir. o1-pro modeli, daha derin düşünme için daha fazla hesaplama kaynağı kullanır ve böylece sürekli olarak daha kaliteli yanıtlar sunar."
1875
+ "description": "o1 serisi modeller, yanıtlamadan önce düşünme yapabilen ve karmaşık akıl yürütme görevlerini yerine getirebilen pekiştirmeli öğrenme ile eğitilmiştir. o1-pro modeli, daha derin düşünme için daha fazla hesaplama kaynağı kullanır ve böylece sürekli olarak daha kaliteli yanıtlar sunar."
1876
1876
  },
1877
1877
  "o3": {
1878
1878
  "description": "o3, çok çeşitli alanlarda mükemmel performans gösteren çok yönlü güçlü bir modeldir. Matematik, bilim, programlama ve görsel çıkarım görevlerinde yeni standartlar belirler. Ayrıca teknik yazım ve talimat takibi konusunda da uzmandır. Kullanıcılar, metin, kod ve görüntüleri analiz ederek çok adımlı karmaşık sorunları çözebilir."
@@ -1884,7 +1884,7 @@
1884
1884
  "description": "o3-mini, aynı maliyet ve gecikme hedefleriyle yüksek zeka sunan en yeni küçük ölçekli çıkarım modelimizdir."
1885
1885
  },
1886
1886
  "o3-pro": {
1887
- "description": "o3-pro modeli, daha derin düşünmek ve her zaman daha iyi yanıtlar sunmak için daha fazla hesaplama kullanır; yalnızca Responses API altında kullanılabilir."
1887
+ "description": "o3-pro modeli, daha derin düşünmek ve her zaman daha iyi yanıtlar sunmak için daha fazla hesaplama kullanır, yalnızca Responses API altında kullanılabilir."
1888
1888
  },
1889
1889
  "o4-mini": {
1890
1890
  "description": "o4-mini, en yeni küçük o serisi modelimizdir. Hızlı ve etkili çıkarım için optimize edilmiştir ve kodlama ile görsel görevlerde son derece yüksek verimlilik ve performans sergiler."
@@ -46,6 +46,9 @@
46
46
  "reasoningEffort": {
47
47
  "title": "Cường độ suy luận"
48
48
  },
49
+ "thinking": {
50
+ "title": "Công tắc suy nghĩ sâu"
51
+ },
49
52
  "title": "Chức năng mở rộng mô hình"
50
53
  },
51
54
  "history": {
@@ -726,7 +726,7 @@
726
726
  "description": "Compound-beta-mini là một hệ thống AI phức hợp, được hỗ trợ bởi các mô hình có sẵn công khai trong GroqCloud, có khả năng thông minh và chọn lọc sử dụng công cụ để trả lời các truy vấn của người dùng."
727
727
  },
728
728
  "computer-use-preview": {
729
- "description": "Mô hình computer-use-preview được thiết kế chuyên biệt cho \"công cụ sử dụng máy tính\", được huấn luyện để hiểu và thực hiện các nhiệm vụ liên quan đến máy tính."
729
+ "description": "Mô hình computer-use-preview được thiết kế chuyên biệt cho công cụ sử dụng máy tính”, được huấn luyện để hiểu và thực hiện các nhiệm vụ liên quan đến máy tính."
730
730
  },
731
731
  "dall-e-2": {
732
732
  "description": "Mô hình DALL·E thế hệ thứ hai, hỗ trợ tạo hình ảnh chân thực và chính xác hơn, với độ phân giải gấp 4 lần thế hệ đầu tiên."
@@ -924,7 +924,7 @@
924
924
  "description": "Doubao-Seed-1.6-flash là mô hình suy nghĩ sâu đa phương thức với tốc độ suy luận tối ưu, TPOT chỉ cần 10ms; đồng thời hỗ trợ hiểu văn bản và hình ảnh, khả năng hiểu văn bản vượt trội so với thế hệ lite trước, khả năng hiểu hình ảnh sánh ngang với các mô hình pro của đối thủ. Hỗ trợ cửa sổ ngữ cảnh 256k, độ dài đầu ra tối đa 16k tokens."
925
925
  },
926
926
  "doubao-seed-1.6-thinking": {
927
- "description": "Mô hình Doubao-Seed-1.6-thinking có khả năng suy nghĩ được tăng cường đáng kể, so với Doubao-1.5-thinking-pro, nâng cao hơn nữa các năng lực cơ bản như Lập trình, Toán học, luận logic, đồng thời hỗ trợ hiểu hình ảnh. Hỗ trợ cửa sổ ngữ cảnh 256k, độ dài đầu ra tối đa 16k tokens."
927
+ "description": "Mô hình Doubao-Seed-1.6-thinking có khả năng suy nghĩ được tăng cường đáng kể, so với Doubao-1.5-thinking-pro, nâng cao hơn nữa các năng lực cơ bản như lập trình, toán học, suy luận logic, đồng thời hỗ trợ hiểu hình ảnh. Hỗ trợ cửa sổ ngữ cảnh 256k, độ dài đầu ra tối đa 16k tokens."
928
928
  },
929
929
  "emohaa": {
930
930
  "description": "Emohaa là mô hình tâm lý, có khả năng tư vấn chuyên nghiệp, giúp người dùng hiểu các vấn đề cảm xúc."
@@ -1346,7 +1346,7 @@
1346
1346
  "grok-3-mini-fast": {
1347
1347
  "description": "Mô hình nhẹ, suy nghĩ trước khi trả lời. Chạy nhanh, thông minh, phù hợp cho các nhiệm vụ logic không đòi hỏi kiến thức chuyên sâu và có thể truy xuất được chuỗi suy nghĩ gốc."
1348
1348
  },
1349
- "grok-4-0709": {
1349
+ "grok-4": {
1350
1350
  "description": "Mô hình hàng đầu mới nhất và mạnh mẽ nhất của chúng tôi, thể hiện xuất sắc trong xử lý ngôn ngữ tự nhiên, tính toán toán học và suy luận — một lựa chọn toàn diện hoàn hảo."
1351
1351
  },
1352
1352
  "gryphe/mythomax-l2-13b": {
@@ -1884,7 +1884,7 @@
1884
1884
  "description": "o3-mini là mô hình suy diễn nhỏ gọn mới nhất của chúng tôi, cung cấp trí thông minh cao với chi phí và độ trễ tương tự như o1-mini."
1885
1885
  },
1886
1886
  "o3-pro": {
1887
- "description": "Mô hình o3-pro sử dụng nhiều tài nguyên tính toán hơn để suy nghĩ sâu hơn và luôn cung cấp câu trả lời tốt hơn, chỉ hỗ trợ sử dụng dưới API Responses."
1887
+ "description": "Mô hình o3-pro sử dụng nhiều tài nguyên tính toán hơn để suy nghĩ sâu sắc hơn và luôn cung cấp câu trả lời tốt hơn, chỉ hỗ trợ sử dụng dưới API Responses."
1888
1888
  },
1889
1889
  "o4-mini": {
1890
1890
  "description": "o4-mini là mô hình nhỏ gọn mới nhất trong dòng o của chúng tôi. Nó được tối ưu hóa cho suy luận nhanh chóng và hiệu quả, thể hiện hiệu suất và hiệu quả cao trong các nhiệm vụ mã hóa và hình ảnh."
@@ -46,6 +46,9 @@
46
46
  "reasoningEffort": {
47
47
  "title": "推理强度"
48
48
  },
49
+ "thinking": {
50
+ "title": "深度思考开关"
51
+ },
49
52
  "title": "模型扩展功能"
50
53
  },
51
54
  "history": {
@@ -1346,7 +1346,7 @@
1346
1346
  "grok-3-mini-fast": {
1347
1347
  "description": "轻量级模型,回话前会先思考。运行快速、智能,适用于不需要深层领域知识的逻辑任务,并能获取原始的思维轨迹。"
1348
1348
  },
1349
- "grok-4-0709": {
1349
+ "grok-4": {
1350
1350
  "description": "我们最新最强大的旗舰模型,在自然语言处理、数学计算和推理方面表现卓越 —— 是一款完美的全能型选手。"
1351
1351
  },
1352
1352
  "gryphe/mythomax-l2-13b": {
@@ -46,6 +46,9 @@
46
46
  "reasoningEffort": {
47
47
  "title": "推理強度"
48
48
  },
49
+ "thinking": {
50
+ "title": "深度思考開關"
51
+ },
49
52
  "title": "模型擴展功能"
50
53
  },
51
54
  "history": {
@@ -1346,7 +1346,7 @@
1346
1346
  "grok-3-mini-fast": {
1347
1347
  "description": "輕量級模型,對話前會先思考。運行快速、智能,適用於不需要深層領域知識的邏輯任務,並能獲取原始的思維軌跡。"
1348
1348
  },
1349
- "grok-4-0709": {
1349
+ "grok-4": {
1350
1350
  "description": "我們最新最強大的旗艦模型,在自然語言處理、數學計算和推理方面表現卓越 —— 是一款完美的全能型選手。"
1351
1351
  },
1352
1352
  "gryphe/mythomax-l2-13b": {
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@lobehub/chat",
3
- "version": "1.97.11",
3
+ "version": "1.97.13",
4
4
  "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
5
5
  "keywords": [
6
6
  "framework",
@@ -41,11 +41,8 @@
41
41
  "db:generate": "drizzle-kit generate && npm run db:generate-client && npm run workflow:dbml",
42
42
  "db:generate-client": "tsx ./scripts/migrateClientDB/compile-migrations.ts",
43
43
  "db:migrate": "MIGRATION_DB=1 tsx ./scripts/migrateServerDB/index.ts",
44
- "db:push": "drizzle-kit push",
45
- "db:push-test": "NODE_ENV=test drizzle-kit push",
46
44
  "db:studio": "drizzle-kit studio",
47
45
  "db:visualize": "dbdocs build docs/development/database-schema.dbml --project lobe-chat",
48
- "db:z-pull": "drizzle-kit introspect",
49
46
  "desktop:build": "npm run desktop:build-next && npm run desktop:prepare-dist && npm run desktop:build-electron",
50
47
  "desktop:build-electron": "tsx scripts/electronWorkflow/buildElectron.ts",
51
48
  "desktop:build-next": "npm run build:electron",
@@ -170,7 +167,6 @@
170
167
  "@vercel/speed-insights": "^1.2.0",
171
168
  "@xterm/xterm": "^5.5.0",
172
169
  "ahooks": "^3.8.5",
173
- "ai": "^3.4.33",
174
170
  "antd": "^5.26.4",
175
171
  "antd-style": "^3.7.1",
176
172
  "brotli-wasm": "^3.0.1",
@@ -40,6 +40,7 @@ const googleChatModels: AIChatModelCard[] = [
40
40
  id: 'gemini-2.5-pro-preview-06-05',
41
41
  maxOutput: 65_536,
42
42
  pricing: {
43
+ cachedInput: 0.31, // prompts <= 200k tokens
43
44
  input: 1.25, // prompts <= 200k tokens
44
45
  output: 10, // prompts <= 200k tokens
45
46
  },
@@ -65,6 +66,7 @@ const googleChatModels: AIChatModelCard[] = [
65
66
  id: 'gemini-2.5-pro-preview-05-06',
66
67
  maxOutput: 65_536,
67
68
  pricing: {
69
+ cachedInput: 0.31, // prompts <= 200k tokens
68
70
  input: 1.25, // prompts <= 200k tokens
69
71
  output: 10, // prompts <= 200k tokens
70
72
  },
@@ -138,6 +140,7 @@ const googleChatModels: AIChatModelCard[] = [
138
140
  id: 'gemini-2.5-flash-preview-05-20',
139
141
  maxOutput: 65_536,
140
142
  pricing: {
143
+ cachedInput: 0.0375,
141
144
  input: 0.15,
142
145
  output: 3.5, // Thinking
143
146
  },
@@ -162,6 +165,7 @@ const googleChatModels: AIChatModelCard[] = [
162
165
  id: 'gemini-2.5-flash-preview-04-17',
163
166
  maxOutput: 65_536,
164
167
  pricing: {
168
+ cachedInput: 0.0375,
165
169
  input: 0.15,
166
170
  output: 3.5, // Thinking
167
171
  },
@@ -187,7 +191,7 @@ const googleChatModels: AIChatModelCard[] = [
187
191
  maxOutput: 65_536,
188
192
  pricing: {
189
193
  input: 0.15,
190
- output: 3.5, // Thinking
194
+ output: 3.5,
191
195
  },
192
196
  settings: {
193
197
  searchImpl: 'params',
@@ -314,7 +318,6 @@ const googleChatModels: AIChatModelCard[] = [
314
318
  id: 'gemini-2.0-flash-lite',
315
319
  maxOutput: 8192,
316
320
  pricing: {
317
- cachedInput: 0.018_75,
318
321
  input: 0.075,
319
322
  output: 0.3,
320
323
  },
@@ -331,7 +334,6 @@ const googleChatModels: AIChatModelCard[] = [
331
334
  id: 'gemini-2.0-flash-lite-001',
332
335
  maxOutput: 8192,
333
336
  pricing: {
334
- cachedInput: 0.018_75,
335
337
  input: 0.075,
336
338
  output: 0.3,
337
339
  },
@@ -366,7 +368,6 @@ const googleChatModels: AIChatModelCard[] = [
366
368
  id: 'learnlm-2.0-flash-experimental',
367
369
  maxOutput: 32_768,
368
370
  pricing: {
369
- cachedInput: 0,
370
371
  input: 0,
371
372
  output: 0,
372
373
  },
@@ -383,7 +384,6 @@ const googleChatModels: AIChatModelCard[] = [
383
384
  id: 'learnlm-1.5-pro-experimental',
384
385
  maxOutput: 8192,
385
386
  pricing: {
386
- cachedInput: 0,
387
387
  input: 0,
388
388
  output: 0,
389
389
  },
@@ -408,23 +408,6 @@ const googleChatModels: AIChatModelCard[] = [
408
408
  releasedAt: '2024-09-25',
409
409
  type: 'chat',
410
410
  },
411
- {
412
- abilities: {
413
- functionCall: true,
414
- vision: true,
415
- },
416
- contextWindowTokens: 1_008_192,
417
- description: 'Gemini 1.5 Flash 001 是一款高效的多模态模型,支持广泛应用的扩展。',
418
- displayName: 'Gemini 1.5 Flash 001',
419
- id: 'gemini-1.5-flash-001', // Deprecated on 2025-05-27
420
- maxOutput: 8192,
421
- pricing: {
422
- cachedInput: 0.018_75,
423
- input: 0.075,
424
- output: 0.3,
425
- },
426
- type: 'chat',
427
- },
428
411
  {
429
412
  abilities: {
430
413
  functionCall: true,
@@ -444,24 +427,6 @@ const googleChatModels: AIChatModelCard[] = [
444
427
  releasedAt: '2024-09-24',
445
428
  type: 'chat',
446
429
  },
447
- {
448
- abilities: {
449
- functionCall: true,
450
- vision: true,
451
- },
452
- contextWindowTokens: 2_008_192,
453
- description: 'Gemini 1.5 Pro 001 是可扩展的多模态AI解决方案,支持广泛的复杂任务。',
454
- displayName: 'Gemini 1.5 Pro 001 (Paid)',
455
- id: 'gemini-1.5-pro-001', // Deprecated on 2025-05-27
456
- maxOutput: 8192,
457
- pricing: {
458
- cachedInput: 0.3125,
459
- input: 1.25,
460
- output: 5,
461
- },
462
- releasedAt: '2024-02-15',
463
- type: 'chat',
464
- },
465
430
  {
466
431
  abilities: {
467
432
  functionCall: true,