@lobehub/chat 1.62.11 → 1.63.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (107) hide show
  1. package/CHANGELOG.md +33 -0
  2. package/changelog/v1.json +12 -0
  3. package/locales/ar/chat.json +26 -0
  4. package/locales/ar/models.json +21 -0
  5. package/locales/bg-BG/chat.json +26 -0
  6. package/locales/bg-BG/models.json +21 -0
  7. package/locales/de-DE/chat.json +26 -0
  8. package/locales/de-DE/models.json +21 -0
  9. package/locales/en-US/chat.json +26 -0
  10. package/locales/en-US/models.json +21 -0
  11. package/locales/es-ES/chat.json +26 -0
  12. package/locales/es-ES/models.json +21 -0
  13. package/locales/fa-IR/chat.json +26 -0
  14. package/locales/fa-IR/models.json +21 -0
  15. package/locales/fr-FR/chat.json +26 -0
  16. package/locales/fr-FR/models.json +21 -0
  17. package/locales/it-IT/chat.json +26 -0
  18. package/locales/it-IT/models.json +21 -0
  19. package/locales/ja-JP/chat.json +26 -0
  20. package/locales/ja-JP/models.json +21 -0
  21. package/locales/ko-KR/chat.json +26 -0
  22. package/locales/ko-KR/models.json +21 -0
  23. package/locales/nl-NL/chat.json +26 -0
  24. package/locales/nl-NL/models.json +21 -0
  25. package/locales/pl-PL/chat.json +26 -0
  26. package/locales/pl-PL/models.json +21 -0
  27. package/locales/pt-BR/chat.json +26 -0
  28. package/locales/pt-BR/models.json +21 -0
  29. package/locales/ru-RU/chat.json +26 -0
  30. package/locales/ru-RU/models.json +21 -0
  31. package/locales/tr-TR/chat.json +26 -0
  32. package/locales/tr-TR/models.json +21 -0
  33. package/locales/vi-VN/chat.json +26 -0
  34. package/locales/vi-VN/models.json +21 -0
  35. package/locales/zh-CN/chat.json +27 -1
  36. package/locales/zh-CN/models.json +25 -4
  37. package/locales/zh-TW/chat.json +26 -0
  38. package/locales/zh-TW/models.json +21 -0
  39. package/package.json +1 -1
  40. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatInput/Desktop/index.tsx +1 -0
  41. package/src/config/aiModels/google.ts +8 -0
  42. package/src/config/aiModels/groq.ts +111 -95
  43. package/src/config/aiModels/hunyuan.ts +36 -4
  44. package/src/config/aiModels/internlm.ts +4 -5
  45. package/src/config/aiModels/jina.ts +3 -0
  46. package/src/config/aiModels/mistral.ts +35 -21
  47. package/src/config/aiModels/novita.ts +293 -32
  48. package/src/config/aiModels/perplexity.ts +14 -2
  49. package/src/config/aiModels/qwen.ts +91 -37
  50. package/src/config/aiModels/sensenova.ts +70 -17
  51. package/src/config/aiModels/siliconcloud.ts +5 -3
  52. package/src/config/aiModels/stepfun.ts +19 -0
  53. package/src/config/aiModels/taichu.ts +4 -2
  54. package/src/config/aiModels/upstage.ts +24 -11
  55. package/src/config/modelProviders/openrouter.ts +1 -0
  56. package/src/config/modelProviders/qwen.ts +2 -1
  57. package/src/const/settings/agent.ts +1 -0
  58. package/src/database/repositories/aiInfra/index.test.ts +2 -5
  59. package/src/database/repositories/aiInfra/index.ts +6 -2
  60. package/src/database/schemas/message.ts +2 -1
  61. package/src/database/server/models/aiModel.ts +1 -1
  62. package/src/database/server/models/aiProvider.ts +6 -1
  63. package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +38 -0
  64. package/src/features/ChatInput/ActionBar/Model/ExtendControls.tsx +40 -0
  65. package/src/features/ChatInput/ActionBar/Model/index.tsx +132 -0
  66. package/src/features/ChatInput/ActionBar/Params/index.tsx +2 -2
  67. package/src/features/ChatInput/ActionBar/Search/ExaIcon.tsx +15 -0
  68. package/src/features/ChatInput/ActionBar/Search/ModelBuiltinSearch.tsx +68 -0
  69. package/src/features/ChatInput/ActionBar/Search/SwitchPanel.tsx +167 -0
  70. package/src/features/ChatInput/ActionBar/Search/index.tsx +76 -0
  71. package/src/features/ChatInput/ActionBar/config.ts +4 -2
  72. package/src/features/Conversation/Messages/Assistant/SearchGrounding.tsx +153 -0
  73. package/src/features/Conversation/Messages/Assistant/index.tsx +7 -1
  74. package/src/features/ModelSelect/index.tsx +1 -1
  75. package/src/features/ModelSwitchPanel/index.tsx +2 -3
  76. package/src/hooks/useEnabledChatModels.ts +1 -1
  77. package/src/libs/agent-runtime/google/index.test.ts +142 -36
  78. package/src/libs/agent-runtime/google/index.ts +26 -51
  79. package/src/libs/agent-runtime/novita/__snapshots__/index.test.ts.snap +3 -3
  80. package/src/libs/agent-runtime/openrouter/__snapshots__/index.test.ts.snap +3 -3
  81. package/src/libs/agent-runtime/openrouter/index.ts +20 -20
  82. package/src/libs/agent-runtime/perplexity/index.test.ts +2 -2
  83. package/src/libs/agent-runtime/qwen/index.ts +38 -55
  84. package/src/libs/agent-runtime/types/chat.ts +6 -2
  85. package/src/libs/agent-runtime/utils/streams/google-ai.ts +29 -4
  86. package/src/libs/agent-runtime/utils/streams/openai.ts +1 -1
  87. package/src/libs/agent-runtime/utils/streams/protocol.ts +1 -1
  88. package/src/locales/default/chat.ts +28 -0
  89. package/src/services/chat.ts +10 -0
  90. package/src/store/agent/slices/chat/__snapshots__/selectors.test.ts.snap +1 -0
  91. package/src/store/agent/slices/chat/selectors.ts +6 -0
  92. package/src/store/aiInfra/slices/aiModel/selectors.ts +36 -0
  93. package/src/store/aiInfra/slices/aiProvider/initialState.ts +2 -2
  94. package/src/store/aiInfra/slices/aiProvider/selectors.ts +14 -0
  95. package/src/store/chat/slices/aiChat/actions/generateAIChat.ts +15 -5
  96. package/src/store/chat/slices/message/action.ts +1 -1
  97. package/src/store/user/slices/modelList/selectors/modelProvider.ts +1 -1
  98. package/src/store/user/slices/settings/selectors/__snapshots__/settings.test.ts.snap +1 -0
  99. package/src/types/agent/index.ts +4 -0
  100. package/src/types/aiModel.ts +35 -8
  101. package/src/types/aiProvider.ts +7 -10
  102. package/src/types/message/base.ts +2 -5
  103. package/src/types/message/chat.ts +5 -3
  104. package/src/types/openai/chat.ts +5 -0
  105. package/src/types/search.ts +29 -0
  106. package/src/utils/fetch/fetchSSE.ts +11 -11
  107. package/src/features/ChatInput/ActionBar/ModelSwitch.tsx +0 -20
@@ -31,6 +31,9 @@
31
31
  },
32
32
  "duplicateTitle": "{{title}} Copie",
33
33
  "emptyAgent": "Aucun assistant disponible",
34
+ "extendControls": {
35
+ "title": "Fonctionnalités d'extension du modèle"
36
+ },
34
37
  "historyRange": "Plage d'historique",
35
38
  "historySummary": "Résumé des messages historiques",
36
39
  "inbox": {
@@ -84,6 +87,29 @@
84
87
  },
85
88
  "regenerate": "Regénérer",
86
89
  "roleAndArchive": "Rôle et archivage",
90
+ "search": {
91
+ "grounding": {
92
+ "searchQueries": "Mots-clés de recherche",
93
+ "title": "{{count}} résultats trouvés"
94
+ },
95
+ "mode": {
96
+ "auto": {
97
+ "desc": "Détermine intelligemment si une recherche est nécessaire en fonction du contenu de la conversation",
98
+ "title": "Connexion intelligente"
99
+ },
100
+ "disable": "Le modèle actuel ne prend pas en charge l'appel de fonctions, donc la fonctionnalité de connexion intelligente est indisponible",
101
+ "off": {
102
+ "desc": "Utilise uniquement les connaissances de base du modèle, sans recherche en ligne",
103
+ "title": "Déconnexion"
104
+ },
105
+ "on": {
106
+ "desc": "Effectue en continu des recherches en ligne pour obtenir les informations les plus récentes",
107
+ "title": "Toujours connecté"
108
+ },
109
+ "useModelBuiltin": "Utiliser le moteur de recherche intégré du modèle"
110
+ },
111
+ "title": "Recherche en ligne"
112
+ },
87
113
  "searchAgentPlaceholder": "Assistant de recherche...",
88
114
  "sendPlaceholder": "Saisissez votre message...",
89
115
  "sessionGroup": {
@@ -65,6 +65,9 @@
65
65
  "DeepSeek-R1-Distill-Qwen-7B": {
66
66
  "description": "Le modèle distillé DeepSeek-R1 basé sur Qwen2.5-Math-7B optimise les performances d'inférence grâce à l'apprentissage par renforcement et aux données de démarrage à froid, rafraîchissant les références multi-tâches des modèles open source."
67
67
  },
68
+ "Doubao-1.5-vision-pro-32k": {
69
+ "description": "Doubao-1.5-vision-pro est un modèle multimodal de grande taille récemment mis à jour, prenant en charge la reconnaissance d'images à toute résolution et avec des rapports d'aspect extrêmes, améliorant les capacités de raisonnement visuel, de reconnaissance de documents, de compréhension des informations détaillées et de suivi des instructions."
70
+ },
68
71
  "Doubao-lite-128k": {
69
72
  "description": "Doubao-lite présente une rapidité de réponse exceptionnelle et un excellent rapport qualité-prix, offrant des choix plus flexibles pour différents scénarios clients. Prend en charge le raisonnement et le réglage fin avec une fenêtre de contexte de 128k."
70
73
  },
@@ -77,12 +80,21 @@
77
80
  "Doubao-pro-128k": {
78
81
  "description": "Le modèle principal offrant les meilleures performances, adapté aux tâches complexes, avec de bons résultats dans des scénarios tels que le question-réponse, le résumé, la création, la classification de texte et le jeu de rôle. Prend en charge le raisonnement et le réglage fin avec une fenêtre de contexte de 128k."
79
82
  },
83
+ "Doubao-pro-256k": {
84
+ "description": "Le modèle phare avec les meilleures performances, adapté au traitement de tâches complexes, offrant de bons résultats dans des scénarios tels que les questions-réponses de référence, les résumés, la création, la classification de texte et le jeu de rôle. Prend en charge le raisonnement et le réglage fin avec une fenêtre contextuelle de 256k."
85
+ },
80
86
  "Doubao-pro-32k": {
81
87
  "description": "Le modèle principal offrant les meilleures performances, adapté aux tâches complexes, avec de bons résultats dans des scénarios tels que le question-réponse, le résumé, la création, la classification de texte et le jeu de rôle. Prend en charge le raisonnement et le réglage fin avec une fenêtre de contexte de 32k."
82
88
  },
83
89
  "Doubao-pro-4k": {
84
90
  "description": "Le modèle principal offrant les meilleures performances, adapté aux tâches complexes, avec de bons résultats dans des scénarios tels que le question-réponse, le résumé, la création, la classification de texte et le jeu de rôle. Prend en charge le raisonnement et le réglage fin avec une fenêtre de contexte de 4k."
85
91
  },
92
+ "Doubao-vision-lite-32k": {
93
+ "description": "Le modèle Doubao-vision est un modèle multimodal lancé par Doubao, doté de puissantes capacités de compréhension et de raisonnement d'images, ainsi que d'une compréhension précise des instructions. Le modèle a démontré de solides performances dans l'extraction d'informations textuelles à partir d'images et dans des tâches de raisonnement basées sur des images, pouvant être appliqué à des tâches de questions-réponses visuelles plus complexes et variées."
94
+ },
95
+ "Doubao-vision-pro-32k": {
96
+ "description": "Le modèle Doubao-vision est un modèle multimodal lancé par Doubao, doté de puissantes capacités de compréhension et de raisonnement d'images, ainsi que d'une compréhension précise des instructions. Le modèle a démontré de solides performances dans l'extraction d'informations textuelles à partir d'images et dans des tâches de raisonnement basées sur des images, pouvant être appliqué à des tâches de questions-réponses visuelles plus complexes et variées."
97
+ },
86
98
  "ERNIE-3.5-128K": {
87
99
  "description": "Modèle de langage à grande échelle de pointe développé par Baidu, couvrant une vaste quantité de corpus en chinois et en anglais, avec de puissantes capacités générales, capable de répondre à la plupart des exigences en matière de dialogue, de questions-réponses, de création de contenu et d'applications de plugins ; prend en charge l'intégration automatique avec le plugin de recherche Baidu, garantissant la pertinence des informations de réponse."
88
100
  },
@@ -665,6 +677,15 @@
665
677
  "deepseek/deepseek-r1:free": {
666
678
  "description": "DeepSeek-R1 améliore considérablement les capacités de raisonnement du modèle avec très peu de données annotées. Avant de fournir la réponse finale, le modèle génère d'abord une chaîne de pensée pour améliorer l'exactitude de la réponse finale."
667
679
  },
680
+ "doubao-1.5-lite-32k": {
681
+ "description": "Doubao-1.5-lite est un modèle léger de nouvelle génération, offrant une vitesse de réponse extrême, avec des performances et des délais atteignant des niveaux de classe mondiale."
682
+ },
683
+ "doubao-1.5-pro-256k": {
684
+ "description": "Doubao-1.5-pro-256k est une version améliorée de Doubao-1.5-Pro, offrant une amélioration globale de 10%. Il prend en charge le raisonnement avec une fenêtre contextuelle de 256k et une longueur de sortie maximale de 12k tokens. Performances supérieures, plus grande fenêtre, rapport qualité-prix exceptionnel, adapté à un large éventail de scénarios d'application."
685
+ },
686
+ "doubao-1.5-pro-32k": {
687
+ "description": "Doubao-1.5-pro est un modèle phare de nouvelle génération, avec des performances entièrement améliorées, se distinguant dans les domaines de la connaissance, du code, du raisonnement, etc."
688
+ },
668
689
  "emohaa": {
669
690
  "description": "Emohaa est un modèle psychologique, doté de compétences de conseil professionnel, aidant les utilisateurs à comprendre les problèmes émotionnels."
670
691
  },
@@ -31,6 +31,9 @@
31
31
  },
32
32
  "duplicateTitle": "{{title}} Copia",
33
33
  "emptyAgent": "Nessun assistente disponibile",
34
+ "extendControls": {
35
+ "title": "Funzionalità di estensione del modello"
36
+ },
34
37
  "historyRange": "Intervallo cronologico",
35
38
  "historySummary": "Riepilogo della storia",
36
39
  "inbox": {
@@ -84,6 +87,29 @@
84
87
  },
85
88
  "regenerate": "Rigenera",
86
89
  "roleAndArchive": "Ruolo e archivio",
90
+ "search": {
91
+ "grounding": {
92
+ "searchQueries": "Parole chiave di ricerca",
93
+ "title": "Trovati {{count}} risultati"
94
+ },
95
+ "mode": {
96
+ "auto": {
97
+ "desc": "Determina intelligentemente se è necessario cercare in base al contenuto della conversazione",
98
+ "title": "Collegamento intelligente"
99
+ },
100
+ "disable": "Il modello attuale non supporta le chiamate di funzione, quindi non è possibile utilizzare la funzionalità di collegamento intelligente",
101
+ "off": {
102
+ "desc": "Utilizza solo la conoscenza di base del modello, senza effettuare ricerche online",
103
+ "title": "Disattiva collegamento"
104
+ },
105
+ "on": {
106
+ "desc": "Esegue continuamente ricerche online per ottenere le informazioni più recenti",
107
+ "title": "Collegamento sempre attivo"
108
+ },
109
+ "useModelBuiltin": "Utilizza il motore di ricerca integrato del modello"
110
+ },
111
+ "title": "Ricerca online"
112
+ },
87
113
  "searchAgentPlaceholder": "Assistente di ricerca...",
88
114
  "sendPlaceholder": "Inserisci il testo della chat...",
89
115
  "sessionGroup": {
@@ -65,6 +65,9 @@
65
65
  "DeepSeek-R1-Distill-Qwen-7B": {
66
66
  "description": "Il modello di distillazione DeepSeek-R1 basato su Qwen2.5-Math-7B ottimizza le prestazioni di inferenza attraverso l'apprendimento rinforzato e dati di avvio a freddo, aggiornando il benchmark multi-task del modello open source."
67
67
  },
68
+ "Doubao-1.5-vision-pro-32k": {
69
+ "description": "Doubao-1.5-vision-pro è un modello multimodale aggiornato, che supporta il riconoscimento di immagini con qualsiasi risoluzione e rapporti di aspetto estremi, migliorando le capacità di ragionamento visivo, riconoscimento di documenti, comprensione delle informazioni dettagliate e capacità di seguire istruzioni."
70
+ },
68
71
  "Doubao-lite-128k": {
69
72
  "description": "Doubao-lite offre un'estrema velocità di risposta, un miglior rapporto qualità-prezzo e opzioni più flessibili per diversi scenari dei clienti. Supporta inferenze e fine-tuning con una finestra di contesto di 128k."
70
73
  },
@@ -77,12 +80,21 @@
77
80
  "Doubao-pro-128k": {
78
81
  "description": "Il modello principale presenta le migliori prestazioni, adatto per compiti complessi, con risultati eccellenti in scenari di domanda di riferimento, sintesi, creazione, classificazione del testo, e role-playing. Supporta inferenze e fine-tuning con una finestra di contesto di 128k."
79
82
  },
83
+ "Doubao-pro-256k": {
84
+ "description": "Il modello principale con le migliori prestazioni, adatto a gestire compiti complessi, con ottimi risultati in scenari di domande e risposte, riassunti, creazione, classificazione del testo e interpretazione di ruoli. Supporta il ragionamento e il fine-tuning con una finestra di contesto di 256k."
85
+ },
80
86
  "Doubao-pro-32k": {
81
87
  "description": "Il modello principale presenta le migliori prestazioni, adatto per compiti complessi, con risultati eccellenti in scenari di domanda di riferimento, sintesi, creazione, classificazione del testo, e role-playing. Supporta inferenze e fine-tuning con una finestra di contesto di 32k."
82
88
  },
83
89
  "Doubao-pro-4k": {
84
90
  "description": "Il modello principale presenta le migliori prestazioni, adatto per compiti complessi, con risultati eccellenti in scenari di domanda di riferimento, sintesi, creazione, classificazione del testo, e role-playing. Supporta inferenze e fine-tuning con una finestra di contesto di 4k."
85
91
  },
92
+ "Doubao-vision-lite-32k": {
93
+ "description": "Il modello Doubao-vision è un modello multimodale lanciato da Doubao, dotato di potenti capacità di comprensione e ragionamento delle immagini, nonché di una precisa comprensione delle istruzioni. Il modello ha dimostrato prestazioni eccezionali nell'estrazione di informazioni testuali da immagini e in compiti di ragionamento basati su immagini, applicabile a compiti di domanda e risposta visiva più complessi e ampi."
94
+ },
95
+ "Doubao-vision-pro-32k": {
96
+ "description": "Il modello Doubao-vision è un modello multimodale lanciato da Doubao, dotato di potenti capacità di comprensione e ragionamento delle immagini, nonché di una precisa comprensione delle istruzioni. Il modello ha dimostrato prestazioni eccezionali nell'estrazione di informazioni testuali da immagini e in compiti di ragionamento basati su immagini, applicabile a compiti di domanda e risposta visiva più complessi e ampi."
97
+ },
86
98
  "ERNIE-3.5-128K": {
87
99
  "description": "Modello di linguaggio di grande scala di punta sviluppato da Baidu, che copre un'enorme quantità di dati in cinese e inglese, con potenti capacità generali, in grado di soddisfare la maggior parte delle esigenze di domande e risposte, generazione creativa e scenari di applicazione dei plugin; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
88
100
  },
@@ -665,6 +677,15 @@
665
677
  "deepseek/deepseek-r1:free": {
666
678
  "description": "DeepSeek-R1 ha notevolmente migliorato le capacità di ragionamento del modello con pochissimi dati etichettati. Prima di fornire la risposta finale, il modello genera una catena di pensiero per migliorare l'accuratezza della risposta finale."
667
679
  },
680
+ "doubao-1.5-lite-32k": {
681
+ "description": "Doubao-1.5-lite è un modello leggero di nuova generazione, con una velocità di risposta eccezionale, raggiungendo standard di livello mondiale sia in termini di prestazioni che di latenza."
682
+ },
683
+ "doubao-1.5-pro-256k": {
684
+ "description": "Doubao-1.5-pro-256k è una versione completamente aggiornata di Doubao-1.5-Pro, con un miglioramento complessivo delle prestazioni del 10%. Supporta il ragionamento con una finestra di contesto di 256k e una lunghezza di output massima di 12k token. Maggiore prestazioni, finestra più ampia e un eccellente rapporto qualità-prezzo, adatto a una gamma più ampia di scenari applicativi."
685
+ },
686
+ "doubao-1.5-pro-32k": {
687
+ "description": "Doubao-1.5-pro è un modello di nuova generazione, con prestazioni completamente aggiornate, eccellente in conoscenza, codice, ragionamento e altro."
688
+ },
668
689
  "emohaa": {
669
690
  "description": "Emohaa è un modello psicologico, con capacità di consulenza professionale, aiuta gli utenti a comprendere i problemi emotivi."
670
691
  },
@@ -31,6 +31,9 @@
31
31
  },
32
32
  "duplicateTitle": "{{title}} のコピー",
33
33
  "emptyAgent": "エージェントがいません",
34
+ "extendControls": {
35
+ "title": "モデル拡張機能"
36
+ },
34
37
  "historyRange": "履歴範囲",
35
38
  "historySummary": "履歴メッセージの要約",
36
39
  "inbox": {
@@ -84,6 +87,29 @@
84
87
  },
85
88
  "regenerate": "再生成",
86
89
  "roleAndArchive": "役割とアーカイブ",
90
+ "search": {
91
+ "grounding": {
92
+ "searchQueries": "検索キーワード",
93
+ "title": "検索結果が {{count}} 件見つかりました"
94
+ },
95
+ "mode": {
96
+ "auto": {
97
+ "desc": "会話の内容に基づいて、検索が必要かどうかを自動的に判断します",
98
+ "title": "インテリジェント接続"
99
+ },
100
+ "disable": "現在のモデルは関数呼び出しをサポートしていないため、インテリジェント接続機能は使用できません",
101
+ "off": {
102
+ "desc": "モデルの基本知識のみを使用し、ネット検索は行いません",
103
+ "title": "接続をオフ"
104
+ },
105
+ "on": {
106
+ "desc": "最新情報を取得するために継続的にネット検索を行います",
107
+ "title": "常に接続"
108
+ },
109
+ "useModelBuiltin": "モデル内蔵の検索エンジンを使用"
110
+ },
111
+ "title": "ネット接続検索"
112
+ },
87
113
  "searchAgentPlaceholder": "検索アシスタント...",
88
114
  "sendPlaceholder": "チャット内容を入力してください...",
89
115
  "sessionGroup": {
@@ -65,6 +65,9 @@
65
65
  "DeepSeek-R1-Distill-Qwen-7B": {
66
66
  "description": "Qwen2.5-Math-7Bに基づくDeepSeek-R1蒸留モデルで、強化学習とコールドスタートデータを通じて推論性能を最適化し、オープンソースモデルがマルチタスクの基準を刷新しました。"
67
67
  },
68
+ "Doubao-1.5-vision-pro-32k": {
69
+ "description": "Doubao-1.5-vision-proは全く新しいアップグレード版のマルチモーダル大モデルで、任意の解像度と極端なアスペクト比の画像認識をサポートし、視覚推論、文書認識、詳細情報の理解、指示遵守能力を強化しています。"
70
+ },
68
71
  "Doubao-lite-128k": {
69
72
  "description": "Doubao-liteは、極めて高速な応答速度と優れたコストパフォーマンスを備え、顧客のさまざまなシーンに柔軟な選択肢を提供します。128kコンテキストウィンドウの推論と微調整をサポートしています。"
70
73
  },
@@ -77,12 +80,21 @@
77
80
  "Doubao-pro-128k": {
78
81
  "description": "最も効果的な主力モデルで、複雑なタスクの処理に適しており、参考質問応答、要約、創作、テキスト分類、ロールプレイングなどのシーンで素晴らしい結果を出します。128kコンテキストウィンドウの推論と微調整をサポートしています。"
79
82
  },
83
+ "Doubao-pro-256k": {
84
+ "description": "最も効果的な主力モデルで、複雑なタスクの処理に適しており、参考質問応答、要約、創作、テキスト分類、ロールプレイなどのシーンで優れた効果を発揮します。256kのコンテキストウィンドウでの推論とファインチューニングをサポートします。"
85
+ },
80
86
  "Doubao-pro-32k": {
81
87
  "description": "最も効果的な主力モデルで、複雑なタスクの処理に適しており、参考質問応答、要約、創作、テキスト分類、ロールプレイングなどのシーンで素晴らしい結果を出します。32kコンテキストウィンドウの推論と微調整をサポートしています。"
82
88
  },
83
89
  "Doubao-pro-4k": {
84
90
  "description": "最も効果的な主力モデルで、複雑なタスクの処理に適しており、参考質問応答、要約、創作、テキスト分類、ロールプレイングなどのシーンで素晴らしい結果を出します。4kコンテキストウィンドウの推論と微調整をサポートしています。"
85
91
  },
92
+ "Doubao-vision-lite-32k": {
93
+ "description": "Doubao-visionモデルは豆包が提供するマルチモーダル大モデルで、強力な画像理解と推論能力、正確な指示理解能力を備えています。モデルは画像テキスト情報の抽出や画像に基づく推論タスクで強力な性能を発揮し、より複雑で広範な視覚的質問応答タスクに応用できます。"
94
+ },
95
+ "Doubao-vision-pro-32k": {
96
+ "description": "Doubao-visionモデルは豆包が提供するマルチモーダル大モデルで、強力な画像理解と推論能力、正確な指示理解能力を備えています。モデルは画像テキスト情報の抽出や画像に基づく推論タスクで強力な性能を発揮し、より複雑で広範な視覚的質問応答タスクに応用できます。"
97
+ },
86
98
  "ERNIE-3.5-128K": {
87
99
  "description": "百度が独自に開発したフラッグシップの大規模言語モデルで、膨大な中英語のコーパスをカバーし、強力な汎用能力を持っています。ほとんどの対話型質問応答、創作生成、プラグインアプリケーションの要件を満たすことができます。また、百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。"
88
100
  },
@@ -665,6 +677,15 @@
665
677
  "deepseek/deepseek-r1:free": {
666
678
  "description": "DeepSeek-R1は、わずかなラベル付きデータしかない状況で、モデルの推論能力を大幅に向上させました。最終的な回答を出力する前に、モデルは思考の連鎖を出力し、最終的な答えの正確性を向上させます。"
667
679
  },
680
+ "doubao-1.5-lite-32k": {
681
+ "description": "Doubao-1.5-liteは全く新しい世代の軽量版モデルで、極限の応答速度を実現し、効果と遅延の両方で世界トップレベルに達しています。"
682
+ },
683
+ "doubao-1.5-pro-256k": {
684
+ "description": "Doubao-1.5-pro-256kはDoubao-1.5-Proの全面的なアップグレード版で、全体的な効果が10%大幅に向上しました。256kのコンテキストウィンドウでの推論をサポートし、出力長は最大12kトークンをサポートします。より高い性能、より大きなウィンドウ、超高コストパフォーマンスで、より広範なアプリケーションシーンに適しています。"
685
+ },
686
+ "doubao-1.5-pro-32k": {
687
+ "description": "Doubao-1.5-proは全く新しい世代の主力モデルで、性能が全面的にアップグレードされ、知識、コード、推論などの面で卓越したパフォーマンスを発揮します。"
688
+ },
668
689
  "emohaa": {
669
690
  "description": "Emohaaは心理モデルで、専門的な相談能力を持ち、ユーザーが感情問題を理解するのを助けます。"
670
691
  },
@@ -31,6 +31,9 @@
31
31
  },
32
32
  "duplicateTitle": "{{title}} 복사본",
33
33
  "emptyAgent": "도우미가 없습니다",
34
+ "extendControls": {
35
+ "title": "모델 확장 기능"
36
+ },
34
37
  "historyRange": "대화 기록 범위",
35
38
  "historySummary": "역사 메시지 요약",
36
39
  "inbox": {
@@ -84,6 +87,29 @@
84
87
  },
85
88
  "regenerate": "재생성",
86
89
  "roleAndArchive": "역할 및 아카이브",
90
+ "search": {
91
+ "grounding": {
92
+ "searchQueries": "검색 키워드",
93
+ "title": "{{count}}개의 결과가 검색되었습니다"
94
+ },
95
+ "mode": {
96
+ "auto": {
97
+ "desc": "대화 내용을 기반으로 검색 필요성을 스마트하게 판단",
98
+ "title": "스마트 연결"
99
+ },
100
+ "disable": "현재 모델은 함수 호출을 지원하지 않으므로 스마트 연결 기능을 사용할 수 없습니다",
101
+ "off": {
102
+ "desc": "모델의 기본 지식만 사용하고 네트워크 검색을 수행하지 않음",
103
+ "title": "연결 끄기"
104
+ },
105
+ "on": {
106
+ "desc": "지속적으로 네트워크 검색을 수행하여 최신 정보를 얻음",
107
+ "title": "항상 연결"
108
+ },
109
+ "useModelBuiltin": "모델 내장 검색 엔진 사용"
110
+ },
111
+ "title": "연결 검색"
112
+ },
87
113
  "searchAgentPlaceholder": "검색 도우미...",
88
114
  "sendPlaceholder": "채팅 내용 입력...",
89
115
  "sessionGroup": {
@@ -65,6 +65,9 @@
65
65
  "DeepSeek-R1-Distill-Qwen-7B": {
66
66
  "description": "Qwen2.5-Math-7B를 기반으로 한 DeepSeek-R1 증류 모델로, 강화 학습과 콜드 스타트 데이터를 통해 추론 성능을 최적화하며, 오픈 소스 모델로 다중 작업 기준을 갱신합니다."
67
67
  },
68
+ "Doubao-1.5-vision-pro-32k": {
69
+ "description": "Doubao-1.5-vision-pro는 새롭게 업그레이드된 다중 모달 대형 모델로, 임의의 해상도와 극단적인 가로 세로 비율의 이미지 인식을 지원하며, 시각적 추론, 문서 인식, 세부 정보 이해 및 지시 준수 능력을 강화했습니다."
70
+ },
68
71
  "Doubao-lite-128k": {
69
72
  "description": "Doubao-lite는 극한의 응답 속도와 더 나은 가격 대비 성능을 자랑하며, 고객의 다양한 상황에 유연한 선택을 제공합니다. 128k 컨텍스트 윈도우의 추론 및 세부 조정을 지원합니다."
70
73
  },
@@ -77,12 +80,21 @@
77
80
  "Doubao-pro-128k": {
78
81
  "description": "가장 효과적인 주력 모델로, 복잡한 작업 처리에 적합하며, 참고 질문, 요약, 창작, 텍스트 분류, 역할 수행 등 많은 장면에서 뛰어난 성과를 보입니다. 128k 컨텍스트 윈도우의 추론 및 세부 조정을 지원합니다."
79
82
  },
83
+ "Doubao-pro-256k": {
84
+ "description": "가장 효과적인 주력 모델로, 복잡한 작업 처리에 적합하며, 참고 질문 응답, 요약, 창작, 텍스트 분류, 역할 수행 등 다양한 상황에서 좋은 성과를 보입니다. 256k의 컨텍스트 윈도우 추론 및 미세 조정을 지원합니다."
85
+ },
80
86
  "Doubao-pro-32k": {
81
87
  "description": "가장 효과적인 주력 모델로, 복잡한 작업 처리에 적합하며, 참고 질문, 요약, 창작, 텍스트 분류, 역할 수행 등 많은 장면에서 뛰어난 성과를 보입니다. 32k 컨텍스트 윈도우의 추론 및 세부 조정을 지원합니다."
82
88
  },
83
89
  "Doubao-pro-4k": {
84
90
  "description": "가장 효과적인 주력 모델로, 복잡한 작업 처리에 적합하며, 참고 질문, 요약, 창작, 텍스트 분류, 역할 수행 등 많은 장면에서 뛰어난 성과를 보입니다. 4k 컨텍스트 윈도우의 추론 및 세부 조정을 지원합니다."
85
91
  },
92
+ "Doubao-vision-lite-32k": {
93
+ "description": "Doubao-vision 모델은 Doubao에서 출시한 다중 모달 대형 모델로, 강력한 이미지 이해 및 추론 능력과 정확한 지시 이해 능력을 갖추고 있습니다. 이 모델은 이미지 텍스트 정보 추출 및 이미지 기반 추론 작업에서 강력한 성능을 보여주며, 더 복잡하고 넓은 시각적 질문 응답 작업에 적용될 수 있습니다."
94
+ },
95
+ "Doubao-vision-pro-32k": {
96
+ "description": "Doubao-vision 모델은 Doubao에서 출시한 다중 모달 대형 모델로, 강력한 이미지 이해 및 추론 능력과 정확한 지시 이해 능력을 갖추고 있습니다. 이 모델은 이미지 텍스트 정보 추출 및 이미지 기반 추론 작업에서 강력한 성능을 보여주며, 더 복잡하고 넓은 시각적 질문 응답 작업에 적용될 수 있습니다."
97
+ },
86
98
  "ERNIE-3.5-128K": {
87
99
  "description": "바이두가 자체 개발한 플래그십 대규모 언어 모델로, 방대한 중문 및 영문 코퍼스를 포함하고 있으며, 강력한 일반 능력을 갖추고 있어 대부분의 대화형 질문 응답, 창작 생성, 플러그인 응용 시나리오 요구를 충족할 수 있습니다. 또한 바이두 검색 플러그인과의 자동 연동을 지원하여 질문 응답 정보의 시의성을 보장합니다."
88
100
  },
@@ -665,6 +677,15 @@
665
677
  "deepseek/deepseek-r1:free": {
666
678
  "description": "DeepSeek-R1은 극히 적은 주석 데이터로 모델의 추론 능력을 크게 향상시킵니다. 최종 답변을 출력하기 전에 모델은 먼저 사고의 연쇄 내용을 출력하여 최종 답변의 정확성을 높입니다."
667
679
  },
680
+ "doubao-1.5-lite-32k": {
681
+ "description": "Doubao-1.5-lite는 전혀 새로운 세대의 경량 모델로, 극한의 응답 속도를 자랑하며, 효과와 지연 모두 세계 최고 수준에 도달했습니다."
682
+ },
683
+ "doubao-1.5-pro-256k": {
684
+ "description": "Doubao-1.5-pro-256k는 Doubao-1.5-Pro의 전면 업그레이드 버전으로, 전체적인 효과가 10% 향상되었습니다. 256k의 컨텍스트 윈도우를 지원하며, 출력 길이는 최대 12k 토큰을 지원합니다. 더 높은 성능, 더 큰 윈도우, 뛰어난 가성비로 더 넓은 응용 분야에 적합합니다."
685
+ },
686
+ "doubao-1.5-pro-32k": {
687
+ "description": "Doubao-1.5-pro는 전혀 새로운 세대의 주력 모델로, 성능이 전면적으로 업그레이드되어 지식, 코드, 추론 등 여러 분야에서 뛰어난 성능을 발휘합니다."
688
+ },
668
689
  "emohaa": {
669
690
  "description": "Emohaa는 심리 모델로, 전문 상담 능력을 갖추고 있어 사용자가 감정 문제를 이해하는 데 도움을 줍니다."
670
691
  },
@@ -31,6 +31,9 @@
31
31
  },
32
32
  "duplicateTitle": "{{title}} Kopie",
33
33
  "emptyAgent": "Geen assistent beschikbaar",
34
+ "extendControls": {
35
+ "title": "Modeluitbreidingsfuncties"
36
+ },
34
37
  "historyRange": "Geschiedenisbereik",
35
38
  "historySummary": "Geschiedenis samenvatting",
36
39
  "inbox": {
@@ -84,6 +87,29 @@
84
87
  },
85
88
  "regenerate": "Opnieuw genereren",
86
89
  "roleAndArchive": "Rol en archief",
90
+ "search": {
91
+ "grounding": {
92
+ "searchQueries": "Zoekwoorden",
93
+ "title": "Er zijn {{count}} resultaten gevonden"
94
+ },
95
+ "mode": {
96
+ "auto": {
97
+ "desc": "Intelligente beoordeling of er gezocht moet worden op basis van de gesprekinhoud",
98
+ "title": "Slimme verbinding"
99
+ },
100
+ "disable": "Het huidige model ondersteunt geen functieaanroepen, dus de slimme verbindingsfunctie kan niet worden gebruikt",
101
+ "off": {
102
+ "desc": "Gebruik alleen de basiskennis van het model, zonder online zoekopdrachten",
103
+ "title": "Verbinding uitschakelen"
104
+ },
105
+ "on": {
106
+ "desc": "Voortdurend online zoeken voor de nieuwste informatie",
107
+ "title": "Altijd verbonden"
108
+ },
109
+ "useModelBuiltin": "Gebruik de ingebouwde zoekmachine van het model"
110
+ },
111
+ "title": "Online zoeken"
112
+ },
87
113
  "searchAgentPlaceholder": "Zoekassistent...",
88
114
  "sendPlaceholder": "Voer chatbericht in...",
89
115
  "sessionGroup": {
@@ -65,6 +65,9 @@
65
65
  "DeepSeek-R1-Distill-Qwen-7B": {
66
66
  "description": "DeepSeek-R1 distillatiemodel gebaseerd op Qwen2.5-Math-7B, geoptimaliseerd voor inferentieprestaties door versterkend leren en koude startdata, open-source model dat de multi-taak benchmark vernieuwt."
67
67
  },
68
+ "Doubao-1.5-vision-pro-32k": {
69
+ "description": "Doubao-1.5-vision-pro is een nieuw geüpgraded multimodaal groot model, dat ondersteuning biedt voor beeldherkenning met willekeurige resoluties en extreme beeldverhoudingen, en de visuele redenering, documentherkenning, begrip van gedetailleerde informatie en het volgen van instructies verbetert."
70
+ },
68
71
  "Doubao-lite-128k": {
69
72
  "description": "Doubao-lite beschikt over een uitstekende responssnelheid en een goede prijs-kwaliteitverhouding, en biedt klanten flexibele keuzes voor verschillende scenario's. Ondersteunt inferentie en fine-tuning met een contextvenster van 128k."
70
73
  },
@@ -77,12 +80,21 @@
77
80
  "Doubao-pro-128k": {
78
81
  "description": "Het meest effectieve hoofmodel, geschikt voor het verwerken van complexe taken, met goede resultaten in referentievraag, samenvattingen, creatie, tekstclassificatie, rollenspellen en meer. Ondersteunt inferentie en fine-tuning met een contextvenster van 128k."
79
82
  },
83
+ "Doubao-pro-256k": {
84
+ "description": "Het beste hoofdmachine model, geschikt voor het verwerken van complexe taken, met goede prestaties in referentievraag- en antwoordsituaties, samenvattingen, creatie, tekstclassificatie, rollenspellen, enz. Ondersteunt redenering en fine-tuning met een contextvenster van 256k."
85
+ },
80
86
  "Doubao-pro-32k": {
81
87
  "description": "Het meest effectieve hoofmodel, geschikt voor het verwerken van complexe taken, met goede resultaten in referentievraag, samenvattingen, creatie, tekstclassificatie, rollenspellen en meer. Ondersteunt inferentie en fine-tuning met een contextvenster van 32k."
82
88
  },
83
89
  "Doubao-pro-4k": {
84
90
  "description": "Het meest effectieve hoofmodel, geschikt voor het verwerken van complexe taken, met goede resultaten in referentievraag, samenvattingen, creatie, tekstclassificatie, rollenspellen en meer. Ondersteunt inferentie en fine-tuning met een contextvenster van 4k."
85
91
  },
92
+ "Doubao-vision-lite-32k": {
93
+ "description": "Het Doubao-vision model is een multimodaal groot model dat door Doubao is geïntroduceerd, met krachtige mogelijkheden voor beeldbegrip en redenering, evenals nauwkeurige instructiebegrip. Het model heeft sterke prestaties getoond in het extraheren van tekstinformatie uit afbeeldingen en op afbeeldingen gebaseerde redeneringstaken, en kan worden toegepast op complexere en bredere visuele vraag- en antwoordsituaties."
94
+ },
95
+ "Doubao-vision-pro-32k": {
96
+ "description": "Het Doubao-vision model is een multimodaal groot model dat door Doubao is geïntroduceerd, met krachtige mogelijkheden voor beeldbegrip en redenering, evenals nauwkeurige instructiebegrip. Het model heeft sterke prestaties getoond in het extraheren van tekstinformatie uit afbeeldingen en op afbeeldingen gebaseerde redeneringstaken, en kan worden toegepast op complexere en bredere visuele vraag- en antwoordsituaties."
97
+ },
86
98
  "ERNIE-3.5-128K": {
87
99
  "description": "De door Baidu ontwikkelde vlaggenschip grote taalmodel, dat een enorme hoeveelheid Chinese en Engelse gegevens dekt, met krachtige algemene capaciteiten die voldoen aan de meeste eisen voor dialoogvragen, creatieve generatie en plug-in toepassingsscenario's; ondersteunt automatische integratie met de Baidu zoekplug-in, wat de actualiteit van vraag- en antwoordinformatie waarborgt."
88
100
  },
@@ -665,6 +677,15 @@
665
677
  "deepseek/deepseek-r1:free": {
666
678
  "description": "DeepSeek-R1 heeft de redeneringscapaciteiten van het model aanzienlijk verbeterd, zelfs met zeer weinig gelabelde gegevens. Voordat het model het uiteindelijke antwoord geeft, genereert het eerst een denkproces om de nauwkeurigheid van het uiteindelijke antwoord te verbeteren."
667
679
  },
680
+ "doubao-1.5-lite-32k": {
681
+ "description": "Doubao-1.5-lite is de nieuwste generatie lichtgewicht model, met extreme responssnelheid en prestaties die wereldwijd tot de top behoren."
682
+ },
683
+ "doubao-1.5-pro-256k": {
684
+ "description": "Doubao-1.5-pro-256k is een uitgebreide upgrade van Doubao-1.5-Pro, met een algehele prestatieverbetering van 10%. Ondersteunt redenering met een contextvenster van 256k en een maximale uitvoerlengte van 12k tokens. Hogere prestaties, groter venster, uitstekende prijs-kwaliteitverhouding, geschikt voor een breder scala aan toepassingsscenario's."
685
+ },
686
+ "doubao-1.5-pro-32k": {
687
+ "description": "Doubao-1.5-pro is de nieuwste generatie hoofdmachine, met algehele prestatie-upgrades en uitstekende prestaties op het gebied van kennis, code, redenering, enz."
688
+ },
668
689
  "emohaa": {
669
690
  "description": "Emohaa is een psychologisch model met professionele adviescapaciteiten, dat gebruikers helpt emotionele problemen te begrijpen."
670
691
  },
@@ -31,6 +31,9 @@
31
31
  },
32
32
  "duplicateTitle": "{{title}} kopia",
33
33
  "emptyAgent": "Brak asystenta",
34
+ "extendControls": {
35
+ "title": "Funkcje rozszerzenia modelu"
36
+ },
34
37
  "historyRange": "Zakres historii",
35
38
  "historySummary": "Podsumowanie wiadomości historycznych",
36
39
  "inbox": {
@@ -84,6 +87,29 @@
84
87
  },
85
88
  "regenerate": "Wygeneruj ponownie",
86
89
  "roleAndArchive": "Rola i archiwum",
90
+ "search": {
91
+ "grounding": {
92
+ "searchQueries": "Szukaj słów kluczowych",
93
+ "title": "Znaleziono {{count}} wyników"
94
+ },
95
+ "mode": {
96
+ "auto": {
97
+ "desc": "Inteligentne określenie, czy potrzebne jest wyszukiwanie na podstawie treści rozmowy",
98
+ "title": "Inteligentne połączenie"
99
+ },
100
+ "disable": "Aktualny model nie obsługuje wywołań funkcji, więc nie można korzystać z inteligentnego połączenia",
101
+ "off": {
102
+ "desc": "Używaj tylko podstawowej wiedzy modelu, bez wyszukiwania w sieci",
103
+ "title": "Wyłącz połączenie"
104
+ },
105
+ "on": {
106
+ "desc": "Ciągłe wyszukiwanie w sieci, aby uzyskać najnowsze informacje",
107
+ "title": "Zawsze połączony"
108
+ },
109
+ "useModelBuiltin": "Użyj wbudowanej wyszukiwarki modelu"
110
+ },
111
+ "title": "Wyszukiwanie w sieci"
112
+ },
87
113
  "searchAgentPlaceholder": "Wyszukaj pomocnika...",
88
114
  "sendPlaceholder": "Wpisz treść rozmowy...",
89
115
  "sessionGroup": {
@@ -65,6 +65,9 @@
65
65
  "DeepSeek-R1-Distill-Qwen-7B": {
66
66
  "description": "Model destylacyjny DeepSeek-R1 oparty na Qwen2.5-Math-7B, optymalizujący wydajność wnioskowania dzięki uczeniu przez wzmocnienie i danym z zimnego startu, otwarty model ustanawiający nowe standardy w wielu zadaniach."
67
67
  },
68
+ "Doubao-1.5-vision-pro-32k": {
69
+ "description": "Doubao-1.5-vision-pro to nowa wersja ulepszonego modelu multimodalnego, który obsługuje rozpoznawanie obrazów o dowolnej rozdzielczości i ekstremalnych proporcjach, wzmacniając zdolności wnioskowania wizualnego, rozpoznawania dokumentów, rozumienia szczegółowych informacji oraz przestrzegania instrukcji."
70
+ },
68
71
  "Doubao-lite-128k": {
69
72
  "description": "Doubao-lite cechuje się ekstremalną szybkością reakcji i lepszym stosunkiem jakości do ceny, oferując klientom elastyczność w różnych scenariuszach. Obsługuje wnioskowanie i dostosowywanie z kontekstem 128k."
70
73
  },
@@ -77,12 +80,21 @@
77
80
  "Doubao-pro-128k": {
78
81
  "description": "Model o najlepszych wynikach, odpowiedni do złożonych zadań, z doskonałymi wynikami w scenariuszach takich jak odpowiedzi referencyjne, podsumowania, twórczość, klasyfikacja tekstu i odgrywanie ról. Obsługuje wnioskowanie i dostosowywanie z kontekstem 128k."
79
82
  },
83
+ "Doubao-pro-256k": {
84
+ "description": "Najlepszy model główny, odpowiedni do obsługi złożonych zadań, osiągający dobre wyniki w scenariuszach takich jak pytania i odpowiedzi, podsumowania, twórczość, klasyfikacja tekstu, odgrywanie ról itp. Obsługuje wnioskowanie i dostrajanie w kontekście 256k."
85
+ },
80
86
  "Doubao-pro-32k": {
81
87
  "description": "Model o najlepszych wynikach, odpowiedni do złożonych zadań, z doskonałymi wynikami w scenariuszach takich jak odpowiedzi referencyjne, podsumowania, twórczość, klasyfikacja tekstu i odgrywanie ról. Obsługuje wnioskowanie i dostosowywanie z kontekstem 32k."
82
88
  },
83
89
  "Doubao-pro-4k": {
84
90
  "description": "Model o najlepszych wynikach, odpowiedni do złożonych zadań, z doskonałymi wynikami w scenariuszach takich jak odpowiedzi referencyjne, podsumowania, twórczość, klasyfikacja tekstu i odgrywanie ról. Obsługuje wnioskowanie i dostosowywanie z kontekstem 4k."
85
91
  },
92
+ "Doubao-vision-lite-32k": {
93
+ "description": "Model Doubao-vision to multimodalny model stworzony przez Doubao, który dysponuje potężnymi zdolnościami rozumienia i wnioskowania obrazów oraz precyzyjnym rozumieniem instrukcji. Model wykazuje silną wydajność w zakresie ekstrakcji informacji tekstowych z obrazów oraz zadań wnioskowania opartych na obrazach, co pozwala na zastosowanie w bardziej złożonych i szerszych zadaniach wizualnych."
94
+ },
95
+ "Doubao-vision-pro-32k": {
96
+ "description": "Model Doubao-vision to multimodalny model stworzony przez Doubao, który dysponuje potężnymi zdolnościami rozumienia i wnioskowania obrazów oraz precyzyjnym rozumieniem instrukcji. Model wykazuje silną wydajność w zakresie ekstrakcji informacji tekstowych z obrazów oraz zadań wnioskowania opartych na obrazach, co pozwala na zastosowanie w bardziej złożonych i szerszych zadaniach wizualnych."
97
+ },
86
98
  "ERNIE-3.5-128K": {
87
99
  "description": "Flagowy model dużego języka opracowany przez Baidu, obejmujący ogromne zbiory danych w języku chińskim i angielskim, charakteryzujący się silnymi zdolnościami ogólnymi, zdolny do spełnienia wymagań w większości scenariuszy związanych z pytaniami i odpowiedziami, generowaniem treści oraz aplikacjami wtyczek; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji w odpowiedziach."
88
100
  },
@@ -665,6 +677,15 @@
665
677
  "deepseek/deepseek-r1:free": {
666
678
  "description": "DeepSeek-R1 znacznie poprawił zdolności wnioskowania modelu przy minimalnej ilości oznaczonych danych. Przed wygenerowaniem ostatecznej odpowiedzi, model najpierw wygeneruje fragment myślenia, aby zwiększyć dokładność końcowej odpowiedzi."
667
679
  },
680
+ "doubao-1.5-lite-32k": {
681
+ "description": "Doubao-1.5-lite to nowa generacja modelu o lekkiej konstrukcji, charakteryzująca się ekstremalną szybkością reakcji, osiągając światowy poziom zarówno w zakresie wydajności, jak i opóźnienia."
682
+ },
683
+ "doubao-1.5-pro-256k": {
684
+ "description": "Doubao-1.5-pro-256k to kompleksowa wersja ulepszona na bazie Doubao-1.5-Pro, która oferuje znaczny wzrost wydajności o 10%. Obsługuje wnioskowanie w kontekście 256k, a maksymalna długość wyjścia wynosi 12k tokenów. Wyższa wydajność, większe okno, doskonały stosunek jakości do ceny, odpowiedni do szerszego zakresu zastosowań."
685
+ },
686
+ "doubao-1.5-pro-32k": {
687
+ "description": "Doubao-1.5-pro to nowa generacja głównego modelu, który oferuje kompleksowe ulepszenia wydajności, wykazując doskonałe wyniki w zakresie wiedzy, kodowania, wnioskowania i innych obszarów."
688
+ },
668
689
  "emohaa": {
669
690
  "description": "Emohaa to model psychologiczny, posiadający profesjonalne umiejętności doradcze, pomagający użytkownikom zrozumieć problemy emocjonalne."
670
691
  },
@@ -31,6 +31,9 @@
31
31
  },
32
32
  "duplicateTitle": "{{title}} Cópia",
33
33
  "emptyAgent": "Sem assistente disponível",
34
+ "extendControls": {
35
+ "title": "Funcionalidade de Extensão do Modelo"
36
+ },
34
37
  "historyRange": "Intervalo de Histórico",
35
38
  "historySummary": "Resumo das mensagens históricas",
36
39
  "inbox": {
@@ -84,6 +87,29 @@
84
87
  },
85
88
  "regenerate": "Regenerar",
86
89
  "roleAndArchive": "Função e Arquivo",
90
+ "search": {
91
+ "grounding": {
92
+ "searchQueries": "Palavras-chave de pesquisa",
93
+ "title": "Foram encontrados {{count}} resultados"
94
+ },
95
+ "mode": {
96
+ "auto": {
97
+ "desc": "Determina inteligentemente se é necessário pesquisar com base no conteúdo da conversa",
98
+ "title": "Conexão Inteligente"
99
+ },
100
+ "disable": "O modelo atual não suporta chamadas de função, portanto, a funcionalidade de conexão inteligente não está disponível",
101
+ "off": {
102
+ "desc": "Usa apenas o conhecimento básico do modelo, sem realizar pesquisas na web",
103
+ "title": "Desativar Conexão"
104
+ },
105
+ "on": {
106
+ "desc": "Realiza pesquisas contínuas na web para obter informações atualizadas",
107
+ "title": "Sempre Conectado"
108
+ },
109
+ "useModelBuiltin": "Usar o mecanismo de busca embutido no modelo"
110
+ },
111
+ "title": "Pesquisa Conectada"
112
+ },
87
113
  "searchAgentPlaceholder": "Assistente de busca...",
88
114
  "sendPlaceholder": "Digite a mensagem...",
89
115
  "sessionGroup": {