@lobehub/chat 1.63.3 → 1.64.0
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/locales/ar/models.json +25 -16
- package/locales/ar/plugin.json +16 -0
- package/locales/ar/portal.json +0 -5
- package/locales/ar/tool.json +18 -0
- package/locales/bg-BG/models.json +25 -16
- package/locales/bg-BG/plugin.json +16 -0
- package/locales/bg-BG/portal.json +0 -5
- package/locales/bg-BG/tool.json +18 -0
- package/locales/de-DE/models.json +25 -16
- package/locales/de-DE/plugin.json +16 -0
- package/locales/de-DE/portal.json +0 -5
- package/locales/de-DE/tool.json +18 -0
- package/locales/en-US/models.json +24 -15
- package/locales/en-US/plugin.json +16 -0
- package/locales/en-US/portal.json +0 -5
- package/locales/en-US/tool.json +18 -0
- package/locales/es-ES/models.json +25 -16
- package/locales/es-ES/plugin.json +16 -0
- package/locales/es-ES/portal.json +0 -5
- package/locales/es-ES/tool.json +18 -0
- package/locales/fa-IR/models.json +25 -16
- package/locales/fa-IR/plugin.json +16 -0
- package/locales/fa-IR/portal.json +0 -5
- package/locales/fa-IR/tool.json +18 -0
- package/locales/fr-FR/models.json +25 -16
- package/locales/fr-FR/plugin.json +16 -0
- package/locales/fr-FR/portal.json +0 -5
- package/locales/fr-FR/tool.json +18 -0
- package/locales/it-IT/models.json +25 -16
- package/locales/it-IT/plugin.json +16 -0
- package/locales/it-IT/portal.json +0 -5
- package/locales/it-IT/tool.json +18 -0
- package/locales/ja-JP/models.json +24 -15
- package/locales/ja-JP/plugin.json +16 -0
- package/locales/ja-JP/portal.json +0 -5
- package/locales/ja-JP/tool.json +18 -0
- package/locales/ko-KR/models.json +25 -16
- package/locales/ko-KR/plugin.json +16 -0
- package/locales/ko-KR/portal.json +0 -5
- package/locales/ko-KR/tool.json +18 -0
- package/locales/nl-NL/models.json +25 -16
- package/locales/nl-NL/plugin.json +16 -0
- package/locales/nl-NL/portal.json +0 -5
- package/locales/nl-NL/tool.json +18 -0
- package/locales/pl-PL/models.json +25 -16
- package/locales/pl-PL/plugin.json +16 -0
- package/locales/pl-PL/portal.json +0 -5
- package/locales/pl-PL/tool.json +18 -0
- package/locales/pt-BR/models.json +24 -15
- package/locales/pt-BR/plugin.json +16 -0
- package/locales/pt-BR/portal.json +0 -5
- package/locales/pt-BR/tool.json +18 -0
- package/locales/ru-RU/models.json +25 -16
- package/locales/ru-RU/plugin.json +16 -0
- package/locales/ru-RU/portal.json +0 -5
- package/locales/ru-RU/tool.json +18 -0
- package/locales/tr-TR/models.json +25 -16
- package/locales/tr-TR/plugin.json +16 -0
- package/locales/tr-TR/portal.json +0 -5
- package/locales/tr-TR/tool.json +18 -0
- package/locales/vi-VN/models.json +24 -15
- package/locales/vi-VN/plugin.json +16 -0
- package/locales/vi-VN/portal.json +0 -5
- package/locales/vi-VN/tool.json +18 -0
- package/locales/zh-CN/models.json +30 -21
- package/locales/zh-CN/plugin.json +16 -0
- package/locales/zh-CN/portal.json +1 -6
- package/locales/zh-CN/tool.json +19 -1
- package/locales/zh-TW/models.json +23 -14
- package/locales/zh-TW/plugin.json +16 -0
- package/locales/zh-TW/portal.json +0 -5
- package/locales/zh-TW/tool.json +18 -0
- package/package.json +1 -1
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatInput/Mobile/index.tsx +1 -0
- package/src/app/[variants]/(main)/chat/(workspace)/_layout/Desktop/ChatHeader/SearchTags.tsx +17 -0
- package/src/app/[variants]/(main)/chat/(workspace)/_layout/Desktop/ChatHeader/Tags.tsx +8 -2
- package/src/config/tools.ts +16 -0
- package/src/features/ChatInput/ActionBar/Search/index.tsx +6 -15
- package/src/features/Conversation/Messages/Assistant/Tool/Inspector/ToolTitle.tsx +76 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Inspector/index.tsx +8 -21
- package/src/features/Conversation/Messages/Assistant/Tool/Render/CustomRender.tsx +62 -50
- package/src/features/PluginsUI/Render/BuiltinType/index.tsx +11 -1
- package/src/features/PluginsUI/Render/index.tsx +3 -0
- package/src/features/Portal/Plugins/Body/index.tsx +3 -7
- package/src/features/Portal/Plugins/Header.tsx +14 -2
- package/src/hooks/useAgentEnableSearch.ts +27 -0
- package/src/libs/trpc/client/index.ts +1 -0
- package/src/libs/trpc/client/tools.ts +20 -0
- package/src/locales/default/plugin.ts +16 -0
- package/src/locales/default/portal.ts +0 -5
- package/src/locales/default/tool.ts +18 -0
- package/src/server/modules/SearXNG.ts +33 -0
- package/src/server/routers/lambda/message.ts +11 -0
- package/src/server/routers/tools/__tests__/fixtures/searXNG.ts +668 -0
- package/src/server/routers/tools/__tests__/search.test.ts +47 -0
- package/src/server/routers/tools/index.ts +3 -0
- package/src/server/routers/tools/search.ts +38 -0
- package/src/services/__tests__/__snapshots__/chat.test.ts.snap +1 -0
- package/src/services/_auth.ts +4 -4
- package/src/services/chat.ts +31 -10
- package/src/services/message/_deprecated.ts +4 -0
- package/src/services/message/client.ts +4 -0
- package/src/services/message/server.ts +5 -5
- package/src/services/message/type.ts +2 -0
- package/src/services/search.ts +9 -0
- package/src/store/aiInfra/slices/aiModel/selectors.ts +12 -5
- package/src/store/chat/slices/builtinTool/action.ts +121 -0
- package/src/store/chat/slices/builtinTool/initialState.ts +2 -0
- package/src/store/chat/slices/builtinTool/selectors.ts +3 -0
- package/src/store/chat/slices/message/action.ts +11 -0
- package/src/store/chat/slices/plugin/action.test.ts +2 -2
- package/src/store/chat/slices/plugin/action.ts +2 -2
- package/src/store/tool/selectors/tool.ts +5 -12
- package/src/store/tool/slices/builtin/selectors.ts +1 -1
- package/src/store/user/slices/modelList/action.ts +6 -0
- package/src/store/user/slices/modelList/selectors/keyVaults.ts +1 -0
- package/src/tools/index.ts +7 -0
- package/src/tools/portals.ts +6 -1
- package/src/tools/renders.ts +3 -0
- package/src/{features/Portal/Plugins → tools/web-browsing/Portal}/Footer.tsx +13 -10
- package/src/tools/web-browsing/Portal/ResultList/SearchItem/CategoryAvatar.tsx +70 -0
- package/src/tools/web-browsing/Portal/ResultList/SearchItem/TitleExtra.tsx +38 -0
- package/src/tools/web-browsing/Portal/ResultList/SearchItem/Video.tsx +135 -0
- package/src/tools/web-browsing/Portal/ResultList/SearchItem/index.tsx +91 -0
- package/src/tools/web-browsing/Portal/ResultList/index.tsx +21 -0
- package/src/tools/web-browsing/Portal/index.tsx +65 -0
- package/src/tools/web-browsing/Render/ConfigForm/Form.tsx +110 -0
- package/src/tools/web-browsing/Render/ConfigForm/SearchXNGIcon.tsx +20 -0
- package/src/tools/web-browsing/Render/ConfigForm/index.tsx +67 -0
- package/src/tools/web-browsing/Render/ConfigForm/style.tsx +63 -0
- package/src/tools/web-browsing/Render/SearchQuery/SearchView.tsx +88 -0
- package/src/tools/web-browsing/Render/SearchQuery/index.tsx +61 -0
- package/src/tools/web-browsing/Render/SearchResult/SearchResultItem.tsx +72 -0
- package/src/tools/web-browsing/Render/SearchResult/ShowMore.tsx +68 -0
- package/src/tools/web-browsing/Render/SearchResult/index.tsx +105 -0
- package/src/tools/web-browsing/Render/index.tsx +57 -0
- package/src/tools/web-browsing/components/EngineAvatar.tsx +32 -0
- package/src/tools/web-browsing/components/SearchBar.tsx +134 -0
- package/src/tools/web-browsing/const.ts +11 -0
- package/src/tools/web-browsing/index.ts +102 -0
- package/src/types/message/chat.ts +1 -0
- package/src/types/message/tools.ts +10 -0
- package/src/types/tool/builtin.ts +2 -0
- package/src/types/tool/search.ts +38 -0
- package/src/types/user/settings/keyVaults.ts +8 -1
- package/src/utils/toolManifest.ts +20 -0
@@ -170,9 +170,6 @@
|
|
170
170
|
"MiniMax-Text-01": {
|
171
171
|
"description": "В серии моделей MiniMax-01 мы сделали смелые инновации: впервые в крупномасштабном масштабе реализован линейный механизм внимания, традиционная архитектура Transformer больше не является единственным выбором. Объем параметров этой модели достигает 456 миллиардов, из которых 45,9 миллиарда активируются за один раз. Комплексная производительность модели сопоставима с ведущими зарубежными моделями, при этом она может эффективно обрабатывать контекст длиной до 4 миллионов токенов, что в 32 раза больше, чем у GPT-4o, и в 20 раз больше, чем у Claude-3.5-Sonnet."
|
172
172
|
},
|
173
|
-
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
174
|
-
"description": "Hermes 2 Mixtral 8x7B DPO — это высокоадаптивная многомодельная комбинация, предназначенная для предоставления выдающегося творческого опыта."
|
175
|
-
},
|
176
173
|
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
177
174
|
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) — это высокоточная модель команд, подходящая для сложных вычислений."
|
178
175
|
},
|
@@ -323,6 +320,9 @@
|
|
323
320
|
"SenseChat-5": {
|
324
321
|
"description": "Последняя версия модели (V5.5), длина контекста 128K, значительно улучшенные способности в математическом рассуждении, английских диалогах, следовании инструкциям и понимании длинных текстов, сопоставимые с GPT-4o."
|
325
322
|
},
|
323
|
+
"SenseChat-5-1202": {
|
324
|
+
"description": "Это последняя версия на основе V5.5, которая значительно улучшила свои базовые способности в китайском и английском языках, общении, научных знаниях, гуманитарных знаниях, написании, математической логике и контроле количества слов по сравнению с предыдущей версией."
|
325
|
+
},
|
326
326
|
"SenseChat-5-Cantonese": {
|
327
327
|
"description": "Длина контекста 32K, превосходит GPT-4 в понимании диалогов на кантонском, сопоставим с GPT-4 Turbo в таких областях, как знания, рассуждение, математика и написание кода."
|
328
328
|
},
|
@@ -335,6 +335,12 @@
|
|
335
335
|
"SenseChat-Turbo": {
|
336
336
|
"description": "Подходит для быстрого ответа на вопросы и сценариев тонкой настройки модели."
|
337
337
|
},
|
338
|
+
"SenseChat-Turbo-1202": {
|
339
|
+
"description": "Это последняя легковесная версия модели, которая достигает более 90% возможностей полной модели и значительно снижает затраты на вывод."
|
340
|
+
},
|
341
|
+
"SenseChat-Vision": {
|
342
|
+
"description": "Последняя версия модели (V5.5) поддерживает ввод нескольких изображений, полностью реализует оптимизацию базовых возможностей модели и значительно улучшила распознавание свойств объектов, пространственные отношения, распознавание событий, понимание сцен, распознавание эмоций, логическое рассуждение и понимание текста."
|
343
|
+
},
|
338
344
|
"Skylark2-lite-8k": {
|
339
345
|
"description": "Модель второго поколения Skylark (云雀), модель Skylark2-lite имеет высокую скорость отклика, подходит для сценариев с высокими требованиями к оперативности, чувствительных к стоимости и с не такими высокими требованиями к точности модели. Длина контекстного окна составляет 8k."
|
340
346
|
},
|
@@ -1019,6 +1025,12 @@
|
|
1019
1025
|
"hunyuan-standard-vision": {
|
1020
1026
|
"description": "Последняя многомодальная модель Hunyuan, поддерживающая многоязычные ответы, с сбалансированными способностями на китайском и английском языках."
|
1021
1027
|
},
|
1028
|
+
"hunyuan-translation": {
|
1029
|
+
"description": "Поддерживает взаимный перевод на 15 языков, включая китайский, английский, японский, французский, португальский, испанский, турецкий, русский, арабский, корейский, итальянский, немецкий, вьетнамский, малайский и индонезийский, с автоматической оценкой на основе набора тестов для многофункционального перевода COMET, в целом превосходя модели аналогичного масштаба на рынке по способности к взаимному переводу среди более чем десяти распространенных языков."
|
1030
|
+
},
|
1031
|
+
"hunyuan-translation-lite": {
|
1032
|
+
"description": "Модель перевода Хуньюань поддерживает перевод в формате естественного языкового диалога; поддерживает взаимный перевод на 15 языков, включая китайский, английский, японский, французский, португальский, испанский, турецкий, русский, арабский, корейский, итальянский, немецкий, вьетнамский, малайский и индонезийский."
|
1033
|
+
},
|
1022
1034
|
"hunyuan-turbo": {
|
1023
1035
|
"description": "Предварительная версия нового поколения языковой модели Hunyuan, использующая совершенно новую структуру смешанной экспертной модели (MoE), которая обеспечивает более быструю эффективность вывода и более сильные результаты по сравнению с hunyuan-pro."
|
1024
1036
|
},
|
@@ -1220,9 +1232,6 @@
|
|
1220
1232
|
"meta-llama/llama-3-8b-instruct": {
|
1221
1233
|
"description": "Llama 3 8B Instruct оптимизирован для высококачественных диалоговых сцен, его производительность превосходит многие закрытые модели."
|
1222
1234
|
},
|
1223
|
-
"meta-llama/llama-3.1-405b-instruct": {
|
1224
|
-
"description": "Llama 3.1 405B Instruct — это последняя версия от Meta, оптимизированная для генерации высококачественных диалогов, превосходящая многие ведущие закрытые модели."
|
1225
|
-
},
|
1226
1235
|
"meta-llama/llama-3.1-70b-instruct": {
|
1227
1236
|
"description": "Llama 3.1 70B Instruct разработан для высококачественных диалогов и показывает выдающиеся результаты в оценках, особенно в высокоинтерактивных сценах."
|
1228
1237
|
},
|
@@ -1286,9 +1295,6 @@
|
|
1286
1295
|
"microsoft/WizardLM-2-8x22B": {
|
1287
1296
|
"description": "WizardLM 2 — это языковая модель от Microsoft AI, которая особенно хорошо справляется с сложными диалогами, многоязычностью, выводами и интеллектуальными помощниками."
|
1288
1297
|
},
|
1289
|
-
"microsoft/wizardlm 2-7b": {
|
1290
|
-
"description": "WizardLM 2 7B — это новая быстрая и легкая модель от Microsoft AI, производительность которой близка к 10-кратной производительности существующих открытых моделей."
|
1291
|
-
},
|
1292
1298
|
"microsoft/wizardlm-2-8x22b": {
|
1293
1299
|
"description": "WizardLM-2 8x22B — это передовая модель Wizard от Microsoft, демонстрирующая исключительно конкурентоспособные результаты."
|
1294
1300
|
},
|
@@ -1580,11 +1586,11 @@
|
|
1580
1586
|
"qwq-32b-preview": {
|
1581
1587
|
"description": "Модель QwQ — это экспериментальная исследовательская модель, разработанная командой Qwen, сосредоточенная на улучшении возможностей вывода ИИ."
|
1582
1588
|
},
|
1583
|
-
"solar-
|
1584
|
-
"description": "Solar Mini — это компактная LLM,
|
1589
|
+
"solar-mini": {
|
1590
|
+
"description": "Solar Mini — это компактная LLM, которая превосходит GPT-3.5, обладает мощными многоязычными возможностями, поддерживает английский и корейский языки, предлагая эффективное и компактное решение."
|
1585
1591
|
},
|
1586
|
-
"solar-
|
1587
|
-
"description": "Solar Mini (Ja) расширяет возможности Solar Mini,
|
1592
|
+
"solar-mini-ja": {
|
1593
|
+
"description": "Solar Mini (Ja) расширяет возможности Solar Mini, сосредотачиваясь на японском языке, при этом поддерживая высокую эффективность и выдающиеся результаты в использовании английского и корейского языков."
|
1588
1594
|
},
|
1589
1595
|
"solar-pro": {
|
1590
1596
|
"description": "Solar Pro — это высокоинтеллектуальная LLM, выпущенная Upstage, сосредоточенная на способности следовать инструкциям на одном GPU, с оценкой IFEval выше 80. В настоящее время поддерживает английский язык, официальная версия запланирована на ноябрь 2024 года, с расширением языковой поддержки и длины контекста."
|
@@ -1619,6 +1625,9 @@
|
|
1619
1625
|
"step-1.5v-mini": {
|
1620
1626
|
"description": "Эта модель обладает мощными возможностями понимания видео."
|
1621
1627
|
},
|
1628
|
+
"step-1o-turbo-vision": {
|
1629
|
+
"description": "Эта модель обладает мощными способностями к пониманию изображений и превосходит 1o в области математики и кода. Модель меньше, чем 1o, и выводит результаты быстрее."
|
1630
|
+
},
|
1622
1631
|
"step-1o-vision-32k": {
|
1623
1632
|
"description": "Эта модель обладает мощными способностями к пониманию изображений. По сравнению с серией моделей step-1v, она имеет более высокую визуальную производительность."
|
1624
1633
|
},
|
@@ -1634,12 +1643,12 @@
|
|
1634
1643
|
"step-2-mini": {
|
1635
1644
|
"description": "Супербыстрая большая модель на основе новой самодельной архитектуры внимания MFA, достигающая аналогичных результатов, как step1, при очень низких затратах, одновременно обеспечивая более высокую пропускную способность и более быстрое время отклика. Способна обрабатывать общие задачи и обладает особыми навыками в кодировании."
|
1636
1645
|
},
|
1637
|
-
"taichu2_mm": {
|
1638
|
-
"description": "Объединяет способности понимания изображений, переноса знаний, логической атрибуции и демонстрирует выдающиеся результаты в области вопросов и ответов на основе текста и изображений."
|
1639
|
-
},
|
1640
1646
|
"taichu_llm": {
|
1641
1647
|
"description": "Модель языка TaiChu обладает выдающимися способностями к пониманию языка, а также к созданию текстов, ответам на вопросы, программированию, математическим вычислениям, логическому выводу, анализу эмоций и резюмированию текстов. Инновационно сочетает предобучение на больших данных с богатством многопоточных знаний, постоянно совершенствуя алгоритмические технологии и поглощая новые знания о словах, структуре, грамматике и семантике из огромных объемов текстовых данных, обеспечивая пользователям более удобную информацию и услуги, а также более интеллектуальный опыт."
|
1642
1648
|
},
|
1649
|
+
"taichu_vl": {
|
1650
|
+
"description": "Объединяет способности к пониманию изображений, переносу знаний и логическому выводу, демонстрируя выдающиеся результаты в области вопросов и ответов на основе текста и изображений."
|
1651
|
+
},
|
1643
1652
|
"text-embedding-3-large": {
|
1644
1653
|
"description": "Самая мощная модель векторизации, подходящая для английских и неанглийских задач."
|
1645
1654
|
},
|
@@ -134,6 +134,22 @@
|
|
134
134
|
"plugin": "Запуск плагина..."
|
135
135
|
},
|
136
136
|
"pluginList": "Список плагинов",
|
137
|
+
"search": {
|
138
|
+
"config": {
|
139
|
+
"addKey": "Добавить ключ",
|
140
|
+
"close": "Удалить",
|
141
|
+
"confirm": "Конфигурация завершена, попробуйте снова"
|
142
|
+
},
|
143
|
+
"searchxng": {
|
144
|
+
"baseURL": "Введите",
|
145
|
+
"description": "Введите URL SearchXNG, чтобы начать поиск в сети",
|
146
|
+
"keyPlaceholder": "Введите ключ",
|
147
|
+
"title": "Настройка поисковой системы SearchXNG",
|
148
|
+
"unconfiguredDesc": "Пожалуйста, свяжитесь с администратором для завершения настройки поисковой системы SearchXNG, чтобы начать поиск в сети",
|
149
|
+
"unconfiguredTitle": "Поисковая система SearchXNG еще не настроена"
|
150
|
+
},
|
151
|
+
"title": "Поиск в сети"
|
152
|
+
},
|
137
153
|
"setting": "Настройка плагина",
|
138
154
|
"settings": {
|
139
155
|
"indexUrl": {
|
package/locales/ru-RU/tool.json
CHANGED
@@ -6,5 +6,23 @@
|
|
6
6
|
"generating": "Создание...",
|
7
7
|
"images": "Изображения:",
|
8
8
|
"prompt": "подсказка"
|
9
|
+
},
|
10
|
+
"search": {
|
11
|
+
"createNewSearch": "Создать новую запись поиска",
|
12
|
+
"emptyResult": "Результатов не найдено, пожалуйста, измените ключевые слова и попробуйте снова",
|
13
|
+
"genAiMessage": "Создать сообщение помощника",
|
14
|
+
"includedTooltip": "Текущие результаты поиска будут включены в контекст сессии",
|
15
|
+
"keywords": "Ключевые слова:",
|
16
|
+
"scoreTooltip": "Оценка релевантности, чем выше оценка, тем больше соответствие запросу",
|
17
|
+
"searchBar": {
|
18
|
+
"button": "Поиск",
|
19
|
+
"placeholder": "Ключевые слова",
|
20
|
+
"tooltip": "Будет повторно получен результат поиска и создано новое резюме сообщения"
|
21
|
+
},
|
22
|
+
"searchEngine": "Поисковая система:",
|
23
|
+
"searchResult": "Количество результатов:",
|
24
|
+
"summary": "Резюме",
|
25
|
+
"summaryTooltip": "Суммировать текущее содержимое",
|
26
|
+
"viewMoreResults": "Посмотреть еще {{results}} результатов"
|
9
27
|
}
|
10
28
|
}
|
@@ -170,9 +170,6 @@
|
|
170
170
|
"MiniMax-Text-01": {
|
171
171
|
"description": "MiniMax-01 serisi modellerinde cesur yenilikler yaptık: ilk kez büyük ölçekli lineer dikkat mekanizmasını gerçekleştirdik, geleneksel Transformer mimarisi artık tek seçenek değil. Bu modelin parametre sayısı 456 milyara kadar çıkmakta, tek bir aktivasyonda 45.9 milyar. Modelin genel performansı, yurtdışındaki en iyi modellerle karşılaştırılabilirken, dünya genelinde 4 milyon token uzunluğundaki bağlamı verimli bir şekilde işleyebilir, bu da GPT-4o'nun 32 katı, Claude-3.5-Sonnet'in 20 katıdır."
|
172
172
|
},
|
173
|
-
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
174
|
-
"description": "Hermes 2 Mixtral 8x7B DPO, olağanüstü yaratıcı deneyimler sunmak için tasarlanmış son derece esnek bir çoklu model birleşimidir."
|
175
|
-
},
|
176
173
|
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
177
174
|
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B), karmaşık hesaplamalar için yüksek hassasiyetli bir talimat modelidir."
|
178
175
|
},
|
@@ -323,6 +320,9 @@
|
|
323
320
|
"SenseChat-5": {
|
324
321
|
"description": "En son sürüm model (V5.5), 128K bağlam uzunluğu, matematiksel akıl yürütme, İngilizce diyalog, talimat takibi ve uzun metin anlama gibi alanlarda önemli gelişmeler göstermektedir ve GPT-4o ile karşılaştırılabilir."
|
325
322
|
},
|
323
|
+
"SenseChat-5-1202": {
|
324
|
+
"description": "V5.5 tabanlı en son versiyondur, önceki versiyona göre Çince ve İngilizce temel yetenekleri, sohbet, fen bilgisi, sosyal bilimler bilgisi, yazım, matematiksel mantık, kelime sayısı kontrolü gibi birkaç boyutta önemli bir gelişim göstermiştir."
|
325
|
+
},
|
326
326
|
"SenseChat-5-Cantonese": {
|
327
327
|
"description": "32K bağlam uzunluğu ile, Kantonca diyalog anlama konusunda GPT-4'ü aşmakta, bilgi, akıl yürütme, matematik ve kod yazma gibi birçok alanda GPT-4 Turbo ile rekabet edebilmektedir."
|
328
328
|
},
|
@@ -335,6 +335,12 @@
|
|
335
335
|
"SenseChat-Turbo": {
|
336
336
|
"description": "Hızlı soru-cevap ve model ince ayar senaryoları için uygundur."
|
337
337
|
},
|
338
|
+
"SenseChat-Turbo-1202": {
|
339
|
+
"description": "En son hafif versiyon modelidir, tam modelin %90'ından fazla yetenek sunar ve çıkarım maliyetini önemli ölçüde azaltır."
|
340
|
+
},
|
341
|
+
"SenseChat-Vision": {
|
342
|
+
"description": "En son versiyon modeli (V5.5), çoklu görsel girişi destekler, modelin temel yetenek optimizasyonunu tamamen gerçekleştirir; nesne özellik tanıma, mekansal ilişkiler, hareket olayları tanıma, sahne anlama, duygu tanıma, mantıksal bilgi çıkarımı ve metin anlama üretimi gibi alanlarda önemli gelişmeler sağlamıştır."
|
343
|
+
},
|
338
344
|
"Skylark2-lite-8k": {
|
339
345
|
"description": "Skylark'in (Bulut Şarkıcısı) ikinci nesil modeli, Skylark2-lite modeli yüksek yanıt hızı ile donatılmıştır; gerçek zamanlı talep gereksinimleri yüksek, maliyet duyarlı ve model hassasiyetine daha az ihtiyaç duyulan senaryolar için uygundur; bağlam pencere uzunluğu 8k'dır."
|
340
346
|
},
|
@@ -1019,6 +1025,12 @@
|
|
1019
1025
|
"hunyuan-standard-vision": {
|
1020
1026
|
"description": "Hunyuan'ın en son çok modlu modeli, çok dilli yanıtları destekler, Çince ve İngilizce yetenekleri dengelidir."
|
1021
1027
|
},
|
1028
|
+
"hunyuan-translation": {
|
1029
|
+
"description": "Çince ve İngilizce, Japonca, Fransızca, Portekizce, İspanyolca, Türkçe, Rusça, Arapça, Korece, İtalyanca, Almanca, Vietnamca, Malayca, Endonezyaca dahil olmak üzere 15 dil arasında çeviri desteği sunar. Çoklu senaryo çeviri değerlendirme setine dayalı otomatik değerlendirme COMET puanı ile, ondan fazla yaygın dildeki çeviri yetenekleri, pazarın aynı ölçekli modellerine göre genel olarak daha üstündür."
|
1030
|
+
},
|
1031
|
+
"hunyuan-translation-lite": {
|
1032
|
+
"description": "Hunyuan çeviri modeli, doğal dil diyalog tarzı çeviriyi destekler; Çince ve İngilizce, Japonca, Fransızca, Portekizce, İspanyolca, Türkçe, Rusça, Arapça, Korece, İtalyanca, Almanca, Vietnamca, Malayca, Endonezyaca dahil olmak üzere 15 dil arasında çeviri desteği sunar."
|
1033
|
+
},
|
1022
1034
|
"hunyuan-turbo": {
|
1023
1035
|
"description": "Hunyuan'ın yeni nesil büyük dil modelinin önizleme sürümü, tamamen yeni bir karma uzman modeli (MoE) yapısı kullanır ve hunyuan-pro'ya kıyasla daha hızlı çıkarım verimliliği ve daha güçlü performans sunar."
|
1024
1036
|
},
|
@@ -1220,9 +1232,6 @@
|
|
1220
1232
|
"meta-llama/llama-3-8b-instruct": {
|
1221
1233
|
"description": "Llama 3 8B Instruct, yüksek kaliteli diyalog senaryoları için optimize edilmiştir ve birçok kapalı kaynak modelden daha iyi performans göstermektedir."
|
1222
1234
|
},
|
1223
|
-
"meta-llama/llama-3.1-405b-instruct": {
|
1224
|
-
"description": "Llama 3.1 405B Instruct, Meta'nın en son sunduğu versiyon olup, yüksek kaliteli diyalog üretimi için optimize edilmiştir ve birçok önde gelen kapalı kaynak modelden daha iyi performans göstermektedir."
|
1225
|
-
},
|
1226
1235
|
"meta-llama/llama-3.1-70b-instruct": {
|
1227
1236
|
"description": "Llama 3.1 70B Instruct, yüksek kaliteli diyalog için tasarlanmış olup, insan değerlendirmelerinde öne çıkmakta ve özellikle yüksek etkileşimli senaryolar için uygundur."
|
1228
1237
|
},
|
@@ -1286,9 +1295,6 @@
|
|
1286
1295
|
"microsoft/WizardLM-2-8x22B": {
|
1287
1296
|
"description": "WizardLM 2, Microsoft AI tarafından sağlanan bir dil modelidir ve karmaşık diyaloglar, çok dilli destek, akıl yürütme ve akıllı asistan alanlarında özellikle başarılıdır."
|
1288
1297
|
},
|
1289
|
-
"microsoft/wizardlm 2-7b": {
|
1290
|
-
"description": "WizardLM 2 7B, Microsoft AI'nın en son hızlı ve hafif modelidir ve mevcut açık kaynak lider modellerin performansına yakın bir performans sunmaktadır."
|
1291
|
-
},
|
1292
1298
|
"microsoft/wizardlm-2-8x22b": {
|
1293
1299
|
"description": "WizardLM-2 8x22B, Microsoft'un en gelişmiş AI Wizard modelidir ve son derece rekabetçi bir performans sergiler."
|
1294
1300
|
},
|
@@ -1580,11 +1586,11 @@
|
|
1580
1586
|
"qwq-32b-preview": {
|
1581
1587
|
"description": "QwQ modeli, Qwen ekibi tarafından geliştirilen deneysel bir araştırma modelidir ve AI akıl yürütme yeteneklerini artırmaya odaklanmaktadır."
|
1582
1588
|
},
|
1583
|
-
"solar-
|
1584
|
-
"description": "Solar Mini,
|
1589
|
+
"solar-mini": {
|
1590
|
+
"description": "Solar Mini, GPT-3.5'ten daha iyi performansa sahip kompakt bir LLM'dir, güçlü çok dilli yeteneklere sahiptir, İngilizce ve Korece'yi destekler ve etkili, kompakt çözümler sunar."
|
1585
1591
|
},
|
1586
|
-
"solar-
|
1587
|
-
"description": "Solar Mini (Ja), Solar Mini'nin yeteneklerini genişletir, Japonca'ya odaklanır ve İngilizce ile Korece kullanımında yüksek verimlilik ve mükemmel performans
|
1592
|
+
"solar-mini-ja": {
|
1593
|
+
"description": "Solar Mini (Ja), Solar Mini'nin yeteneklerini genişletir, Japonca'ya odaklanır ve İngilizce ile Korece kullanımında yüksek verimlilik ve mükemmel performans sağlar."
|
1588
1594
|
},
|
1589
1595
|
"solar-pro": {
|
1590
1596
|
"description": "Solar Pro, Upstage tarafından sunulan yüksek akıllı LLM'dir, tek GPU talimat takibi yeteneğine odaklanır, IFEval puanı 80'in üzerindedir. Şu anda İngilizceyi desteklemekte olup, resmi versiyonu 2024 Kasım'da piyasaya sürülmesi planlanmaktadır ve dil desteği ile bağlam uzunluğunu genişletecektir."
|
@@ -1619,6 +1625,9 @@
|
|
1619
1625
|
"step-1.5v-mini": {
|
1620
1626
|
"description": "Bu model, güçlü bir video anlama yeteneğine sahiptir."
|
1621
1627
|
},
|
1628
|
+
"step-1o-turbo-vision": {
|
1629
|
+
"description": "Bu model, güçlü bir görüntü anlama yeteneğine sahiptir, matematik ve kod alanında 1o'dan daha üstündür. Model, 1o'dan daha küçüktür ve çıktı hızı daha yüksektir."
|
1630
|
+
},
|
1622
1631
|
"step-1o-vision-32k": {
|
1623
1632
|
"description": "Bu model, güçlü bir görüntü anlama yeteneğine sahiptir. Step-1v serisi modellere kıyasla daha güçlü bir görsel performansa sahiptir."
|
1624
1633
|
},
|
@@ -1634,12 +1643,12 @@
|
|
1634
1643
|
"step-2-mini": {
|
1635
1644
|
"description": "Yeni nesil kendi geliştirdiğimiz MFA Attention mimarisine dayanan hızlı büyük model, çok düşük maliyetle step1 ile benzer sonuçlar elde ederken, daha yüksek bir throughput ve daha hızlı yanıt süresi sağlıyor. Genel görevleri işleyebilme yeteneğine sahip olup, kodlama yeteneklerinde uzmanlık gösteriyor."
|
1636
1645
|
},
|
1637
|
-
"taichu2_mm": {
|
1638
|
-
"description": "Görüntü anlama, bilgi transferi, mantıksal atıf gibi yetenekleri birleştirerek, metin ve görüntü ile soru-cevap alanında öne çıkmaktadır."
|
1639
|
-
},
|
1640
1646
|
"taichu_llm": {
|
1641
1647
|
"description": "Zidong Taichu dil büyük modeli, güçlü dil anlama yeteneği ile metin oluşturma, bilgi sorgulama, kod programlama, matematik hesaplama, mantıksal akıl yürütme, duygu analizi, metin özeti gibi yeteneklere sahiptir. Yenilikçi bir şekilde büyük veri ön eğitimi ile çok kaynaklı zengin bilgiyi birleştirir, algoritma teknolojisini sürekli olarak geliştirir ve büyük metin verilerinden kelime, yapı, dil bilgisi, anlam gibi yeni bilgileri sürekli olarak edinir, modelin performansını sürekli olarak evrimleştirir. Kullanıcılara daha kolay bilgi ve hizmetler sunar ve daha akıllı bir deneyim sağlar."
|
1642
1648
|
},
|
1649
|
+
"taichu_vl": {
|
1650
|
+
"description": "Görüntü anlama, bilgi transferi, mantıksal çıkarım gibi yetenekleri birleştirir ve görsel-işitsel soru-cevap alanında öne çıkar."
|
1651
|
+
},
|
1643
1652
|
"text-embedding-3-large": {
|
1644
1653
|
"description": "En güçlü vektörleştirme modeli, İngilizce ve diğer dillerdeki görevler için uygundur."
|
1645
1654
|
},
|
@@ -134,6 +134,22 @@
|
|
134
134
|
"plugin": "Eklenti çalışıyor..."
|
135
135
|
},
|
136
136
|
"pluginList": "Eklenti Listesi",
|
137
|
+
"search": {
|
138
|
+
"config": {
|
139
|
+
"addKey": "Anahtar Ekle",
|
140
|
+
"close": "Sil",
|
141
|
+
"confirm": "Yapılandırma tamamlandı ve yeniden denendi"
|
142
|
+
},
|
143
|
+
"searchxng": {
|
144
|
+
"baseURL": "Lütfen girin",
|
145
|
+
"description": "SearchXNG'nin URL'sini girin, böylece çevrimiçi arama yapmaya başlayabilirsiniz",
|
146
|
+
"keyPlaceholder": "Anahtarı girin",
|
147
|
+
"title": "SearchXNG Arama Motorunu Yapılandır",
|
148
|
+
"unconfiguredDesc": "Lütfen yöneticinizle iletişime geçin ve SearchXNG arama motoru yapılandırmasını tamamlayın, böylece çevrimiçi arama yapmaya başlayabilirsiniz",
|
149
|
+
"unconfiguredTitle": "SearchXNG Arama Motoru Henüz Yapılandırılmadı"
|
150
|
+
},
|
151
|
+
"title": "Çevrimiçi Arama"
|
152
|
+
},
|
137
153
|
"setting": "Eklenti Ayarları",
|
138
154
|
"settings": {
|
139
155
|
"indexUrl": {
|
package/locales/tr-TR/tool.json
CHANGED
@@ -6,5 +6,23 @@
|
|
6
6
|
"generating": "Oluşturuluyor...",
|
7
7
|
"images": "Görseller:",
|
8
8
|
"prompt": "İpucu"
|
9
|
+
},
|
10
|
+
"search": {
|
11
|
+
"createNewSearch": "Yeni bir arama kaydı oluştur",
|
12
|
+
"emptyResult": "Sonuç bulunamadı, lütfen anahtar kelimeleri değiştirip tekrar deneyin",
|
13
|
+
"genAiMessage": "Yardımcı mesaj oluştur",
|
14
|
+
"includedTooltip": "Mevcut arama sonuçları oturumun bağlamına dahil edilecektir",
|
15
|
+
"keywords": "Anahtar kelimeler:",
|
16
|
+
"scoreTooltip": "İlgililik puanı, bu puan ne kadar yüksekse, sorgu anahtar kelimesiyle o kadar ilgili demektir",
|
17
|
+
"searchBar": {
|
18
|
+
"button": "Ara",
|
19
|
+
"placeholder": "Anahtar kelime",
|
20
|
+
"tooltip": "Arama sonuçları yeniden alınacak ve yeni bir özet mesajı oluşturulacaktır"
|
21
|
+
},
|
22
|
+
"searchEngine": "Arama motoru:",
|
23
|
+
"searchResult": "Arama sayısı:",
|
24
|
+
"summary": "Özet",
|
25
|
+
"summaryTooltip": "Mevcut içeriği özetle",
|
26
|
+
"viewMoreResults": "Daha fazla {{results}} sonuç görüntüle"
|
9
27
|
}
|
10
28
|
}
|
@@ -170,9 +170,6 @@
|
|
170
170
|
"MiniMax-Text-01": {
|
171
171
|
"description": "Trong dòng mô hình MiniMax-01, chúng tôi đã thực hiện những đổi mới táo bạo: lần đầu tiên hiện thực hóa quy mô lớn cơ chế chú ý tuyến tính, kiến trúc Transformer truyền thống không còn là lựa chọn duy nhất. Mô hình này có số lượng tham số lên tới 4560 tỷ, trong đó kích hoạt một lần là 45,9 tỷ. Hiệu suất tổng hợp của mô hình tương đương với các mô hình hàng đầu quốc tế, đồng thời có khả năng xử lý hiệu quả ngữ cảnh dài nhất toàn cầu lên tới 4 triệu token, gấp 32 lần GPT-4o và 20 lần Claude-3.5-Sonnet."
|
172
172
|
},
|
173
|
-
"Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
174
|
-
"description": "Hermes 2 Mixtral 8x7B DPO là một mô hình kết hợp đa dạng, nhằm cung cấp trải nghiệm sáng tạo xuất sắc."
|
175
|
-
},
|
176
173
|
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
177
174
|
"description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) là mô hình chỉ dẫn chính xác cao, phù hợp cho tính toán phức tạp."
|
178
175
|
},
|
@@ -323,6 +320,9 @@
|
|
323
320
|
"SenseChat-5": {
|
324
321
|
"description": "Phiên bản mô hình mới nhất (V5.5), độ dài ngữ cảnh 128K, khả năng cải thiện đáng kể trong suy luận toán học, đối thoại tiếng Anh, theo dõi chỉ dẫn và hiểu biết văn bản dài, ngang tầm với GPT-4o."
|
325
322
|
},
|
323
|
+
"SenseChat-5-1202": {
|
324
|
+
"description": "Là phiên bản mới nhất dựa trên V5.5, có sự cải thiện đáng kể về khả năng cơ bản giữa tiếng Trung và tiếng Anh, trò chuyện, kiến thức khoa học, kiến thức nhân văn, viết lách, logic toán học, kiểm soát số lượng từ và một số khía cạnh khác so với phiên bản trước."
|
325
|
+
},
|
326
326
|
"SenseChat-5-Cantonese": {
|
327
327
|
"description": "Độ dài ngữ cảnh 32K, vượt qua GPT-4 trong hiểu biết đối thoại tiếng Quảng Đông, có thể so sánh với GPT-4 Turbo trong nhiều lĩnh vực như kiến thức, suy luận, toán học và lập trình mã."
|
328
328
|
},
|
@@ -335,6 +335,12 @@
|
|
335
335
|
"SenseChat-Turbo": {
|
336
336
|
"description": "Phù hợp cho các tình huống hỏi đáp nhanh và tinh chỉnh mô hình."
|
337
337
|
},
|
338
|
+
"SenseChat-Turbo-1202": {
|
339
|
+
"description": "Là phiên bản nhẹ mới nhất của mô hình, đạt được hơn 90% khả năng của mô hình đầy đủ, giảm đáng kể chi phí suy diễn."
|
340
|
+
},
|
341
|
+
"SenseChat-Vision": {
|
342
|
+
"description": "Mô hình phiên bản mới nhất (V5.5), hỗ trợ đầu vào nhiều hình ảnh, hoàn thiện khả năng cơ bản của mô hình, đạt được sự cải thiện lớn trong nhận diện thuộc tính đối tượng, mối quan hệ không gian, nhận diện sự kiện hành động, hiểu cảnh, nhận diện cảm xúc, suy luận kiến thức logic và hiểu sinh ra văn bản."
|
343
|
+
},
|
338
344
|
"Skylark2-lite-8k": {
|
339
345
|
"description": "Mô hình thế hệ thứ hai Skylark, mô hình Skylark2-lite có tốc độ phản hồi cao, phù hợp cho các tình huống yêu cầu tính thời gian thực cao, nhạy cảm với chi phí, không yêu cầu độ chính xác mô hình cao, chiều dài cửa sổ ngữ cảnh là 8k."
|
340
346
|
},
|
@@ -1019,6 +1025,12 @@
|
|
1019
1025
|
"hunyuan-standard-vision": {
|
1020
1026
|
"description": "Mô hình đa phương thức mới nhất của Hunyuan, hỗ trợ trả lời đa ngôn ngữ, khả năng tiếng Trung và tiếng Anh cân bằng."
|
1021
1027
|
},
|
1028
|
+
"hunyuan-translation": {
|
1029
|
+
"description": "Hỗ trợ dịch giữa 15 ngôn ngữ bao gồm tiếng Trung, tiếng Anh, tiếng Nhật, tiếng Pháp, tiếng Bồ Đào Nha, tiếng Tây Ban Nha, tiếng Thổ Nhĩ Kỳ, tiếng Nga, tiếng Ả Rập, tiếng Hàn, tiếng Ý, tiếng Đức, tiếng Việt, tiếng Mã Lai và tiếng Indonesia, dựa trên bộ đánh giá dịch tự động hóa COMET, có khả năng dịch giữa các ngôn ngữ phổ biến tốt hơn so với các mô hình cùng quy mô trên thị trường."
|
1030
|
+
},
|
1031
|
+
"hunyuan-translation-lite": {
|
1032
|
+
"description": "Mô hình dịch Hỗn Nguyên hỗ trợ dịch theo kiểu đối thoại ngôn ngữ tự nhiên; hỗ trợ dịch giữa 15 ngôn ngữ bao gồm tiếng Trung, tiếng Anh, tiếng Nhật, tiếng Pháp, tiếng Bồ Đào Nha, tiếng Tây Ban Nha, tiếng Thổ Nhĩ Kỳ, tiếng Nga, tiếng Ả Rập, tiếng Hàn, tiếng Ý, tiếng Đức, tiếng Việt, tiếng Mã Lai và tiếng Indonesia."
|
1033
|
+
},
|
1022
1034
|
"hunyuan-turbo": {
|
1023
1035
|
"description": "Phiên bản xem trước của thế hệ mới mô hình ngôn ngữ lớn Hunyuan, sử dụng cấu trúc mô hình chuyên gia hỗn hợp (MoE) hoàn toàn mới, so với hunyuan-pro, hiệu suất suy diễn nhanh hơn và hiệu quả mạnh mẽ hơn."
|
1024
1036
|
},
|
@@ -1220,9 +1232,6 @@
|
|
1220
1232
|
"meta-llama/llama-3-8b-instruct": {
|
1221
1233
|
"description": "Llama 3 8B Instruct tối ưu hóa cho các tình huống đối thoại chất lượng cao, hiệu suất vượt trội hơn nhiều mô hình đóng nguồn."
|
1222
1234
|
},
|
1223
|
-
"meta-llama/llama-3.1-405b-instruct": {
|
1224
|
-
"description": "Llama 3.1 405B Instruct là phiên bản mới nhất do Meta phát hành, tối ưu hóa cho việc tạo ra các cuộc đối thoại chất lượng cao, vượt qua nhiều mô hình đóng nguồn hàng đầu."
|
1225
|
-
},
|
1226
1235
|
"meta-llama/llama-3.1-70b-instruct": {
|
1227
1236
|
"description": "Llama 3.1 70B Instruct được thiết kế đặc biệt cho các cuộc đối thoại chất lượng cao, thể hiện xuất sắc trong các đánh giá của con người, đặc biệt phù hợp cho các tình huống tương tác cao."
|
1228
1237
|
},
|
@@ -1286,9 +1295,6 @@
|
|
1286
1295
|
"microsoft/WizardLM-2-8x22B": {
|
1287
1296
|
"description": "WizardLM 2 là mô hình ngôn ngữ do AI của Microsoft cung cấp, thể hiện xuất sắc trong các lĩnh vực đối thoại phức tạp, đa ngôn ngữ, suy luận và trợ lý thông minh."
|
1288
1297
|
},
|
1289
|
-
"microsoft/wizardlm 2-7b": {
|
1290
|
-
"description": "WizardLM 2 7B là mô hình nhẹ và nhanh mới nhất của Microsoft AI, hiệu suất gần gấp 10 lần so với các mô hình mở nguồn hiện có."
|
1291
|
-
},
|
1292
1298
|
"microsoft/wizardlm-2-8x22b": {
|
1293
1299
|
"description": "WizardLM-2 8x22B là mô hình Wizard tiên tiến nhất của Microsoft AI, thể hiện hiệu suất cực kỳ cạnh tranh."
|
1294
1300
|
},
|
@@ -1580,11 +1586,11 @@
|
|
1580
1586
|
"qwq-32b-preview": {
|
1581
1587
|
"description": "Mô hình QwQ là một mô hình nghiên cứu thử nghiệm được phát triển bởi đội ngũ Qwen, tập trung vào việc nâng cao khả năng suy luận của AI."
|
1582
1588
|
},
|
1583
|
-
"solar-
|
1589
|
+
"solar-mini": {
|
1584
1590
|
"description": "Solar Mini là một LLM dạng nhỏ gọn, hiệu suất vượt trội hơn GPT-3.5, có khả năng đa ngôn ngữ mạnh mẽ, hỗ trợ tiếng Anh và tiếng Hàn, cung cấp giải pháp hiệu quả và nhỏ gọn."
|
1585
1591
|
},
|
1586
|
-
"solar-
|
1587
|
-
"description": "Solar Mini (Ja) mở rộng khả năng của Solar Mini, tập trung vào tiếng Nhật, đồng thời duy trì hiệu
|
1592
|
+
"solar-mini-ja": {
|
1593
|
+
"description": "Solar Mini (Ja) mở rộng khả năng của Solar Mini, tập trung vào tiếng Nhật, đồng thời duy trì hiệu quả và hiệu suất xuất sắc trong việc sử dụng tiếng Anh và tiếng Hàn."
|
1588
1594
|
},
|
1589
1595
|
"solar-pro": {
|
1590
1596
|
"description": "Solar Pro là một LLM thông minh cao do Upstage phát hành, tập trung vào khả năng tuân theo hướng dẫn trên một GPU, đạt điểm IFEval trên 80. Hiện tại hỗ trợ tiếng Anh, phiên bản chính thức dự kiến ra mắt vào tháng 11 năm 2024, sẽ mở rộng hỗ trợ ngôn ngữ và độ dài ngữ cảnh."
|
@@ -1619,6 +1625,9 @@
|
|
1619
1625
|
"step-1.5v-mini": {
|
1620
1626
|
"description": "Mô hình này có khả năng hiểu video mạnh mẽ."
|
1621
1627
|
},
|
1628
|
+
"step-1o-turbo-vision": {
|
1629
|
+
"description": "Mô hình này có khả năng hiểu hình ảnh mạnh mẽ, vượt trội hơn 1o trong lĩnh vực toán học và mã. Mô hình nhỏ hơn 1o và có tốc độ xuất ra nhanh hơn."
|
1630
|
+
},
|
1622
1631
|
"step-1o-vision-32k": {
|
1623
1632
|
"description": "Mô hình này có khả năng hiểu hình ảnh mạnh mẽ. So với các mô hình trong series step-1v, nó có hiệu suất thị giác vượt trội hơn."
|
1624
1633
|
},
|
@@ -1634,12 +1643,12 @@
|
|
1634
1643
|
"step-2-mini": {
|
1635
1644
|
"description": "Mô hình lớn siêu tốc dựa trên kiến trúc Attention tự nghiên cứu thế hệ mới MFA, đạt được hiệu quả tương tự như step1 với chi phí rất thấp, đồng thời duy trì thông lượng cao hơn và độ trễ phản hồi nhanh hơn. Có khả năng xử lý các nhiệm vụ chung, đặc biệt có năng lực trong lập trình."
|
1636
1645
|
},
|
1637
|
-
"taichu2_mm": {
|
1638
|
-
"description": "Kết hợp khả năng hiểu hình ảnh, chuyển giao kiến thức, suy luận logic, nổi bật trong lĩnh vực hỏi đáp hình ảnh và văn bản."
|
1639
|
-
},
|
1640
1646
|
"taichu_llm": {
|
1641
1647
|
"description": "Mô hình ngôn ngữ lớn Taichu có khả năng hiểu ngôn ngữ mạnh mẽ và các khả năng như sáng tạo văn bản, trả lời câu hỏi kiến thức, lập trình mã, tính toán toán học, suy luận logic, phân tích cảm xúc, tóm tắt văn bản. Đổi mới kết hợp giữa đào tạo trước với dữ liệu phong phú từ nhiều nguồn, thông qua việc liên tục cải tiến công nghệ thuật toán và hấp thụ kiến thức mới từ dữ liệu văn bản khổng lồ, giúp mô hình ngày càng hoàn thiện. Cung cấp thông tin và dịch vụ tiện lợi hơn cho người dùng cùng trải nghiệm thông minh hơn."
|
1642
1648
|
},
|
1649
|
+
"taichu_vl": {
|
1650
|
+
"description": "Kết hợp khả năng hiểu hình ảnh, chuyển giao kiến thức, suy luận logic, thể hiện xuất sắc trong lĩnh vực hỏi đáp hình ảnh và văn bản."
|
1651
|
+
},
|
1643
1652
|
"text-embedding-3-large": {
|
1644
1653
|
"description": "Mô hình vector hóa mạnh mẽ nhất, phù hợp cho các nhiệm vụ tiếng Anh và không phải tiếng Anh."
|
1645
1654
|
},
|
@@ -134,6 +134,22 @@
|
|
134
134
|
"plugin": "Plugin đang chạy..."
|
135
135
|
},
|
136
136
|
"pluginList": "Danh sách plugin",
|
137
|
+
"search": {
|
138
|
+
"config": {
|
139
|
+
"addKey": "Thêm khóa",
|
140
|
+
"close": "Xóa",
|
141
|
+
"confirm": "Đã hoàn thành cấu hình và thử lại"
|
142
|
+
},
|
143
|
+
"searchxng": {
|
144
|
+
"baseURL": "Nhập vào",
|
145
|
+
"description": "Nhập URL của SearchXNG để bắt đầu tìm kiếm trực tuyến",
|
146
|
+
"keyPlaceholder": "Nhập khóa",
|
147
|
+
"title": "Cấu hình công cụ tìm kiếm SearchXNG",
|
148
|
+
"unconfiguredDesc": "Vui lòng liên hệ với quản trị viên để hoàn thành cấu hình công cụ tìm kiếm SearchXNG, để bắt đầu tìm kiếm trực tuyến",
|
149
|
+
"unconfiguredTitle": "Chưa cấu hình công cụ tìm kiếm SearchXNG"
|
150
|
+
},
|
151
|
+
"title": "Tìm kiếm trực tuyến"
|
152
|
+
},
|
137
153
|
"setting": "Cài đặt plugin",
|
138
154
|
"settings": {
|
139
155
|
"indexUrl": {
|
package/locales/vi-VN/tool.json
CHANGED
@@ -6,5 +6,23 @@
|
|
6
6
|
"generating": "Đang tạo...",
|
7
7
|
"images": "Hình ảnh:",
|
8
8
|
"prompt": "Từ khóa"
|
9
|
+
},
|
10
|
+
"search": {
|
11
|
+
"createNewSearch": "Tạo mới tìm kiếm",
|
12
|
+
"emptyResult": "Không tìm thấy kết quả, vui lòng sửa đổi từ khóa và thử lại",
|
13
|
+
"genAiMessage": "Tạo tin nhắn trợ lý",
|
14
|
+
"includedTooltip": "Kết quả tìm kiếm hiện tại sẽ được đưa vào ngữ cảnh của cuộc hội thoại",
|
15
|
+
"keywords": "Từ khóa:",
|
16
|
+
"scoreTooltip": "Điểm liên quan, điểm số càng cao thì càng liên quan đến từ khóa tìm kiếm",
|
17
|
+
"searchBar": {
|
18
|
+
"button": "Tìm kiếm",
|
19
|
+
"placeholder": "Từ khóa",
|
20
|
+
"tooltip": "Sẽ lấy lại kết quả tìm kiếm và tạo một tin nhắn tóm tắt mới"
|
21
|
+
},
|
22
|
+
"searchEngine": "Công cụ tìm kiếm:",
|
23
|
+
"searchResult": "Số lượng tìm kiếm:",
|
24
|
+
"summary": "Tóm tắt",
|
25
|
+
"summaryTooltip": "Tóm tắt nội dung hiện tại",
|
26
|
+
"viewMoreResults": "Xem thêm {{results}} kết quả"
|
9
27
|
}
|
10
28
|
}
|