@lobehub/chat 1.51.8 → 1.51.10
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/common.json +1 -1
- package/locales/ar/modelProvider.json +0 -20
- package/locales/ar/models.json +108 -3
- package/locales/bg-BG/common.json +1 -1
- package/locales/bg-BG/modelProvider.json +0 -20
- package/locales/bg-BG/models.json +108 -3
- package/locales/de-DE/common.json +1 -1
- package/locales/de-DE/modelProvider.json +0 -20
- package/locales/de-DE/models.json +108 -3
- package/locales/en-US/common.json +1 -1
- package/locales/en-US/modelProvider.json +0 -20
- package/locales/en-US/models.json +108 -3
- package/locales/es-ES/common.json +1 -1
- package/locales/es-ES/modelProvider.json +0 -20
- package/locales/es-ES/models.json +108 -3
- package/locales/fa-IR/common.json +1 -1
- package/locales/fa-IR/modelProvider.json +0 -20
- package/locales/fa-IR/models.json +108 -3
- package/locales/fr-FR/common.json +1 -1
- package/locales/fr-FR/modelProvider.json +0 -20
- package/locales/fr-FR/models.json +108 -3
- package/locales/it-IT/common.json +1 -1
- package/locales/it-IT/modelProvider.json +0 -20
- package/locales/it-IT/models.json +108 -3
- package/locales/ja-JP/common.json +1 -1
- package/locales/ja-JP/modelProvider.json +0 -20
- package/locales/ja-JP/models.json +108 -3
- package/locales/ko-KR/common.json +1 -1
- package/locales/ko-KR/modelProvider.json +0 -20
- package/locales/ko-KR/models.json +108 -3
- package/locales/nl-NL/common.json +1 -1
- package/locales/nl-NL/modelProvider.json +0 -20
- package/locales/nl-NL/models.json +108 -3
- package/locales/pl-PL/common.json +1 -1
- package/locales/pl-PL/modelProvider.json +0 -20
- package/locales/pl-PL/models.json +108 -3
- package/locales/pt-BR/common.json +1 -1
- package/locales/pt-BR/modelProvider.json +0 -20
- package/locales/pt-BR/models.json +108 -3
- package/locales/ru-RU/common.json +1 -1
- package/locales/ru-RU/modelProvider.json +0 -20
- package/locales/ru-RU/models.json +108 -3
- package/locales/tr-TR/common.json +1 -1
- package/locales/tr-TR/modelProvider.json +0 -20
- package/locales/tr-TR/models.json +108 -3
- package/locales/vi-VN/common.json +1 -1
- package/locales/vi-VN/modelProvider.json +0 -20
- package/locales/vi-VN/models.json +108 -3
- package/locales/zh-CN/common.json +1 -1
- package/locales/zh-CN/modelProvider.json +0 -20
- package/locales/zh-CN/models.json +113 -8
- package/locales/zh-TW/common.json +1 -1
- package/locales/zh-TW/modelProvider.json +0 -20
- package/locales/zh-TW/models.json +108 -3
- package/package.json +1 -1
- package/src/app/[variants]/(main)/chat/_layout/Desktop/SessionPanel.tsx +2 -1
- package/src/app/[variants]/(main)/chat/_layout/Mobile.tsx +2 -1
- package/src/app/[variants]/(main)/chat/layout.ts +0 -2
- package/src/app/[variants]/(main)/settings/provider/(detail)/[id]/page.tsx +30 -28
- package/src/features/User/PlanTag.tsx +2 -2
- package/src/locales/default/common.ts +1 -1
@@ -23,6 +23,9 @@
|
|
23
23
|
"360gpt2-pro": {
|
24
24
|
"description": "360GPT2 Pro — это продвинутая модель обработки естественного языка, выпущенная компанией 360, обладающая выдающимися способностями к генерации и пониманию текста, особенно в области генерации и творчества, способная обрабатывать сложные языковые преобразования и ролевые задачи."
|
25
25
|
},
|
26
|
+
"360zhinao2-o1": {
|
27
|
+
"description": "Модель 360zhinao2-o1 использует дерево поиска для построения цепочки размышлений и включает механизм рефлексии, обучаясь с помощью усиленного обучения, что позволяет модели самостоятельно рефлексировать и исправлять ошибки."
|
28
|
+
},
|
26
29
|
"4.0Ultra": {
|
27
30
|
"description": "Spark4.0 Ultra — это самая мощная версия в серии больших моделей Xinghuo, которая, обновив сетевые поисковые связи, улучшает понимание и обобщение текстового контента. Это всестороннее решение для повышения производительности в офисе и точного реагирования на запросы, являющееся ведущим интеллектуальным продуктом в отрасли."
|
28
31
|
},
|
@@ -44,6 +47,18 @@
|
|
44
47
|
"Baichuan4-Turbo": {
|
45
48
|
"description": "Модель обладает лучшими в стране возможностями, превосходя зарубежные модели в задачах на китайском языке, таких как энциклопедические знания, длинные тексты и генерация контента. Также обладает передовыми мультимодальными возможностями и демонстрирует отличные результаты в нескольких авторитетных оценочных тестах."
|
46
49
|
},
|
50
|
+
"DeepSeek-R1-Distill-Qwen-1.5B": {
|
51
|
+
"description": "Модель DeepSeek-R1, основанная на Qwen2.5-Math-1.5B, оптимизирует производительность вывода с помощью усиленного обучения и данных холодного старта, обновляя стандарт многозадачности в открытых моделях."
|
52
|
+
},
|
53
|
+
"DeepSeek-R1-Distill-Qwen-14B": {
|
54
|
+
"description": "Модель DeepSeek-R1, основанная на Qwen2.5-14B, оптимизирует производительность вывода с помощью усиленного обучения и данных холодного старта, обновляя стандарт многозадачности в открытых моделях."
|
55
|
+
},
|
56
|
+
"DeepSeek-R1-Distill-Qwen-32B": {
|
57
|
+
"description": "Серия DeepSeek-R1 оптимизирует производительность вывода с помощью усиленного обучения и данных холодного старта, обновляя стандарт многозадачности в открытых моделях, превосходя уровень OpenAI-o1-mini."
|
58
|
+
},
|
59
|
+
"DeepSeek-R1-Distill-Qwen-7B": {
|
60
|
+
"description": "Модель DeepSeek-R1, основанная на Qwen2.5-Math-7B, оптимизирует производительность вывода с помощью усиленного обучения и данных холодного старта, обновляя стандарт многозадачности в открытых моделях."
|
61
|
+
},
|
47
62
|
"Doubao-lite-128k": {
|
48
63
|
"description": "Doubao-lite обеспечивает выдающуюся скорость отклика и лучшее соотношение цены и качества, предлагая клиентам больше гибкости в различных сценариях. Поддерживает вывод и настройку с 128k контекстным окном."
|
49
64
|
},
|
@@ -77,9 +92,6 @@
|
|
77
92
|
"ERNIE-4.0-8K-Preview": {
|
78
93
|
"description": "Флагманская сверхкрупномасштабная языковая модель, разработанная Baidu, которая по сравнению с ERNIE 3.5 обеспечивает полное обновление возможностей модели и широко применяется в сложных задачах в различных областях; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах."
|
79
94
|
},
|
80
|
-
"ERNIE-4.0-Turbo-128K": {
|
81
|
-
"description": "Флагманская модель Baidu, разработанная самостоятельно, с огромным масштабом, демонстрирует отличные результаты и широко применяется в сложных задачах в различных областях; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах. По сравнению с ERNIE 4.0, демонстрирует лучшие результаты."
|
82
|
-
},
|
83
95
|
"ERNIE-4.0-Turbo-8K-Latest": {
|
84
96
|
"description": "Флагманская 超大型 языковая модель, разработанная Baidu, демонстрирует отличные результаты и хорошо подходит для сложных задач в различных областях; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая своевременность ответов. По сравнению с ERNIE 4.0 имеет лучшие показатели производительности."
|
85
97
|
},
|
@@ -176,6 +188,9 @@
|
|
176
188
|
"Pro/meta-llama/Meta-Llama-3.1-8B-Instruct": {
|
177
189
|
"description": "Meta Llama 3.1 — это семейство многоязычных крупных языковых моделей, разработанных Meta, включая предобученные и дообученные на инструкциях варианты с параметрами 8B, 70B и 405B. Эта 8B модель с дообучением на инструкциях оптимизирована для многоязычных диалоговых сценариев и показывает отличные результаты в нескольких отраслевых бенчмарках. Обучение модели использовало более 150 триллионов токенов открытых данных и применяло такие технологии, как контролируемое дообучение и обучение с подкреплением на основе человеческой обратной связи для повышения полезности и безопасности модели. Llama 3.1 поддерживает генерацию текста и кода, с датой окончания знаний в декабре 2023 года."
|
178
190
|
},
|
191
|
+
"QwQ-32B-Preview": {
|
192
|
+
"description": "QwQ-32B-Preview — это инновационная модель обработки естественного языка, способная эффективно обрабатывать сложные задачи генерации диалогов и понимания контекста."
|
193
|
+
},
|
179
194
|
"Qwen/QVQ-72B-Preview": {
|
180
195
|
"description": "QVQ-72B-Preview — это исследовательская модель, разработанная командой Qwen, сосредоточенная на способностях визуального вывода, обладающая уникальными преимуществами в понимании сложных сцен и решении визуально связанных математических задач."
|
181
196
|
},
|
@@ -527,6 +542,24 @@
|
|
527
542
|
"deepseek-ai/DeepSeek-R1": {
|
528
543
|
"description": "DeepSeek-R1 — это модель вывода, управляемая методом обучения с подкреплением (RL), которая решает проблемы повторяемости и читаемости модели. Перед применением RL DeepSeek-R1 вводит данные холодного старта, что дополнительно оптимизирует производительность вывода. Она показывает сопоставимые результаты с OpenAI-o1 в математических, кодовых и задачах вывода, а также улучшает общую эффективность благодаря тщательно разработанным методам обучения."
|
529
544
|
},
|
545
|
+
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
|
546
|
+
"description": "Модель DeepSeek-R1, дистиллированная с помощью усиленного обучения и данных холодного старта, оптимизирует производительность вывода, обновляя стандарт многозадачности в открытых моделях."
|
547
|
+
},
|
548
|
+
"deepseek-ai/DeepSeek-R1-Distill-Llama-8B": {
|
549
|
+
"description": "DeepSeek-R1-Distill-Llama-8B — это дистиллированная модель, основанная на Llama-3.1-8B. Эта модель была дообучена на образцах, сгенерированных DeepSeek-R1, и демонстрирует отличные способности вывода. Она показала хорошие результаты в нескольких бенчмарках, включая 89.1% точности на MATH-500, 50.4% проходной уровень на AIME 2024 и 1205 баллов на CodeForces, демонстрируя сильные математические и программные способности для модели объемом 8B."
|
550
|
+
},
|
551
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
552
|
+
"description": "Модель DeepSeek-R1, дистиллированная с помощью усиленного обучения и данных холодного старта, оптимизирует производительность вывода, обновляя стандарт многозадачности в открытых моделях."
|
553
|
+
},
|
554
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
|
555
|
+
"description": "Модель DeepSeek-R1, дистиллированная с помощью усиленного обучения и данных холодного старта, оптимизирует производительность вывода, обновляя стандарт многозадачности в открытых моделях."
|
556
|
+
},
|
557
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
|
558
|
+
"description": "DeepSeek-R1-Distill-Qwen-32B — это модель, полученная с помощью дистилляции на основе Qwen2.5-32B. Эта модель была дообучена на 800000 отобранных образцах, сгенерированных DeepSeek-R1, и демонстрирует выдающуюся производительность в таких областях, как математика, программирование и логика. Она показала отличные результаты в нескольких бенчмарках, включая AIME 2024, MATH-500 и GPQA Diamond, достигнув 94.3% точности на MATH-500, демонстрируя мощные способности математического вывода."
|
559
|
+
},
|
560
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
561
|
+
"description": "DeepSeek-R1-Distill-Qwen-7B — это модель, полученная с помощью дистилляции на основе Qwen2.5-Math-7B. Эта модель была дообучена на 800000 отобранных образцах, сгенерированных DeepSeek-R1, и демонстрирует отличные способности вывода. Она показала выдающиеся результаты в нескольких бенчмарках, включая 92.8% точности на MATH-500, 55.5% проходной уровень на AIME 2024 и 1189 баллов на CodeForces, демонстрируя сильные математические и программные способности для модели объемом 7B."
|
562
|
+
},
|
530
563
|
"deepseek-ai/DeepSeek-V2.5": {
|
531
564
|
"description": "DeepSeek V2.5 объединяет отличительные черты предыдущих версий, улучшая общие и кодировочные способности."
|
532
565
|
},
|
@@ -554,6 +587,9 @@
|
|
554
587
|
"deepseek-r1": {
|
555
588
|
"description": "DeepSeek-R1 — это модель вывода, управляемая методом обучения с подкреплением (RL), которая решает проблемы повторяемости и читаемости модели. Перед применением RL DeepSeek-R1 вводит данные холодного старта, что дополнительно оптимизирует производительность вывода. Она показывает сопоставимые результаты с OpenAI-o1 в математических, кодовых и задачах вывода, а также улучшает общую эффективность благодаря тщательно разработанным методам обучения."
|
556
589
|
},
|
590
|
+
"deepseek-r1-distill-llama-70b": {
|
591
|
+
"description": "DeepSeek R1 — более крупная и умная модель в наборе DeepSeek, была дистиллирована в архитектуру Llama 70B. На основе бенчмарков и ручной оценки эта модель более умная, особенно в задачах, требующих математической и фактической точности."
|
592
|
+
},
|
557
593
|
"deepseek-reasoner": {
|
558
594
|
"description": "Модель вывода, представленная DeepSeek. Перед тем как выдать окончательный ответ, модель сначала выводит цепочку размышлений, чтобы повысить точность окончательного ответа."
|
559
595
|
},
|
@@ -563,12 +599,63 @@
|
|
563
599
|
"deepseek-v2:236b": {
|
564
600
|
"description": "DeepSeek V2 236B — это модель кода DeepSeek, обеспечивающая мощные возможности генерации кода."
|
565
601
|
},
|
602
|
+
"deepseek-v3": {
|
603
|
+
"description": "DeepSeek-V3 — это модель MoE, разработанная компанией Hangzhou DeepSeek AI Technology Research Co., Ltd., которая показывает выдающиеся результаты в нескольких тестах и занимает первое место среди открытых моделей в основных рейтингах. V3 по сравнению с моделью V2.5 увеличила скорость генерации в 3 раза, обеспечивая пользователям более быстрое и плавное использование."
|
604
|
+
},
|
566
605
|
"deepseek/deepseek-chat": {
|
567
606
|
"description": "Новая открытая модель, объединяющая общие и кодовые возможности, не только сохраняет общие диалоговые способности оригинальной модели Chat и мощные возможности обработки кода модели Coder, но и лучше соответствует человеческим предпочтениям. Кроме того, DeepSeek-V2.5 значительно улучшила свои результаты в задачах написания, следования инструкциям и других областях."
|
568
607
|
},
|
569
608
|
"emohaa": {
|
570
609
|
"description": "Emohaa — это психологическая модель, обладающая профессиональными консультационными способностями, помогающая пользователям понимать эмоциональные проблемы."
|
571
610
|
},
|
611
|
+
"ernie-3.5-128k": {
|
612
|
+
"description": "Флагманская большая языковая модель, разработанная Baidu, охватывающая огромные объемы китайских и английских текстов, обладающая мощными универсальными способностями, способная удовлетворить требования большинства сценариев диалогов, генерации контента и применения плагинов; поддерживает автоматическое подключение к плагину поиска Baidu, обеспечивая актуальность информации."
|
613
|
+
},
|
614
|
+
"ernie-3.5-8k": {
|
615
|
+
"description": "Флагманская большая языковая модель, разработанная Baidu, охватывающая огромные объемы китайских и английских текстов, обладающая мощными универсальными способностями, способная удовлетворить требования большинства сценариев диалогов, генерации контента и применения плагинов; поддерживает автоматическое подключение к плагину поиска Baidu, обеспечивая актуальность информации."
|
616
|
+
},
|
617
|
+
"ernie-3.5-8k-preview": {
|
618
|
+
"description": "Флагманская большая языковая модель, разработанная Baidu, охватывающая огромные объемы китайских и английских текстов, обладающая мощными универсальными способностями, способная удовлетворить требования большинства сценариев диалогов, генерации контента и применения плагинов; поддерживает автоматическое подключение к плагину поиска Baidu, обеспечивая актуальность информации."
|
619
|
+
},
|
620
|
+
"ernie-4.0-8k-latest": {
|
621
|
+
"description": "Флагманская сверхбольшая языковая модель, разработанная Baidu, по сравнению с ERNIE 3.5 демонстрирует полное обновление возможностей модели, широко применима в сложных задачах различных областей; поддерживает автоматическое подключение к плагину поиска Baidu, обеспечивая актуальность информации."
|
622
|
+
},
|
623
|
+
"ernie-4.0-8k-preview": {
|
624
|
+
"description": "Флагманская сверхбольшая языковая модель, разработанная Baidu, по сравнению с ERNIE 3.5 демонстрирует полное обновление возможностей модели, широко применима в сложных задачах различных областей; поддерживает автоматическое подключение к плагину поиска Baidu, обеспечивая актуальность информации."
|
625
|
+
},
|
626
|
+
"ernie-4.0-turbo-128k": {
|
627
|
+
"description": "Флагманская сверхбольшая языковая модель, разработанная Baidu, демонстрирует отличные результаты в комплексных задачах, широко применима в различных областях; поддерживает автоматическое подключение к плагину поиска Baidu, обеспечивая актуальность информации. По сравнению с ERNIE 4.0, она показывает лучшие результаты."
|
628
|
+
},
|
629
|
+
"ernie-4.0-turbo-8k-latest": {
|
630
|
+
"description": "Флагманская сверхбольшая языковая модель, разработанная Baidu, демонстрирует отличные результаты в комплексных задачах, широко применима в различных областях; поддерживает автоматическое подключение к плагину поиска Baidu, обеспечивая актуальность информации. По сравнению с ERNIE 4.0, она показывает лучшие результаты."
|
631
|
+
},
|
632
|
+
"ernie-4.0-turbo-8k-preview": {
|
633
|
+
"description": "Флагманская сверхбольшая языковая модель, разработанная Baidu, демонстрирует отличные результаты в комплексных задачах, широко применима в различных областях; поддерживает автоматическое подключение к плагину поиска Baidu, обеспечивая актуальность информации. По сравнению с ERNIE 4.0, она показывает лучшие результаты."
|
634
|
+
},
|
635
|
+
"ernie-char-8k": {
|
636
|
+
"description": "Специализированная большая языковая модель, разработанная Baidu, подходящая для применения в игровых NPC, диалогах службы поддержки, ролевых играх и других сценариях, с более ярким и последовательным стилем персонажей, более высокой способностью следовать инструкциям и лучшей производительностью вывода."
|
637
|
+
},
|
638
|
+
"ernie-char-fiction-8k": {
|
639
|
+
"description": "Специализированная большая языковая модель, разработанная Baidu, подходящая для применения в игровых NPC, диалогах службы поддержки, ролевых играх и других сценариях, с более ярким и последовательным стилем персонажей, более высокой способностью следовать инструкциям и лучшей производительностью вывода."
|
640
|
+
},
|
641
|
+
"ernie-lite-8k": {
|
642
|
+
"description": "ERNIE Lite — это легковесная большая языковая модель, разработанная Baidu, которая сочетает в себе отличные результаты модели и производительность вывода, подходит для использования на AI-ускорителях с низкой вычислительной мощностью."
|
643
|
+
},
|
644
|
+
"ernie-lite-pro-128k": {
|
645
|
+
"description": "Легковесная большая языковая модель, разработанная Baidu, которая сочетает в себе отличные результаты модели и производительность вывода, превосходя ERNIE Lite, подходит для использования на AI-ускорителях с низкой вычислительной мощностью."
|
646
|
+
},
|
647
|
+
"ernie-novel-8k": {
|
648
|
+
"description": "Универсальная большая языковая модель, разработанная Baidu, обладающая явными преимуществами в способности продолжать написание романов, также может использоваться в сценариях коротких пьес и фильмов."
|
649
|
+
},
|
650
|
+
"ernie-speed-128k": {
|
651
|
+
"description": "Новая высокопроизводительная большая языковая модель, разработанная Baidu в 2024 году, обладающая выдающимися универсальными способностями, подходит для использования в качестве базовой модели для тонкой настройки, лучше справляясь с проблемами конкретных сценариев, при этом обладая отличной производительностью вывода."
|
652
|
+
},
|
653
|
+
"ernie-speed-pro-128k": {
|
654
|
+
"description": "Новая высокопроизводительная большая языковая модель, разработанная Baidu в 2024 году, обладающая выдающимися универсальными способностями, превосходя ERNIE Speed, подходит для использования в качестве базовой модели для тонкой настройки, лучше справляясь с проблемами конкретных сценариев, при этом обладая отличной производительностью вывода."
|
655
|
+
},
|
656
|
+
"ernie-tiny-8k": {
|
657
|
+
"description": "ERNIE Tiny — это сверхвысокопроизводительная большая языковая модель, стоимость развертывания и тонкой настройки которой является самой низкой среди моделей серии Wenxin."
|
658
|
+
},
|
572
659
|
"gemini-1.0-pro-001": {
|
573
660
|
"description": "Gemini 1.0 Pro 001 (Тюнинг) предлагает стабильную и настраиваемую производительность, что делает её идеальным выбором для решения сложных задач."
|
574
661
|
},
|
@@ -872,6 +959,9 @@
|
|
872
959
|
"internlm2.5-latest": {
|
873
960
|
"description": "Наша последняя серия моделей с выдающимися показателями вывода, поддерживающая длину контекста до 1M и обладающая улучшенными возможностями следования инструкциям и вызова инструментов."
|
874
961
|
},
|
962
|
+
"internlm3-latest": {
|
963
|
+
"description": "Наша последняя серия моделей с выдающейся производительностью вывода, лидирующая среди моделей открытого кода того же уровня. По умолчанию указывает на нашу последнюю выпущенную серию моделей InternLM3."
|
964
|
+
},
|
875
965
|
"learnlm-1.5-pro-experimental": {
|
876
966
|
"description": "LearnLM — это экспериментальная языковая модель, ориентированная на конкретные задачи, обученная в соответствии с принципами науки о обучении, которая может следовать системным инструкциям в учебных и образовательных сценариях, выступая в роли эксперта-наставника и т.д."
|
877
967
|
},
|
@@ -986,6 +1076,9 @@
|
|
986
1076
|
"meta-llama/Llama-3.3-70B-Instruct": {
|
987
1077
|
"description": "Llama 3.3 — это самая современная многоязычная открытая языковая модель серии Llama, позволяющая получить производительность, сопоставимую с 405B моделью, по очень низкой цене. Основана на структуре Transformer и улучшена с помощью контролируемой донастройки (SFT) и обучения с подкреплением на основе человеческой обратной связи (RLHF) для повышения полезности и безопасности. Ее версия с оптимизацией под инструкции специально разработана для многоязычного диалога и показывает лучшие результаты по сравнению с многими открытыми и закрытыми чат-моделями на нескольких отраслевых бенчмарках. Дата окончания знаний — декабрь 2023 года."
|
988
1078
|
},
|
1079
|
+
"meta-llama/Llama-3.3-70B-Instruct-Turbo": {
|
1080
|
+
"description": "Многоязычная большая языковая модель Meta Llama 3.3 (LLM) — это предобученная и настроенная на инструкции генеративная модель объемом 70B (входной/выходной текст). Модель Llama 3.3, настроенная на инструкции, оптимизирована для многоязычных диалоговых случаев и превосходит многие доступные открытые и закрытые модели чата по общим отраслевым бенчмаркам."
|
1081
|
+
},
|
989
1082
|
"meta-llama/Llama-Vision-Free": {
|
990
1083
|
"description": "LLaMA 3.2 предназначена для выполнения задач, объединяющих визуальные и текстовые данные. Она отлично справляется с задачами по описанию изображений и визуальному вопросу-ответу, преодолевая разрыв между генерацией языка и визуальным пониманием."
|
991
1084
|
},
|
@@ -1256,6 +1349,9 @@
|
|
1256
1349
|
"qwen-vl-max-latest": {
|
1257
1350
|
"description": "Супер масштабная визуально-языковая модель Tongyi Qianwen. По сравнению с улучшенной версией, еще больше повышает способности визуального вывода и соблюдения инструкций, обеспечивая более высокий уровень визуального восприятия и когнитивных способностей."
|
1258
1351
|
},
|
1352
|
+
"qwen-vl-ocr-latest": {
|
1353
|
+
"description": "OCR Qwen — это специализированная модель для извлечения текста, сосредоточенная на способности извлекать текст из изображений различных типов, таких как документы, таблицы, тесты и рукописный текст. Она может распознавать множество языков, включая: китайский, английский, французский, японский, корейский, немецкий, русский, итальянский, вьетнамский и арабский."
|
1354
|
+
},
|
1259
1355
|
"qwen-vl-plus-latest": {
|
1260
1356
|
"description": "Улучшенная версия масштабной визуально-языковой модели Tongyi Qianwen. Значительно повышает способность распознавания деталей и текста, поддерживает разрешение более миллиона пикселей и изображения с произвольным соотношением сторон."
|
1261
1357
|
},
|
@@ -1274,6 +1370,9 @@
|
|
1274
1370
|
"qwen2.5-14b-instruct": {
|
1275
1371
|
"description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 14B."
|
1276
1372
|
},
|
1373
|
+
"qwen2.5-14b-instruct-1m": {
|
1374
|
+
"description": "Модель Qwen2.5 с открытым исходным кодом объемом 72B."
|
1375
|
+
},
|
1277
1376
|
"qwen2.5-32b-instruct": {
|
1278
1377
|
"description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 32B."
|
1279
1378
|
},
|
@@ -1301,6 +1400,12 @@
|
|
1301
1400
|
"qwen2.5-math-7b-instruct": {
|
1302
1401
|
"description": "Модель Qwen-Math с мощными способностями решения математических задач."
|
1303
1402
|
},
|
1403
|
+
"qwen2.5-vl-72b-instruct": {
|
1404
|
+
"description": "Улучшение следования инструкциям, математики, решения задач и кода, улучшение способности распознавания объектов, поддержка точного позиционирования визуальных элементов в различных форматах, поддержка понимания длинных видеофайлов (максимум 10 минут) и локализация событий на уровне секунд, способность понимать последовательность времени и скорость, поддержка управления агентами ОС или мобильными устройствами на основе аналитических и позиционных возможностей, высокая способность извлечения ключевой информации и вывода в формате Json. Эта версия является 72B, самой мощной в серии."
|
1405
|
+
},
|
1406
|
+
"qwen2.5-vl-7b-instruct": {
|
1407
|
+
"description": "Улучшение следования инструкциям, математики, решения задач и кода, улучшение способности распознавания объектов, поддержка точного позиционирования визуальных элементов в различных форматах, поддержка понимания длинных видеофайлов (максимум 10 минут) и локализация событий на уровне секунд, способность понимать последовательность времени и скорость, поддержка управления агентами ОС или мобильными устройствами на основе аналитических и позиционных возможностей, высокая способность извлечения ключевой информации и вывода в формате Json. Эта версия является 72B, самой мощной в серии."
|
1408
|
+
},
|
1304
1409
|
"qwen2.5:0.5b": {
|
1305
1410
|
"description": "Qwen2.5 — это новое поколение масштабной языковой модели от Alibaba, обеспечивающее отличные результаты для разнообразных потребностей приложений."
|
1306
1411
|
},
|
@@ -286,6 +286,7 @@
|
|
286
286
|
"anonymousNickName": "Anonim Kullanıcı",
|
287
287
|
"billing": "Fatura Yönetimi",
|
288
288
|
"cloud": "{{name}}'i Deneyin",
|
289
|
+
"community": "Topluluk Sürümü",
|
289
290
|
"data": "Veri Depolama",
|
290
291
|
"defaultNickname": "Topluluk Kullanıcısı",
|
291
292
|
"discord": "Topluluk Destek",
|
@@ -295,7 +296,6 @@
|
|
295
296
|
"help": "Yardım Merkezi",
|
296
297
|
"moveGuide": "Ayarlar düğmesini buraya taşıyın",
|
297
298
|
"plans": "Planlar",
|
298
|
-
"preview": "Önizleme",
|
299
299
|
"profile": "Hesap Yönetimi",
|
300
300
|
"setting": "Uygulama Ayarları",
|
301
301
|
"usages": "Kullanım İstatistikleri"
|
@@ -294,26 +294,6 @@
|
|
294
294
|
"tooltip": "Hizmet sağlayıcının temel yapılandırmasını güncelle",
|
295
295
|
"updateSuccess": "Güncelleme başarılı"
|
296
296
|
},
|
297
|
-
"wenxin": {
|
298
|
-
"accessKey": {
|
299
|
-
"desc": "Baidu Qianfan platform için Access Key girin",
|
300
|
-
"placeholder": "Qianfan Access Key",
|
301
|
-
"title": "Access Key"
|
302
|
-
},
|
303
|
-
"checker": {
|
304
|
-
"desc": "AccessKey / SecretAccess'ın doğru girilip girilmediğini test et"
|
305
|
-
},
|
306
|
-
"secretKey": {
|
307
|
-
"desc": "Baidu Qianfan platform için Secret Key girin",
|
308
|
-
"placeholder": "Qianfan Secret Key",
|
309
|
-
"title": "Secret Key"
|
310
|
-
},
|
311
|
-
"unlock": {
|
312
|
-
"customRegion": "Özel hizmet bölgesi",
|
313
|
-
"description": "Oturuma başlamak için AccessKey / SecretKey'nizi girin. Uygulama kimlik doğrulama yapılandırmanızı kaydetmeyecek",
|
314
|
-
"title": "Özel Wenxin Yiyan kimlik doğrulama bilgilerini kullan"
|
315
|
-
}
|
316
|
-
},
|
317
297
|
"zeroone": {
|
318
298
|
"title": "01.AI Sıfır Bir"
|
319
299
|
},
|
@@ -23,6 +23,9 @@
|
|
23
23
|
"360gpt2-pro": {
|
24
24
|
"description": "360GPT2 Pro, 360 şirketi tarafından sunulan yüksek düzeyde doğal dil işleme modelidir, mükemmel metin oluşturma ve anlama yeteneğine sahiptir, özellikle oluşturma ve yaratma alanında olağanüstü performans gösterir, karmaşık dil dönüşümleri ve rol canlandırma görevlerini işleyebilir."
|
25
25
|
},
|
26
|
+
"360zhinao2-o1": {
|
27
|
+
"description": "360zhinao2-o1, düşünce zincirini oluşturmak için ağaç araması kullanır ve yansıtma mekanizmasını entegre eder, pekiştirme öğrenimi ile eğitilir, model kendini yansıtma ve hata düzeltme yeteneğine sahiptir."
|
28
|
+
},
|
26
29
|
"4.0Ultra": {
|
27
30
|
"description": "Spark4.0 Ultra, Xinghuo büyük model serisinin en güçlü versiyonudur, çevrimiçi arama bağlantısını yükseltirken, metin içeriğini anlama ve özetleme yeteneğini artırır. Ofis verimliliğini artırmak ve taleplere doğru yanıt vermek için kapsamlı bir çözüm sunar, sektördeki akıllı ürünlerin öncüsüdür."
|
28
31
|
},
|
@@ -44,6 +47,18 @@
|
|
44
47
|
"Baichuan4-Turbo": {
|
45
48
|
"description": "Model yetenekleri ülke içinde birinci, bilgi ansiklopedisi, uzun metinler, yaratıcı üretim gibi Çince görevlerde uluslararası ana akım modelleri aşmaktadır. Ayrıca, sektörde lider çok modlu yeteneklere sahip olup, birçok yetkili değerlendirme ölçütünde mükemmel performans sergilemektedir."
|
46
49
|
},
|
50
|
+
"DeepSeek-R1-Distill-Qwen-1.5B": {
|
51
|
+
"description": "Qwen2.5-Math-1.5B temel alınarak oluşturulmuş DeepSeek-R1 damıtma modeli, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler."
|
52
|
+
},
|
53
|
+
"DeepSeek-R1-Distill-Qwen-14B": {
|
54
|
+
"description": "Qwen2.5-14B temel alınarak oluşturulmuş DeepSeek-R1 damıtma modeli, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler."
|
55
|
+
},
|
56
|
+
"DeepSeek-R1-Distill-Qwen-32B": {
|
57
|
+
"description": "DeepSeek-R1 serisi, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler, OpenAI-o1-mini seviyesini aşar."
|
58
|
+
},
|
59
|
+
"DeepSeek-R1-Distill-Qwen-7B": {
|
60
|
+
"description": "Qwen2.5-Math-7B temel alınarak oluşturulmuş DeepSeek-R1 damıtma modeli, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler."
|
61
|
+
},
|
47
62
|
"Doubao-lite-128k": {
|
48
63
|
"description": "Doubao-lite, mükemmel yanıt hızı ve daha iyi maliyet Performansı ile müşterilere farklı senaryolar için daha esnek seçenekler sunar. 128k bağlam penceresi çıkarım ve ince ayar destekler."
|
49
64
|
},
|
@@ -77,9 +92,6 @@
|
|
77
92
|
"ERNIE-4.0-8K-Preview": {
|
78
93
|
"description": "Baidu'nun kendi geliştirdiği amiral gemisi ultra büyük ölçekli dil modeli, ERNIE 3.5'e kıyasla model yeteneklerinde kapsamlı bir yükseltme gerçekleştirmiştir, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, yanıt bilgilerini güncel tutar."
|
79
94
|
},
|
80
|
-
"ERNIE-4.0-Turbo-128K": {
|
81
|
-
"description": "Baidu'nun kendi geliştirdiği amiral gemisi ultra büyük ölçekli dil modeli, genel performansı mükemmel olup, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, soru-cevap bilgilerini güncel tutar. ERNIE 4.0'a kıyasla performans açısından daha üstündür."
|
82
|
-
},
|
83
95
|
"ERNIE-4.0-Turbo-8K-Latest": {
|
84
96
|
"description": "Baidu tarafından geliştirilen, geniş ölçekli büyük dil modeli, genel performansı mükemmeldir ve her alanda karmaşık görev sahneleri için geniş bir şekilde kullanılabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, yanıt bilgi güncellemelerinin zamanlamasını güvence altına alır. ERNIE 4.0'a kıyasla, performans olarak daha üstündür."
|
85
97
|
},
|
@@ -176,6 +188,9 @@
|
|
176
188
|
"Pro/meta-llama/Meta-Llama-3.1-8B-Instruct": {
|
177
189
|
"description": "Meta Llama 3.1, Meta tarafından geliştirilen çok dilli büyük dil modeli ailesidir ve 8B, 70B ve 405B olmak üzere üç parametre ölçeği ile önceden eğitilmiş ve talimat ince ayar varyantları içermektedir. Bu 8B talimat ince ayar modeli, çok dilli diyalog senaryoları için optimize edilmiştir ve birçok endüstri standart testinde mükemmel performans sergilemektedir. Model, 15 trilyon token'dan fazla açık veriler kullanılarak eğitilmiş ve modelin faydasını ve güvenliğini artırmak için denetimli ince ayar ve insan geri bildirimi pekiştirmeli öğrenme gibi teknikler kullanılmıştır. Llama 3.1, metin üretimi ve kod üretimini desteklemekte olup, bilgi kesim tarihi 2023 Aralık'tır."
|
178
190
|
},
|
191
|
+
"QwQ-32B-Preview": {
|
192
|
+
"description": "QwQ-32B-Preview, karmaşık diyalog oluşturma ve bağlam anlama görevlerini etkili bir şekilde işleyebilen yenilikçi bir doğal dil işleme modelidir."
|
193
|
+
},
|
179
194
|
"Qwen/QVQ-72B-Preview": {
|
180
195
|
"description": "QVQ-72B-Preview, Qwen ekibi tarafından geliştirilen ve görsel çıkarım yeteneklerine odaklanan bir araştırma modelidir. Karmaşık sahne anlayışı ve görsel ile ilgili matematiksel sorunları çözme konusundaki benzersiz avantajları ile dikkat çekmektedir."
|
181
196
|
},
|
@@ -527,6 +542,24 @@
|
|
527
542
|
"deepseek-ai/DeepSeek-R1": {
|
528
543
|
"description": "DeepSeek-R1, tekrarlayan öğrenme (RL) destekli bir çıkarım modelidir ve modeldeki tekrarlama ve okunabilirlik sorunlarını çözmektedir. RL'den önce, DeepSeek-R1 soğuk başlangıç verilerini tanıtarak çıkarım performansını daha da optimize etmiştir. Matematik, kod ve çıkarım görevlerinde OpenAI-o1 ile benzer bir performans sergilemekte ve özenle tasarlanmış eğitim yöntemleri ile genel etkisini artırmaktadır."
|
529
544
|
},
|
545
|
+
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
|
546
|
+
"description": "DeepSeek-R1 damıtma modeli, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler."
|
547
|
+
},
|
548
|
+
"deepseek-ai/DeepSeek-R1-Distill-Llama-8B": {
|
549
|
+
"description": "DeepSeek-R1-Distill-Llama-8B, Llama-3.1-8B temel alınarak geliştirilmiş bir damıtma modelidir. Bu model, DeepSeek-R1 tarafından üretilen örneklerle ince ayar yapılmış, mükemmel çıkarım yeteneği sergilemektedir. Birçok referans testinde iyi performans göstermiş, MATH-500'de %89.1 doğruluk oranına, AIME 2024'te %50.4 geçiş oranına ulaşmış, CodeForces'ta 1205 puan alarak 8B ölçeğindeki model olarak güçlü matematik ve programlama yeteneğini göstermiştir."
|
550
|
+
},
|
551
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
552
|
+
"description": "DeepSeek-R1 damıtma modeli, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler."
|
553
|
+
},
|
554
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
|
555
|
+
"description": "DeepSeek-R1 damıtma modeli, pekiştirme öğrenimi ve soğuk başlatma verileri ile çıkarım performansını optimize eder, açık kaynak model çoklu görev standartlarını yeniler."
|
556
|
+
},
|
557
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
|
558
|
+
"description": "DeepSeek-R1-Distill-Qwen-32B, Qwen2.5-32B temel alınarak bilgi damıtma ile elde edilen bir modeldir. Bu model, DeepSeek-R1 tarafından üretilen 800.000 seçkin örnek ile ince ayar yapılmış, matematik, programlama ve çıkarım gibi birçok alanda olağanüstü performans sergilemektedir. AIME 2024, MATH-500, GPQA Diamond gibi birçok referans testinde mükemmel sonuçlar elde etmiş, MATH-500'de %94.3 doğruluk oranına ulaşarak güçlü matematik çıkarım yeteneğini göstermiştir."
|
559
|
+
},
|
560
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
561
|
+
"description": "DeepSeek-R1-Distill-Qwen-7B, Qwen2.5-Math-7B temel alınarak bilgi damıtma ile elde edilen bir modeldir. Bu model, DeepSeek-R1 tarafından üretilen 800.000 seçkin örnek ile ince ayar yapılmış, mükemmel çıkarım yeteneği sergilemektedir. Birçok referans testinde öne çıkmış, MATH-500'de %92.8 doğruluk oranına, AIME 2024'te %55.5 geçiş oranına ulaşmış, CodeForces'ta 1189 puan alarak 7B ölçeğindeki model olarak güçlü matematik ve programlama yeteneğini göstermiştir."
|
562
|
+
},
|
530
563
|
"deepseek-ai/DeepSeek-V2.5": {
|
531
564
|
"description": "DeepSeek V2.5, önceki sürümlerin mükemmel özelliklerini bir araya getirir, genel ve kodlama yeteneklerini artırır."
|
532
565
|
},
|
@@ -554,6 +587,9 @@
|
|
554
587
|
"deepseek-r1": {
|
555
588
|
"description": "DeepSeek-R1, tekrarlayan öğrenme (RL) destekli bir çıkarım modelidir ve modeldeki tekrarlama ve okunabilirlik sorunlarını çözmektedir. RL'den önce, DeepSeek-R1 soğuk başlangıç verilerini tanıtarak çıkarım performansını daha da optimize etmiştir. Matematik, kod ve çıkarım görevlerinde OpenAI-o1 ile benzer bir performans sergilemekte ve özenle tasarlanmış eğitim yöntemleri ile genel etkisini artırmaktadır."
|
556
589
|
},
|
590
|
+
"deepseek-r1-distill-llama-70b": {
|
591
|
+
"description": "DeepSeek R1 - DeepSeek paketindeki daha büyük ve daha akıllı model - Llama 70B mimarisine damıtılmıştır. Referans testleri ve insan değerlendirmelerine dayanarak, bu model orijinal Llama 70B'den daha akıllıdır, özellikle matematik ve gerçeklik doğruluğu gerektiren görevlerde mükemmel performans sergilemektedir."
|
592
|
+
},
|
557
593
|
"deepseek-reasoner": {
|
558
594
|
"description": "DeepSeek tarafından sunulan bir akıl yürütme modeli. Model, nihai yanıtı vermeden önce bir düşünce zinciri içeriği sunarak nihai cevabın doğruluğunu artırır."
|
559
595
|
},
|
@@ -563,12 +599,63 @@
|
|
563
599
|
"deepseek-v2:236b": {
|
564
600
|
"description": "DeepSeek V2 236B, DeepSeek'in tasarım kodu modelidir, güçlü kod üretim yetenekleri sunar."
|
565
601
|
},
|
602
|
+
"deepseek-v3": {
|
603
|
+
"description": "DeepSeek-V3, Hangzhou DeepSeek Yapay Zeka Temel Teknoloji Araştırma Şirketi tarafından geliştirilen MoE modelidir, birçok değerlendirme sonucunda öne çıkmakta ve ana akım listelerde açık kaynak modeller arasında birinci sırada yer almaktadır. V3, V2.5 modeline göre üretim hızında 3 kat artış sağlamış, kullanıcılara daha hızlı ve akıcı bir deneyim sunmuştur."
|
604
|
+
},
|
566
605
|
"deepseek/deepseek-chat": {
|
567
606
|
"description": "Genel ve kod yeteneklerini birleştiren yeni açık kaynak model, yalnızca mevcut Chat modelinin genel diyalog yeteneklerini ve Coder modelinin güçlü kod işleme yeteneklerini korumakla kalmaz, aynı zamanda insan tercihleriyle daha iyi hizalanmıştır. Ayrıca, DeepSeek-V2.5 yazma görevleri, talimat takibi gibi birçok alanda da büyük iyileştirmeler sağlamıştır."
|
568
607
|
},
|
569
608
|
"emohaa": {
|
570
609
|
"description": "Emohaa, duygusal sorunları anlamalarına yardımcı olmak için profesyonel danışmanlık yeteneklerine sahip bir psikolojik modeldir."
|
571
610
|
},
|
611
|
+
"ernie-3.5-128k": {
|
612
|
+
"description": "Baidu tarafından geliştirilen amiral gemisi büyük ölçekli dil modeli, geniş bir Çince ve İngilizce veri kümesini kapsar, güçlü genel yeteneklere sahiptir ve çoğu diyalog soru-cevap, yaratım, eklenti uygulama senaryolarını karşılayabilir; Baidu arama eklentisi ile otomatik entegrasyon desteği sunarak soru-cevap bilgilerini güncel tutar."
|
613
|
+
},
|
614
|
+
"ernie-3.5-8k": {
|
615
|
+
"description": "Baidu tarafından geliştirilen amiral gemisi büyük ölçekli dil modeli, geniş bir Çince ve İngilizce veri kümesini kapsar, güçlü genel yeteneklere sahiptir ve çoğu diyalog soru-cevap, yaratım, eklenti uygulama senaryolarını karşılayabilir; Baidu arama eklentisi ile otomatik entegrasyon desteği sunarak soru-cevap bilgilerini güncel tutar."
|
616
|
+
},
|
617
|
+
"ernie-3.5-8k-preview": {
|
618
|
+
"description": "Baidu tarafından geliştirilen amiral gemisi büyük ölçekli dil modeli, geniş bir Çince ve İngilizce veri kümesini kapsar, güçlü genel yeteneklere sahiptir ve çoğu diyalog soru-cevap, yaratım, eklenti uygulama senaryolarını karşılayabilir; Baidu arama eklentisi ile otomatik entegrasyon desteği sunarak soru-cevap bilgilerini güncel tutar."
|
619
|
+
},
|
620
|
+
"ernie-4.0-8k-latest": {
|
621
|
+
"description": "Baidu tarafından geliştirilen amiral gemisi ultra büyük ölçekli dil modeli, ERNIE 3.5'e göre model yeteneklerinde kapsamlı bir yükseltme gerçekleştirmiştir, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyon desteği sunarak soru-cevap bilgilerini güncel tutar."
|
622
|
+
},
|
623
|
+
"ernie-4.0-8k-preview": {
|
624
|
+
"description": "Baidu tarafından geliştirilen amiral gemisi ultra büyük ölçekli dil modeli, ERNIE 3.5'e göre model yeteneklerinde kapsamlı bir yükseltme gerçekleştirmiştir, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyon desteği sunarak soru-cevap bilgilerini güncel tutar."
|
625
|
+
},
|
626
|
+
"ernie-4.0-turbo-128k": {
|
627
|
+
"description": "Baidu tarafından geliştirilen amiral gemisi ultra büyük ölçekli dil modeli, genel performansı mükemmel, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyon desteği sunarak soru-cevap bilgilerini güncel tutar. ERNIE 4.0'a göre performans açısından daha üstündür."
|
628
|
+
},
|
629
|
+
"ernie-4.0-turbo-8k-latest": {
|
630
|
+
"description": "Baidu tarafından geliştirilen amiral gemisi ultra büyük ölçekli dil modeli, genel performansı mükemmel, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyon desteği sunarak soru-cevap bilgilerini güncel tutar. ERNIE 4.0'a göre performans açısından daha üstündür."
|
631
|
+
},
|
632
|
+
"ernie-4.0-turbo-8k-preview": {
|
633
|
+
"description": "Baidu tarafından geliştirilen amiral gemisi ultra büyük ölçekli dil modeli, genel performansı mükemmel, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyon desteği sunarak soru-cevap bilgilerini güncel tutar. ERNIE 4.0'a göre performans açısından daha üstündür."
|
634
|
+
},
|
635
|
+
"ernie-char-8k": {
|
636
|
+
"description": "Baidu tarafından geliştirilen dikey senaryo büyük dil modeli, oyun NPC'leri, müşteri hizmetleri diyalogları, diyalog karakter rolü gibi uygulama senaryolarına uygundur, karakter tarzı daha belirgin ve tutarlıdır, talimat takibi yeteneği daha güçlü, çıkarım performansı daha iyidir."
|
637
|
+
},
|
638
|
+
"ernie-char-fiction-8k": {
|
639
|
+
"description": "Baidu tarafından geliştirilen dikey senaryo büyük dil modeli, oyun NPC'leri, müşteri hizmetleri diyalogları, diyalog karakter rolü gibi uygulama senaryolarına uygundur, karakter tarzı daha belirgin ve tutarlıdır, talimat takibi yeteneği daha güçlü, çıkarım performansı daha iyidir."
|
640
|
+
},
|
641
|
+
"ernie-lite-8k": {
|
642
|
+
"description": "ERNIE Lite, Baidu tarafından geliştirilen hafif büyük dil modelidir, mükemmel model performansı ve çıkarım yeteneği ile düşük hesaplama gücüne sahip AI hızlandırıcı kartları için uygundur."
|
643
|
+
},
|
644
|
+
"ernie-lite-pro-128k": {
|
645
|
+
"description": "Baidu tarafından geliştirilen hafif büyük dil modeli, mükemmel model performansı ve çıkarım yeteneği ile ERNIE Lite'dan daha iyi sonuçlar verir, düşük hesaplama gücüne sahip AI hızlandırıcı kartları için uygundur."
|
646
|
+
},
|
647
|
+
"ernie-novel-8k": {
|
648
|
+
"description": "Baidu tarafından geliştirilen genel büyük dil modeli, roman devam ettirme yeteneğinde belirgin bir avantaja sahiptir, aynı zamanda kısa oyun, film gibi senaryolarda da kullanılabilir."
|
649
|
+
},
|
650
|
+
"ernie-speed-128k": {
|
651
|
+
"description": "Baidu'nun 2024 yılında yayımladığı en son yüksek performanslı büyük dil modeli, genel yetenekleri mükemmel, belirli senaryo sorunlarını daha iyi ele almak için temel model olarak ince ayar yapılabilir, aynı zamanda mükemmel çıkarım performansına sahiptir."
|
652
|
+
},
|
653
|
+
"ernie-speed-pro-128k": {
|
654
|
+
"description": "Baidu'nun 2024 yılında yayımladığı en son yüksek performanslı büyük dil modeli, genel yetenekleri mükemmel, ERNIE Speed'den daha iyi sonuçlar verir, belirli senaryo sorunlarını daha iyi ele almak için temel model olarak ince ayar yapılabilir, aynı zamanda mükemmel çıkarım performansına sahiptir."
|
655
|
+
},
|
656
|
+
"ernie-tiny-8k": {
|
657
|
+
"description": "ERNIE Tiny, Baidu tarafından geliştirilen ultra yüksek performanslı büyük dil modelidir, dağıtım ve ince ayar maliyetleri Wenxin serisi modelleri arasında en düşüktür."
|
658
|
+
},
|
572
659
|
"gemini-1.0-pro-001": {
|
573
660
|
"description": "Gemini 1.0 Pro 001 (Tuning), kararlı ve ayarlanabilir bir performans sunar, karmaşık görev çözümleri için ideal bir seçimdir."
|
574
661
|
},
|
@@ -872,6 +959,9 @@
|
|
872
959
|
"internlm2.5-latest": {
|
873
960
|
"description": "En son model serimiz, olağanüstü çıkarım performansına sahiptir, 1M bağlam uzunluğunu destekler ve daha güçlü talimat takibi ve araç çağırma yetenekleri sunar."
|
874
961
|
},
|
962
|
+
"internlm3-latest": {
|
963
|
+
"description": "En son model serimiz, olağanüstü çıkarım performansına sahiptir ve aynı ölçekli açık kaynak modeller arasında liderdir. Varsayılan olarak en son yayımlanan InternLM3 serisi modellerine işaret eder."
|
964
|
+
},
|
875
965
|
"learnlm-1.5-pro-experimental": {
|
876
966
|
"description": "LearnLM, öğrenme bilimleri ilkelerine uygun olarak eğitilmiş, görev odaklı deneysel bir dil modelidir. Eğitim ve öğrenim senaryolarında sistem talimatlarını takip edebilir ve uzman bir mentor olarak görev alabilir."
|
877
967
|
},
|
@@ -986,6 +1076,9 @@
|
|
986
1076
|
"meta-llama/Llama-3.3-70B-Instruct": {
|
987
1077
|
"description": "Llama 3.3, Llama serisinin en gelişmiş çok dilli açık kaynak büyük dil modelidir, 405B modelinin performansını çok düşük maliyetle deneyimleme imkanı sunar. Transformer yapısına dayanır ve denetimli ince ayar (SFT) ve insan geri bildirimi ile güçlendirilmiş öğrenme (RLHF) ile kullanılabilirlik ve güvenliği artırılmıştır. Talimat ayarlı versiyonu çok dilli diyaloglar için optimize edilmiştir ve birçok endüstri standardında birçok açık kaynak ve kapalı sohbet modelinden daha iyi performans göstermektedir. Bilgi kesim tarihi 2023 Aralık'tır."
|
988
1078
|
},
|
1079
|
+
"meta-llama/Llama-3.3-70B-Instruct-Turbo": {
|
1080
|
+
"description": "Meta Llama 3.3 çok dilli büyük dil modeli (LLM), 70B (metin girişi/metin çıkışı) içinde önceden eğitilmiş ve talimat ayarlı bir üretim modelidir. Llama 3.3 talimat ayarlı saf metin modeli, çok dilli diyalog kullanım durumları için optimize edilmiştir ve yaygın endüstri standartlarında birçok mevcut açık kaynak ve kapalı sohbet modelinden daha iyi performans göstermektedir."
|
1081
|
+
},
|
989
1082
|
"meta-llama/Llama-Vision-Free": {
|
990
1083
|
"description": "LLaMA 3.2, görsel ve metin verilerini bir arada işleme amacıyla tasarlanmıştır. Görüntü betimleme ve görsel soru yanıtlama gibi görevlerde mükemmel performans sergiler, dil üretimi ve görsel akıl yürütme arasındaki boşluğu kapar."
|
991
1084
|
},
|
@@ -1256,6 +1349,9 @@
|
|
1256
1349
|
"qwen-vl-max-latest": {
|
1257
1350
|
"description": "Tongyi Qianwen ultra büyük ölçekli görsel dil modeli. Geliştirilmiş versiyona kıyasla, görsel akıl yürütme yeteneğini ve talimatlara uyum yeteneğini bir kez daha artırır, daha yüksek görsel algı ve bilişsel seviyeler sunar."
|
1258
1351
|
},
|
1352
|
+
"qwen-vl-ocr-latest": {
|
1353
|
+
"description": "Tongyi Qianwen OCR, belge, tablo, sınav soruları, el yazısı gibi çeşitli görüntü türlerinden metin çıkarma yeteneğine odaklanan özel bir modeldir. Birçok yazıyı tanıyabilir, şu anda desteklenen diller: Çince, İngilizce, Fransızca, Japonca, Korece, Almanca, Rusça, İtalyanca, Vietnamca, Arapça."
|
1354
|
+
},
|
1259
1355
|
"qwen-vl-plus-latest": {
|
1260
1356
|
"description": "Tongyi Qianwen büyük ölçekli görsel dil modelinin geliştirilmiş versiyonu. Detay tanıma ve metin tanıma yeteneklerini büyük ölçüde artırır, bir milyondan fazla piksel çözünürlüğü ve herhangi bir en-boy oranındaki görüntüleri destekler."
|
1261
1357
|
},
|
@@ -1274,6 +1370,9 @@
|
|
1274
1370
|
"qwen2.5-14b-instruct": {
|
1275
1371
|
"description": "Tongyi Qianwen 2.5, halka açık 14B ölçeğinde bir modeldir."
|
1276
1372
|
},
|
1373
|
+
"qwen2.5-14b-instruct-1m": {
|
1374
|
+
"description": "Tongyi Qianwen 2.5, 72B ölçeğinde açık kaynak olarak sunulmuştur."
|
1375
|
+
},
|
1277
1376
|
"qwen2.5-32b-instruct": {
|
1278
1377
|
"description": "Tongyi Qianwen 2.5, halka açık 32B ölçeğinde bir modeldir."
|
1279
1378
|
},
|
@@ -1301,6 +1400,12 @@
|
|
1301
1400
|
"qwen2.5-math-7b-instruct": {
|
1302
1401
|
"description": "Qwen-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir."
|
1303
1402
|
},
|
1403
|
+
"qwen2.5-vl-72b-instruct": {
|
1404
|
+
"description": "Talimat takibi, matematik, problem çözme, kodlama genelinde iyileştirme, her türlü nesneyi tanıma yeteneği artışı, çeşitli formatları doğrudan hassas bir şekilde görsel unsurları konumlandırma desteği, uzun video dosyalarını (en fazla 10 dakika) anlama ve saniye düzeyinde olay anlarını konumlandırma yeteneği, zaman sıralamasını ve hızını anlama, analiz ve konumlandırma yeteneğine dayanarak OS veya Mobil ajanları kontrol etme desteği, anahtar bilgileri çıkarma yeteneği ve Json formatında çıktı verme yeteneği güçlüdür, bu sürüm 72B versiyonudur, bu serinin en güçlü versiyonudur."
|
1405
|
+
},
|
1406
|
+
"qwen2.5-vl-7b-instruct": {
|
1407
|
+
"description": "Talimat takibi, matematik, problem çözme, kodlama genelinde iyileştirme, her türlü nesneyi tanıma yeteneği artışı, çeşitli formatları doğrudan hassas bir şekilde görsel unsurları konumlandırma desteği, uzun video dosyalarını (en fazla 10 dakika) anlama ve saniye düzeyinde olay anlarını konumlandırma yeteneği, zaman sıralamasını ve hızını anlama, analiz ve konumlandırma yeteneğine dayanarak OS veya Mobil ajanları kontrol etme desteği, anahtar bilgileri çıkarma yeteneği ve Json formatında çıktı verme yeteneği güçlüdür, bu sürüm 72B versiyonudur, bu serinin en güçlü versiyonudur."
|
1408
|
+
},
|
1304
1409
|
"qwen2.5:0.5b": {
|
1305
1410
|
"description": "Qwen2.5, Alibaba'nın yeni nesil büyük ölçekli dil modelidir ve mükemmel performansıyla çeşitli uygulama ihtiyaçlarını desteklemektedir."
|
1306
1411
|
},
|
@@ -286,6 +286,7 @@
|
|
286
286
|
"anonymousNickName": "Người dùng ẩn danh",
|
287
287
|
"billing": "Quản lý hóa đơn",
|
288
288
|
"cloud": "Trải nghiệm {{name}}",
|
289
|
+
"community": "Phiên bản cộng đồng",
|
289
290
|
"data": "Lưu trữ dữ liệu",
|
290
291
|
"defaultNickname": "Người dùng phiên bản cộng đồng",
|
291
292
|
"discord": "Hỗ trợ cộng đồng",
|
@@ -295,7 +296,6 @@
|
|
295
296
|
"help": "Trung tâm trợ giúp",
|
296
297
|
"moveGuide": "Đã di chuyển nút cài đặt đến đây",
|
297
298
|
"plans": "Kế hoạch đăng ký",
|
298
|
-
"preview": "Phiên bản xem trước",
|
299
299
|
"profile": "Quản lý tài khoản",
|
300
300
|
"setting": "Cài đặt ứng dụng",
|
301
301
|
"usages": "Thống kê sử dụng"
|
@@ -294,26 +294,6 @@
|
|
294
294
|
"tooltip": "Cập nhật cấu hình cơ bản của nhà cung cấp",
|
295
295
|
"updateSuccess": "Cập nhật thành công"
|
296
296
|
},
|
297
|
-
"wenxin": {
|
298
|
-
"accessKey": {
|
299
|
-
"desc": "Nhập Access Key từ nền tảng Qianfan của Baidu",
|
300
|
-
"placeholder": "Access Key Qianfan",
|
301
|
-
"title": "Access Key"
|
302
|
-
},
|
303
|
-
"checker": {
|
304
|
-
"desc": "Kiểm tra xem AccessKey / SecretAccess có được nhập đúng không"
|
305
|
-
},
|
306
|
-
"secretKey": {
|
307
|
-
"desc": "Nhập Secret Key từ nền tảng Qianfan của Baidu",
|
308
|
-
"placeholder": "Secret Key Qianfan",
|
309
|
-
"title": "Secret Key"
|
310
|
-
},
|
311
|
-
"unlock": {
|
312
|
-
"customRegion": "Khu vực dịch vụ tùy chỉnh",
|
313
|
-
"description": "Nhập AccessKey / SecretKey của bạn để bắt đầu phiên trò chuyện. Ứng dụng sẽ không ghi lại cấu hình xác thực của bạn",
|
314
|
-
"title": "Sử dụng thông tin xác thực của Wenxin Yiyan tùy chỉnh"
|
315
|
-
}
|
316
|
-
},
|
317
297
|
"zeroone": {
|
318
298
|
"title": "01.AI Zero One"
|
319
299
|
},
|