@lobehub/chat 1.36.33 → 1.36.35

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (87) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/README.ja-JP.md +150 -115
  3. package/README.md +65 -30
  4. package/README.zh-CN.md +65 -30
  5. package/changelog/v1.json +18 -0
  6. package/locales/ar/common.json +27 -7
  7. package/locales/ar/models.json +0 -24
  8. package/locales/ar/providers.json +10 -4
  9. package/locales/bg-BG/common.json +27 -7
  10. package/locales/bg-BG/models.json +0 -24
  11. package/locales/bg-BG/providers.json +10 -4
  12. package/locales/de-DE/common.json +27 -7
  13. package/locales/de-DE/models.json +0 -24
  14. package/locales/de-DE/providers.json +10 -4
  15. package/locales/en-US/common.json +27 -7
  16. package/locales/en-US/models.json +0 -24
  17. package/locales/en-US/providers.json +10 -4
  18. package/locales/es-ES/common.json +27 -7
  19. package/locales/es-ES/models.json +0 -24
  20. package/locales/es-ES/providers.json +10 -4
  21. package/locales/fa-IR/common.json +27 -7
  22. package/locales/fa-IR/models.json +0 -24
  23. package/locales/fa-IR/providers.json +10 -4
  24. package/locales/fr-FR/common.json +27 -7
  25. package/locales/fr-FR/models.json +0 -24
  26. package/locales/fr-FR/providers.json +10 -4
  27. package/locales/it-IT/common.json +27 -7
  28. package/locales/it-IT/models.json +0 -24
  29. package/locales/it-IT/providers.json +10 -4
  30. package/locales/ja-JP/common.json +27 -7
  31. package/locales/ja-JP/models.json +0 -24
  32. package/locales/ja-JP/providers.json +10 -4
  33. package/locales/ko-KR/common.json +27 -7
  34. package/locales/ko-KR/models.json +0 -24
  35. package/locales/ko-KR/providers.json +10 -4
  36. package/locales/nl-NL/common.json +27 -7
  37. package/locales/nl-NL/models.json +0 -24
  38. package/locales/nl-NL/providers.json +10 -4
  39. package/locales/pl-PL/common.json +27 -7
  40. package/locales/pl-PL/models.json +0 -24
  41. package/locales/pl-PL/providers.json +10 -4
  42. package/locales/pt-BR/common.json +27 -7
  43. package/locales/pt-BR/models.json +0 -24
  44. package/locales/pt-BR/providers.json +10 -4
  45. package/locales/ru-RU/common.json +27 -7
  46. package/locales/ru-RU/models.json +0 -24
  47. package/locales/ru-RU/providers.json +10 -4
  48. package/locales/tr-TR/common.json +27 -7
  49. package/locales/tr-TR/models.json +0 -24
  50. package/locales/tr-TR/providers.json +10 -4
  51. package/locales/vi-VN/common.json +27 -7
  52. package/locales/vi-VN/models.json +0 -24
  53. package/locales/vi-VN/providers.json +10 -4
  54. package/locales/zh-CN/common.json +28 -8
  55. package/locales/zh-CN/models.json +4 -28
  56. package/locales/zh-CN/providers.json +10 -4
  57. package/locales/zh-TW/common.json +27 -7
  58. package/locales/zh-TW/models.json +0 -24
  59. package/locales/zh-TW/providers.json +10 -4
  60. package/package.json +1 -1
  61. package/scripts/readmeWorkflow/const.ts +22 -8
  62. package/scripts/readmeWorkflow/index.ts +2 -0
  63. package/scripts/readmeWorkflow/syncAgentIndex.ts +36 -28
  64. package/scripts/readmeWorkflow/syncPluginIndex.ts +28 -15
  65. package/scripts/readmeWorkflow/syncProviderIndex.ts +51 -0
  66. package/scripts/readmeWorkflow/utlis.ts +23 -12
  67. package/src/app/loading/Client/Content.tsx +38 -0
  68. package/src/app/loading/Client/Redirect.tsx +47 -0
  69. package/src/app/loading/Client/index.tsx +22 -0
  70. package/src/app/loading/{Content.tsx → Server/Content.tsx} +6 -2
  71. package/src/app/loading/{Redirect.tsx → Server/Redirect.tsx} +3 -12
  72. package/src/app/loading/Server/index.tsx +22 -0
  73. package/src/app/loading/index.tsx +4 -16
  74. package/src/app/loading/stage.ts +22 -0
  75. package/src/components/FullscreenLoading/index.tsx +9 -8
  76. package/src/components/InitProgress/index.tsx +42 -0
  77. package/src/config/modelProviders/ai21.ts +1 -0
  78. package/src/config/modelProviders/cloudflare.ts +1 -2
  79. package/src/config/modelProviders/higress.ts +2 -1
  80. package/src/config/modelProviders/sensenova.ts +6 -3
  81. package/src/features/FileViewer/index.tsx +1 -1
  82. package/src/features/MobileSwitchLoading/index.tsx +20 -7
  83. package/src/layout/AuthProvider/NextAuth/UserUpdater.tsx +3 -1
  84. package/src/locales/default/common.ts +29 -8
  85. package/src/locales/default/models.ts +1 -0
  86. package/src/locales/default/providers.ts +1 -0
  87. package/src/app/loading/type.ts +0 -6
@@ -23,20 +23,6 @@
23
23
  "4.0Ultra": {
24
24
  "description": "Spark4.0 Ultra é a versão mais poderosa da série de grandes modelos Xinghuo, que, ao atualizar a conexão de busca online, melhora a capacidade de compreensão e resumo de conteúdo textual. É uma solução abrangente para aumentar a produtividade no trabalho e responder com precisão às demandas, sendo um produto inteligente líder na indústria."
25
25
  },
26
- "@cf/meta/llama-3-8b-instruct-awq": {},
27
- "@cf/openchat/openchat-3.5-0106": {},
28
- "@cf/qwen/qwen1.5-14b-chat-awq": {},
29
- "@hf/google/gemma-7b-it": {},
30
- "@hf/meta-llama/meta-llama-3-8b-instruct": {
31
- "description": "Geração após geração, o Meta Llama 3 demonstra desempenho de ponta em uma ampla gama de benchmarks da indústria e oferece novas capacidades, incluindo raciocínio aprimorado."
32
- },
33
- "@hf/mistral/mistral-7b-instruct-v0.2": {},
34
- "@hf/nexusflow/starling-lm-7b-beta": {},
35
- "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
36
- "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
37
- "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
38
- "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
39
- "@hf/thebloke/zephyr-7b-beta-awq": {},
40
26
  "Baichuan2-Turbo": {
41
27
  "description": "Utiliza tecnologia de busca aprimorada para conectar completamente o grande modelo com conhecimento de domínio e conhecimento da web. Suporta upload de vários documentos, como PDF e Word, e entrada de URLs, garantindo acesso a informações de forma rápida e abrangente, com resultados precisos e profissionais."
42
28
  },
@@ -127,7 +113,6 @@
127
113
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
128
114
  "description": "Hermes 2 Mixtral 8x7B DPO é uma fusão de múltiplos modelos altamente flexível, projetada para oferecer uma experiência criativa excepcional."
129
115
  },
130
- "NousResearch/Hermes-3-Llama-3.1-8B": {},
131
116
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
132
117
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) é um modelo de instrução de alta precisão, adequado para cálculos complexos."
133
118
  },
@@ -530,9 +515,6 @@
530
515
  "cohere-command-r-plus": {
531
516
  "description": "Command R+ é um modelo otimizado para RAG de última geração, projetado para lidar com cargas de trabalho de nível empresarial."
532
517
  },
533
- "command-light": {
534
- "description": ""
535
- },
536
518
  "command-r": {
537
519
  "description": "Command R é um LLM otimizado para tarefas de diálogo e longos contextos, especialmente adequado para interações dinâmicas e gerenciamento de conhecimento."
538
520
  },
@@ -794,9 +776,6 @@
794
776
  "hunyuan-functioncall": {
795
777
  "description": "O mais recente modelo FunctionCall da arquitetura MOE Hunyuan, treinado com dados de alta qualidade de FunctionCall, com uma janela de contexto de 32K, liderando em várias métricas de avaliação."
796
778
  },
797
- "hunyuan-large": {
798
- "description": ""
799
- },
800
779
  "hunyuan-lite": {
801
780
  "description": "Atualizado para uma estrutura MOE, com uma janela de contexto de 256k, liderando em várias avaliações em NLP, código, matemática e setores diversos em comparação com muitos modelos de código aberto."
802
781
  },
@@ -830,8 +809,6 @@
830
809
  "internlm2.5-latest": {
831
810
  "description": "Nossa mais recente série de modelos, com desempenho de raciocínio excepcional, suportando um comprimento de contexto de 1M e capacidades aprimoradas de seguimento de instruções e chamadas de ferramentas."
832
811
  },
833
- "jamba-1.5-large": {},
834
- "jamba-1.5-mini": {},
835
812
  "learnlm-1.5-pro-experimental": {
836
813
  "description": "LearnLM é um modelo de linguagem experimental e específico para tarefas, treinado para atender aos princípios da ciência da aprendizagem, podendo seguir instruções sistemáticas em cenários de ensino e aprendizagem, atuando como um mentor especialista, entre outros."
837
814
  },
@@ -1027,7 +1004,6 @@
1027
1004
  "meta.llama3-8b-instruct-v1:0": {
1028
1005
  "description": "Meta Llama 3 é um modelo de linguagem de grande escala (LLM) aberto voltado para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e expandir suas ideias de IA geradora de forma responsável. Como parte de um sistema de base para inovação da comunidade global, é ideal para dispositivos de borda com capacidade de computação e recursos limitados, além de tempos de treinamento mais rápidos."
1029
1006
  },
1030
- "microsoft/Phi-3.5-mini-instruct": {},
1031
1007
  "microsoft/WizardLM-2-8x22B": {
1032
1008
  "description": "WizardLM 2 é um modelo de linguagem fornecido pela Microsoft AI, que se destaca em diálogos complexos, multilíngue, raciocínio e assistentes inteligentes."
1033
1009
  },
@@ -1,5 +1,7 @@
1
1
  {
2
- "ai21": {},
2
+ "ai21": {
3
+ "description": "AI21 Labs constrói modelos fundamentais e sistemas de inteligência artificial para empresas, acelerando a aplicação da inteligência artificial generativa na produção."
4
+ },
3
5
  "ai360": {
4
6
  "description": "360 AI é a plataforma de modelos e serviços de IA lançada pela empresa 360, oferecendo uma variedade de modelos avançados de processamento de linguagem natural, incluindo 360GPT2 Pro, 360GPT Pro, 360GPT Turbo e 360GPT Turbo Responsibility 8K. Esses modelos combinam grandes parâmetros e capacidades multimodais, sendo amplamente aplicados em geração de texto, compreensão semântica, sistemas de diálogo e geração de código. Com uma estratégia de preços flexível, a 360 AI atende a diversas necessidades dos usuários, apoiando a integração de desenvolvedores e promovendo a inovação e o desenvolvimento de aplicações inteligentes."
5
7
  },
@@ -15,7 +17,9 @@
15
17
  "bedrock": {
16
18
  "description": "Bedrock é um serviço oferecido pela Amazon AWS, focado em fornecer modelos de linguagem e visão de IA avançados para empresas. Sua família de modelos inclui a série Claude da Anthropic, a série Llama 3.1 da Meta, entre outros, abrangendo uma variedade de opções, desde modelos leves até de alto desempenho, suportando geração de texto, diálogos, processamento de imagens e outras tarefas, adequando-se a aplicações empresariais de diferentes escalas e necessidades."
17
19
  },
18
- "cloudflare": {},
20
+ "cloudflare": {
21
+ "description": "Execute modelos de aprendizado de máquina impulsionados por GPU sem servidor na rede global da Cloudflare."
22
+ },
19
23
  "deepseek": {
20
24
  "description": "A DeepSeek é uma empresa focada em pesquisa e aplicação de tecnologia de inteligência artificial, cujo modelo mais recente, DeepSeek-V2.5, combina capacidades de diálogo geral e processamento de código, alcançando melhorias significativas em alinhamento com preferências humanas, tarefas de escrita e seguimento de instruções."
21
25
  },
@@ -35,7 +39,7 @@
35
39
  "description": "O motor de inferência LPU da Groq se destacou em testes de benchmark independentes de modelos de linguagem de grande escala (LLM), redefinindo os padrões de soluções de IA com sua velocidade e eficiência impressionantes. A Groq representa uma velocidade de inferência em tempo real, demonstrando bom desempenho em implantações baseadas em nuvem."
36
40
  },
37
41
  "higress": {
38
- "description": ""
42
+ "description": "Higress é um gateway de API nativo da nuvem, criado internamente na Alibaba para resolver problemas de recarga do Tengine que afetam negócios de conexões longas, além de melhorar a capacidade de balanceamento de carga do gRPC/Dubbo."
39
43
  },
40
44
  "huggingface": {
41
45
  "description": "A API de Inferência do HuggingFace oferece uma maneira rápida e gratuita de explorar milhares de modelos para diversas tarefas. Seja você um protótipo para um novo aplicativo ou tentando as funcionalidades de aprendizado de máquina, esta API permite acesso instantâneo a modelos de alto desempenho em múltiplas áreas."
@@ -73,7 +77,9 @@
73
77
  "qwen": {
74
78
  "description": "Qwen é um modelo de linguagem de grande escala desenvolvido pela Alibaba Cloud, com forte capacidade de compreensão e geração de linguagem natural. Ele pode responder a várias perguntas, criar conteúdo escrito, expressar opiniões e escrever código, atuando em vários campos."
75
79
  },
76
- "sensenova": {},
80
+ "sensenova": {
81
+ "description": "A SenseTime oferece serviços de grandes modelos de pilha completa, aproveitando o forte suporte da infraestrutura da SenseTime."
82
+ },
77
83
  "siliconcloud": {
78
84
  "description": "SiliconFlow se dedica a acelerar a AGI para beneficiar a humanidade, melhorando a eficiência da IA em larga escala por meio de uma pilha GenAI fácil de usar e de baixo custo."
79
85
  },
@@ -10,10 +10,16 @@
10
10
  }
11
11
  },
12
12
  "appLoading": {
13
- "goToChat": "(4/4) Загрузка страницы чата...",
14
- "initAuth": "(2/4) Инициализация службы аутентификации...",
15
- "initUser": "(3/4) Инициализация состояния пользователя...",
16
- "initializing": "(1/4) Запуск приложения..."
13
+ "appInitializing": "Инициализация приложения...",
14
+ "finished": "Инициализация базы данных завершена",
15
+ "goToChat": "Загрузка страницы чата...",
16
+ "initAuth": "Инициализация службы аутентификации...",
17
+ "initUser": "Инициализация состояния пользователя...",
18
+ "initializing": "Инициализация базы данных PGlite...",
19
+ "loadingDependencies": "Инициализация зависимостей...",
20
+ "loadingWasm": "Загрузка модуля WASM...",
21
+ "migrating": "Выполнение миграции таблиц данных...",
22
+ "ready": "База данных готова"
17
23
  },
18
24
  "autoGenerate": "Автозаполнение",
19
25
  "autoGenerateTooltip": "Автоматическое дополнение описания агента на основе подсказок",
@@ -38,14 +44,28 @@
38
44
  "error": "Произошла ошибка, пожалуйста, повторите попытку",
39
45
  "idle": "Ожидание инициализации...",
40
46
  "initializing": "Инициализация...",
41
- "loadingDependencies": "Загрузка зависимостей ({{progress}}%)...",
42
- "loadingWasmModule": "Загрузка модуля WASM ({{progress}}%)...",
43
- "migrating": "Миграция данных...",
47
+ "loadingDependencies": "Загрузка зависимостей...",
48
+ "loadingWasmModule": "Загрузка модуля WASM...",
49
+ "migrating": "Выполнение миграции таблицы данных...",
44
50
  "ready": "База данных готова"
45
51
  },
46
52
  "modal": {
47
53
  "desc": "Включите клиентскую базу данных PGlite для постоянного хранения данных чата в вашем браузере и использования таких расширенных функций, как база знаний.",
48
54
  "enable": "Включить сейчас",
55
+ "features": {
56
+ "knowledgeBase": {
57
+ "desc": "Создайте свою личную базу знаний и легко начните диалог с вашим помощником (скоро будет доступно)",
58
+ "title": "Поддержка диалога с базой знаний, откройте второй мозг"
59
+ },
60
+ "localFirst": {
61
+ "desc": "Данные чата полностью хранятся в браузере, ваши данные всегда под вашим контролем.",
62
+ "title": "Локальный приоритет, конфиденциальность превыше всего"
63
+ },
64
+ "pglite": {
65
+ "desc": "Построено на основе PGlite, нативная поддержка высокоуровневых функций AI Native (векторный поиск)",
66
+ "title": "Новая архитектура клиентского хранения"
67
+ }
68
+ },
49
69
  "init": {
50
70
  "desc": "Идет инициализация базы данных, в зависимости от сети это может занять от 5 до 30 секунд.",
51
71
  "title": "Инициализация базы данных PGlite"
@@ -23,20 +23,6 @@
23
23
  "4.0Ultra": {
24
24
  "description": "Spark4.0 Ultra — это самая мощная версия в серии больших моделей Xinghuo, которая, обновив сетевые поисковые связи, улучшает понимание и обобщение текстового контента. Это всестороннее решение для повышения производительности в офисе и точного реагирования на запросы, являющееся ведущим интеллектуальным продуктом в отрасли."
25
25
  },
26
- "@cf/meta/llama-3-8b-instruct-awq": {},
27
- "@cf/openchat/openchat-3.5-0106": {},
28
- "@cf/qwen/qwen1.5-14b-chat-awq": {},
29
- "@hf/google/gemma-7b-it": {},
30
- "@hf/meta-llama/meta-llama-3-8b-instruct": {
31
- "description": "Поколение за поколением, Meta Llama 3 демонстрирует передовые результаты по широкому спектру отраслевых стандартов и предлагает новые возможности, включая улучшенное логическое мышление."
32
- },
33
- "@hf/mistral/mistral-7b-instruct-v0.2": {},
34
- "@hf/nexusflow/starling-lm-7b-beta": {},
35
- "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
36
- "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
37
- "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
38
- "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
39
- "@hf/thebloke/zephyr-7b-beta-awq": {},
40
26
  "Baichuan2-Turbo": {
41
27
  "description": "Использует технологии улучшенного поиска для полной связи между большой моделью и отраслевыми знаниями, а также знаниями из сети. Поддерживает загрузку различных документов, таких как PDF и Word, а также ввод URL, обеспечивая своевременное и полное получение информации с точными и профессиональными результатами."
42
28
  },
@@ -127,7 +113,6 @@
127
113
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
128
114
  "description": "Hermes 2 Mixtral 8x7B DPO — это высокоадаптивная многомодельная комбинация, предназначенная для предоставления выдающегося творческого опыта."
129
115
  },
130
- "NousResearch/Hermes-3-Llama-3.1-8B": {},
131
116
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
132
117
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) — это высокоточная модель команд, подходящая для сложных вычислений."
133
118
  },
@@ -530,9 +515,6 @@
530
515
  "cohere-command-r-plus": {
531
516
  "description": "Command R+ — это модель, оптимизированная для RAG, предназначенная для решения задач корпоративного уровня."
532
517
  },
533
- "command-light": {
534
- "description": ""
535
- },
536
518
  "command-r": {
537
519
  "description": "Command R — это LLM, оптимизированная для диалогов и задач с длинным контекстом, особенно подходит для динамического взаимодействия и управления знаниями."
538
520
  },
@@ -794,9 +776,6 @@
794
776
  "hunyuan-functioncall": {
795
777
  "description": "Последняя модель Hunyuan с архитектурой MOE FunctionCall, обученная на высококачественных данных FunctionCall, с контекстным окном до 32K, занимает лидирующие позиции по множеству оценочных показателей."
796
778
  },
797
- "hunyuan-large": {
798
- "description": ""
799
- },
800
779
  "hunyuan-lite": {
801
780
  "description": "Обновленная версия с MOE-структурой, контекстное окно составляет 256k, она опережает множество открытых моделей в оценках по NLP, коду, математике и другим областям."
802
781
  },
@@ -830,8 +809,6 @@
830
809
  "internlm2.5-latest": {
831
810
  "description": "Наша последняя серия моделей с выдающимися показателями вывода, поддерживающая длину контекста до 1M и обладающая улучшенными возможностями следования инструкциям и вызова инструментов."
832
811
  },
833
- "jamba-1.5-large": {},
834
- "jamba-1.5-mini": {},
835
812
  "learnlm-1.5-pro-experimental": {
836
813
  "description": "LearnLM — это экспериментальная языковая модель, ориентированная на конкретные задачи, обученная в соответствии с принципами науки о обучении, которая может следовать системным инструкциям в учебных и образовательных сценариях, выступая в роли эксперта-наставника и т.д."
837
814
  },
@@ -1027,7 +1004,6 @@
1027
1004
  "meta.llama3-8b-instruct-v1:0": {
1028
1005
  "description": "Meta Llama 3 — это открытая большая языковая модель (LLM), ориентированная на разработчиков, исследователей и предприятия, предназначенная для помощи в создании, экспериментировании и ответственном масштабировании их идей по генеративному ИИ. В качестве части базовой системы для инноваций глобального сообщества она идеально подходит для устройств с ограниченными вычислительными мощностями и ресурсами, а также для более быстрого времени обучения."
1029
1006
  },
1030
- "microsoft/Phi-3.5-mini-instruct": {},
1031
1007
  "microsoft/WizardLM-2-8x22B": {
1032
1008
  "description": "WizardLM 2 — это языковая модель от Microsoft AI, которая особенно хорошо справляется с сложными диалогами, многоязычностью, выводами и интеллектуальными помощниками."
1033
1009
  },
@@ -1,5 +1,7 @@
1
1
  {
2
- "ai21": {},
2
+ "ai21": {
3
+ "description": "AI21 Labs создает базовые модели и системы искусственного интеллекта для бизнеса, ускоряя внедрение генеративного ИИ в производстве."
4
+ },
3
5
  "ai360": {
4
6
  "description": "360 AI — это платформа AI-моделей и услуг, запущенная компанией 360, предлагающая множество передовых моделей обработки естественного языка, включая 360GPT2 Pro, 360GPT Pro, 360GPT Turbo и 360GPT Turbo Responsibility 8K. Эти модели сочетают в себе масштабные параметры и мультимодальные возможности, широко применяются в генерации текста, семантическом понимании, диалоговых системах и генерации кода. Благодаря гибкой ценовой политике 360 AI удовлетворяет разнообразные потребности пользователей, поддерживает интеграцию разработчиков и способствует инновациям и развитию интеллектуальных приложений."
5
7
  },
@@ -15,7 +17,9 @@
15
17
  "bedrock": {
16
18
  "description": "Bedrock — это сервис, предоставляемый Amazon AWS, сосредоточенный на предоставлении предприятиям передовых AI-языковых и визуальных моделей. Его семейство моделей включает серию Claude от Anthropic, серию Llama 3.1 от Meta и другие, охватывающие широкий спектр от легковесных до высокопроизводительных решений, поддерживающих текстовую генерацию, диалоги, обработку изображений и другие задачи, подходящие для предприятий различного масштаба и потребностей."
17
19
  },
18
- "cloudflare": {},
20
+ "cloudflare": {
21
+ "description": "Запуск моделей машинного обучения на базе серверов GPU в глобальной сети Cloudflare."
22
+ },
19
23
  "deepseek": {
20
24
  "description": "DeepSeek — это компания, сосредоточенная на исследованиях и применении технологий искусственного интеллекта, ее последняя модель DeepSeek-V2.5 объединяет возможности общего диалога и обработки кода, достигнув значительных улучшений в области согласования с человеческими предпочтениями, написания текстов и выполнения инструкций."
21
25
  },
@@ -35,7 +39,7 @@
35
39
  "description": "Инженерный движок LPU от Groq показал выдающиеся результаты в последних независимых бенчмарках больших языковых моделей (LLM), переопределяя стандарты AI-решений благодаря своей удивительной скорости и эффективности. Groq представляет собой образец мгновенной скорости вывода, демонстрируя хорошие результаты в облачных развертываниях."
36
40
  },
37
41
  "higress": {
38
- "description": ""
42
+ "description": "Higress — это облачный API шлюз, который был разработан внутри Alibaba для решения проблем, связанных с перезагрузкой Tengine, негативно влияющей на долгосрочные соединения, а также недостаточной способностью балансировки нагрузки для gRPC/Dubbo."
39
43
  },
40
44
  "huggingface": {
41
45
  "description": "API для инференса HuggingFace предоставляет быстрый и бесплатный способ исследовать тысячи моделей для различных задач. Независимо от того, разрабатываете ли вы прототип для нового приложения или пробуете возможности машинного обучения, этот API обеспечивает мгновенный доступ к высокопроизводительным моделям в различных областях."
@@ -73,7 +77,9 @@
73
77
  "qwen": {
74
78
  "description": "Qwen — это сверхбольшая языковая модель, разработанная Alibaba Cloud, обладающая мощными возможностями понимания и генерации естественного языка. Она может отвечать на различные вопросы, создавать текстовый контент, выражать мнения и писать код, играя важную роль в различных областях."
75
79
  },
76
- "sensenova": {},
80
+ "sensenova": {
81
+ "description": "SenseNova, опираясь на мощную инфраструктуру SenseTime, предлагает эффективные и удобные услуги полного стека больших моделей."
82
+ },
77
83
  "siliconcloud": {
78
84
  "description": "SiliconFlow стремится ускорить AGI, чтобы принести пользу человечеству, повышая эффективность масштабного AI с помощью простого и экономичного стека GenAI."
79
85
  },
@@ -10,10 +10,16 @@
10
10
  }
11
11
  },
12
12
  "appLoading": {
13
- "goToChat": "(4/4) Sohbet sayfası yükleniyor...",
14
- "initAuth": "(2/4) Kimlik doğrulama hizmeti başlatılıyor...",
15
- "initUser": "(3/4) Kullanıcı durumu başlatılıyor...",
16
- "initializing": "(1/4) Uygulama başlatılıyor..."
13
+ "appInitializing": "Uygulama başlatılıyor...",
14
+ "finished": "Veritabanı başlatma tamamlandı",
15
+ "goToChat": "Sohbet sayfası yükleniyor...",
16
+ "initAuth": "Kimlik doğrulama servisi başlatılıyor...",
17
+ "initUser": "Kullanıcı durumu başlatılıyor...",
18
+ "initializing": "PGlite veritabanı başlatılıyor...",
19
+ "loadingDependencies": "Bağımlılıklar yükleniyor...",
20
+ "loadingWasm": "WASM modülü yükleniyor...",
21
+ "migrating": "Veri tablosu taşınıyor...",
22
+ "ready": "Veritabanı hazır"
17
23
  },
18
24
  "autoGenerate": "Otomatik Oluştur",
19
25
  "autoGenerateTooltip": "Auto-generate agent description based on prompts",
@@ -38,14 +44,28 @@
38
44
  "error": "Hata oluştu, lütfen tekrar deneyin",
39
45
  "idle": "Başlatma bekleniyor...",
40
46
  "initializing": "Başlatılıyor...",
41
- "loadingDependencies": "Bağımlılıklar yükleniyor ({{progress}}%)...",
42
- "loadingWasmModule": "WASM modülü yükleniyor ({{progress}}%)...",
43
- "migrating": "Veri taşınıyor...",
47
+ "loadingDependencies": "Bağlantılar yükleniyor...",
48
+ "loadingWasmModule": "WASM modülü yükleniyor...",
49
+ "migrating": "Veri tablosu taşınıyor...",
44
50
  "ready": "Veritabanı hazır"
45
51
  },
46
52
  "modal": {
47
53
  "desc": "PGlite istemci veritabanını etkinleştirerek, tarayıcınızda sohbet verilerini kalıcı olarak depolayın ve bilgi bankası gibi gelişmiş özellikleri kullanın.",
48
54
  "enable": "Hemen Etkinleştir",
55
+ "features": {
56
+ "knowledgeBase": {
57
+ "desc": "Kişisel bilgi havuzunuzu oluşturun ve asistanınızla kolayca bilgi havuzu sohbetine başlayın (yakında gelecek)",
58
+ "title": "Bilgi havuzu sohbetini destekleyin, ikinci beyninizi açın"
59
+ },
60
+ "localFirst": {
61
+ "desc": "Sohbet verileri tamamen tarayıcıda saklanır, verileriniz her zaman sizin kontrolünüzde.",
62
+ "title": "Yerel öncelik, gizlilik öncelikli"
63
+ },
64
+ "pglite": {
65
+ "desc": "PGlite tabanlı, AI Native yüksek düzey özellikleri (vektör arama) yerel olarak destekler",
66
+ "title": "Yeni nesil istemci depolama mimarisi"
67
+ }
68
+ },
49
69
  "init": {
50
70
  "desc": "Veritabanı başlatılıyor, ağ farklılıklarına bağlı olarak 5-30 saniye sürebilir.",
51
71
  "title": "PGlite veritabanı başlatılıyor"
@@ -23,20 +23,6 @@
23
23
  "4.0Ultra": {
24
24
  "description": "Spark4.0 Ultra, Xinghuo büyük model serisinin en güçlü versiyonudur, çevrimiçi arama bağlantısını yükseltirken, metin içeriğini anlama ve özetleme yeteneğini artırır. Ofis verimliliğini artırmak ve taleplere doğru yanıt vermek için kapsamlı bir çözüm sunar, sektördeki akıllı ürünlerin öncüsüdür."
25
25
  },
26
- "@cf/meta/llama-3-8b-instruct-awq": {},
27
- "@cf/openchat/openchat-3.5-0106": {},
28
- "@cf/qwen/qwen1.5-14b-chat-awq": {},
29
- "@hf/google/gemma-7b-it": {},
30
- "@hf/meta-llama/meta-llama-3-8b-instruct": {
31
- "description": "Nesil nesil, Meta Llama 3, geniş bir endüstri ölçütleri yelpazesinde en son performansı sergilemekte ve geliştirilmiş akıl yürütme gibi yeni yetenekler sunmaktadır."
32
- },
33
- "@hf/mistral/mistral-7b-instruct-v0.2": {},
34
- "@hf/nexusflow/starling-lm-7b-beta": {},
35
- "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
36
- "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
37
- "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
38
- "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
39
- "@hf/thebloke/zephyr-7b-beta-awq": {},
40
26
  "Baichuan2-Turbo": {
41
27
  "description": "Arama artırma teknolojisi kullanarak büyük model ile alan bilgisi ve tüm ağ bilgisi arasında kapsamlı bir bağlantı sağlar. PDF, Word gibi çeşitli belge yüklemelerini ve URL girişini destekler, bilgi edinimi zamanında ve kapsamlıdır, çıktı sonuçları doğru ve profesyoneldir."
42
28
  },
@@ -127,7 +113,6 @@
127
113
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
128
114
  "description": "Hermes 2 Mixtral 8x7B DPO, olağanüstü yaratıcı deneyimler sunmak için tasarlanmış son derece esnek bir çoklu model birleşimidir."
129
115
  },
130
- "NousResearch/Hermes-3-Llama-3.1-8B": {},
131
116
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
132
117
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B), karmaşık hesaplamalar için yüksek hassasiyetli bir talimat modelidir."
133
118
  },
@@ -530,9 +515,6 @@
530
515
  "cohere-command-r-plus": {
531
516
  "description": "Command R+, kurumsal düzeyde iş yüklerini ele almak için tasarlanmış en son RAG optimize edilmiş bir modeldir."
532
517
  },
533
- "command-light": {
534
- "description": ""
535
- },
536
518
  "command-r": {
537
519
  "description": "Command R, diyalog ve uzun bağlam görevleri için optimize edilmiş bir LLM'dir, dinamik etkileşim ve bilgi yönetimi için özellikle uygundur."
538
520
  },
@@ -794,9 +776,6 @@
794
776
  "hunyuan-functioncall": {
795
777
  "description": "Hunyuan'ın en son MOE mimarisi FunctionCall modeli, yüksek kaliteli FunctionCall verisi ile eğitilmiş olup, bağlam penceresi 32K'ya ulaşmıştır ve birçok boyutta değerlendirme göstergelerinde lider konumdadır."
796
778
  },
797
- "hunyuan-large": {
798
- "description": ""
799
- },
800
779
  "hunyuan-lite": {
801
780
  "description": "MOE yapısına yükseltilmiş, bağlam penceresi 256k, NLP, kod, matematik, endüstri gibi birçok değerlendirme setinde birçok açık kaynak modelden önde."
802
781
  },
@@ -830,8 +809,6 @@
830
809
  "internlm2.5-latest": {
831
810
  "description": "En son model serimiz, olağanüstü çıkarım performansına sahiptir, 1M bağlam uzunluğunu destekler ve daha güçlü talimat takibi ve araç çağırma yetenekleri sunar."
832
811
  },
833
- "jamba-1.5-large": {},
834
- "jamba-1.5-mini": {},
835
812
  "learnlm-1.5-pro-experimental": {
836
813
  "description": "LearnLM, öğrenme bilimleri ilkelerine uygun olarak eğitilmiş, görev odaklı deneysel bir dil modelidir. Eğitim ve öğrenim senaryolarında sistem talimatlarını takip edebilir ve uzman bir mentor olarak görev alabilir."
837
814
  },
@@ -1027,7 +1004,6 @@
1027
1004
  "meta.llama3-8b-instruct-v1:0": {
1028
1005
  "description": "Meta Llama 3, geliştiriciler, araştırmacılar ve işletmeler için açık bir büyük dil modelidir (LLM) ve onların üretken AI fikirlerini inşa etmelerine, denemelerine ve sorumlu bir şekilde genişletmelerine yardımcı olmak için tasarlanmıştır. Küresel topluluk yeniliğinin temel sistemlerinden biri olarak, sınırlı hesaplama gücü ve kaynaklara sahip, kenar cihazları ve daha hızlı eğitim süreleri için son derece uygundur."
1029
1006
  },
1030
- "microsoft/Phi-3.5-mini-instruct": {},
1031
1007
  "microsoft/WizardLM-2-8x22B": {
1032
1008
  "description": "WizardLM 2, Microsoft AI tarafından sağlanan bir dil modelidir ve karmaşık diyaloglar, çok dilli destek, akıl yürütme ve akıllı asistan alanlarında özellikle başarılıdır."
1033
1009
  },
@@ -1,5 +1,7 @@
1
1
  {
2
- "ai21": {},
2
+ "ai21": {
3
+ "description": "AI21 Labs, işletmeler için temel modeller ve yapay zeka sistemleri geliştirerek, üretimde jeneratif yapay zekanın uygulanmasını hızlandırır."
4
+ },
3
5
  "ai360": {
4
6
  "description": "360 AI, 360 şirketi tarafından sunulan yapay zeka modeli ve hizmet platformudur. 360GPT2 Pro, 360GPT Pro, 360GPT Turbo ve 360GPT Turbo Responsibility 8K gibi çeşitli gelişmiş doğal dil işleme modelleri sunmaktadır. Bu modeller, büyük ölçekli parametreler ve çok modlu yetenekleri birleştirerek metin üretimi, anlamsal anlama, diyalog sistemleri ve kod üretimi gibi alanlarda geniş bir uygulama yelpazesine sahiptir. Esnek fiyatlandırma stratejileri ile 360 AI, çeşitli kullanıcı ihtiyaçlarını karşılamakta ve geliştiricilerin entegrasyonunu destekleyerek akıllı uygulamaların yenilik ve gelişimini teşvik etmektedir."
5
7
  },
@@ -15,7 +17,9 @@
15
17
  "bedrock": {
16
18
  "description": "Bedrock, Amazon AWS tarafından sunulan bir hizmettir ve işletmelere gelişmiş yapay zeka dil modelleri ve görsel modeller sağlamaya odaklanmaktadır. Model ailesi, Anthropic'in Claude serisi, Meta'nın Llama 3.1 serisi gibi seçenekleri içermekte olup, metin üretimi, diyalog, görüntü işleme gibi çeşitli görevleri desteklemektedir. Farklı ölçek ve ihtiyaçlara uygun kurumsal uygulamalar için geniş bir yelpaze sunmaktadır."
17
19
  },
18
- "cloudflare": {},
20
+ "cloudflare": {
21
+ "description": "Cloudflare'ın küresel ağı üzerinde sunucusuz GPU destekli makine öğrenimi modelleri çalıştırın."
22
+ },
19
23
  "deepseek": {
20
24
  "description": "DeepSeek, yapay zeka teknolojisi araştırma ve uygulamalarına odaklanan bir şirkettir. En son modeli DeepSeek-V2.5, genel diyalog ve kod işleme yeteneklerini birleştirerek, insan tercihleriyle uyum, yazma görevleri ve talimat takibi gibi alanlarda önemli iyileştirmeler sağlamaktadır."
21
25
  },
@@ -35,7 +39,7 @@
35
39
  "description": "Groq'un LPU çıkarım motoru, en son bağımsız büyük dil modeli (LLM) benchmark testlerinde mükemmel performans sergilemekte ve olağanüstü hız ve verimliliği ile yapay zeka çözümlerinin standartlarını yeniden tanımlamaktadır. Groq, bulut tabanlı dağıtımlarda iyi bir performans sergileyen anlık çıkarım hızının temsilcisidir."
36
40
  },
37
41
  "higress": {
38
- "description": ""
42
+ "description": "Higress, uzun süreli bağlantı işlerine zarar veren Tengine yeniden yükleme sorununu ve gRPC/Dubbo yük dengeleme yeteneklerinin yetersizliğini çözmek için Alibaba içinde geliştirilmiş bir bulut yerel API geçididir."
39
43
  },
40
44
  "huggingface": {
41
45
  "description": "HuggingFace Inference API, binlerce modeli keşfetmenin hızlı ve ücretsiz bir yolunu sunar, çeşitli görevler için uygundur. Yeni uygulamalar için prototip oluşturuyor ya da makine öğreniminin yeteneklerini deniyorsanız, bu API size birçok alanda yüksek performanslı modellere anında erişim sağlar."
@@ -73,7 +77,9 @@
73
77
  "qwen": {
74
78
  "description": "Tongyi Qianwen, Alibaba Cloud tarafından geliştirilen büyük ölçekli bir dil modelidir ve güçlü doğal dil anlama ve üretme yeteneklerine sahiptir. Çeşitli soruları yanıtlayabilir, metin içeriği oluşturabilir, görüşlerini ifade edebilir ve kod yazabilir. Birçok alanda etkili bir şekilde kullanılmaktadır."
75
79
  },
76
- "sensenova": {},
80
+ "sensenova": {
81
+ "description": "SenseTime, güçlü altyapısına dayanarak, verimli ve kullanımı kolay tam yığın büyük model hizmetleri sunar."
82
+ },
77
83
  "siliconcloud": {
78
84
  "description": "SiliconFlow, insanlığa fayda sağlamak amacıyla AGI'yi hızlandırmaya odaklanmakta ve kullanıcı dostu ve maliyet etkin GenAI yığınları ile büyük ölçekli yapay zeka verimliliğini artırmayı hedeflemektedir."
79
85
  },
@@ -10,10 +10,16 @@
10
10
  }
11
11
  },
12
12
  "appLoading": {
13
- "goToChat": "(4/4) Đang tải trang trò chuyện...",
14
- "initAuth": "(2/4) Đang khởi tạo dịch vụ xác thực...",
15
- "initUser": "(3/4) Đang khởi tạo trạng thái người dùng...",
16
- "initializing": "(1/4) Đang khởi động ứng dụng..."
13
+ "appInitializing": "Đang khởi động ứng dụng...",
14
+ "finished": "Khởi tạo sở dữ liệu hoàn tất",
15
+ "goToChat": "Đang tải trang trò chuyện...",
16
+ "initAuth": "Đang khởi tạo dịch vụ xác thực...",
17
+ "initUser": "Đang khởi tạo trạng thái người dùng...",
18
+ "initializing": "Đang khởi tạo cơ sở dữ liệu PGlite...",
19
+ "loadingDependencies": "Đang khởi tạo phụ thuộc...",
20
+ "loadingWasm": "Đang tải mô-đun WASM...",
21
+ "migrating": "Đang thực hiện di chuyển bảng dữ liệu...",
22
+ "ready": "Cơ sở dữ liệu đã sẵn sàng"
17
23
  },
18
24
  "autoGenerate": "Tự động tạo",
19
25
  "autoGenerateTooltip": "Tự động hoàn thành mô tả trợ lý dựa trên từ gợi ý",
@@ -38,14 +44,28 @@
38
44
  "error": "Đã xảy ra lỗi, vui lòng thử lại",
39
45
  "idle": "Đang chờ khởi tạo...",
40
46
  "initializing": "Đang khởi tạo...",
41
- "loadingDependencies": "Đang tải phụ thuộc({{progress}}%)...",
42
- "loadingWasmModule": "Đang tải mô-đun WASM({{progress}}%)...",
43
- "migrating": "Đang di chuyển dữ liệu...",
47
+ "loadingDependencies": "Đang tải phụ thuộc...",
48
+ "loadingWasmModule": "Đang tải mô-đun WASM...",
49
+ "migrating": "Đang thực hiện di chuyển bảng dữ liệu...",
44
50
  "ready": "Cơ sở dữ liệu đã sẵn sàng"
45
51
  },
46
52
  "modal": {
47
53
  "desc": "Kích hoạt cơ sở dữ liệu khách hàng PGlite, lưu trữ dữ liệu trò chuyện của bạn trong trình duyệt và sử dụng các tính năng nâng cao như kho kiến thức",
48
54
  "enable": "Kích hoạt ngay",
55
+ "features": {
56
+ "knowledgeBase": {
57
+ "desc": "Xây dựng kho kiến thức cá nhân của bạn và dễ dàng bắt đầu cuộc trò chuyện với trợ lý của bạn (sắp ra mắt)",
58
+ "title": "Hỗ trợ trò chuyện kho kiến thức, mở ra bộ não thứ hai"
59
+ },
60
+ "localFirst": {
61
+ "desc": "Dữ liệu trò chuyện hoàn toàn được lưu trữ trên trình duyệt, dữ liệu của bạn luôn nằm trong tầm kiểm soát của bạn.",
62
+ "title": "Ưu tiên địa phương, bảo mật hàng đầu"
63
+ },
64
+ "pglite": {
65
+ "desc": "Xây dựng trên nền tảng PGlite, hỗ trợ nguyên bản các tính năng cao cấp AI Native (tìm kiếm vector)",
66
+ "title": "Kiến trúc lưu trữ khách hàng thế hệ mới"
67
+ }
68
+ },
49
69
  "init": {
50
70
  "desc": "Đang khởi tạo cơ sở dữ liệu, thời gian có thể từ 5~30 giây tùy thuộc vào mạng",
51
71
  "title": "Đang khởi tạo cơ sở dữ liệu PGlite"
@@ -23,20 +23,6 @@
23
23
  "4.0Ultra": {
24
24
  "description": "Spark4.0 Ultra là phiên bản mạnh mẽ nhất trong dòng mô hình lớn Xinghuo, nâng cao khả năng hiểu và tóm tắt nội dung văn bản trong khi nâng cấp liên kết tìm kiếm trực tuyến. Đây là giải pháp toàn diện nhằm nâng cao năng suất văn phòng và đáp ứng chính xác nhu cầu, là sản phẩm thông minh dẫn đầu ngành."
25
25
  },
26
- "@cf/meta/llama-3-8b-instruct-awq": {},
27
- "@cf/openchat/openchat-3.5-0106": {},
28
- "@cf/qwen/qwen1.5-14b-chat-awq": {},
29
- "@hf/google/gemma-7b-it": {},
30
- "@hf/meta-llama/meta-llama-3-8b-instruct": {
31
- "description": "Generation over generation, Meta Llama 3 demonstrates state-of-the-art performance on a wide range of industry benchmarks and offers new capabilities, including improved reasoning."
32
- },
33
- "@hf/mistral/mistral-7b-instruct-v0.2": {},
34
- "@hf/nexusflow/starling-lm-7b-beta": {},
35
- "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
36
- "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
37
- "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
38
- "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
39
- "@hf/thebloke/zephyr-7b-beta-awq": {},
40
26
  "Baichuan2-Turbo": {
41
27
  "description": "Sử dụng công nghệ tăng cường tìm kiếm để kết nối toàn diện giữa mô hình lớn và kiến thức lĩnh vực, kiến thức toàn cầu. Hỗ trợ tải lên nhiều loại tài liệu như PDF, Word và nhập URL, thông tin được thu thập kịp thời và toàn diện, kết quả đầu ra chính xác và chuyên nghiệp."
42
28
  },
@@ -127,7 +113,6 @@
127
113
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
128
114
  "description": "Hermes 2 Mixtral 8x7B DPO là một mô hình kết hợp đa dạng, nhằm cung cấp trải nghiệm sáng tạo xuất sắc."
129
115
  },
130
- "NousResearch/Hermes-3-Llama-3.1-8B": {},
131
116
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
132
117
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) là mô hình chỉ dẫn chính xác cao, phù hợp cho tính toán phức tạp."
133
118
  },
@@ -530,9 +515,6 @@
530
515
  "cohere-command-r-plus": {
531
516
  "description": "Command R+ là mô hình tối ưu hóa RAG hiện đại, được thiết kế để xử lý khối lượng công việc cấp doanh nghiệp."
532
517
  },
533
- "command-light": {
534
- "description": ""
535
- },
536
518
  "command-r": {
537
519
  "description": "Command R là LLM được tối ưu hóa cho các nhiệm vụ đối thoại và ngữ cảnh dài, đặc biệt phù hợp cho tương tác động và quản lý kiến thức."
538
520
  },
@@ -794,9 +776,6 @@
794
776
  "hunyuan-functioncall": {
795
777
  "description": "Mô hình FunctionCall với cấu trúc MOE mới nhất của Hunyuan, được huấn luyện trên dữ liệu FunctionCall chất lượng cao, với cửa sổ ngữ cảnh đạt 32K, dẫn đầu trong nhiều chỉ số đánh giá."
796
778
  },
797
- "hunyuan-large": {
798
- "description": ""
799
- },
800
779
  "hunyuan-lite": {
801
780
  "description": "Nâng cấp lên cấu trúc MOE, với cửa sổ ngữ cảnh 256k, dẫn đầu nhiều mô hình mã nguồn mở trong các bộ đánh giá NLP, mã, toán học, ngành nghề, v.v."
802
781
  },
@@ -830,8 +809,6 @@
830
809
  "internlm2.5-latest": {
831
810
  "description": "Dòng mô hình mới nhất của chúng tôi, có hiệu suất suy luận xuất sắc, hỗ trợ độ dài ngữ cảnh 1M và khả năng theo dõi chỉ dẫn và gọi công cụ mạnh mẽ hơn."
832
811
  },
833
- "jamba-1.5-large": {},
834
- "jamba-1.5-mini": {},
835
812
  "learnlm-1.5-pro-experimental": {
836
813
  "description": "LearnLM là một mô hình ngôn ngữ thử nghiệm, chuyên biệt cho các nhiệm vụ, được đào tạo để tuân theo các nguyên tắc khoa học học tập, có thể tuân theo các chỉ dẫn hệ thống trong các tình huống giảng dạy và học tập, đóng vai trò như một người hướng dẫn chuyên gia."
837
814
  },
@@ -1027,7 +1004,6 @@
1027
1004
  "meta.llama3-8b-instruct-v1:0": {
1028
1005
  "description": "Meta Llama 3 là một mô hình ngôn ngữ lớn (LLM) mở dành cho các nhà phát triển, nhà nghiên cứu và doanh nghiệp, nhằm giúp họ xây dựng, thử nghiệm và mở rộng ý tưởng AI sinh một cách có trách nhiệm. Là một phần của hệ thống cơ sở hạ tầng đổi mới toàn cầu, nó rất phù hợp cho các thiết bị biên và thời gian huấn luyện nhanh hơn với khả năng tính toán và tài nguyên hạn chế."
1029
1006
  },
1030
- "microsoft/Phi-3.5-mini-instruct": {},
1031
1007
  "microsoft/WizardLM-2-8x22B": {
1032
1008
  "description": "WizardLM 2 là mô hình ngôn ngữ do AI của Microsoft cung cấp, thể hiện xuất sắc trong các lĩnh vực đối thoại phức tạp, đa ngôn ngữ, suy luận và trợ lý thông minh."
1033
1009
  },
@@ -1,5 +1,7 @@
1
1
  {
2
- "ai21": {},
2
+ "ai21": {
3
+ "description": "AI21 Labs xây dựng các mô hình cơ bản và hệ thống trí tuệ nhân tạo cho doanh nghiệp, tăng tốc ứng dụng trí tuệ nhân tạo sinh sinh trong sản xuất."
4
+ },
3
5
  "ai360": {
4
6
  "description": "360 AI là nền tảng mô hình và dịch vụ AI do công ty 360 phát hành, cung cấp nhiều mô hình xử lý ngôn ngữ tự nhiên tiên tiến, bao gồm 360GPT2 Pro, 360GPT Pro, 360GPT Turbo và 360GPT Turbo Responsibility 8K. Những mô hình này kết hợp giữa tham số quy mô lớn và khả năng đa phương thức, được ứng dụng rộng rãi trong tạo văn bản, hiểu ngữ nghĩa, hệ thống đối thoại và tạo mã. Thông qua chiến lược giá linh hoạt, 360 AI đáp ứng nhu cầu đa dạng của người dùng, hỗ trợ nhà phát triển tích hợp, thúc đẩy sự đổi mới và phát triển ứng dụng thông minh."
5
7
  },
@@ -15,7 +17,9 @@
15
17
  "bedrock": {
16
18
  "description": "Bedrock là dịch vụ do Amazon AWS cung cấp, tập trung vào việc cung cấp các mô hình ngôn ngữ AI và mô hình hình ảnh tiên tiến cho doanh nghiệp. Gia đình mô hình của nó bao gồm dòng Claude của Anthropic, dòng Llama 3.1 của Meta, v.v., bao quát nhiều lựa chọn từ nhẹ đến hiệu suất cao, hỗ trợ nhiều nhiệm vụ như tạo văn bản, đối thoại, xử lý hình ảnh, phù hợp cho các ứng dụng doanh nghiệp với quy mô và nhu cầu khác nhau."
17
19
  },
18
- "cloudflare": {},
20
+ "cloudflare": {
21
+ "description": "Chạy các mô hình học máy được hỗ trợ bởi GPU không máy chủ trên mạng lưới toàn cầu của Cloudflare."
22
+ },
19
23
  "deepseek": {
20
24
  "description": "DeepSeek là một công ty tập trung vào nghiên cứu và ứng dụng công nghệ trí tuệ nhân tạo, mô hình mới nhất của họ, DeepSeek-V2.5, kết hợp khả năng đối thoại chung và xử lý mã, đồng thời đạt được sự cải thiện đáng kể trong việc căn chỉnh sở thích của con người, nhiệm vụ viết và tuân theo chỉ dẫn."
21
25
  },
@@ -35,7 +39,7 @@
35
39
  "description": "Bộ máy suy diễn LPU của Groq thể hiện xuất sắc trong các bài kiểm tra chuẩn mô hình ngôn ngữ lớn (LLM) độc lập mới nhất, định nghĩa lại tiêu chuẩn cho các giải pháp AI với tốc độ và hiệu quả đáng kinh ngạc. Groq là đại diện cho tốc độ suy diễn tức thì, thể hiện hiệu suất tốt trong triển khai dựa trên đám mây."
36
40
  },
37
41
  "higress": {
38
- "description": ""
42
+ "description": "Higress là một cổng API gốc đám mây, được phát triển trong nội bộ của Alibaba để giải quyết vấn đề Tengine reload ảnh hưởng đến các dịch vụ kết nối dài hạn, cũng như khả năng cân bằng tải gRPC/Dubbo chưa đủ."
39
43
  },
40
44
  "huggingface": {
41
45
  "description": "HuggingFace Inference API cung cấp một cách nhanh chóng và miễn phí để bạn khám phá hàng ngàn mô hình cho nhiều nhiệm vụ khác nhau. Dù bạn đang thiết kế nguyên mẫu cho một ứng dụng mới hay đang thử nghiệm khả năng của học máy, API này cho phép bạn truy cập ngay lập tức vào các mô hình hiệu suất cao trong nhiều lĩnh vực."
@@ -73,7 +77,9 @@
73
77
  "qwen": {
74
78
  "description": "Qwen là mô hình ngôn ngữ quy mô lớn tự phát triển của Alibaba Cloud, có khả năng hiểu và tạo ngôn ngữ tự nhiên mạnh mẽ. Nó có thể trả lời nhiều câu hỏi, sáng tác nội dung văn bản, bày tỏ quan điểm, viết mã, v.v., hoạt động trong nhiều lĩnh vực."
75
79
  },
76
- "sensenova": {},
80
+ "sensenova": {
81
+ "description": "SenseTime luôn đổi mới, dựa vào nền tảng mạnh mẽ của SenseTime để cung cấp dịch vụ mô hình lớn toàn diện, hiệu quả và dễ sử dụng."
82
+ },
77
83
  "siliconcloud": {
78
84
  "description": "SiliconFlow cam kết tăng tốc AGI để mang lại lợi ích cho nhân loại, nâng cao hiệu quả AI quy mô lớn thông qua một ngăn xếp GenAI dễ sử dụng và chi phí thấp."
79
85
  },