@lobehub/chat 1.21.16 → 1.22.1

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (109) hide show
  1. package/CHANGELOG.md +58 -0
  2. package/README.zh-CN.md +8 -6
  3. package/docs/usage/providers/wenxin.mdx +4 -3
  4. package/docs/usage/providers/wenxin.zh-CN.mdx +4 -3
  5. package/locales/ar/error.json +1 -0
  6. package/locales/ar/modelProvider.json +7 -0
  7. package/locales/ar/models.json +18 -6
  8. package/locales/ar/providers.json +3 -0
  9. package/locales/bg-BG/error.json +1 -0
  10. package/locales/bg-BG/modelProvider.json +7 -0
  11. package/locales/bg-BG/models.json +18 -6
  12. package/locales/bg-BG/providers.json +3 -0
  13. package/locales/de-DE/error.json +1 -0
  14. package/locales/de-DE/modelProvider.json +7 -0
  15. package/locales/de-DE/models.json +18 -6
  16. package/locales/de-DE/providers.json +3 -0
  17. package/locales/en-US/error.json +1 -0
  18. package/locales/en-US/modelProvider.json +7 -0
  19. package/locales/en-US/models.json +18 -6
  20. package/locales/en-US/providers.json +3 -0
  21. package/locales/es-ES/error.json +1 -0
  22. package/locales/es-ES/modelProvider.json +7 -0
  23. package/locales/es-ES/models.json +18 -6
  24. package/locales/es-ES/providers.json +3 -0
  25. package/locales/fr-FR/error.json +1 -0
  26. package/locales/fr-FR/modelProvider.json +7 -0
  27. package/locales/fr-FR/models.json +17 -5
  28. package/locales/fr-FR/providers.json +3 -0
  29. package/locales/it-IT/error.json +1 -0
  30. package/locales/it-IT/modelProvider.json +7 -0
  31. package/locales/it-IT/models.json +18 -6
  32. package/locales/it-IT/providers.json +3 -0
  33. package/locales/ja-JP/error.json +1 -0
  34. package/locales/ja-JP/modelProvider.json +7 -0
  35. package/locales/ja-JP/models.json +18 -6
  36. package/locales/ja-JP/providers.json +3 -0
  37. package/locales/ko-KR/error.json +1 -0
  38. package/locales/ko-KR/modelProvider.json +7 -0
  39. package/locales/ko-KR/models.json +17 -5
  40. package/locales/ko-KR/providers.json +3 -0
  41. package/locales/nl-NL/error.json +1 -0
  42. package/locales/nl-NL/modelProvider.json +7 -0
  43. package/locales/nl-NL/models.json +17 -5
  44. package/locales/nl-NL/providers.json +3 -0
  45. package/locales/pl-PL/error.json +1 -0
  46. package/locales/pl-PL/modelProvider.json +7 -0
  47. package/locales/pl-PL/models.json +18 -6
  48. package/locales/pl-PL/providers.json +3 -0
  49. package/locales/pt-BR/error.json +1 -0
  50. package/locales/pt-BR/modelProvider.json +7 -0
  51. package/locales/pt-BR/models.json +18 -6
  52. package/locales/pt-BR/providers.json +3 -0
  53. package/locales/ru-RU/error.json +1 -0
  54. package/locales/ru-RU/modelProvider.json +7 -0
  55. package/locales/ru-RU/models.json +18 -6
  56. package/locales/ru-RU/providers.json +3 -0
  57. package/locales/tr-TR/error.json +1 -0
  58. package/locales/tr-TR/modelProvider.json +7 -0
  59. package/locales/tr-TR/models.json +18 -6
  60. package/locales/tr-TR/providers.json +3 -0
  61. package/locales/vi-VN/error.json +1 -0
  62. package/locales/vi-VN/modelProvider.json +7 -0
  63. package/locales/vi-VN/models.json +18 -6
  64. package/locales/vi-VN/providers.json +3 -0
  65. package/locales/zh-CN/error.json +2 -1
  66. package/locales/zh-CN/modelProvider.json +8 -1
  67. package/locales/zh-CN/models.json +16 -4
  68. package/locales/zh-CN/providers.json +3 -0
  69. package/locales/zh-TW/error.json +1 -0
  70. package/locales/zh-TW/modelProvider.json +7 -0
  71. package/locales/zh-TW/models.json +16 -4
  72. package/locales/zh-TW/providers.json +3 -0
  73. package/package.json +5 -3
  74. package/src/app/(main)/settings/llm/ProviderList/HuggingFace/index.tsx +53 -0
  75. package/src/app/(main)/settings/llm/ProviderList/providers.tsx +12 -1
  76. package/src/config/llm.ts +10 -0
  77. package/src/config/modelProviders/huggingface.ts +50 -0
  78. package/src/config/modelProviders/index.ts +4 -0
  79. package/src/const/settings/llm.ts +5 -0
  80. package/src/features/Conversation/Error/index.tsx +1 -0
  81. package/src/libs/agent-runtime/AgentRuntime.ts +7 -0
  82. package/src/libs/agent-runtime/error.ts +1 -0
  83. package/src/libs/agent-runtime/groq/index.ts +1 -1
  84. package/src/libs/agent-runtime/huggingface/index.ts +48 -0
  85. package/src/libs/agent-runtime/siliconcloud/index.ts +8 -0
  86. package/src/libs/agent-runtime/types/type.ts +1 -0
  87. package/src/libs/agent-runtime/utils/openaiCompatibleFactory/index.ts +58 -20
  88. package/src/libs/agent-runtime/utils/streams/openai.test.ts +78 -7
  89. package/src/libs/agent-runtime/utils/streams/openai.ts +38 -5
  90. package/src/libs/agent-runtime/utils/streams/protocol.ts +63 -4
  91. package/src/locales/default/error.ts +2 -2
  92. package/src/locales/default/modelProvider.ts +8 -1
  93. package/src/server/globalConfig/index.ts +12 -1
  94. package/src/server/modules/AgentRuntime/index.ts +10 -0
  95. package/src/services/_url.ts +4 -5
  96. package/src/types/user/settings/keyVaults.ts +1 -0
  97. /package/src/app/(backend)/{api → webapi}/chat/[provider]/route.test.ts +0 -0
  98. /package/src/app/(backend)/{api → webapi}/chat/[provider]/route.ts +0 -0
  99. /package/src/app/(backend)/{api → webapi}/chat/anthropic/route.test.ts +0 -0
  100. /package/src/app/(backend)/{api → webapi}/chat/anthropic/route.ts +0 -0
  101. /package/src/app/(backend)/{api → webapi}/chat/google/route.test.ts +0 -0
  102. /package/src/app/(backend)/{api → webapi}/chat/google/route.ts +0 -0
  103. /package/src/app/(backend)/{api → webapi}/chat/minimax/route.test.ts +0 -0
  104. /package/src/app/(backend)/{api → webapi}/chat/minimax/route.ts +0 -0
  105. /package/src/app/(backend)/{api → webapi}/chat/models/[provider]/route.ts +0 -0
  106. /package/src/app/(backend)/{api → webapi}/chat/openai/route.test.ts +0 -0
  107. /package/src/app/(backend)/{api → webapi}/chat/openai/route.ts +0 -0
  108. /package/src/app/(backend)/{api → webapi}/chat/wenxin/route.test.ts +0 -0
  109. /package/src/app/(backend)/{api → webapi}/chat/wenxin/route.ts +0 -0
@@ -458,6 +458,9 @@
458
458
  "google/gemma-2-27b-it": {
459
459
  "description": "Gemma 2 kontynuuje ideę lekkiego i wydajnego projektowania."
460
460
  },
461
+ "google/gemma-2-2b-it": {
462
+ "description": "Lekki model dostosowywania instrukcji od Google."
463
+ },
461
464
  "google/gemma-2-9b-it": {
462
465
  "description": "Gemma 2 to lekka seria modeli tekstowych open source od Google."
463
466
  },
@@ -589,6 +592,12 @@
589
592
  "llama-3.1-sonar-small-128k-online": {
590
593
  "description": "Model Llama 3.1 Sonar Small Online, z 8B parametrami, obsługujący kontekst o długości około 127,000 tokenów, zaprojektowany do czatów online, efektywnie przetwarzający różne interakcje tekstowe."
591
594
  },
595
+ "llama-3.2-11b-vision-preview": {
596
+ "description": "Llama 3.2 jest zaprojektowana do obsługi zadań łączących dane wizualne i tekstowe. Wykazuje doskonałe wyniki w zadaniach takich jak opisywanie obrazów i wizualne pytania i odpowiedzi, przekraczając przepaść między generowaniem języka a wnioskowaniem wizualnym."
597
+ },
598
+ "llama-3.2-90b-vision-preview": {
599
+ "description": "Llama 3.2 jest zaprojektowana do obsługi zadań łączących dane wizualne i tekstowe. Wykazuje doskonałe wyniki w zadaniach takich jak opisywanie obrazów i wizualne pytania i odpowiedzi, przekraczając przepaść między generowaniem języka a wnioskowaniem wizualnym."
600
+ },
592
601
  "llama3-70b-8192": {
593
602
  "description": "Meta Llama 3 70B oferuje niezrównane możliwości przetwarzania złożoności, dostosowane do projektów o wysokich wymaganiach."
594
603
  },
@@ -643,6 +652,9 @@
643
652
  "meta-llama/Llama-2-13b-chat-hf": {
644
653
  "description": "LLaMA-2 Chat (13B) oferuje doskonałe możliwości przetwarzania języka i znakomite doświadczenie interakcji."
645
654
  },
655
+ "meta-llama/Llama-2-7b-chat-hf": {
656
+ "description": "Jeden z najlepszych modeli do rozmów."
657
+ },
646
658
  "meta-llama/Llama-3-70b-chat-hf": {
647
659
  "description": "LLaMA-3 Chat (70B) to potężny model czatu, wspierający złożone potrzeby dialogowe."
648
660
  },
@@ -811,8 +823,8 @@
811
823
  "open-mixtral-8x7b": {
812
824
  "description": "Mixtral 8x7B to model rzadkiego eksperta, który wykorzystuje wiele parametrów do zwiększenia prędkości wnioskowania, odpowiedni do przetwarzania zadań wielojęzycznych i generowania kodu."
813
825
  },
814
- "openai/gpt-4o-2024-08-06": {
815
- "description": "ChatGPT-4o to dynamiczny model, który jest na bieżąco aktualizowany, aby utrzymać najnowszą wersję. Łączy potężne zdolności rozumienia i generowania języka, odpowiedni do zastosowań na dużą skalę, w tym obsługi klienta, edukacji i wsparcia technicznego."
826
+ "openai/gpt-4o": {
827
+ "description": "ChatGPT-4o to dynamiczny model, który jest na bieżąco aktualizowany, aby utrzymać najnowszą wersję. Łączy potężne zdolności rozumienia i generowania języka, idealny do zastosowań na dużą skalę, w tym obsługi klienta, edukacji i wsparcia technicznego."
816
828
  },
817
829
  "openai/gpt-4o-mini": {
818
830
  "description": "GPT-4o mini to najnowszy model OpenAI, wydany po GPT-4 Omni, obsługujący wejścia tekstowe i wizualne. Jako ich najnowocześniejszy mały model, jest znacznie tańszy od innych niedawnych modeli czołowych i kosztuje o ponad 60% mniej niż GPT-3.5 Turbo. Utrzymuje najnowocześniejszą inteligencję, oferując jednocześnie znaczną wartość za pieniądze. GPT-4o mini uzyskał wynik 82% w teście MMLU i obecnie zajmuje wyższą pozycję w preferencjach czatu niż GPT-4."
@@ -862,11 +874,11 @@
862
874
  "qwen-vl-chat-v1": {
863
875
  "description": "Qwen VL obsługuje elastyczne interakcje, w tym wiele obrazów, wielokrotne pytania i odpowiedzi oraz zdolności twórcze."
864
876
  },
865
- "qwen-vl-max": {
866
- "description": "Qwen to ultra-duży model językowy wizualny. W porównaniu do wersji ulepszonej, ponownie poprawia zdolności rozumienia wizualnego i przestrzegania instrukcji, oferując wyższy poziom percepcji wizualnej i poznawczej."
877
+ "qwen-vl-max-latest": {
878
+ "description": "Model wizualno-językowy Qwen o ultra dużej skali. W porównaniu do wersji rozszerzonej, ponownie zwiększa zdolności wnioskowania wizualnego i przestrzegania instrukcji, oferując wyższy poziom percepcji wizualnej i poznawczej."
867
879
  },
868
- "qwen-vl-plus": {
869
- "description": "Qwen to ulepszona wersja dużego modelu językowego wizualnego. Znacząco poprawia zdolności rozpoznawania szczegółów i tekstu, obsługując obrazy o rozdzielczości powyżej miliona pikseli i dowolnych proporcjach."
880
+ "qwen-vl-plus-latest": {
881
+ "description": "Wersja rozszerzona modelu wizualno-językowego Qwen. Znacząco poprawia zdolność rozpoznawania szczegółów i tekstu, obsługuje obrazy o rozdzielczości przekraczającej milion pikseli oraz dowolnych proporcjach."
870
882
  },
871
883
  "qwen-vl-v1": {
872
884
  "description": "Model wstępnie wytrenowany, zainicjowany przez model językowy Qwen-7B, dodający model obrazowy, z rozdzielczością wejściową obrazu wynoszącą 448."
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "Silnik inferencyjny LPU firmy Groq wyróżnia się w najnowszych niezależnych testach benchmarkowych dużych modeli językowych (LLM), redefiniując standardy rozwiązań AI dzięki niesamowitej szybkości i wydajności. Groq jest reprezentantem natychmiastowej szybkości inferencji, wykazując dobrą wydajność w wdrożeniach opartych na chmurze."
32
32
  },
33
+ "huggingface": {
34
+ "description": "HuggingFace Inference API oferuje szybki i bezpłatny sposób na eksplorację tysięcy modeli, które nadają się do różnych zadań. Niezależnie od tego, czy prototypujesz nową aplikację, czy próbujesz funkcji uczenia maszynowego, to API zapewnia natychmiastowy dostęp do wysokowydajnych modeli z wielu dziedzin."
35
+ },
33
36
  "hunyuan": {
34
37
  "description": "Model językowy opracowany przez Tencent, który posiada potężne zdolności twórcze w języku chińskim, umiejętność logicznego wnioskowania w złożonych kontekstach oraz niezawodne zdolności wykonawcze w zadaniach."
35
38
  },
@@ -67,6 +67,7 @@
67
67
  "OllamaBizError": "Erro de negócio ao solicitar o serviço Ollama, verifique as informações a seguir ou tente novamente",
68
68
  "OllamaServiceUnavailable": "O serviço Ollama não está disponível. Verifique se o Ollama está em execução corretamente ou se a configuração de CORS do Ollama está correta",
69
69
  "OpenAIBizError": "Erro no serviço OpenAI solicitado. Por favor, verifique as informações abaixo ou tente novamente.",
70
+ "PermissionDenied": "Desculpe, você não tem permissão para acessar este serviço. Verifique se sua chave tem as permissões necessárias.",
70
71
  "PluginApiNotFound": "Desculpe, o API especificado não existe no manifesto do plugin. Verifique se o método de solicitação corresponde ao API do manifesto do plugin",
71
72
  "PluginApiParamsError": "Desculpe, a validação dos parâmetros de entrada da solicitação do plugin falhou. Verifique se os parâmetros de entrada correspondem às informações de descrição do API",
72
73
  "PluginFailToTransformArguments": "Desculpe, falha ao transformar os argumentos da chamada do plugin. Por favor, tente regerar a mensagem do assistente ou tente novamente com um modelo de IA de chamada de ferramentas mais robusto.",
@@ -58,6 +58,13 @@
58
58
  "title": "GitHub PAT"
59
59
  }
60
60
  },
61
+ "huggingface": {
62
+ "accessToken": {
63
+ "desc": "Insira seu Token do HuggingFace, clique [aqui](https://huggingface.co/settings/tokens) para criar",
64
+ "placeholder": "hf_xxxxxxxxx",
65
+ "title": "Token do HuggingFace"
66
+ }
67
+ },
61
68
  "ollama": {
62
69
  "checker": {
63
70
  "desc": "Teste se o endereço do proxy está corretamente preenchido",
@@ -458,6 +458,9 @@
458
458
  "google/gemma-2-27b-it": {
459
459
  "description": "Gemma 2 continua a filosofia de design leve e eficiente."
460
460
  },
461
+ "google/gemma-2-2b-it": {
462
+ "description": "Modelo leve de ajuste de instruções do Google."
463
+ },
461
464
  "google/gemma-2-9b-it": {
462
465
  "description": "Gemma 2 é uma série de modelos de texto de código aberto leve da Google."
463
466
  },
@@ -589,6 +592,12 @@
589
592
  "llama-3.1-sonar-small-128k-online": {
590
593
  "description": "O modelo Llama 3.1 Sonar Small Online possui 8B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, projetado para chats online, capaz de processar eficientemente diversas interações textuais."
591
594
  },
595
+ "llama-3.2-11b-vision-preview": {
596
+ "description": "Llama 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
597
+ },
598
+ "llama-3.2-90b-vision-preview": {
599
+ "description": "Llama 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
600
+ },
592
601
  "llama3-70b-8192": {
593
602
  "description": "Meta Llama 3 70B oferece capacidade de processamento incomparável para complexidade, projetado sob medida para projetos de alta demanda."
594
603
  },
@@ -643,6 +652,9 @@
643
652
  "meta-llama/Llama-2-13b-chat-hf": {
644
653
  "description": "LLaMA-2 Chat (13B) oferece excelente capacidade de processamento de linguagem e uma experiência interativa notável."
645
654
  },
655
+ "meta-llama/Llama-2-7b-chat-hf": {
656
+ "description": "Um dos melhores modelos de diálogo."
657
+ },
646
658
  "meta-llama/Llama-3-70b-chat-hf": {
647
659
  "description": "LLaMA-3 Chat (70B) é um modelo de chat poderoso, suportando necessidades de diálogo complexas."
648
660
  },
@@ -811,8 +823,8 @@
811
823
  "open-mixtral-8x7b": {
812
824
  "description": "Mixtral 8x7B é um modelo de especialistas esparsos, utilizando múltiplos parâmetros para aumentar a velocidade de raciocínio, adequado para tarefas de geração de linguagem e código."
813
825
  },
814
- "openai/gpt-4o-2024-08-06": {
815
- "description": "ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais atual. Ele combina forte compreensão e capacidade de geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico."
826
+ "openai/gpt-4o": {
827
+ "description": "ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais recente. Combina uma poderosa capacidade de compreensão e geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico."
816
828
  },
817
829
  "openai/gpt-4o-mini": {
818
830
  "description": "GPT-4o mini é o mais recente modelo da OpenAI, lançado após o GPT-4 Omni, que suporta entrada de texto e imagem e saída de texto. Como seu modelo compacto mais avançado, é muito mais barato do que outros modelos de ponta recentes e custa mais de 60% menos que o GPT-3.5 Turbo. Ele mantém inteligência de ponta, ao mesmo tempo que oferece uma relação custo-benefício significativa. O GPT-4o mini obteve uma pontuação de 82% no teste MMLU e atualmente está classificado acima do GPT-4 em preferências de chat."
@@ -862,11 +874,11 @@
862
874
  "qwen-vl-chat-v1": {
863
875
  "description": "O Qwen VL suporta uma maneira de interação flexível, incluindo múltiplas imagens, perguntas e respostas em várias rodadas, e capacidades criativas."
864
876
  },
865
- "qwen-vl-max": {
866
- "description": "O Qwen é um modelo de linguagem visual em larga escala. Em comparação com a versão aprimorada, ele melhora ainda mais a capacidade de raciocínio visual e a adesão a instruções, oferecendo um nível mais alto de percepção e cognição visual."
877
+ "qwen-vl-max-latest": {
878
+ "description": "Modelo de linguagem visual em escala ultra grande Qwen. Em comparação com a versão aprimorada, melhora ainda mais a capacidade de raciocínio visual e de seguir instruções, oferecendo um nível mais alto de percepção e cognição visual."
867
879
  },
868
- "qwen-vl-plus": {
869
- "description": "O Qwen é uma versão aprimorada do modelo de linguagem visual em larga escala, melhorando significativamente a capacidade de reconhecimento de detalhes e texto, suportando imagens com resolução superior a um milhão de pixels e qualquer proporção de largura e altura."
880
+ "qwen-vl-plus-latest": {
881
+ "description": "Versão aprimorada do modelo de linguagem visual em larga escala Qwen. Aumenta significativamente a capacidade de reconhecimento de detalhes e de texto, suportando resolução de mais de um milhão de pixels e imagens de qualquer proporção."
870
882
  },
871
883
  "qwen-vl-v1": {
872
884
  "description": "Inicializado com o modelo de linguagem Qwen-7B, adicionando um modelo de imagem, um modelo pré-treinado com resolução de entrada de imagem de 448."
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "O motor de inferência LPU da Groq se destacou em testes de benchmark independentes de modelos de linguagem de grande escala (LLM), redefinindo os padrões de soluções de IA com sua velocidade e eficiência impressionantes. A Groq representa uma velocidade de inferência em tempo real, demonstrando bom desempenho em implantações baseadas em nuvem."
32
32
  },
33
+ "huggingface": {
34
+ "description": "A API de Inferência do HuggingFace oferece uma maneira rápida e gratuita de explorar milhares de modelos para diversas tarefas. Seja você um protótipo para um novo aplicativo ou tentando as funcionalidades de aprendizado de máquina, esta API permite acesso instantâneo a modelos de alto desempenho em múltiplas áreas."
35
+ },
33
36
  "hunyuan": {
34
37
  "description": "Um modelo de linguagem desenvolvido pela Tencent, com forte capacidade de criação em chinês, habilidade de raciocínio lógico em contextos complexos e capacidade confiável de execução de tarefas."
35
38
  },
@@ -67,6 +67,7 @@
67
67
  "OllamaBizError": "Ошибка обращения к сервису Ollama, пожалуйста, проверьте следующую информацию или повторите попытку",
68
68
  "OllamaServiceUnavailable": "Сервис Ollama недоступен. Пожалуйста, проверьте, работает ли Ollama правильно, и правильно ли настроена его конфигурация для кросс-доменных запросов",
69
69
  "OpenAIBizError": "Ошибка обслуживания OpenAI. Пожалуйста, проверьте следующую информацию или повторите попытку",
70
+ "PermissionDenied": "Извините, у вас нет прав доступа к этой службе. Пожалуйста, проверьте, есть ли у вашего ключа права доступа.",
70
71
  "PluginApiNotFound": "К сожалению, API не существует в манифесте плагина. Пожалуйста, проверьте, соответствует ли ваш метод запроса API манифеста плагина",
71
72
  "PluginApiParamsError": "К сожалению, проверка входных параметров для запроса плагина не удалась. Пожалуйста, проверьте, соответствуют ли входные параметры описанию API",
72
73
  "PluginFailToTransformArguments": "Извините, не удалось преобразовать аргументы вызова плагина. Попробуйте сгенерировать помощь заново или повторите попытку с более мощной моделью искусственного интеллекта для вызова инструментов.",
@@ -58,6 +58,13 @@
58
58
  "title": "GitHub PAT"
59
59
  }
60
60
  },
61
+ "huggingface": {
62
+ "accessToken": {
63
+ "desc": "Введите ваш токен HuggingFace, нажмите [здесь](https://huggingface.co/settings/tokens) для создания",
64
+ "placeholder": "hf_xxxxxxxxx",
65
+ "title": "Токен HuggingFace"
66
+ }
67
+ },
61
68
  "ollama": {
62
69
  "checker": {
63
70
  "desc": "Проверить правильность адреса прокси",
@@ -458,6 +458,9 @@
458
458
  "google/gemma-2-27b-it": {
459
459
  "description": "Gemma 2 продолжает концепцию легковесного и эффективного дизайна."
460
460
  },
461
+ "google/gemma-2-2b-it": {
462
+ "description": "Легковесная модель настройки инструкций от Google."
463
+ },
461
464
  "google/gemma-2-9b-it": {
462
465
  "description": "Gemma 2 — это легковесная серия текстовых моделей с открытым исходным кодом от Google."
463
466
  },
@@ -589,6 +592,12 @@
589
592
  "llama-3.1-sonar-small-128k-online": {
590
593
  "description": "Модель Llama 3.1 Sonar Small Online, обладающая 8B параметрами, поддерживает контекст длиной около 127,000 токенов, специально разработана для онлайн-чатов и эффективно обрабатывает различные текстовые взаимодействия."
591
594
  },
595
+ "llama-3.2-11b-vision-preview": {
596
+ "description": "Llama 3.2 предназначена для обработки задач, сочетающих визуальные и текстовые данные. Она демонстрирует отличные результаты в задачах описания изображений и визуального вопросно-ответного взаимодействия, преодолевая разрыв между генерацией языка и визуальным выводом."
597
+ },
598
+ "llama-3.2-90b-vision-preview": {
599
+ "description": "Llama 3.2 предназначена для обработки задач, сочетающих визуальные и текстовые данные. Она демонстрирует отличные результаты в задачах описания изображений и визуального вопросно-ответного взаимодействия, преодолевая разрыв между генерацией языка и визуальным выводом."
600
+ },
592
601
  "llama3-70b-8192": {
593
602
  "description": "Meta Llama 3 70B предлагает непревзойдённые возможности обработки сложности, специально разработанные для высоких требований проектов."
594
603
  },
@@ -643,6 +652,9 @@
643
652
  "meta-llama/Llama-2-13b-chat-hf": {
644
653
  "description": "LLaMA-2 Chat (13B) предлагает отличные возможности обработки языка и выдающийся опыт взаимодействия."
645
654
  },
655
+ "meta-llama/Llama-2-7b-chat-hf": {
656
+ "description": "Одна из лучших моделей для диалогов."
657
+ },
646
658
  "meta-llama/Llama-3-70b-chat-hf": {
647
659
  "description": "LLaMA-3 Chat (70B) — мощная модель для чата, поддерживающая сложные диалоговые запросы."
648
660
  },
@@ -811,8 +823,8 @@
811
823
  "open-mixtral-8x7b": {
812
824
  "description": "Mixtral 8x7B — это разреженная экспертная модель, использующая несколько параметров для повышения скорости вывода, подходит для обработки многоязычных и кодовых задач."
813
825
  },
814
- "openai/gpt-4o-2024-08-06": {
815
- "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощные возможности понимания и генерации языка, подходящие для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку."
826
+ "openai/gpt-4o": {
827
+ "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощные способности понимания и генерации языка, подходит для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку."
816
828
  },
817
829
  "openai/gpt-4o-mini": {
818
830
  "description": "GPT-4o mini — это последняя модель от OpenAI, выпущенная после GPT-4 Omni, поддерживающая ввод изображений и текста с выводом текста. Как их самый продвинутый компактный модель, она значительно дешевле других недавних передовых моделей и более чем на 60% дешевле GPT-3.5 Turbo. Она сохраняет передовой уровень интеллекта при значительном соотношении цена-качество. GPT-4o mini набрала 82% в тесте MMLU и в настоящее время занимает более высокое место по предпочтениям в чате, чем GPT-4."
@@ -862,11 +874,11 @@
862
874
  "qwen-vl-chat-v1": {
863
875
  "description": "Qwen VL поддерживает гибкие способы взаимодействия, включая многократные изображения, многократные вопросы и ответы, а также творческие способности."
864
876
  },
865
- "qwen-vl-max": {
866
- "description": "Qwen это сверхмасштабная визуально-языковая модель. По сравнению с улучшенной версией, еще больше улучшены способности визуального вывода и соблюдения инструкций, обеспечивая более высокий уровень визуального восприятия и понимания."
877
+ "qwen-vl-max-latest": {
878
+ "description": "Супер масштабная визуально-языковая модель Tongyi Qianwen. По сравнению с улучшенной версией, еще больше повышает способности визуального вывода и соблюдения инструкций, обеспечивая более высокий уровень визуального восприятия и когнитивных способностей."
867
879
  },
868
- "qwen-vl-plus": {
869
- "description": "Qwen это улучшенная версия крупномасштабной визуально-языковой модели. Существенно улучшена способность распознавания деталей и текстов, поддерживает изображения с разрешением более миллиона пикселей и произвольным соотношением сторон."
880
+ "qwen-vl-plus-latest": {
881
+ "description": "Улучшенная версия масштабной визуально-языковой модели Tongyi Qianwen. Значительно повышает способность распознавания деталей и текста, поддерживает разрешение более миллиона пикселей и изображения с произвольным соотношением сторон."
870
882
  },
871
883
  "qwen-vl-v1": {
872
884
  "description": "Инициализированная языковой моделью Qwen-7B, добавлена модель изображения, предобученная модель с разрешением входного изображения 448."
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "Инженерный движок LPU от Groq показал выдающиеся результаты в последних независимых бенчмарках больших языковых моделей (LLM), переопределяя стандарты AI-решений благодаря своей удивительной скорости и эффективности. Groq представляет собой образец мгновенной скорости вывода, демонстрируя хорошие результаты в облачных развертываниях."
32
32
  },
33
+ "huggingface": {
34
+ "description": "API для инференса HuggingFace предоставляет быстрый и бесплатный способ исследовать тысячи моделей для различных задач. Независимо от того, разрабатываете ли вы прототип для нового приложения или пробуете возможности машинного обучения, этот API обеспечивает мгновенный доступ к высокопроизводительным моделям в различных областях."
35
+ },
33
36
  "hunyuan": {
34
37
  "description": "Большая языковая модель, разработанная Tencent, обладающая мощными способностями к созданию текстов на китайском языке, логическим рассуждениям в сложных контекстах и надежным выполнением задач."
35
38
  },
@@ -67,6 +67,7 @@
67
67
  "OllamaBizError": "Ollama servisine yapılan istekte hata oluştu, lütfen aşağıdaki bilgilere göre sorunu gidermeye çalışın veya tekrar deneyin",
68
68
  "OllamaServiceUnavailable": "Ollama servisi kullanılamıyor, lütfen Ollama'nın düzgün çalışıp çalışmadığını kontrol edin veya Ollama'nın çapraz kaynak yapılandırmasının doğru olup olmadığını kontrol edin",
69
69
  "OpenAIBizError": "OpenAI hizmetinde bir hata oluştu, lütfen aşağıdaki bilgilere göre sorunu giderin veya tekrar deneyin",
70
+ "PermissionDenied": "Üzgünüm, bu hizmete erişim izniniz yok. Lütfen anahtarınızın erişim iznine sahip olup olmadığını kontrol edin.",
70
71
  "PluginApiNotFound": "Üzgünüm, eklentinin bildiriminde API mevcut değil. Lütfen istek yönteminizin eklenti bildirim API'sı ile eşleşip eşleşmediğini kontrol edin",
71
72
  "PluginApiParamsError": "Üzgünüm, eklenti isteği için giriş parametre doğrulaması başarısız oldu. Lütfen giriş parametrelerinin API açıklamasıyla eşleşip eşleşmediğini kontrol edin",
72
73
  "PluginFailToTransformArguments": "Özür dilerim, eklenti çağrı parametrelerini dönüştürme başarısız oldu, lütfen yardımcı mesajı yeniden oluşturmayı deneyin veya daha güçlü bir AI modeli olan Tools Calling'i değiştirip tekrar deneyin",
@@ -58,6 +58,13 @@
58
58
  "title": "GitHub PAT"
59
59
  }
60
60
  },
61
+ "huggingface": {
62
+ "accessToken": {
63
+ "desc": "HuggingFace Token'inizi buraya girin, [buraya](https://huggingface.co/settings/tokens) tıklayarak oluşturun",
64
+ "placeholder": "hf_xxxxxxxxx",
65
+ "title": "HuggingFace Token"
66
+ }
67
+ },
61
68
  "ollama": {
62
69
  "checker": {
63
70
  "desc": "Proxy adresinin doğru girilip girilmediğini test edin",
@@ -458,6 +458,9 @@
458
458
  "google/gemma-2-27b-it": {
459
459
  "description": "Gemma 2, hafiflik ve verimlilik tasarım felsefesini sürdürmektedir."
460
460
  },
461
+ "google/gemma-2-2b-it": {
462
+ "description": "Google'ın hafif talimat ayarlama modeli"
463
+ },
461
464
  "google/gemma-2-9b-it": {
462
465
  "description": "Gemma 2, Google'ın hafif açık kaynak metin modeli serisidir."
463
466
  },
@@ -589,6 +592,12 @@
589
592
  "llama-3.1-sonar-small-128k-online": {
590
593
  "description": "Llama 3.1 Sonar Small Online modeli, 8B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, çevrimiçi sohbet için tasarlanmıştır ve çeşitli metin etkileşimlerini etkili bir şekilde işler."
591
594
  },
595
+ "llama-3.2-11b-vision-preview": {
596
+ "description": "Llama 3.2, görsel ve metin verilerini birleştiren görevleri işlemek için tasarlanmıştır. Görüntü tanımlama ve görsel soru-cevap gibi görevlerde mükemmel performans sergiler, dil üretimi ile görsel akıl yürütme arasındaki uçurumu aşar."
597
+ },
598
+ "llama-3.2-90b-vision-preview": {
599
+ "description": "Llama 3.2, görsel ve metin verilerini birleştiren görevleri işlemek için tasarlanmıştır. Görüntü tanımlama ve görsel soru-cevap gibi görevlerde mükemmel performans sergiler, dil üretimi ile görsel akıl yürütme arasındaki uçurumu aşar."
600
+ },
592
601
  "llama3-70b-8192": {
593
602
  "description": "Meta Llama 3 70B, eşsiz karmaşıklık işleme yeteneği sunar ve yüksek talepli projeler için özel olarak tasarlanmıştır."
594
603
  },
@@ -643,6 +652,9 @@
643
652
  "meta-llama/Llama-2-13b-chat-hf": {
644
653
  "description": "LLaMA-2 Chat (13B), mükemmel dil işleme yetenekleri ve olağanüstü etkileşim deneyimi sunar."
645
654
  },
655
+ "meta-llama/Llama-2-7b-chat-hf": {
656
+ "description": "En iyi sohbet modellerinden biri"
657
+ },
646
658
  "meta-llama/Llama-3-70b-chat-hf": {
647
659
  "description": "LLaMA-3 Chat (70B), karmaşık diyalog ihtiyaçlarını destekleyen güçlü bir sohbet modelidir."
648
660
  },
@@ -811,8 +823,8 @@
811
823
  "open-mixtral-8x7b": {
812
824
  "description": "Mixtral 8x7B, birden fazla parametre kullanarak akıl yürütme hızını artıran seyrek uzman modelidir, çok dilli ve kod üretim görevlerini işlemek için uygundur."
813
825
  },
814
- "openai/gpt-4o-2024-08-06": {
815
- "description": "ChatGPT-4o, dinamik bir modeldir; en güncel versiyonu korumak için gerçek zamanlı olarak güncellenir. Güçlü dil anlama ve üretme yeteneklerini birleştirir, geniş ölçekli uygulama senaryoları için uygundur; müşteri hizmetleri, eğitim ve teknik destek gibi."
826
+ "openai/gpt-4o": {
827
+ "description": "ChatGPT-4o, güncel en son sürümü korumak için gerçek zamanlı olarak güncellenen dinamik bir modeldir. Güçlü dil anlama ve üretme yeteneklerini birleştirir, müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli uygulama senaryoları için uygundur."
816
828
  },
817
829
  "openai/gpt-4o-mini": {
818
830
  "description": "GPT-4o mini, OpenAI'nin GPT-4 Omni'den sonra sunduğu en son modeldir; görsel ve metin girişi destekler ve metin çıktısı verir. En gelişmiş küçük model olarak, diğer son zamanlardaki öncü modellere göre çok daha ucuzdur ve GPT-3.5 Turbo'dan %60'tan fazla daha ucuzdur. En son teknolojiyi korurken, önemli bir maliyet etkinliği sunar. GPT-4o mini, MMLU testinde %82 puan almış olup, şu anda sohbet tercihleri açısından GPT-4'ün üzerinde bir sıralamaya sahiptir."
@@ -862,11 +874,11 @@
862
874
  "qwen-vl-chat-v1": {
863
875
  "description": "Tongyi Qianwen VL, çoklu görüntü, çok turlu soru-cevap, yaratım gibi esnek etkileşim yöntemlerini destekleyen bir modeldir."
864
876
  },
865
- "qwen-vl-max": {
866
- "description": "Tongyi Qianwen, büyük ölçekli görsel dil modelidir. Geliştirilmiş versiyonuna göre görsel akıl yürütme ve talimatları takip etme yeteneklerini daha da artırır, daha yüksek görsel algı ve biliş düzeyi sunar."
877
+ "qwen-vl-max-latest": {
878
+ "description": "Tongyi Qianwen ultra büyük ölçekli görsel dil modeli. Geliştirilmiş versiyona kıyasla, görsel akıl yürütme yeteneğini ve talimatlara uyum yeteneğini bir kez daha artırır, daha yüksek görsel algı ve bilişsel seviyeler sunar."
867
879
  },
868
- "qwen-vl-plus": {
869
- "description": "Tongyi Qianwen, büyük ölçekli görsel dil modelinin geliştirilmiş versiyonudur. Detay tanıma ve metin tanıma yeteneklerini önemli ölçüde artırır, bir milyondan fazla piksel çözünürlüğü ve herhangi bir en-boy oranı spesifikasyonunu destekler."
880
+ "qwen-vl-plus-latest": {
881
+ "description": "Tongyi Qianwen büyük ölçekli görsel dil modelinin geliştirilmiş versiyonu. Detay tanıma ve metin tanıma yeteneklerini büyük ölçüde artırır, bir milyondan fazla piksel çözünürlüğü ve herhangi bir en-boy oranındaki görüntüleri destekler."
870
882
  },
871
883
  "qwen-vl-v1": {
872
884
  "description": "Qwen-7B dil modeli ile başlatılan, 448 çözünürlükte görüntü girişi olan önceden eğitilmiş bir modeldir."
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "Groq'un LPU çıkarım motoru, en son bağımsız büyük dil modeli (LLM) benchmark testlerinde mükemmel performans sergilemekte ve olağanüstü hız ve verimliliği ile yapay zeka çözümlerinin standartlarını yeniden tanımlamaktadır. Groq, bulut tabanlı dağıtımlarda iyi bir performans sergileyen anlık çıkarım hızının temsilcisidir."
32
32
  },
33
+ "huggingface": {
34
+ "description": "HuggingFace Inference API, binlerce modeli keşfetmenin hızlı ve ücretsiz bir yolunu sunar, çeşitli görevler için uygundur. Yeni uygulamalar için prototip oluşturuyor ya da makine öğreniminin yeteneklerini deniyorsanız, bu API size birçok alanda yüksek performanslı modellere anında erişim sağlar."
35
+ },
33
36
  "hunyuan": {
34
37
  "description": "Tencent tarafından geliştirilen büyük bir dil modeli, güçlü Çince yaratım yeteneklerine, karmaşık bağlamlarda mantıksal akıl yürütme yeteneğine ve güvenilir görev yerine getirme yeteneğine sahiptir."
35
38
  },
@@ -67,6 +67,7 @@
67
67
  "OllamaBizError": "Yêu cầu dịch vụ Ollama gặp lỗi, vui lòng kiểm tra thông tin dưới đây hoặc thử lại",
68
68
  "OllamaServiceUnavailable": "Dịch vụ Ollama không khả dụng, vui lòng kiểm tra xem Ollama có hoạt động bình thường không, hoặc xem xét cấu hình chéo đúng của Ollama",
69
69
  "OpenAIBizError": "Yêu cầu dịch vụ OpenAI gặp sự cố, vui lòng kiểm tra thông tin dưới đây hoặc thử lại",
70
+ "PermissionDenied": "Xin lỗi, bạn không có quyền truy cập dịch vụ này, vui lòng kiểm tra xem khóa của bạn có quyền truy cập hay không",
70
71
  "PluginApiNotFound": "Xin lỗi, không có API nào trong tệp mô tả plugin, vui lòng kiểm tra phương thức yêu cầu của bạn có khớp với API mô tả plugin không",
71
72
  "PluginApiParamsError": "Xin lỗi, kiểm tra tham số đầu vào yêu cầu của plugin không thông qua, vui lòng kiểm tra tham số đầu vào có khớp với thông tin mô tả API không",
72
73
  "PluginFailToTransformArguments": "Xin lỗi, không thể chuyển đổi đối số của plugin, vui lòng thử tạo lại tin nhắn trợ giúp hoặc thay đổi mô hình AI có khả năng gọi Tools mạnh hơn và thử lại",
@@ -58,6 +58,13 @@
58
58
  "title": "GitHub PAT"
59
59
  }
60
60
  },
61
+ "huggingface": {
62
+ "accessToken": {
63
+ "desc": "Nhập mã thông báo HuggingFace của bạn, nhấp vào [đây](https://huggingface.co/settings/tokens) để tạo",
64
+ "placeholder": "hf_xxxxxxxxx",
65
+ "title": "Mã thông báo HuggingFace"
66
+ }
67
+ },
61
68
  "ollama": {
62
69
  "checker": {
63
70
  "desc": "Kiểm tra địa chỉ proxy có được nhập chính xác không",
@@ -458,6 +458,9 @@
458
458
  "google/gemma-2-27b-it": {
459
459
  "description": "Gemma 2 tiếp tục triết lý thiết kế nhẹ và hiệu quả."
460
460
  },
461
+ "google/gemma-2-2b-it": {
462
+ "description": "Mô hình tinh chỉnh hướng dẫn nhẹ của Google"
463
+ },
461
464
  "google/gemma-2-9b-it": {
462
465
  "description": "Gemma 2 là một loạt mô hình văn bản mã nguồn mở nhẹ của Google."
463
466
  },
@@ -589,6 +592,12 @@
589
592
  "llama-3.1-sonar-small-128k-online": {
590
593
  "description": "Mô hình Llama 3.1 Sonar Small Online, có 8B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, được thiết kế cho trò chuyện trực tuyến, có khả năng xử lý hiệu quả các tương tác văn bản khác nhau."
591
594
  },
595
+ "llama-3.2-11b-vision-preview": {
596
+ "description": "Llama 3.2 được thiết kế để xử lý các nhiệm vụ kết hợp dữ liệu hình ảnh và văn bản. Nó thể hiện xuất sắc trong các nhiệm vụ mô tả hình ảnh và hỏi đáp hình ảnh, vượt qua rào cản giữa tạo ngôn ngữ và suy luận hình ảnh."
597
+ },
598
+ "llama-3.2-90b-vision-preview": {
599
+ "description": "Llama 3.2 được thiết kế để xử lý các nhiệm vụ kết hợp dữ liệu hình ảnh và văn bản. Nó thể hiện xuất sắc trong các nhiệm vụ mô tả hình ảnh và hỏi đáp hình ảnh, vượt qua rào cản giữa tạo ngôn ngữ và suy luận hình ảnh."
600
+ },
592
601
  "llama3-70b-8192": {
593
602
  "description": "Meta Llama 3 70B cung cấp khả năng xử lý phức tạp vô song, được thiết kế riêng cho các dự án yêu cầu cao."
594
603
  },
@@ -643,6 +652,9 @@
643
652
  "meta-llama/Llama-2-13b-chat-hf": {
644
653
  "description": "LLaMA-2 Chat (13B) cung cấp khả năng xử lý ngôn ngữ xuất sắc và trải nghiệm tương tác tuyệt vời."
645
654
  },
655
+ "meta-llama/Llama-2-7b-chat-hf": {
656
+ "description": "Một trong những mô hình đối thoại tốt nhất"
657
+ },
646
658
  "meta-llama/Llama-3-70b-chat-hf": {
647
659
  "description": "LLaMA-3 Chat (70B) là mô hình trò chuyện mạnh mẽ, hỗ trợ các nhu cầu đối thoại phức tạp."
648
660
  },
@@ -811,8 +823,8 @@
811
823
  "open-mixtral-8x7b": {
812
824
  "description": "Mixtral 8x7B là một mô hình chuyên gia thưa thớt, sử dụng nhiều tham số để tăng tốc độ suy luận, phù hợp cho việc xử lý đa ngôn ngữ và sinh mã."
813
825
  },
814
- "openai/gpt-4o-2024-08-06": {
815
- "description": "ChatGPT-4o là một mô hình động, được cập nhật theo thời gian để giữ phiên bản mới nhất. Nó kết hợp khả năng hiểu và sinh ngôn ngữ mạnh mẽ, phù hợp cho các ứng dụng quy mô lớn, bao gồm dịch vụ khách hàng, giáo dục và hỗ trợ kỹ thuật."
826
+ "openai/gpt-4o": {
827
+ "description": "ChatGPT-4o là một mô hình động, cập nhật theo thời gian để giữ phiên bản mới nhất. Nó kết hợp khả năng hiểu và tạo ngôn ngữ mạnh mẽ, phù hợp với các tình huống ứng dụng quy mô lớn, bao gồm dịch vụ khách hàng, giáo dục và hỗ trợ kỹ thuật."
816
828
  },
817
829
  "openai/gpt-4o-mini": {
818
830
  "description": "GPT-4o mini là mô hình mới nhất của OpenAI, được phát hành sau GPT-4 Omni, hỗ trợ đầu vào hình ảnh và văn bản, và đầu ra văn bản. Là mô hình nhỏ tiên tiến nhất của họ, nó rẻ hơn nhiều so với các mô hình tiên tiến gần đây khác và rẻ hơn hơn 60% so với GPT-3.5 Turbo. Nó giữ lại trí thông minh tiên tiến nhất trong khi có giá trị sử dụng đáng kể. GPT-4o mini đạt 82% điểm trong bài kiểm tra MMLU và hiện đứng đầu về sở thích trò chuyện so với GPT-4."
@@ -862,11 +874,11 @@
862
874
  "qwen-vl-chat-v1": {
863
875
  "description": "Mô hình Qwen VL hỗ trợ các phương thức tương tác linh hoạt, bao gồm nhiều hình ảnh, nhiều vòng hỏi đáp, sáng tạo, v.v."
864
876
  },
865
- "qwen-vl-max": {
866
- "description": "Mô hình ngôn ngữ hình ảnh quy mô lớn Qwen. So với phiên bản nâng cao, nâng cao khả năng suy luận hình ảnh và tuân thủ chỉ dẫn, cung cấp mức độ nhận thức và nhận thức hình ảnh cao hơn."
877
+ "qwen-vl-max-latest": {
878
+ "description": "Mô hình ngôn ngữ hình ảnh quy mô siêu lớn của Tongyi Qianwen. So với phiên bản nâng cao, nó lại nâng cao khả năng suy luận hình ảnh và khả năng tuân thủ chỉ dẫn, cung cấp mức độ nhận thức và cảm nhận hình ảnh cao hơn."
867
879
  },
868
- "qwen-vl-plus": {
869
- "description": "Mô hình ngôn ngữ hình ảnh quy mô lớn Qwen phiên bản nâng cao. Nâng cao khả năng nhận diện chi tiết và nhận diện văn bản, hỗ trợ độ phân giải hình ảnh trên một triệu pixel và tỷ lệ khung hình tùy ý."
880
+ "qwen-vl-plus-latest": {
881
+ "description": "Mô hình ngôn ngữ hình ảnh quy mô lớn phiên bản nâng cao của Tongyi Qianwen. Nâng cao khả năng nhận diện chi tiết và nhận diện văn bản, hỗ trợ độ phân giải trên một triệu pixel và các tỷ lệ chiều dài và chiều rộng tùy ý."
870
882
  },
871
883
  "qwen-vl-v1": {
872
884
  "description": "Mô hình được khởi tạo bằng mô hình ngôn ngữ Qwen-7B, thêm mô hình hình ảnh, mô hình được huấn luyện trước với độ phân giải đầu vào hình ảnh là 448."
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "Bộ máy suy diễn LPU của Groq thể hiện xuất sắc trong các bài kiểm tra chuẩn mô hình ngôn ngữ lớn (LLM) độc lập mới nhất, định nghĩa lại tiêu chuẩn cho các giải pháp AI với tốc độ và hiệu quả đáng kinh ngạc. Groq là đại diện cho tốc độ suy diễn tức thì, thể hiện hiệu suất tốt trong triển khai dựa trên đám mây."
32
32
  },
33
+ "huggingface": {
34
+ "description": "HuggingFace Inference API cung cấp một cách nhanh chóng và miễn phí để bạn khám phá hàng ngàn mô hình cho nhiều nhiệm vụ khác nhau. Dù bạn đang thiết kế nguyên mẫu cho một ứng dụng mới hay đang thử nghiệm khả năng của học máy, API này cho phép bạn truy cập ngay lập tức vào các mô hình hiệu suất cao trong nhiều lĩnh vực."
35
+ },
33
36
  "hunyuan": {
34
37
  "description": "Mô hình ngôn ngữ lớn được phát triển bởi Tencent, có khả năng sáng tạo tiếng Trung mạnh mẽ, khả năng suy luận logic trong các ngữ cảnh phức tạp, và khả năng thực hiện nhiệm vụ đáng tin cậy."
35
38
  },
@@ -70,7 +70,8 @@
70
70
  "InvalidAccessCode": "密码不正确或为空,请输入正确的访问密码,或者添加自定义 API Key",
71
71
  "InvalidClerkUser": "很抱歉,你当前尚未登录,请先登录或注册账号后继续操作",
72
72
  "LocationNotSupportError": "很抱歉,你的所在地区不支持此模型服务,可能是由于区域限制或服务未开通。请确认当前地区是否支持使用此服务,或尝试使用切换到其他地区后重试。",
73
- "QuotaLimitReached": "很抱歉,当前 Token 用量或请求次数已达该秘钥的配额(quota)上限,请增加该秘钥的配额或稍后再试",
73
+ "QuotaLimitReached": "很抱歉,当前 Token 用量或请求次数已达该密钥的配额(quota)上限,请增加该密钥的配额或稍后再试",
74
+ "PermissionDenied": "很抱歉,你没有权限访问该服务,请检查你的密钥是否有访问权限",
74
75
  "InvalidProviderAPIKey": "{{provider}} API Key 不正确或为空,请检查 {{provider}} API Key 后重试",
75
76
  "ProviderBizError": "请求 {{provider}} 服务出错,请根据以下信息排查或重试",
76
77
  "NoOpenAIAPIKey": "OpenAI API Key 不正确或为空,请添加自定义 OpenAI API Key",
@@ -53,11 +53,18 @@
53
53
  },
54
54
  "github": {
55
55
  "personalAccessToken": {
56
- "desc": "填入你的 Github PAT,点击[这里](https://github.com/settings/tokens) 创建",
56
+ "desc": "填入你的 Github PAT,点击 [这里](https://github.com/settings/tokens) 创建",
57
57
  "placeholder": "ghp_xxxxxx",
58
58
  "title": "Github PAT"
59
59
  }
60
60
  },
61
+ "huggingface": {
62
+ "accessToken": {
63
+ "desc": "填入你的 HuggingFace Token,点击 [这里](https://huggingface.co/settings/tokens) 创建",
64
+ "placeholder": "hf_xxxxxxxxx",
65
+ "title": "HuggingFace Token"
66
+ }
67
+ },
61
68
  "ollama": {
62
69
  "checker": {
63
70
  "desc": "测试代理地址是否正确填写",
@@ -458,6 +458,9 @@
458
458
  "google/gemma-2-27b-it": {
459
459
  "description": "Gemma 2 延续了轻量化与高效的设计理念。"
460
460
  },
461
+ "google/gemma-2-2b-it": {
462
+ "description": "Google的轻量级指令调优模型"
463
+ },
461
464
  "google/gemma-2-9b-it": {
462
465
  "description": "Gemma 2 是Google轻量化的开源文本模型系列。"
463
466
  },
@@ -589,6 +592,12 @@
589
592
  "llama-3.1-sonar-small-128k-online": {
590
593
  "description": "Llama 3.1 Sonar Small Online 模型,具备8B参数,支持约127,000个标记的上下文长度,专为在线聊天设计,能高效处理各种文本交互。"
591
594
  },
595
+ "llama-3.2-11b-vision-preview": {
596
+ "description": "Llama 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
597
+ },
598
+ "llama-3.2-90b-vision-preview": {
599
+ "description": "Llama 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,跨越了语言生成和视觉推理之间的鸿沟。"
600
+ },
592
601
  "llama3-70b-8192": {
593
602
  "description": "Meta Llama 3 70B 提供无与伦比的复杂性处理能力,为高要求项目量身定制。"
594
603
  },
@@ -643,6 +652,9 @@
643
652
  "meta-llama/Llama-2-13b-chat-hf": {
644
653
  "description": "LLaMA-2 Chat (13B) 提供优秀的语言处理能力和出色的交互体验。"
645
654
  },
655
+ "meta-llama/Llama-2-7b-chat-hf": {
656
+ "description": "最佳对话模型之一"
657
+ },
646
658
  "meta-llama/Llama-3-70b-chat-hf": {
647
659
  "description": "LLaMA-3 Chat (70B) 是功能强大的聊天模型,支持复杂的对话需求。"
648
660
  },
@@ -752,7 +764,7 @@
752
764
  "description": "Mistral (7B) Instruct 以高性能著称,适用于多种语言任务。"
753
765
  },
754
766
  "mistralai/Mistral-7B-Instruct-v0.2": {
755
- "description": "Mistral (7B) Instruct v0.2 提供改进的指令处理能力和更精确的结果。"
767
+ "description": "Mistral AI的指令调优模型"
756
768
  },
757
769
  "mistralai/Mistral-7B-Instruct-v0.3": {
758
770
  "description": "Mistral (7B) Instruct v0.3 提供高效的计算能力和自然语言理解,适合广泛的应用。"
@@ -811,7 +823,7 @@
811
823
  "open-mixtral-8x7b": {
812
824
  "description": "Mixtral 8x7B是一个稀疏专家模型,利用多个参数提高推理速度,适合处理多语言和代码生成任务。"
813
825
  },
814
- "openai/gpt-4o-2024-08-06": {
826
+ "openai/gpt-4o": {
815
827
  "description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
816
828
  },
817
829
  "openai/gpt-4o-mini": {
@@ -862,10 +874,10 @@
862
874
  "qwen-vl-chat-v1": {
863
875
  "description": "通义千问VL支持灵活的交互方式,包括多图、多轮问答、创作等能力的模型。"
864
876
  },
865
- "qwen-vl-max": {
877
+ "qwen-vl-max-latest": {
866
878
  "description": "通义千问超大规模视觉语言模型。相比增强版,再次提升视觉推理能力和指令遵循能力,提供更高的视觉感知和认知水平。"
867
879
  },
868
- "qwen-vl-plus": {
880
+ "qwen-vl-plus-latest": {
869
881
  "description": "通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力,支持超百万像素分辨率和任意长宽比规格的图像。"
870
882
  },
871
883
  "qwen-vl-v1": {
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "Groq 的 LPU 推理引擎在最新的独立大语言模型(LLM)基准测试中表现卓越,以其惊人的速度和效率重新定义了 AI 解决方案的标准。Groq 是一种即时推理速度的代表,在基于云的部署中展现了良好的性能。"
32
32
  },
33
+ "huggingface": {
34
+ "description": "HuggingFace Inference API 提供了一种快速且免费的方式,让您可以探索成千上万种模型,适用于各种任务。无论您是在为新应用程序进行原型设计,还是在尝试机器学习的功能,这个 API 都能让您即时访问多个领域的高性能模型。"
35
+ },
33
36
  "hunyuan": {
34
37
  "description": "由腾讯研发的大语言模型,具备强大的中文创作能力,复杂语境下的逻辑推理能力,以及可靠的任务执行能力"
35
38
  },
@@ -67,6 +67,7 @@
67
67
  "OllamaBizError": "請求 Ollama 服務出錯,請根據以下資訊排查或重試",
68
68
  "OllamaServiceUnavailable": "Ollama 服務暫時無法使用,請檢查 Ollama 是否運作正常,或是否正確設定 Ollama 的跨域配置",
69
69
  "OpenAIBizError": "請求 OpenAI 服務出錯,請根據以下資訊排查或重試",
70
+ "PermissionDenied": "很抱歉,您沒有權限訪問該服務,請檢查您的金鑰是否具有訪問權限",
70
71
  "PluginApiNotFound": "抱歉,外掛描述檔案中不存在該 API。請檢查您的請求方法與外掛清單 API 是否相符",
71
72
  "PluginApiParamsError": "抱歉,該外掛請求的輸入參數驗證失敗。請檢查輸入參數與 API 描述資訊是否相符",
72
73
  "PluginFailToTransformArguments": "很抱歉,插件無法轉換參數,請嘗試重新生成助手消息,或更換功能更強大的 AI 模型後重試",
@@ -58,6 +58,13 @@
58
58
  "title": "GitHub PAT"
59
59
  }
60
60
  },
61
+ "huggingface": {
62
+ "accessToken": {
63
+ "desc": "填入你的 HuggingFace Token,點擊 [這裡](https://huggingface.co/settings/tokens) 創建",
64
+ "placeholder": "hf_xxxxxxxxx",
65
+ "title": "HuggingFace Token"
66
+ }
67
+ },
61
68
  "ollama": {
62
69
  "checker": {
63
70
  "desc": "測試代理地址是否正確填寫",