@lobehub/chat 1.21.15 → 1.22.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (111) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/Dockerfile +16 -8
  3. package/Dockerfile.database +20 -9
  4. package/README.zh-CN.md +8 -6
  5. package/docs/self-hosting/environment-variables.mdx +71 -0
  6. package/docs/usage/providers/wenxin.mdx +4 -3
  7. package/docs/usage/providers/wenxin.zh-CN.mdx +4 -3
  8. package/locales/ar/error.json +1 -0
  9. package/locales/ar/modelProvider.json +7 -0
  10. package/locales/ar/models.json +18 -6
  11. package/locales/ar/providers.json +3 -0
  12. package/locales/bg-BG/error.json +1 -0
  13. package/locales/bg-BG/modelProvider.json +7 -0
  14. package/locales/bg-BG/models.json +18 -6
  15. package/locales/bg-BG/providers.json +3 -0
  16. package/locales/de-DE/error.json +1 -0
  17. package/locales/de-DE/modelProvider.json +7 -0
  18. package/locales/de-DE/models.json +18 -6
  19. package/locales/de-DE/providers.json +3 -0
  20. package/locales/en-US/error.json +1 -0
  21. package/locales/en-US/modelProvider.json +7 -0
  22. package/locales/en-US/models.json +18 -6
  23. package/locales/en-US/providers.json +3 -0
  24. package/locales/es-ES/error.json +1 -0
  25. package/locales/es-ES/modelProvider.json +7 -0
  26. package/locales/es-ES/models.json +18 -6
  27. package/locales/es-ES/providers.json +3 -0
  28. package/locales/fr-FR/error.json +1 -0
  29. package/locales/fr-FR/modelProvider.json +7 -0
  30. package/locales/fr-FR/models.json +17 -5
  31. package/locales/fr-FR/providers.json +3 -0
  32. package/locales/it-IT/error.json +1 -0
  33. package/locales/it-IT/modelProvider.json +7 -0
  34. package/locales/it-IT/models.json +18 -6
  35. package/locales/it-IT/providers.json +3 -0
  36. package/locales/ja-JP/error.json +1 -0
  37. package/locales/ja-JP/modelProvider.json +7 -0
  38. package/locales/ja-JP/models.json +18 -6
  39. package/locales/ja-JP/providers.json +3 -0
  40. package/locales/ko-KR/error.json +1 -0
  41. package/locales/ko-KR/modelProvider.json +7 -0
  42. package/locales/ko-KR/models.json +17 -5
  43. package/locales/ko-KR/providers.json +3 -0
  44. package/locales/nl-NL/error.json +1 -0
  45. package/locales/nl-NL/modelProvider.json +7 -0
  46. package/locales/nl-NL/models.json +17 -5
  47. package/locales/nl-NL/providers.json +3 -0
  48. package/locales/pl-PL/error.json +1 -0
  49. package/locales/pl-PL/modelProvider.json +7 -0
  50. package/locales/pl-PL/models.json +18 -6
  51. package/locales/pl-PL/providers.json +3 -0
  52. package/locales/pt-BR/error.json +1 -0
  53. package/locales/pt-BR/modelProvider.json +7 -0
  54. package/locales/pt-BR/models.json +18 -6
  55. package/locales/pt-BR/providers.json +3 -0
  56. package/locales/ru-RU/error.json +1 -0
  57. package/locales/ru-RU/modelProvider.json +7 -0
  58. package/locales/ru-RU/models.json +18 -6
  59. package/locales/ru-RU/providers.json +3 -0
  60. package/locales/tr-TR/error.json +1 -0
  61. package/locales/tr-TR/modelProvider.json +7 -0
  62. package/locales/tr-TR/models.json +18 -6
  63. package/locales/tr-TR/providers.json +3 -0
  64. package/locales/vi-VN/error.json +1 -0
  65. package/locales/vi-VN/modelProvider.json +7 -0
  66. package/locales/vi-VN/models.json +18 -6
  67. package/locales/vi-VN/providers.json +3 -0
  68. package/locales/zh-CN/error.json +2 -1
  69. package/locales/zh-CN/modelProvider.json +8 -1
  70. package/locales/zh-CN/models.json +16 -4
  71. package/locales/zh-CN/providers.json +3 -0
  72. package/locales/zh-TW/error.json +1 -0
  73. package/locales/zh-TW/modelProvider.json +7 -0
  74. package/locales/zh-TW/models.json +16 -4
  75. package/locales/zh-TW/providers.json +3 -0
  76. package/package.json +5 -3
  77. package/src/app/(main)/settings/llm/ProviderList/HuggingFace/index.tsx +53 -0
  78. package/src/app/(main)/settings/llm/ProviderList/providers.tsx +12 -1
  79. package/src/config/llm.ts +10 -0
  80. package/src/config/modelProviders/huggingface.ts +50 -0
  81. package/src/config/modelProviders/index.ts +4 -0
  82. package/src/const/settings/llm.ts +5 -0
  83. package/src/features/Conversation/Error/index.tsx +1 -0
  84. package/src/libs/agent-runtime/AgentRuntime.ts +7 -0
  85. package/src/libs/agent-runtime/error.ts +1 -0
  86. package/src/libs/agent-runtime/groq/index.ts +1 -1
  87. package/src/libs/agent-runtime/huggingface/index.ts +48 -0
  88. package/src/libs/agent-runtime/types/type.ts +1 -0
  89. package/src/libs/agent-runtime/utils/openaiCompatibleFactory/index.ts +58 -20
  90. package/src/libs/agent-runtime/utils/streams/openai.test.ts +78 -7
  91. package/src/libs/agent-runtime/utils/streams/openai.ts +38 -5
  92. package/src/libs/agent-runtime/utils/streams/protocol.ts +63 -4
  93. package/src/locales/default/error.ts +2 -2
  94. package/src/locales/default/modelProvider.ts +8 -1
  95. package/src/server/globalConfig/index.ts +12 -1
  96. package/src/server/modules/AgentRuntime/index.ts +10 -0
  97. package/src/services/_url.ts +4 -5
  98. package/src/types/user/settings/keyVaults.ts +1 -0
  99. /package/src/app/(backend)/{api → webapi}/chat/[provider]/route.test.ts +0 -0
  100. /package/src/app/(backend)/{api → webapi}/chat/[provider]/route.ts +0 -0
  101. /package/src/app/(backend)/{api → webapi}/chat/anthropic/route.test.ts +0 -0
  102. /package/src/app/(backend)/{api → webapi}/chat/anthropic/route.ts +0 -0
  103. /package/src/app/(backend)/{api → webapi}/chat/google/route.test.ts +0 -0
  104. /package/src/app/(backend)/{api → webapi}/chat/google/route.ts +0 -0
  105. /package/src/app/(backend)/{api → webapi}/chat/minimax/route.test.ts +0 -0
  106. /package/src/app/(backend)/{api → webapi}/chat/minimax/route.ts +0 -0
  107. /package/src/app/(backend)/{api → webapi}/chat/models/[provider]/route.ts +0 -0
  108. /package/src/app/(backend)/{api → webapi}/chat/openai/route.test.ts +0 -0
  109. /package/src/app/(backend)/{api → webapi}/chat/openai/route.ts +0 -0
  110. /package/src/app/(backend)/{api → webapi}/chat/wenxin/route.test.ts +0 -0
  111. /package/src/app/(backend)/{api → webapi}/chat/wenxin/route.ts +0 -0
@@ -58,6 +58,13 @@
58
58
  "title": "GitHub PAT"
59
59
  }
60
60
  },
61
+ "huggingface": {
62
+ "accessToken": {
63
+ "desc": "Vul je HuggingFace Token in, klik [hier](https://huggingface.co/settings/tokens) om er een te maken",
64
+ "placeholder": "hf_xxxxxxxxx",
65
+ "title": "HuggingFace Token"
66
+ }
67
+ },
61
68
  "ollama": {
62
69
  "checker": {
63
70
  "desc": "Test of het proxyadres correct is ingevuld",
@@ -458,6 +458,9 @@
458
458
  "google/gemma-2-27b-it": {
459
459
  "description": "Gemma 2 behoudt het ontwerpprincipe van lichtgewicht en efficiëntie."
460
460
  },
461
+ "google/gemma-2-2b-it": {
462
+ "description": "Google's lichtgewicht instructieafstemmingsmodel"
463
+ },
461
464
  "google/gemma-2-9b-it": {
462
465
  "description": "Gemma 2 is een lichtgewicht open-source tekstmodelserie van Google."
463
466
  },
@@ -589,6 +592,12 @@
589
592
  "llama-3.1-sonar-small-128k-online": {
590
593
  "description": "Llama 3.1 Sonar Small Online model, met 8B parameters, ondersteunt een contextlengte van ongeveer 127.000 tokens, speciaal ontworpen voor online chat en kan efficiënt verschillende tekstinteracties verwerken."
591
594
  },
595
+ "llama-3.2-11b-vision-preview": {
596
+ "description": "Llama 3.2 is ontworpen om taken te verwerken die visuele en tekstuele gegevens combineren. Het presteert uitstekend in taken zoals afbeeldingsbeschrijving en visuele vraag-en-antwoord, en overbrugt de kloof tussen taalgeneratie en visuele redeneervaardigheden."
597
+ },
598
+ "llama-3.2-90b-vision-preview": {
599
+ "description": "Llama 3.2 is ontworpen om taken te verwerken die visuele en tekstuele gegevens combineren. Het presteert uitstekend in taken zoals afbeeldingsbeschrijving en visuele vraag-en-antwoord, en overbrugt de kloof tussen taalgeneratie en visuele redeneervaardigheden."
600
+ },
592
601
  "llama3-70b-8192": {
593
602
  "description": "Meta Llama 3 70B biedt ongeëvenaarde complexiteitsverwerkingscapaciteiten, op maat gemaakt voor veeleisende projecten."
594
603
  },
@@ -643,6 +652,9 @@
643
652
  "meta-llama/Llama-2-13b-chat-hf": {
644
653
  "description": "LLaMA-2 Chat (13B) biedt uitstekende taalverwerkingscapaciteiten en een geweldige interactie-ervaring."
645
654
  },
655
+ "meta-llama/Llama-2-7b-chat-hf": {
656
+ "description": "Een van de beste gespreksmodellen"
657
+ },
646
658
  "meta-llama/Llama-3-70b-chat-hf": {
647
659
  "description": "LLaMA-3 Chat (70B) is een krachtig chatmodel dat complexe gespreksbehoeften ondersteunt."
648
660
  },
@@ -811,7 +823,7 @@
811
823
  "open-mixtral-8x7b": {
812
824
  "description": "Mixtral 8x7B is een spaarzaam expertmodel dat meerdere parameters benut om de inferentiesnelheid te verhogen, geschikt voor het verwerken van meertalige en codegeneratietaken."
813
825
  },
814
- "openai/gpt-4o-2024-08-06": {
826
+ "openai/gpt-4o": {
815
827
  "description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt om de meest actuele versie te behouden. Het combineert krachtige taalbegrip- en generatiecapaciteiten, geschikt voor grootschalige toepassingsscenario's, waaronder klantenservice, onderwijs en technische ondersteuning."
816
828
  },
817
829
  "openai/gpt-4o-mini": {
@@ -862,11 +874,11 @@
862
874
  "qwen-vl-chat-v1": {
863
875
  "description": "Qwen VL ondersteunt flexibele interactiemethoden, inclusief meerdere afbeeldingen, meerdere rondes van vraag en antwoord, en creatiecapaciteiten."
864
876
  },
865
- "qwen-vl-max": {
866
- "description": "Qwen is een grootschalig visueel taalmodel. In vergelijking met de verbeterde versie biedt het een verdere verbetering van de visuele redeneercapaciteit en de naleving van instructies, met een hoger niveau van visuele waarneming en cognitie."
877
+ "qwen-vl-max-latest": {
878
+ "description": "Het Tongyi Qianwen ultra-grootschalige visuele taalmodel. In vergelijking met de verbeterde versie, verhoogt het opnieuw de visuele redeneervaardigheden en de naleving van instructies, en biedt het een hoger niveau van visuele waarneming en cognitie."
867
879
  },
868
- "qwen-vl-plus": {
869
- "description": "Qwen is een verbeterde versie van het grootschalige visuele taalmodel. Het verbetert aanzienlijk de detailherkenning en tekstherkenning, en ondersteunt afbeeldingen met een resolutie van meer dan een miljoen pixels en een willekeurige beeldverhouding."
880
+ "qwen-vl-plus-latest": {
881
+ "description": "De verbeterde versie van het Tongyi Qianwen grootschalige visuele taalmodel. Het verbetert aanzienlijk de detailherkenning en tekstherkenning, ondersteunt resoluties van meer dan een miljoen pixels en afbeeldingen met elke verhouding."
870
882
  },
871
883
  "qwen-vl-v1": {
872
884
  "description": "Geïnitieerd met het Qwen-7B taalmodel, voegt het een afbeeldingsmodel toe, met een invoerresolutie van 448 voor het voorgetrainde model."
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "De LPU-inferentie-engine van Groq presteert uitstekend in de nieuwste onafhankelijke benchmarktests voor grote taalmodellen (LLM), en herdefinieert de normen voor AI-oplossingen met zijn verbazingwekkende snelheid en efficiëntie. Groq is een vertegenwoordiger van onmiddellijke inferentiesnelheid en toont goede prestaties in cloudgebaseerde implementaties."
32
32
  },
33
+ "huggingface": {
34
+ "description": "HuggingFace Inference API biedt een snelle en gratis manier om duizenden modellen te verkennen voor verschillende taken. Of u nu prototypes voor nieuwe applicaties ontwerpt of de mogelijkheden van machine learning uitprobeert, deze API geeft u directe toegang tot hoogpresterende modellen in meerdere domeinen."
35
+ },
33
36
  "hunyuan": {
34
37
  "description": "Een door Tencent ontwikkeld groot taalmodel, dat beschikt over krachtige Chinese creatiecapaciteiten, logische redeneervaardigheden in complexe contexten, en betrouwbare taakuitvoeringscapaciteiten."
35
38
  },
@@ -67,6 +67,7 @@
67
67
  "OllamaBizError": "Błąd usługi Ollama, sprawdź poniższe informacje lub spróbuj ponownie",
68
68
  "OllamaServiceUnavailable": "Usługa Ollama jest niedostępna. Sprawdź, czy Ollama działa poprawnie, lub czy poprawnie skonfigurowano ustawienia przekraczania domeny Ollama",
69
69
  "OpenAIBizError": "Wystąpił błąd usługi OpenAI, proszę sprawdzić poniższe informacje lub spróbować ponownie",
70
+ "PermissionDenied": "Przykro nam, nie masz uprawnień do dostępu do tej usługi. Proszę sprawdzić, czy Twój klucz ma odpowiednie uprawnienia dostępu.",
70
71
  "PluginApiNotFound": "Przepraszamy, w manifestach wtyczki nie istnieje to API. Proszę sprawdź, czy metoda żądania jest zgodna z API w manifestach wtyczki",
71
72
  "PluginApiParamsError": "Przepraszamy, walidacja parametrów wejściowych żądanej wtyczki nie powiodła się. Proszę sprawdź, czy parametry wejściowe są zgodne z informacjami opisującymi API",
72
73
  "PluginFailToTransformArguments": "Przepraszamy, nie udało się przekształcić argumentów wywołania wtyczki. Spróbuj ponownie wygenerować wiadomość pomocnika lub zmień model AI o większej zdolności do wywoływania narzędzi i spróbuj ponownie",
@@ -58,6 +58,13 @@
58
58
  "title": "GitHub PAT"
59
59
  }
60
60
  },
61
+ "huggingface": {
62
+ "accessToken": {
63
+ "desc": "Wprowadź swój token HuggingFace, kliknij [tutaj](https://huggingface.co/settings/tokens), aby go utworzyć",
64
+ "placeholder": "hf_xxxxxxxxx",
65
+ "title": "Token HuggingFace"
66
+ }
67
+ },
61
68
  "ollama": {
62
69
  "checker": {
63
70
  "desc": "Test czy adres proxy jest poprawnie wypełniony",
@@ -458,6 +458,9 @@
458
458
  "google/gemma-2-27b-it": {
459
459
  "description": "Gemma 2 kontynuuje ideę lekkiego i wydajnego projektowania."
460
460
  },
461
+ "google/gemma-2-2b-it": {
462
+ "description": "Lekki model dostosowywania instrukcji od Google."
463
+ },
461
464
  "google/gemma-2-9b-it": {
462
465
  "description": "Gemma 2 to lekka seria modeli tekstowych open source od Google."
463
466
  },
@@ -589,6 +592,12 @@
589
592
  "llama-3.1-sonar-small-128k-online": {
590
593
  "description": "Model Llama 3.1 Sonar Small Online, z 8B parametrami, obsługujący kontekst o długości około 127,000 tokenów, zaprojektowany do czatów online, efektywnie przetwarzający różne interakcje tekstowe."
591
594
  },
595
+ "llama-3.2-11b-vision-preview": {
596
+ "description": "Llama 3.2 jest zaprojektowana do obsługi zadań łączących dane wizualne i tekstowe. Wykazuje doskonałe wyniki w zadaniach takich jak opisywanie obrazów i wizualne pytania i odpowiedzi, przekraczając przepaść między generowaniem języka a wnioskowaniem wizualnym."
597
+ },
598
+ "llama-3.2-90b-vision-preview": {
599
+ "description": "Llama 3.2 jest zaprojektowana do obsługi zadań łączących dane wizualne i tekstowe. Wykazuje doskonałe wyniki w zadaniach takich jak opisywanie obrazów i wizualne pytania i odpowiedzi, przekraczając przepaść między generowaniem języka a wnioskowaniem wizualnym."
600
+ },
592
601
  "llama3-70b-8192": {
593
602
  "description": "Meta Llama 3 70B oferuje niezrównane możliwości przetwarzania złożoności, dostosowane do projektów o wysokich wymaganiach."
594
603
  },
@@ -643,6 +652,9 @@
643
652
  "meta-llama/Llama-2-13b-chat-hf": {
644
653
  "description": "LLaMA-2 Chat (13B) oferuje doskonałe możliwości przetwarzania języka i znakomite doświadczenie interakcji."
645
654
  },
655
+ "meta-llama/Llama-2-7b-chat-hf": {
656
+ "description": "Jeden z najlepszych modeli do rozmów."
657
+ },
646
658
  "meta-llama/Llama-3-70b-chat-hf": {
647
659
  "description": "LLaMA-3 Chat (70B) to potężny model czatu, wspierający złożone potrzeby dialogowe."
648
660
  },
@@ -811,8 +823,8 @@
811
823
  "open-mixtral-8x7b": {
812
824
  "description": "Mixtral 8x7B to model rzadkiego eksperta, który wykorzystuje wiele parametrów do zwiększenia prędkości wnioskowania, odpowiedni do przetwarzania zadań wielojęzycznych i generowania kodu."
813
825
  },
814
- "openai/gpt-4o-2024-08-06": {
815
- "description": "ChatGPT-4o to dynamiczny model, który jest na bieżąco aktualizowany, aby utrzymać najnowszą wersję. Łączy potężne zdolności rozumienia i generowania języka, odpowiedni do zastosowań na dużą skalę, w tym obsługi klienta, edukacji i wsparcia technicznego."
826
+ "openai/gpt-4o": {
827
+ "description": "ChatGPT-4o to dynamiczny model, który jest na bieżąco aktualizowany, aby utrzymać najnowszą wersję. Łączy potężne zdolności rozumienia i generowania języka, idealny do zastosowań na dużą skalę, w tym obsługi klienta, edukacji i wsparcia technicznego."
816
828
  },
817
829
  "openai/gpt-4o-mini": {
818
830
  "description": "GPT-4o mini to najnowszy model OpenAI, wydany po GPT-4 Omni, obsługujący wejścia tekstowe i wizualne. Jako ich najnowocześniejszy mały model, jest znacznie tańszy od innych niedawnych modeli czołowych i kosztuje o ponad 60% mniej niż GPT-3.5 Turbo. Utrzymuje najnowocześniejszą inteligencję, oferując jednocześnie znaczną wartość za pieniądze. GPT-4o mini uzyskał wynik 82% w teście MMLU i obecnie zajmuje wyższą pozycję w preferencjach czatu niż GPT-4."
@@ -862,11 +874,11 @@
862
874
  "qwen-vl-chat-v1": {
863
875
  "description": "Qwen VL obsługuje elastyczne interakcje, w tym wiele obrazów, wielokrotne pytania i odpowiedzi oraz zdolności twórcze."
864
876
  },
865
- "qwen-vl-max": {
866
- "description": "Qwen to ultra-duży model językowy wizualny. W porównaniu do wersji ulepszonej, ponownie poprawia zdolności rozumienia wizualnego i przestrzegania instrukcji, oferując wyższy poziom percepcji wizualnej i poznawczej."
877
+ "qwen-vl-max-latest": {
878
+ "description": "Model wizualno-językowy Qwen o ultra dużej skali. W porównaniu do wersji rozszerzonej, ponownie zwiększa zdolności wnioskowania wizualnego i przestrzegania instrukcji, oferując wyższy poziom percepcji wizualnej i poznawczej."
867
879
  },
868
- "qwen-vl-plus": {
869
- "description": "Qwen to ulepszona wersja dużego modelu językowego wizualnego. Znacząco poprawia zdolności rozpoznawania szczegółów i tekstu, obsługując obrazy o rozdzielczości powyżej miliona pikseli i dowolnych proporcjach."
880
+ "qwen-vl-plus-latest": {
881
+ "description": "Wersja rozszerzona modelu wizualno-językowego Qwen. Znacząco poprawia zdolność rozpoznawania szczegółów i tekstu, obsługuje obrazy o rozdzielczości przekraczającej milion pikseli oraz dowolnych proporcjach."
870
882
  },
871
883
  "qwen-vl-v1": {
872
884
  "description": "Model wstępnie wytrenowany, zainicjowany przez model językowy Qwen-7B, dodający model obrazowy, z rozdzielczością wejściową obrazu wynoszącą 448."
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "Silnik inferencyjny LPU firmy Groq wyróżnia się w najnowszych niezależnych testach benchmarkowych dużych modeli językowych (LLM), redefiniując standardy rozwiązań AI dzięki niesamowitej szybkości i wydajności. Groq jest reprezentantem natychmiastowej szybkości inferencji, wykazując dobrą wydajność w wdrożeniach opartych na chmurze."
32
32
  },
33
+ "huggingface": {
34
+ "description": "HuggingFace Inference API oferuje szybki i bezpłatny sposób na eksplorację tysięcy modeli, które nadają się do różnych zadań. Niezależnie od tego, czy prototypujesz nową aplikację, czy próbujesz funkcji uczenia maszynowego, to API zapewnia natychmiastowy dostęp do wysokowydajnych modeli z wielu dziedzin."
35
+ },
33
36
  "hunyuan": {
34
37
  "description": "Model językowy opracowany przez Tencent, który posiada potężne zdolności twórcze w języku chińskim, umiejętność logicznego wnioskowania w złożonych kontekstach oraz niezawodne zdolności wykonawcze w zadaniach."
35
38
  },
@@ -67,6 +67,7 @@
67
67
  "OllamaBizError": "Erro de negócio ao solicitar o serviço Ollama, verifique as informações a seguir ou tente novamente",
68
68
  "OllamaServiceUnavailable": "O serviço Ollama não está disponível. Verifique se o Ollama está em execução corretamente ou se a configuração de CORS do Ollama está correta",
69
69
  "OpenAIBizError": "Erro no serviço OpenAI solicitado. Por favor, verifique as informações abaixo ou tente novamente.",
70
+ "PermissionDenied": "Desculpe, você não tem permissão para acessar este serviço. Verifique se sua chave tem as permissões necessárias.",
70
71
  "PluginApiNotFound": "Desculpe, o API especificado não existe no manifesto do plugin. Verifique se o método de solicitação corresponde ao API do manifesto do plugin",
71
72
  "PluginApiParamsError": "Desculpe, a validação dos parâmetros de entrada da solicitação do plugin falhou. Verifique se os parâmetros de entrada correspondem às informações de descrição do API",
72
73
  "PluginFailToTransformArguments": "Desculpe, falha ao transformar os argumentos da chamada do plugin. Por favor, tente regerar a mensagem do assistente ou tente novamente com um modelo de IA de chamada de ferramentas mais robusto.",
@@ -58,6 +58,13 @@
58
58
  "title": "GitHub PAT"
59
59
  }
60
60
  },
61
+ "huggingface": {
62
+ "accessToken": {
63
+ "desc": "Insira seu Token do HuggingFace, clique [aqui](https://huggingface.co/settings/tokens) para criar",
64
+ "placeholder": "hf_xxxxxxxxx",
65
+ "title": "Token do HuggingFace"
66
+ }
67
+ },
61
68
  "ollama": {
62
69
  "checker": {
63
70
  "desc": "Teste se o endereço do proxy está corretamente preenchido",
@@ -458,6 +458,9 @@
458
458
  "google/gemma-2-27b-it": {
459
459
  "description": "Gemma 2 continua a filosofia de design leve e eficiente."
460
460
  },
461
+ "google/gemma-2-2b-it": {
462
+ "description": "Modelo leve de ajuste de instruções do Google."
463
+ },
461
464
  "google/gemma-2-9b-it": {
462
465
  "description": "Gemma 2 é uma série de modelos de texto de código aberto leve da Google."
463
466
  },
@@ -589,6 +592,12 @@
589
592
  "llama-3.1-sonar-small-128k-online": {
590
593
  "description": "O modelo Llama 3.1 Sonar Small Online possui 8B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, projetado para chats online, capaz de processar eficientemente diversas interações textuais."
591
594
  },
595
+ "llama-3.2-11b-vision-preview": {
596
+ "description": "Llama 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
597
+ },
598
+ "llama-3.2-90b-vision-preview": {
599
+ "description": "Llama 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
600
+ },
592
601
  "llama3-70b-8192": {
593
602
  "description": "Meta Llama 3 70B oferece capacidade de processamento incomparável para complexidade, projetado sob medida para projetos de alta demanda."
594
603
  },
@@ -643,6 +652,9 @@
643
652
  "meta-llama/Llama-2-13b-chat-hf": {
644
653
  "description": "LLaMA-2 Chat (13B) oferece excelente capacidade de processamento de linguagem e uma experiência interativa notável."
645
654
  },
655
+ "meta-llama/Llama-2-7b-chat-hf": {
656
+ "description": "Um dos melhores modelos de diálogo."
657
+ },
646
658
  "meta-llama/Llama-3-70b-chat-hf": {
647
659
  "description": "LLaMA-3 Chat (70B) é um modelo de chat poderoso, suportando necessidades de diálogo complexas."
648
660
  },
@@ -811,8 +823,8 @@
811
823
  "open-mixtral-8x7b": {
812
824
  "description": "Mixtral 8x7B é um modelo de especialistas esparsos, utilizando múltiplos parâmetros para aumentar a velocidade de raciocínio, adequado para tarefas de geração de linguagem e código."
813
825
  },
814
- "openai/gpt-4o-2024-08-06": {
815
- "description": "ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais atual. Ele combina forte compreensão e capacidade de geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico."
826
+ "openai/gpt-4o": {
827
+ "description": "ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais recente. Combina uma poderosa capacidade de compreensão e geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico."
816
828
  },
817
829
  "openai/gpt-4o-mini": {
818
830
  "description": "GPT-4o mini é o mais recente modelo da OpenAI, lançado após o GPT-4 Omni, que suporta entrada de texto e imagem e saída de texto. Como seu modelo compacto mais avançado, é muito mais barato do que outros modelos de ponta recentes e custa mais de 60% menos que o GPT-3.5 Turbo. Ele mantém inteligência de ponta, ao mesmo tempo que oferece uma relação custo-benefício significativa. O GPT-4o mini obteve uma pontuação de 82% no teste MMLU e atualmente está classificado acima do GPT-4 em preferências de chat."
@@ -862,11 +874,11 @@
862
874
  "qwen-vl-chat-v1": {
863
875
  "description": "O Qwen VL suporta uma maneira de interação flexível, incluindo múltiplas imagens, perguntas e respostas em várias rodadas, e capacidades criativas."
864
876
  },
865
- "qwen-vl-max": {
866
- "description": "O Qwen é um modelo de linguagem visual em larga escala. Em comparação com a versão aprimorada, ele melhora ainda mais a capacidade de raciocínio visual e a adesão a instruções, oferecendo um nível mais alto de percepção e cognição visual."
877
+ "qwen-vl-max-latest": {
878
+ "description": "Modelo de linguagem visual em escala ultra grande Qwen. Em comparação com a versão aprimorada, melhora ainda mais a capacidade de raciocínio visual e de seguir instruções, oferecendo um nível mais alto de percepção e cognição visual."
867
879
  },
868
- "qwen-vl-plus": {
869
- "description": "O Qwen é uma versão aprimorada do modelo de linguagem visual em larga escala, melhorando significativamente a capacidade de reconhecimento de detalhes e texto, suportando imagens com resolução superior a um milhão de pixels e qualquer proporção de largura e altura."
880
+ "qwen-vl-plus-latest": {
881
+ "description": "Versão aprimorada do modelo de linguagem visual em larga escala Qwen. Aumenta significativamente a capacidade de reconhecimento de detalhes e de texto, suportando resolução de mais de um milhão de pixels e imagens de qualquer proporção."
870
882
  },
871
883
  "qwen-vl-v1": {
872
884
  "description": "Inicializado com o modelo de linguagem Qwen-7B, adicionando um modelo de imagem, um modelo pré-treinado com resolução de entrada de imagem de 448."
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "O motor de inferência LPU da Groq se destacou em testes de benchmark independentes de modelos de linguagem de grande escala (LLM), redefinindo os padrões de soluções de IA com sua velocidade e eficiência impressionantes. A Groq representa uma velocidade de inferência em tempo real, demonstrando bom desempenho em implantações baseadas em nuvem."
32
32
  },
33
+ "huggingface": {
34
+ "description": "A API de Inferência do HuggingFace oferece uma maneira rápida e gratuita de explorar milhares de modelos para diversas tarefas. Seja você um protótipo para um novo aplicativo ou tentando as funcionalidades de aprendizado de máquina, esta API permite acesso instantâneo a modelos de alto desempenho em múltiplas áreas."
35
+ },
33
36
  "hunyuan": {
34
37
  "description": "Um modelo de linguagem desenvolvido pela Tencent, com forte capacidade de criação em chinês, habilidade de raciocínio lógico em contextos complexos e capacidade confiável de execução de tarefas."
35
38
  },
@@ -67,6 +67,7 @@
67
67
  "OllamaBizError": "Ошибка обращения к сервису Ollama, пожалуйста, проверьте следующую информацию или повторите попытку",
68
68
  "OllamaServiceUnavailable": "Сервис Ollama недоступен. Пожалуйста, проверьте, работает ли Ollama правильно, и правильно ли настроена его конфигурация для кросс-доменных запросов",
69
69
  "OpenAIBizError": "Ошибка обслуживания OpenAI. Пожалуйста, проверьте следующую информацию или повторите попытку",
70
+ "PermissionDenied": "Извините, у вас нет прав доступа к этой службе. Пожалуйста, проверьте, есть ли у вашего ключа права доступа.",
70
71
  "PluginApiNotFound": "К сожалению, API не существует в манифесте плагина. Пожалуйста, проверьте, соответствует ли ваш метод запроса API манифеста плагина",
71
72
  "PluginApiParamsError": "К сожалению, проверка входных параметров для запроса плагина не удалась. Пожалуйста, проверьте, соответствуют ли входные параметры описанию API",
72
73
  "PluginFailToTransformArguments": "Извините, не удалось преобразовать аргументы вызова плагина. Попробуйте сгенерировать помощь заново или повторите попытку с более мощной моделью искусственного интеллекта для вызова инструментов.",
@@ -58,6 +58,13 @@
58
58
  "title": "GitHub PAT"
59
59
  }
60
60
  },
61
+ "huggingface": {
62
+ "accessToken": {
63
+ "desc": "Введите ваш токен HuggingFace, нажмите [здесь](https://huggingface.co/settings/tokens) для создания",
64
+ "placeholder": "hf_xxxxxxxxx",
65
+ "title": "Токен HuggingFace"
66
+ }
67
+ },
61
68
  "ollama": {
62
69
  "checker": {
63
70
  "desc": "Проверить правильность адреса прокси",
@@ -458,6 +458,9 @@
458
458
  "google/gemma-2-27b-it": {
459
459
  "description": "Gemma 2 продолжает концепцию легковесного и эффективного дизайна."
460
460
  },
461
+ "google/gemma-2-2b-it": {
462
+ "description": "Легковесная модель настройки инструкций от Google."
463
+ },
461
464
  "google/gemma-2-9b-it": {
462
465
  "description": "Gemma 2 — это легковесная серия текстовых моделей с открытым исходным кодом от Google."
463
466
  },
@@ -589,6 +592,12 @@
589
592
  "llama-3.1-sonar-small-128k-online": {
590
593
  "description": "Модель Llama 3.1 Sonar Small Online, обладающая 8B параметрами, поддерживает контекст длиной около 127,000 токенов, специально разработана для онлайн-чатов и эффективно обрабатывает различные текстовые взаимодействия."
591
594
  },
595
+ "llama-3.2-11b-vision-preview": {
596
+ "description": "Llama 3.2 предназначена для обработки задач, сочетающих визуальные и текстовые данные. Она демонстрирует отличные результаты в задачах описания изображений и визуального вопросно-ответного взаимодействия, преодолевая разрыв между генерацией языка и визуальным выводом."
597
+ },
598
+ "llama-3.2-90b-vision-preview": {
599
+ "description": "Llama 3.2 предназначена для обработки задач, сочетающих визуальные и текстовые данные. Она демонстрирует отличные результаты в задачах описания изображений и визуального вопросно-ответного взаимодействия, преодолевая разрыв между генерацией языка и визуальным выводом."
600
+ },
592
601
  "llama3-70b-8192": {
593
602
  "description": "Meta Llama 3 70B предлагает непревзойдённые возможности обработки сложности, специально разработанные для высоких требований проектов."
594
603
  },
@@ -643,6 +652,9 @@
643
652
  "meta-llama/Llama-2-13b-chat-hf": {
644
653
  "description": "LLaMA-2 Chat (13B) предлагает отличные возможности обработки языка и выдающийся опыт взаимодействия."
645
654
  },
655
+ "meta-llama/Llama-2-7b-chat-hf": {
656
+ "description": "Одна из лучших моделей для диалогов."
657
+ },
646
658
  "meta-llama/Llama-3-70b-chat-hf": {
647
659
  "description": "LLaMA-3 Chat (70B) — мощная модель для чата, поддерживающая сложные диалоговые запросы."
648
660
  },
@@ -811,8 +823,8 @@
811
823
  "open-mixtral-8x7b": {
812
824
  "description": "Mixtral 8x7B — это разреженная экспертная модель, использующая несколько параметров для повышения скорости вывода, подходит для обработки многоязычных и кодовых задач."
813
825
  },
814
- "openai/gpt-4o-2024-08-06": {
815
- "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощные возможности понимания и генерации языка, подходящие для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку."
826
+ "openai/gpt-4o": {
827
+ "description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощные способности понимания и генерации языка, подходит для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку."
816
828
  },
817
829
  "openai/gpt-4o-mini": {
818
830
  "description": "GPT-4o mini — это последняя модель от OpenAI, выпущенная после GPT-4 Omni, поддерживающая ввод изображений и текста с выводом текста. Как их самый продвинутый компактный модель, она значительно дешевле других недавних передовых моделей и более чем на 60% дешевле GPT-3.5 Turbo. Она сохраняет передовой уровень интеллекта при значительном соотношении цена-качество. GPT-4o mini набрала 82% в тесте MMLU и в настоящее время занимает более высокое место по предпочтениям в чате, чем GPT-4."
@@ -862,11 +874,11 @@
862
874
  "qwen-vl-chat-v1": {
863
875
  "description": "Qwen VL поддерживает гибкие способы взаимодействия, включая многократные изображения, многократные вопросы и ответы, а также творческие способности."
864
876
  },
865
- "qwen-vl-max": {
866
- "description": "Qwen это сверхмасштабная визуально-языковая модель. По сравнению с улучшенной версией, еще больше улучшены способности визуального вывода и соблюдения инструкций, обеспечивая более высокий уровень визуального восприятия и понимания."
877
+ "qwen-vl-max-latest": {
878
+ "description": "Супер масштабная визуально-языковая модель Tongyi Qianwen. По сравнению с улучшенной версией, еще больше повышает способности визуального вывода и соблюдения инструкций, обеспечивая более высокий уровень визуального восприятия и когнитивных способностей."
867
879
  },
868
- "qwen-vl-plus": {
869
- "description": "Qwen это улучшенная версия крупномасштабной визуально-языковой модели. Существенно улучшена способность распознавания деталей и текстов, поддерживает изображения с разрешением более миллиона пикселей и произвольным соотношением сторон."
880
+ "qwen-vl-plus-latest": {
881
+ "description": "Улучшенная версия масштабной визуально-языковой модели Tongyi Qianwen. Значительно повышает способность распознавания деталей и текста, поддерживает разрешение более миллиона пикселей и изображения с произвольным соотношением сторон."
870
882
  },
871
883
  "qwen-vl-v1": {
872
884
  "description": "Инициализированная языковой моделью Qwen-7B, добавлена модель изображения, предобученная модель с разрешением входного изображения 448."
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "Инженерный движок LPU от Groq показал выдающиеся результаты в последних независимых бенчмарках больших языковых моделей (LLM), переопределяя стандарты AI-решений благодаря своей удивительной скорости и эффективности. Groq представляет собой образец мгновенной скорости вывода, демонстрируя хорошие результаты в облачных развертываниях."
32
32
  },
33
+ "huggingface": {
34
+ "description": "API для инференса HuggingFace предоставляет быстрый и бесплатный способ исследовать тысячи моделей для различных задач. Независимо от того, разрабатываете ли вы прототип для нового приложения или пробуете возможности машинного обучения, этот API обеспечивает мгновенный доступ к высокопроизводительным моделям в различных областях."
35
+ },
33
36
  "hunyuan": {
34
37
  "description": "Большая языковая модель, разработанная Tencent, обладающая мощными способностями к созданию текстов на китайском языке, логическим рассуждениям в сложных контекстах и надежным выполнением задач."
35
38
  },
@@ -67,6 +67,7 @@
67
67
  "OllamaBizError": "Ollama servisine yapılan istekte hata oluştu, lütfen aşağıdaki bilgilere göre sorunu gidermeye çalışın veya tekrar deneyin",
68
68
  "OllamaServiceUnavailable": "Ollama servisi kullanılamıyor, lütfen Ollama'nın düzgün çalışıp çalışmadığını kontrol edin veya Ollama'nın çapraz kaynak yapılandırmasının doğru olup olmadığını kontrol edin",
69
69
  "OpenAIBizError": "OpenAI hizmetinde bir hata oluştu, lütfen aşağıdaki bilgilere göre sorunu giderin veya tekrar deneyin",
70
+ "PermissionDenied": "Üzgünüm, bu hizmete erişim izniniz yok. Lütfen anahtarınızın erişim iznine sahip olup olmadığını kontrol edin.",
70
71
  "PluginApiNotFound": "Üzgünüm, eklentinin bildiriminde API mevcut değil. Lütfen istek yönteminizin eklenti bildirim API'sı ile eşleşip eşleşmediğini kontrol edin",
71
72
  "PluginApiParamsError": "Üzgünüm, eklenti isteği için giriş parametre doğrulaması başarısız oldu. Lütfen giriş parametrelerinin API açıklamasıyla eşleşip eşleşmediğini kontrol edin",
72
73
  "PluginFailToTransformArguments": "Özür dilerim, eklenti çağrı parametrelerini dönüştürme başarısız oldu, lütfen yardımcı mesajı yeniden oluşturmayı deneyin veya daha güçlü bir AI modeli olan Tools Calling'i değiştirip tekrar deneyin",
@@ -58,6 +58,13 @@
58
58
  "title": "GitHub PAT"
59
59
  }
60
60
  },
61
+ "huggingface": {
62
+ "accessToken": {
63
+ "desc": "HuggingFace Token'inizi buraya girin, [buraya](https://huggingface.co/settings/tokens) tıklayarak oluşturun",
64
+ "placeholder": "hf_xxxxxxxxx",
65
+ "title": "HuggingFace Token"
66
+ }
67
+ },
61
68
  "ollama": {
62
69
  "checker": {
63
70
  "desc": "Proxy adresinin doğru girilip girilmediğini test edin",
@@ -458,6 +458,9 @@
458
458
  "google/gemma-2-27b-it": {
459
459
  "description": "Gemma 2, hafiflik ve verimlilik tasarım felsefesini sürdürmektedir."
460
460
  },
461
+ "google/gemma-2-2b-it": {
462
+ "description": "Google'ın hafif talimat ayarlama modeli"
463
+ },
461
464
  "google/gemma-2-9b-it": {
462
465
  "description": "Gemma 2, Google'ın hafif açık kaynak metin modeli serisidir."
463
466
  },
@@ -589,6 +592,12 @@
589
592
  "llama-3.1-sonar-small-128k-online": {
590
593
  "description": "Llama 3.1 Sonar Small Online modeli, 8B parametreye sahiptir ve yaklaşık 127,000 belirteçlik bağlam uzunluğunu destekler, çevrimiçi sohbet için tasarlanmıştır ve çeşitli metin etkileşimlerini etkili bir şekilde işler."
591
594
  },
595
+ "llama-3.2-11b-vision-preview": {
596
+ "description": "Llama 3.2, görsel ve metin verilerini birleştiren görevleri işlemek için tasarlanmıştır. Görüntü tanımlama ve görsel soru-cevap gibi görevlerde mükemmel performans sergiler, dil üretimi ile görsel akıl yürütme arasındaki uçurumu aşar."
597
+ },
598
+ "llama-3.2-90b-vision-preview": {
599
+ "description": "Llama 3.2, görsel ve metin verilerini birleştiren görevleri işlemek için tasarlanmıştır. Görüntü tanımlama ve görsel soru-cevap gibi görevlerde mükemmel performans sergiler, dil üretimi ile görsel akıl yürütme arasındaki uçurumu aşar."
600
+ },
592
601
  "llama3-70b-8192": {
593
602
  "description": "Meta Llama 3 70B, eşsiz karmaşıklık işleme yeteneği sunar ve yüksek talepli projeler için özel olarak tasarlanmıştır."
594
603
  },
@@ -643,6 +652,9 @@
643
652
  "meta-llama/Llama-2-13b-chat-hf": {
644
653
  "description": "LLaMA-2 Chat (13B), mükemmel dil işleme yetenekleri ve olağanüstü etkileşim deneyimi sunar."
645
654
  },
655
+ "meta-llama/Llama-2-7b-chat-hf": {
656
+ "description": "En iyi sohbet modellerinden biri"
657
+ },
646
658
  "meta-llama/Llama-3-70b-chat-hf": {
647
659
  "description": "LLaMA-3 Chat (70B), karmaşık diyalog ihtiyaçlarını destekleyen güçlü bir sohbet modelidir."
648
660
  },
@@ -811,8 +823,8 @@
811
823
  "open-mixtral-8x7b": {
812
824
  "description": "Mixtral 8x7B, birden fazla parametre kullanarak akıl yürütme hızını artıran seyrek uzman modelidir, çok dilli ve kod üretim görevlerini işlemek için uygundur."
813
825
  },
814
- "openai/gpt-4o-2024-08-06": {
815
- "description": "ChatGPT-4o, dinamik bir modeldir; en güncel versiyonu korumak için gerçek zamanlı olarak güncellenir. Güçlü dil anlama ve üretme yeteneklerini birleştirir, geniş ölçekli uygulama senaryoları için uygundur; müşteri hizmetleri, eğitim ve teknik destek gibi."
826
+ "openai/gpt-4o": {
827
+ "description": "ChatGPT-4o, güncel en son sürümü korumak için gerçek zamanlı olarak güncellenen dinamik bir modeldir. Güçlü dil anlama ve üretme yeteneklerini birleştirir, müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli uygulama senaryoları için uygundur."
816
828
  },
817
829
  "openai/gpt-4o-mini": {
818
830
  "description": "GPT-4o mini, OpenAI'nin GPT-4 Omni'den sonra sunduğu en son modeldir; görsel ve metin girişi destekler ve metin çıktısı verir. En gelişmiş küçük model olarak, diğer son zamanlardaki öncü modellere göre çok daha ucuzdur ve GPT-3.5 Turbo'dan %60'tan fazla daha ucuzdur. En son teknolojiyi korurken, önemli bir maliyet etkinliği sunar. GPT-4o mini, MMLU testinde %82 puan almış olup, şu anda sohbet tercihleri açısından GPT-4'ün üzerinde bir sıralamaya sahiptir."
@@ -862,11 +874,11 @@
862
874
  "qwen-vl-chat-v1": {
863
875
  "description": "Tongyi Qianwen VL, çoklu görüntü, çok turlu soru-cevap, yaratım gibi esnek etkileşim yöntemlerini destekleyen bir modeldir."
864
876
  },
865
- "qwen-vl-max": {
866
- "description": "Tongyi Qianwen, büyük ölçekli görsel dil modelidir. Geliştirilmiş versiyonuna göre görsel akıl yürütme ve talimatları takip etme yeteneklerini daha da artırır, daha yüksek görsel algı ve biliş düzeyi sunar."
877
+ "qwen-vl-max-latest": {
878
+ "description": "Tongyi Qianwen ultra büyük ölçekli görsel dil modeli. Geliştirilmiş versiyona kıyasla, görsel akıl yürütme yeteneğini ve talimatlara uyum yeteneğini bir kez daha artırır, daha yüksek görsel algı ve bilişsel seviyeler sunar."
867
879
  },
868
- "qwen-vl-plus": {
869
- "description": "Tongyi Qianwen, büyük ölçekli görsel dil modelinin geliştirilmiş versiyonudur. Detay tanıma ve metin tanıma yeteneklerini önemli ölçüde artırır, bir milyondan fazla piksel çözünürlüğü ve herhangi bir en-boy oranı spesifikasyonunu destekler."
880
+ "qwen-vl-plus-latest": {
881
+ "description": "Tongyi Qianwen büyük ölçekli görsel dil modelinin geliştirilmiş versiyonu. Detay tanıma ve metin tanıma yeteneklerini büyük ölçüde artırır, bir milyondan fazla piksel çözünürlüğü ve herhangi bir en-boy oranındaki görüntüleri destekler."
870
882
  },
871
883
  "qwen-vl-v1": {
872
884
  "description": "Qwen-7B dil modeli ile başlatılan, 448 çözünürlükte görüntü girişi olan önceden eğitilmiş bir modeldir."
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "Groq'un LPU çıkarım motoru, en son bağımsız büyük dil modeli (LLM) benchmark testlerinde mükemmel performans sergilemekte ve olağanüstü hız ve verimliliği ile yapay zeka çözümlerinin standartlarını yeniden tanımlamaktadır. Groq, bulut tabanlı dağıtımlarda iyi bir performans sergileyen anlık çıkarım hızının temsilcisidir."
32
32
  },
33
+ "huggingface": {
34
+ "description": "HuggingFace Inference API, binlerce modeli keşfetmenin hızlı ve ücretsiz bir yolunu sunar, çeşitli görevler için uygundur. Yeni uygulamalar için prototip oluşturuyor ya da makine öğreniminin yeteneklerini deniyorsanız, bu API size birçok alanda yüksek performanslı modellere anında erişim sağlar."
35
+ },
33
36
  "hunyuan": {
34
37
  "description": "Tencent tarafından geliştirilen büyük bir dil modeli, güçlü Çince yaratım yeteneklerine, karmaşık bağlamlarda mantıksal akıl yürütme yeteneğine ve güvenilir görev yerine getirme yeteneğine sahiptir."
35
38
  },
@@ -67,6 +67,7 @@
67
67
  "OllamaBizError": "Yêu cầu dịch vụ Ollama gặp lỗi, vui lòng kiểm tra thông tin dưới đây hoặc thử lại",
68
68
  "OllamaServiceUnavailable": "Dịch vụ Ollama không khả dụng, vui lòng kiểm tra xem Ollama có hoạt động bình thường không, hoặc xem xét cấu hình chéo đúng của Ollama",
69
69
  "OpenAIBizError": "Yêu cầu dịch vụ OpenAI gặp sự cố, vui lòng kiểm tra thông tin dưới đây hoặc thử lại",
70
+ "PermissionDenied": "Xin lỗi, bạn không có quyền truy cập dịch vụ này, vui lòng kiểm tra xem khóa của bạn có quyền truy cập hay không",
70
71
  "PluginApiNotFound": "Xin lỗi, không có API nào trong tệp mô tả plugin, vui lòng kiểm tra phương thức yêu cầu của bạn có khớp với API mô tả plugin không",
71
72
  "PluginApiParamsError": "Xin lỗi, kiểm tra tham số đầu vào yêu cầu của plugin không thông qua, vui lòng kiểm tra tham số đầu vào có khớp với thông tin mô tả API không",
72
73
  "PluginFailToTransformArguments": "Xin lỗi, không thể chuyển đổi đối số của plugin, vui lòng thử tạo lại tin nhắn trợ giúp hoặc thay đổi mô hình AI có khả năng gọi Tools mạnh hơn và thử lại",
@@ -58,6 +58,13 @@
58
58
  "title": "GitHub PAT"
59
59
  }
60
60
  },
61
+ "huggingface": {
62
+ "accessToken": {
63
+ "desc": "Nhập mã thông báo HuggingFace của bạn, nhấp vào [đây](https://huggingface.co/settings/tokens) để tạo",
64
+ "placeholder": "hf_xxxxxxxxx",
65
+ "title": "Mã thông báo HuggingFace"
66
+ }
67
+ },
61
68
  "ollama": {
62
69
  "checker": {
63
70
  "desc": "Kiểm tra địa chỉ proxy có được nhập chính xác không",
@@ -458,6 +458,9 @@
458
458
  "google/gemma-2-27b-it": {
459
459
  "description": "Gemma 2 tiếp tục triết lý thiết kế nhẹ và hiệu quả."
460
460
  },
461
+ "google/gemma-2-2b-it": {
462
+ "description": "Mô hình tinh chỉnh hướng dẫn nhẹ của Google"
463
+ },
461
464
  "google/gemma-2-9b-it": {
462
465
  "description": "Gemma 2 là một loạt mô hình văn bản mã nguồn mở nhẹ của Google."
463
466
  },
@@ -589,6 +592,12 @@
589
592
  "llama-3.1-sonar-small-128k-online": {
590
593
  "description": "Mô hình Llama 3.1 Sonar Small Online, có 8B tham số, hỗ trợ độ dài ngữ cảnh khoảng 127,000 mã, được thiết kế cho trò chuyện trực tuyến, có khả năng xử lý hiệu quả các tương tác văn bản khác nhau."
591
594
  },
595
+ "llama-3.2-11b-vision-preview": {
596
+ "description": "Llama 3.2 được thiết kế để xử lý các nhiệm vụ kết hợp dữ liệu hình ảnh và văn bản. Nó thể hiện xuất sắc trong các nhiệm vụ mô tả hình ảnh và hỏi đáp hình ảnh, vượt qua rào cản giữa tạo ngôn ngữ và suy luận hình ảnh."
597
+ },
598
+ "llama-3.2-90b-vision-preview": {
599
+ "description": "Llama 3.2 được thiết kế để xử lý các nhiệm vụ kết hợp dữ liệu hình ảnh và văn bản. Nó thể hiện xuất sắc trong các nhiệm vụ mô tả hình ảnh và hỏi đáp hình ảnh, vượt qua rào cản giữa tạo ngôn ngữ và suy luận hình ảnh."
600
+ },
592
601
  "llama3-70b-8192": {
593
602
  "description": "Meta Llama 3 70B cung cấp khả năng xử lý phức tạp vô song, được thiết kế riêng cho các dự án yêu cầu cao."
594
603
  },
@@ -643,6 +652,9 @@
643
652
  "meta-llama/Llama-2-13b-chat-hf": {
644
653
  "description": "LLaMA-2 Chat (13B) cung cấp khả năng xử lý ngôn ngữ xuất sắc và trải nghiệm tương tác tuyệt vời."
645
654
  },
655
+ "meta-llama/Llama-2-7b-chat-hf": {
656
+ "description": "Một trong những mô hình đối thoại tốt nhất"
657
+ },
646
658
  "meta-llama/Llama-3-70b-chat-hf": {
647
659
  "description": "LLaMA-3 Chat (70B) là mô hình trò chuyện mạnh mẽ, hỗ trợ các nhu cầu đối thoại phức tạp."
648
660
  },
@@ -811,8 +823,8 @@
811
823
  "open-mixtral-8x7b": {
812
824
  "description": "Mixtral 8x7B là một mô hình chuyên gia thưa thớt, sử dụng nhiều tham số để tăng tốc độ suy luận, phù hợp cho việc xử lý đa ngôn ngữ và sinh mã."
813
825
  },
814
- "openai/gpt-4o-2024-08-06": {
815
- "description": "ChatGPT-4o là một mô hình động, được cập nhật theo thời gian để giữ phiên bản mới nhất. Nó kết hợp khả năng hiểu và sinh ngôn ngữ mạnh mẽ, phù hợp cho các ứng dụng quy mô lớn, bao gồm dịch vụ khách hàng, giáo dục và hỗ trợ kỹ thuật."
826
+ "openai/gpt-4o": {
827
+ "description": "ChatGPT-4o là một mô hình động, cập nhật theo thời gian để giữ phiên bản mới nhất. Nó kết hợp khả năng hiểu và tạo ngôn ngữ mạnh mẽ, phù hợp với các tình huống ứng dụng quy mô lớn, bao gồm dịch vụ khách hàng, giáo dục và hỗ trợ kỹ thuật."
816
828
  },
817
829
  "openai/gpt-4o-mini": {
818
830
  "description": "GPT-4o mini là mô hình mới nhất của OpenAI, được phát hành sau GPT-4 Omni, hỗ trợ đầu vào hình ảnh và văn bản, và đầu ra văn bản. Là mô hình nhỏ tiên tiến nhất của họ, nó rẻ hơn nhiều so với các mô hình tiên tiến gần đây khác và rẻ hơn hơn 60% so với GPT-3.5 Turbo. Nó giữ lại trí thông minh tiên tiến nhất trong khi có giá trị sử dụng đáng kể. GPT-4o mini đạt 82% điểm trong bài kiểm tra MMLU và hiện đứng đầu về sở thích trò chuyện so với GPT-4."
@@ -862,11 +874,11 @@
862
874
  "qwen-vl-chat-v1": {
863
875
  "description": "Mô hình Qwen VL hỗ trợ các phương thức tương tác linh hoạt, bao gồm nhiều hình ảnh, nhiều vòng hỏi đáp, sáng tạo, v.v."
864
876
  },
865
- "qwen-vl-max": {
866
- "description": "Mô hình ngôn ngữ hình ảnh quy mô lớn Qwen. So với phiên bản nâng cao, nâng cao khả năng suy luận hình ảnh và tuân thủ chỉ dẫn, cung cấp mức độ nhận thức và nhận thức hình ảnh cao hơn."
877
+ "qwen-vl-max-latest": {
878
+ "description": "Mô hình ngôn ngữ hình ảnh quy mô siêu lớn của Tongyi Qianwen. So với phiên bản nâng cao, nó lại nâng cao khả năng suy luận hình ảnh và khả năng tuân thủ chỉ dẫn, cung cấp mức độ nhận thức và cảm nhận hình ảnh cao hơn."
867
879
  },
868
- "qwen-vl-plus": {
869
- "description": "Mô hình ngôn ngữ hình ảnh quy mô lớn Qwen phiên bản nâng cao. Nâng cao khả năng nhận diện chi tiết và nhận diện văn bản, hỗ trợ độ phân giải hình ảnh trên một triệu pixel và tỷ lệ khung hình tùy ý."
880
+ "qwen-vl-plus-latest": {
881
+ "description": "Mô hình ngôn ngữ hình ảnh quy mô lớn phiên bản nâng cao của Tongyi Qianwen. Nâng cao khả năng nhận diện chi tiết và nhận diện văn bản, hỗ trợ độ phân giải trên một triệu pixel và các tỷ lệ chiều dài và chiều rộng tùy ý."
870
882
  },
871
883
  "qwen-vl-v1": {
872
884
  "description": "Mô hình được khởi tạo bằng mô hình ngôn ngữ Qwen-7B, thêm mô hình hình ảnh, mô hình được huấn luyện trước với độ phân giải đầu vào hình ảnh là 448."
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "Bộ máy suy diễn LPU của Groq thể hiện xuất sắc trong các bài kiểm tra chuẩn mô hình ngôn ngữ lớn (LLM) độc lập mới nhất, định nghĩa lại tiêu chuẩn cho các giải pháp AI với tốc độ và hiệu quả đáng kinh ngạc. Groq là đại diện cho tốc độ suy diễn tức thì, thể hiện hiệu suất tốt trong triển khai dựa trên đám mây."
32
32
  },
33
+ "huggingface": {
34
+ "description": "HuggingFace Inference API cung cấp một cách nhanh chóng và miễn phí để bạn khám phá hàng ngàn mô hình cho nhiều nhiệm vụ khác nhau. Dù bạn đang thiết kế nguyên mẫu cho một ứng dụng mới hay đang thử nghiệm khả năng của học máy, API này cho phép bạn truy cập ngay lập tức vào các mô hình hiệu suất cao trong nhiều lĩnh vực."
35
+ },
33
36
  "hunyuan": {
34
37
  "description": "Mô hình ngôn ngữ lớn được phát triển bởi Tencent, có khả năng sáng tạo tiếng Trung mạnh mẽ, khả năng suy luận logic trong các ngữ cảnh phức tạp, và khả năng thực hiện nhiệm vụ đáng tin cậy."
35
38
  },
@@ -70,7 +70,8 @@
70
70
  "InvalidAccessCode": "密码不正确或为空,请输入正确的访问密码,或者添加自定义 API Key",
71
71
  "InvalidClerkUser": "很抱歉,你当前尚未登录,请先登录或注册账号后继续操作",
72
72
  "LocationNotSupportError": "很抱歉,你的所在地区不支持此模型服务,可能是由于区域限制或服务未开通。请确认当前地区是否支持使用此服务,或尝试使用切换到其他地区后重试。",
73
- "QuotaLimitReached": "很抱歉,当前 Token 用量或请求次数已达该秘钥的配额(quota)上限,请增加该秘钥的配额或稍后再试",
73
+ "QuotaLimitReached": "很抱歉,当前 Token 用量或请求次数已达该密钥的配额(quota)上限,请增加该密钥的配额或稍后再试",
74
+ "PermissionDenied": "很抱歉,你没有权限访问该服务,请检查你的密钥是否有访问权限",
74
75
  "InvalidProviderAPIKey": "{{provider}} API Key 不正确或为空,请检查 {{provider}} API Key 后重试",
75
76
  "ProviderBizError": "请求 {{provider}} 服务出错,请根据以下信息排查或重试",
76
77
  "NoOpenAIAPIKey": "OpenAI API Key 不正确或为空,请添加自定义 OpenAI API Key",