@lobehub/chat 1.36.8 → 1.36.10

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (53) hide show
  1. package/CHANGELOG.md +58 -0
  2. package/changelog/v1.json +21 -0
  3. package/locales/ar/models.json +81 -3
  4. package/locales/ar/providers.json +3 -0
  5. package/locales/bg-BG/models.json +81 -3
  6. package/locales/bg-BG/providers.json +3 -0
  7. package/locales/de-DE/models.json +81 -3
  8. package/locales/de-DE/providers.json +3 -0
  9. package/locales/en-US/models.json +81 -3
  10. package/locales/en-US/providers.json +3 -0
  11. package/locales/es-ES/models.json +81 -3
  12. package/locales/es-ES/providers.json +3 -0
  13. package/locales/fa-IR/models.json +81 -3
  14. package/locales/fa-IR/providers.json +3 -0
  15. package/locales/fr-FR/models.json +81 -3
  16. package/locales/fr-FR/providers.json +3 -0
  17. package/locales/it-IT/models.json +81 -3
  18. package/locales/it-IT/providers.json +3 -0
  19. package/locales/ja-JP/models.json +81 -3
  20. package/locales/ja-JP/providers.json +3 -0
  21. package/locales/ko-KR/models.json +81 -3
  22. package/locales/ko-KR/providers.json +3 -0
  23. package/locales/nl-NL/models.json +81 -3
  24. package/locales/nl-NL/providers.json +3 -0
  25. package/locales/pl-PL/modelProvider.json +9 -9
  26. package/locales/pl-PL/models.json +81 -3
  27. package/locales/pl-PL/providers.json +3 -0
  28. package/locales/pt-BR/models.json +81 -3
  29. package/locales/pt-BR/providers.json +3 -0
  30. package/locales/ru-RU/models.json +81 -3
  31. package/locales/ru-RU/providers.json +3 -0
  32. package/locales/tr-TR/models.json +81 -3
  33. package/locales/tr-TR/providers.json +3 -0
  34. package/locales/vi-VN/models.json +81 -3
  35. package/locales/vi-VN/providers.json +3 -0
  36. package/locales/zh-CN/models.json +91 -13
  37. package/locales/zh-CN/providers.json +3 -0
  38. package/locales/zh-TW/models.json +81 -3
  39. package/locales/zh-TW/providers.json +3 -0
  40. package/package.json +1 -1
  41. package/src/app/(backend)/api/webhooks/clerk/route.ts +18 -3
  42. package/src/config/modelProviders/azure.ts +0 -8
  43. package/src/config/modelProviders/higress.ts +0 -23
  44. package/src/config/modelProviders/openai.ts +0 -23
  45. package/src/database/server/models/__tests__/nextauth.test.ts +33 -0
  46. package/src/libs/agent-runtime/openai/__snapshots__/index.test.ts.snap +3 -13
  47. package/src/libs/next-auth/adapter/index.ts +8 -2
  48. package/src/server/routers/edge/config/__snapshots__/index.test.ts.snap +2 -9
  49. package/src/server/routers/edge/config/index.test.ts +1 -1
  50. package/src/server/services/user/index.test.ts +200 -0
  51. package/src/server/services/user/index.ts +24 -32
  52. package/src/store/chat/slices/aiChat/actions/generateAIChat.ts +0 -10
  53. package/vitest.config.ts +1 -1
@@ -119,17 +119,17 @@
119
119
  },
120
120
  "title": "Zainstaluj i uruchom aplikację Ollama lokalnie",
121
121
  "windowsTab": "Windows (wersja podglądowa)"
122
- },
123
- "unlock": {
124
- "cancel": "Anuluj pobieranie",
125
- "confirm": "Pobierz",
126
- "description": "Wprowadź etykietę modelu Ollama, aby kontynuować sesję",
127
- "downloaded": "{{completed}} / {{total}}",
128
- "starting": "Rozpoczynanie pobierania...",
129
- "title": "Pobierz określony model Ollama"
130
122
  }
131
123
  },
132
- "title": "Ollama"
124
+ "title": "Ollama",
125
+ "unlock": {
126
+ "cancel": "Anuluj pobieranie",
127
+ "confirm": "Pobierz",
128
+ "description": "Wprowadź etykietę swojego modelu Ollama, aby zakończyć i kontynuować rozmowę",
129
+ "downloaded": "{{completed}} / {{total}}",
130
+ "starting": "Rozpoczynam pobieranie...",
131
+ "title": "Pobierz określony model Ollama"
132
+ }
133
133
  },
134
134
  "sensenova": {
135
135
  "sensenovaAccessKeyID": {
@@ -55,6 +55,24 @@
55
55
  "Baichuan4-Turbo": {
56
56
  "description": "Model o najlepszych możliwościach w kraju, przewyższający zagraniczne modele w zadaniach związanych z wiedzą encyklopedyczną, długimi tekstami i twórczością w języku chińskim. Posiada również wiodące w branży możliwości multimodalne, osiągając doskonałe wyniki w wielu autorytatywnych testach."
57
57
  },
58
+ "Doubao-lite-128k": {
59
+ "description": "Doubao-lite cechuje się ekstremalną szybkością reakcji i lepszym stosunkiem jakości do ceny, oferując klientom elastyczność w różnych scenariuszach. Obsługuje wnioskowanie i dostosowywanie z kontekstem 128k."
60
+ },
61
+ "Doubao-lite-32k": {
62
+ "description": "Doubao-lite cechuje się ekstremalną szybkością reakcji i lepszym stosunkiem jakości do ceny, oferując klientom elastyczność w różnych scenariuszach. Obsługuje wnioskowanie i dostosowywanie z kontekstem 32k."
63
+ },
64
+ "Doubao-lite-4k": {
65
+ "description": "Doubao-lite cechuje się ekstremalną szybkością reakcji i lepszym stosunkiem jakości do ceny, oferując klientom elastyczność w różnych scenariuszach. Obsługuje wnioskowanie i dostosowywanie z kontekstem 4k."
66
+ },
67
+ "Doubao-pro-128k": {
68
+ "description": "Model o najlepszych wynikach, odpowiedni do złożonych zadań, z doskonałymi wynikami w scenariuszach takich jak odpowiedzi referencyjne, podsumowania, twórczość, klasyfikacja tekstu i odgrywanie ról. Obsługuje wnioskowanie i dostosowywanie z kontekstem 128k."
69
+ },
70
+ "Doubao-pro-32k": {
71
+ "description": "Model o najlepszych wynikach, odpowiedni do złożonych zadań, z doskonałymi wynikami w scenariuszach takich jak odpowiedzi referencyjne, podsumowania, twórczość, klasyfikacja tekstu i odgrywanie ról. Obsługuje wnioskowanie i dostosowywanie z kontekstem 32k."
72
+ },
73
+ "Doubao-pro-4k": {
74
+ "description": "Model o najlepszych wynikach, odpowiedni do złożonych zadań, z doskonałymi wynikami w scenariuszach takich jak odpowiedzi referencyjne, podsumowania, twórczość, klasyfikacja tekstu i odgrywanie ról. Obsługuje wnioskowanie i dostosowywanie z kontekstem 4k."
75
+ },
58
76
  "ERNIE-3.5-128K": {
59
77
  "description": "Flagowy model dużego języka opracowany przez Baidu, obejmujący ogromne zbiory danych w języku chińskim i angielskim, charakteryzujący się silnymi zdolnościami ogólnymi, zdolny do spełnienia wymagań w większości scenariuszy związanych z pytaniami i odpowiedziami, generowaniem treści oraz aplikacjami wtyczek; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji w odpowiedziach."
60
78
  },
@@ -242,6 +260,21 @@
242
260
  "SenseChat-Turbo": {
243
261
  "description": "Idealny do szybkich odpowiedzi i scenariuszy dostosowywania modelu."
244
262
  },
263
+ "Skylark2-lite-8k": {
264
+ "description": "Model drugiej generacji Skylark (Skylark2) o wysokiej szybkości reakcji, odpowiedni do scenariuszy wymagających wysokiej reaktywności, wrażliwych na koszty, z mniejszymi wymaganiami co do precyzji modelu, z długością okna kontekstowego 8k."
265
+ },
266
+ "Skylark2-pro-32k": {
267
+ "description": "Model drugiej generacji Skylark (Skylark2) o wysokiej precyzji, odpowiedni do bardziej złożonych scenariuszy generowania tekstu, takich jak generowanie treści w profesjonalnych dziedzinach, tworzenie powieści oraz tłumaczenia wysokiej jakości, z długością okna kontekstowego 32k."
268
+ },
269
+ "Skylark2-pro-4k": {
270
+ "description": "Model drugiej generacji Skylark (Skylark2) o wysokiej precyzji, odpowiedni do bardziej złożonych scenariuszy generowania tekstu, takich jak generowanie treści w profesjonalnych dziedzinach, tworzenie powieści oraz tłumaczenia wysokiej jakości, z długością okna kontekstowego 4k."
271
+ },
272
+ "Skylark2-pro-character-4k": {
273
+ "description": "Model drugiej generacji Skylark (Skylark2) z doskonałymi umiejętnościami w odgrywaniu ról i czatowaniu. Doskonale reaguje na prompty użytkowników, odgrywając różne role w naturalny sposób, idealny do budowy chatbotów, wirtualnych asystentów i obsługi klienta online, cechujący się wysoką szybkością reakcji."
274
+ },
275
+ "Skylark2-pro-turbo-8k": {
276
+ "description": "Model drugiej generacji Skylark (Skylark2) z szybszym wnioskowaniem i niższymi kosztami, z długością okna kontekstowego 8k."
277
+ },
245
278
  "THUDM/chatglm3-6b": {
246
279
  "description": "ChatGLM3-6B to otwarty model z serii ChatGLM, opracowany przez Zhipu AI. Model ten zachowuje doskonałe cechy poprzednich modeli, takie jak płynność rozmowy i niski próg wdrożenia, jednocześnie wprowadzając nowe funkcje. Wykorzystuje bardziej zróżnicowane dane treningowe, większą liczbę kroków treningowych i bardziej rozsądne strategie treningowe, osiągając doskonałe wyniki w modelach pretrenowanych poniżej 10B. ChatGLM3-6B obsługuje złożone scenariusze, takie jak wieloetapowe rozmowy, wywoływanie narzędzi, wykonywanie kodu i zadania agenta. Oprócz modelu konwersacyjnego, udostępniono również podstawowy model ChatGLM-6B-Base oraz model do rozmów długotematycznych ChatGLM3-6B-32K. Model jest całkowicie otwarty dla badań akademickich i pozwala na bezpłatne wykorzystanie komercyjne po rejestracji."
247
280
  },
@@ -476,6 +509,9 @@
476
509
  "cohere-command-r-plus": {
477
510
  "description": "Command R+ to model zoptymalizowany pod kątem RAG, zaprojektowany do obsługi obciążeń roboczych na poziomie przedsiębiorstwa."
478
511
  },
512
+ "command-light": {
513
+ "description": ""
514
+ },
479
515
  "command-r": {
480
516
  "description": "Command R to LLM zoptymalizowany do dialogów i zadań z długim kontekstem, szczególnie odpowiedni do dynamicznej interakcji i zarządzania wiedzą."
481
517
  },
@@ -539,6 +575,9 @@
539
575
  "gemini-1.5-flash-8b-exp-0924": {
540
576
  "description": "Gemini 1.5 Flash 8B 0924 to najnowszy eksperymentalny model, który wykazuje znaczące poprawy wydajności w zastosowaniach tekstowych i multimodalnych."
541
577
  },
578
+ "gemini-1.5-flash-exp-0827": {
579
+ "description": "Gemini 1.5 Flash 0827 oferuje zoptymalizowane możliwości przetwarzania multimodalnego, odpowiednie dla wielu złożonych scenariuszy."
580
+ },
542
581
  "gemini-1.5-flash-latest": {
543
582
  "description": "Gemini 1.5 Flash to najnowszy model AI Google o wielu modalnościach, który charakteryzuje się szybkim przetwarzaniem i obsługuje wejścia tekstowe, obrazowe i wideo, co czyni go odpowiednim do efektywnego rozszerzania w różnych zadaniach."
544
583
  },
@@ -548,6 +587,12 @@
548
587
  "gemini-1.5-pro-002": {
549
588
  "description": "Gemini 1.5 Pro 002 to najnowszy model gotowy do produkcji, oferujący wyższą jakość wyników, ze szczególnym uwzględnieniem zadań matematycznych, długich kontekstów i zadań wizualnych."
550
589
  },
590
+ "gemini-1.5-pro-exp-0801": {
591
+ "description": "Gemini 1.5 Pro 0801 oferuje doskonałe możliwości przetwarzania multimodalnego, zapewniając większą elastyczność w rozwoju aplikacji."
592
+ },
593
+ "gemini-1.5-pro-exp-0827": {
594
+ "description": "Gemini 1.5 Pro 0827 łączy najnowsze technologie optymalizacji, oferując bardziej efektywne możliwości przetwarzania danych multimodalnych."
595
+ },
551
596
  "gemini-1.5-pro-latest": {
552
597
  "description": "Gemini 1.5 Pro obsługuje do 2 milionów tokenów, co czyni go idealnym wyborem dla średniej wielkości modeli multimodalnych, odpowiednim do wszechstronnej obsługi złożonych zadań."
553
598
  },
@@ -557,6 +602,9 @@
557
602
  "gemini-exp-1121": {
558
603
  "description": "Gemini Exp 1121 to najnowszy eksperymentalny model AI Google, który charakteryzuje się szybkim przetwarzaniem i obsługuje wejścia tekstowe, obrazowe i wideo, co czyni go wydajnym narzędziem do rozwiązywania różnych zadań."
559
604
  },
605
+ "gemini-exp-1206": {
606
+ "description": "Gemini Exp 1206 to najnowszy eksperymentalny model AI Google w multimodalności, z zauważalnym poprawieniem jakości w porównaniu do wcześniejszych wersji."
607
+ },
560
608
  "gemma-7b-it": {
561
609
  "description": "Gemma 7B nadaje się do przetwarzania zadań średniej i małej skali, łącząc efektywność kosztową."
562
610
  },
@@ -611,6 +659,9 @@
611
659
  "glm-4v": {
612
660
  "description": "GLM-4V oferuje potężne zdolności rozumienia i wnioskowania obrazów, obsługując różne zadania wizualne."
613
661
  },
662
+ "glm-4v-flash": {
663
+ "description": "GLM-4V-Flash koncentruje się na efektywnym zrozumieniu pojedynczego obrazu, idealny do scenariuszy szybkiej analizy obrazu, takich jak analiza obrazów w czasie rzeczywistym lub przetwarzanie partii obrazów."
664
+ },
614
665
  "glm-4v-plus": {
615
666
  "description": "GLM-4V-Plus ma zdolność rozumienia treści wideo oraz wielu obrazów, odpowiedni do zadań multimodalnych."
616
667
  },
@@ -647,6 +698,12 @@
647
698
  "gpt-3.5-turbo-instruct": {
648
699
  "description": "GPT 3.5 Turbo, odpowiedni do różnych zadań generowania i rozumienia tekstu, obecnie wskazuje na gpt-3.5-turbo-0125."
649
700
  },
701
+ "gpt-35-turbo": {
702
+ "description": "GPT 3.5 Turbo to wydajny model dostarczany przez OpenAI, idealny do obsługi zadań związanych z czatowaniem i generowaniem tekstu, wspierający równoległe wywołania funkcji."
703
+ },
704
+ "gpt-35-turbo-16k": {
705
+ "description": "GPT 3.5 Turbo 16k, model do generowania tekstu o dużej pojemności, odpowiedni do bardziej złożonych zadań."
706
+ },
650
707
  "gpt-4": {
651
708
  "description": "GPT-4 oferuje większe okno kontekstowe, zdolne do przetwarzania dłuższych wejść tekstowych, co czyni go odpowiednim do scenariuszy wymagających szerokiej integracji informacji i analizy danych."
652
709
  },
@@ -659,9 +716,6 @@
659
716
  "gpt-4-1106-preview": {
660
717
  "description": "Najnowszy model GPT-4 Turbo posiada funkcje wizualne. Teraz zapytania wizualne mogą być obsługiwane za pomocą formatu JSON i wywołań funkcji. GPT-4 Turbo to ulepszona wersja, która oferuje opłacalne wsparcie dla zadań multimodalnych. Znajduje równowagę między dokładnością a wydajnością, co czyni go odpowiednim do aplikacji wymagających interakcji w czasie rzeczywistym."
661
718
  },
662
- "gpt-4-1106-vision-preview": {
663
- "description": "Najnowszy model GPT-4 Turbo posiada funkcje wizualne. Teraz zapytania wizualne mogą być obsługiwane za pomocą formatu JSON i wywołań funkcji. GPT-4 Turbo to ulepszona wersja, która oferuje opłacalne wsparcie dla zadań multimodalnych. Znajduje równowagę między dokładnością a wydajnością, co czyni go odpowiednim do aplikacji wymagających interakcji w czasie rzeczywistym."
664
- },
665
719
  "gpt-4-32k": {
666
720
  "description": "GPT-4 oferuje większe okno kontekstowe, zdolne do przetwarzania dłuższych wejść tekstowych, co czyni go odpowiednim do scenariuszy wymagających szerokiej integracji informacji i analizy danych."
667
721
  },
@@ -689,6 +743,9 @@
689
743
  "gpt-4o-2024-08-06": {
690
744
  "description": "ChatGPT-4o to dynamiczny model, który jest na bieżąco aktualizowany, aby utrzymać najnowszą wersję. Łączy potężne zdolności rozumienia i generowania języka, co czyni go odpowiednim do zastosowań na dużą skalę, w tym obsługi klienta, edukacji i wsparcia technicznego."
691
745
  },
746
+ "gpt-4o-2024-11-20": {
747
+ "description": "ChatGPT-4o to dynamiczny model, aktualizowany w czasie rzeczywistym, aby być zawsze na bieżąco z najnowszą wersją. Łączy potężne zdolności rozumienia i generowania języka, idealny do zastosowań w dużej skali, w tym obsłudze klienta, edukacji i wsparciu technicznym."
748
+ },
692
749
  "gpt-4o-mini": {
693
750
  "description": "GPT-4o mini to najnowszy model OpenAI, wprowadzony po GPT-4 Omni, obsługujący wejścia tekstowe i wizualne oraz generujący tekst. Jako ich najnowocześniejszy model w małej skali, jest znacznie tańszy niż inne niedawno wprowadzone modele, a jego cena jest o ponad 60% niższa niż GPT-3.5 Turbo. Utrzymuje najnowocześniejszą inteligencję, jednocześnie oferując znaczną wartość za pieniądze. GPT-4o mini uzyskał wynik 82% w teście MMLU i obecnie zajmuje wyższą pozycję w preferencjach czatu niż GPT-4."
694
751
  },
@@ -707,6 +764,9 @@
707
764
  "hunyuan-functioncall": {
708
765
  "description": "Najnowocześniejszy model FunctionCall w architekturze MOE Hunyuan, przeszkolony na wysokiej jakości danych FunctionCall, z oknem kontekstowym o długości 32K, osiągający wiodące wyniki w wielu wymiarach oceny."
709
766
  },
767
+ "hunyuan-large": {
768
+ "description": ""
769
+ },
710
770
  "hunyuan-lite": {
711
771
  "description": "Zaktualizowana do struktury MOE, z oknem kontekstowym o długości 256k, prowadzi w wielu zestawach testowych w NLP, kodowaniu, matematyce i innych dziedzinach w porównaniu do wielu modeli open source."
712
772
  },
@@ -787,6 +847,9 @@
787
847
  "llama-3.2-90b-vision-preview": {
788
848
  "description": "Llama 3.2 jest zaprojektowana do obsługi zadań łączących dane wizualne i tekstowe. Wykazuje doskonałe wyniki w zadaniach takich jak opisywanie obrazów i wizualne pytania i odpowiedzi, przekraczając przepaść między generowaniem języka a wnioskowaniem wizualnym."
789
849
  },
850
+ "llama-3.3-70b-versatile": {
851
+ "description": "Meta Llama 3.3 to wielojęzyczny model językowy (LLM) 70B, pretrenowany i dostosowany do poleceń. Model Llama 3.3, dostosowany do poleceń, jest zoptymalizowany do zastosowań w dialogach wielojęzycznych i przewyższa wiele dostępnych modeli czatu, zarówno open source, jak i zamkniętych, w popularnych branżowych benchmarkach."
852
+ },
790
853
  "llama3-70b-8192": {
791
854
  "description": "Meta Llama 3 70B oferuje niezrównane możliwości przetwarzania złożoności, dostosowane do projektów o wysokich wymaganiach."
792
855
  },
@@ -1094,12 +1157,21 @@
1094
1157
  "qwen-math-turbo-latest": {
1095
1158
  "description": "Model matematyczny Qwen, stworzony specjalnie do rozwiązywania problemów matematycznych."
1096
1159
  },
1160
+ "qwen-max": {
1161
+ "description": "Qwen Max to model językowy o skali miliardowej, obsługujący chiński, angielski i inne języki. Aktualna wersja API modelu na bazie Qwen 2.5."
1162
+ },
1097
1163
  "qwen-max-latest": {
1098
1164
  "description": "Model językowy Qwen Max o skali miliardów parametrów, obsługujący różne języki, w tym chiński i angielski, będący API modelu za produktem Qwen 2.5."
1099
1165
  },
1166
+ "qwen-plus": {
1167
+ "description": "Qwen Plus to ulepszona wersja ogromnego modelu językowego, wspierająca różne języki, w tym chiński i angielski."
1168
+ },
1100
1169
  "qwen-plus-latest": {
1101
1170
  "description": "Wzmocniona wersja modelu językowego Qwen Plus, obsługująca różne języki, w tym chiński i angielski."
1102
1171
  },
1172
+ "qwen-turbo": {
1173
+ "description": "Qwen Turbo to ogromny model językowy, który obsługuje różne języki, w tym chiński i angielski."
1174
+ },
1103
1175
  "qwen-turbo-latest": {
1104
1176
  "description": "Model językowy Qwen Turbo, obsługujący różne języki, w tym chiński i angielski."
1105
1177
  },
@@ -1136,12 +1208,18 @@
1136
1208
  "qwen2.5-7b-instruct": {
1137
1209
  "description": "Model Qwen 2.5 o skali 7B, udostępniony na zasadzie open source."
1138
1210
  },
1211
+ "qwen2.5-coder-1.5b-instruct": {
1212
+ "description": "Otwarta wersja modelu kodowania Qwen."
1213
+ },
1139
1214
  "qwen2.5-coder-32b-instruct": {
1140
1215
  "description": "Otwarta wersja modelu kodowania Qwen."
1141
1216
  },
1142
1217
  "qwen2.5-coder-7b-instruct": {
1143
1218
  "description": "Otwarta wersja modelu kodowania Qwen."
1144
1219
  },
1220
+ "qwen2.5-math-1.5b-instruct": {
1221
+ "description": "Model Qwen-Math ma silne umiejętności rozwiązywania problemów matematycznych."
1222
+ },
1145
1223
  "qwen2.5-math-72b-instruct": {
1146
1224
  "description": "Model Qwen-Math, który ma silne zdolności rozwiązywania problemów matematycznych."
1147
1225
  },
@@ -34,6 +34,9 @@
34
34
  "groq": {
35
35
  "description": "Silnik inferencyjny LPU firmy Groq wyróżnia się w najnowszych niezależnych testach benchmarkowych dużych modeli językowych (LLM), redefiniując standardy rozwiązań AI dzięki niesamowitej szybkości i wydajności. Groq jest reprezentantem natychmiastowej szybkości inferencji, wykazując dobrą wydajność w wdrożeniach opartych na chmurze."
36
36
  },
37
+ "higress": {
38
+ "description": ""
39
+ },
37
40
  "huggingface": {
38
41
  "description": "HuggingFace Inference API oferuje szybki i bezpłatny sposób na eksplorację tysięcy modeli, które nadają się do różnych zadań. Niezależnie od tego, czy prototypujesz nową aplikację, czy próbujesz funkcji uczenia maszynowego, to API zapewnia natychmiastowy dostęp do wysokowydajnych modeli z wielu dziedzin."
39
42
  },
@@ -55,6 +55,24 @@
55
55
  "Baichuan4-Turbo": {
56
56
  "description": "Modelo com a melhor capacidade do país, superando modelos estrangeiros em tarefas em chinês como enciclopédia, textos longos e criação de conteúdo. Também possui capacidades multimodais líderes da indústria, com excelente desempenho em várias avaliações de referência."
57
57
  },
58
+ "Doubao-lite-128k": {
59
+ "description": "Doubao-lite possui uma velocidade de resposta excepcional e uma melhor relação custo-benefício, oferecendo opções mais flexíveis para diferentes cenários dos clientes. Suporta raciocínio e ajuste fino em janelas de contexto de 128k."
60
+ },
61
+ "Doubao-lite-32k": {
62
+ "description": "Doubao-lite possui uma velocidade de resposta excepcional e uma melhor relação custo-benefício, oferecendo opções mais flexíveis para diferentes cenários dos clientes. Suporta raciocínio e ajuste fino em janelas de contexto de 32k."
63
+ },
64
+ "Doubao-lite-4k": {
65
+ "description": "Doubao-lite possui uma velocidade de resposta excepcional e uma melhor relação custo-benefício, oferecendo opções mais flexíveis para diferentes cenários dos clientes. Suporta raciocínio e ajuste fino em janelas de contexto de 4k."
66
+ },
67
+ "Doubao-pro-128k": {
68
+ "description": "O modelo principal com o melhor desempenho, adequado para tarefas complexas, apresentando excelentes resultados em cenários como perguntas e respostas, resumos, criação, classificação de texto e interpretação de papéis. Suporta raciocínio e ajuste fino em janelas de contexto de 128k."
69
+ },
70
+ "Doubao-pro-32k": {
71
+ "description": "O modelo principal com o melhor desempenho, adequado para tarefas complexas, apresentando excelentes resultados em cenários como perguntas e respostas, resumos, criação, classificação de texto e interpretação de papéis. Suporta raciocínio e ajuste fino em janelas de contexto de 32k."
72
+ },
73
+ "Doubao-pro-4k": {
74
+ "description": "O modelo principal com o melhor desempenho, adequado para tarefas complexas, apresentando excelentes resultados em cenários como perguntas e respostas, resumos, criação, classificação de texto e interpretação de papéis. Suporta raciocínio e ajuste fino em janelas de contexto de 4k."
75
+ },
58
76
  "ERNIE-3.5-128K": {
59
77
  "description": "Modelo de linguagem de grande escala desenvolvido pela Baidu, cobrindo uma vasta quantidade de dados em chinês e inglês, com poderosas capacidades gerais, capaz de atender à maioria das demandas de perguntas e respostas em diálogos, geração de conteúdo e aplicações de plugins; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações nas respostas."
60
78
  },
@@ -242,6 +260,21 @@
242
260
  "SenseChat-Turbo": {
243
261
  "description": "Adequado para perguntas rápidas e cenários de ajuste fino do modelo."
244
262
  },
263
+ "Skylark2-lite-8k": {
264
+ "description": "Modelo de segunda geração Skylark, o modelo Skylark2-lite possui alta velocidade de resposta, adequado para cenários que exigem alta capacidade de resposta, sensíveis ao custo e com baixa exigência de precisão do modelo, com uma janela de contexto de 8k."
265
+ },
266
+ "Skylark2-pro-32k": {
267
+ "description": "Modelo de segunda geração Skylark, a versão Skylark2-pro possui alta precisão, adequada para cenários de geração de texto mais complexos, como geração de textos em campos especializados, criação de romances e traduções de alta qualidade, com uma janela de contexto de 32k."
268
+ },
269
+ "Skylark2-pro-4k": {
270
+ "description": "Modelo de segunda geração Skylark, o modelo Skylark2-pro possui alta precisão, adequado para cenários de geração de texto mais complexos, como geração de textos em campos especializados, criação de romances e traduções de alta qualidade, com uma janela de contexto de 4k."
271
+ },
272
+ "Skylark2-pro-character-4k": {
273
+ "description": "Modelo de segunda geração Skylark, o modelo Skylark2-pro-character possui excelentes habilidades de interpretação de papéis e chat, especializado em interpretar diferentes papéis com base nas solicitações do usuário e engajar em conversas, apresentando um estilo de personagem distinto e um conteúdo de diálogo natural e fluído, adequado para construir chatbots, assistentes virtuais e atendimento ao cliente online, com alta velocidade de resposta."
274
+ },
275
+ "Skylark2-pro-turbo-8k": {
276
+ "description": "Modelo de segunda geração Skylark, o Skylark2-pro-turbo-8k proporciona raciocínio mais rápido e menor custo, com uma janela de contexto de 8k."
277
+ },
245
278
  "THUDM/chatglm3-6b": {
246
279
  "description": "ChatGLM3-6B é um modelo de código aberto da série ChatGLM, desenvolvido pela Zhipu AI. Este modelo mantém as excelentes características da geração anterior, como fluência no diálogo e baixo custo de implantação, enquanto introduz novos recursos. Ele utiliza dados de treinamento mais variados, um número de passos de treinamento mais robusto e uma estratégia de treinamento mais razoável, destacando-se entre modelos pré-treinados abaixo de 10B. O ChatGLM3-6B suporta diálogos de múltiplas rodadas, chamadas de ferramentas, execução de código e tarefas de agente em cenários complexos. Além do modelo de diálogo, também foram lançados o modelo base ChatGLM-6B-Base e o modelo de diálogo de longo texto ChatGLM3-6B-32K. Este modelo está completamente aberto para pesquisa acadêmica e permite uso comercial gratuito após registro."
247
280
  },
@@ -476,6 +509,9 @@
476
509
  "cohere-command-r-plus": {
477
510
  "description": "Command R+ é um modelo otimizado para RAG de última geração, projetado para lidar com cargas de trabalho de nível empresarial."
478
511
  },
512
+ "command-light": {
513
+ "description": ""
514
+ },
479
515
  "command-r": {
480
516
  "description": "Command R é um LLM otimizado para tarefas de diálogo e longos contextos, especialmente adequado para interações dinâmicas e gerenciamento de conhecimento."
481
517
  },
@@ -539,6 +575,9 @@
539
575
  "gemini-1.5-flash-8b-exp-0924": {
540
576
  "description": "O Gemini 1.5 Flash 8B 0924 é o mais recente modelo experimental, com melhorias significativas de desempenho em casos de uso de texto e multimídia."
541
577
  },
578
+ "gemini-1.5-flash-exp-0827": {
579
+ "description": "Gemini 1.5 Flash 0827 oferece capacidade de processamento multimodal otimizada, adequada para diversos cenários de tarefas complexas."
580
+ },
542
581
  "gemini-1.5-flash-latest": {
543
582
  "description": "Gemini 1.5 Flash é o mais recente modelo de IA multimodal do Google, com capacidade de processamento rápido, suportando entradas de texto, imagem e vídeo, adequado para uma variedade de tarefas de expansão eficiente."
544
583
  },
@@ -548,6 +587,12 @@
548
587
  "gemini-1.5-pro-002": {
549
588
  "description": "O Gemini 1.5 Pro 002 é o mais recente modelo pronto para produção, oferecendo saídas de maior qualidade, com melhorias significativas em tarefas matemáticas, contextos longos e tarefas visuais."
550
589
  },
590
+ "gemini-1.5-pro-exp-0801": {
591
+ "description": "Gemini 1.5 Pro 0801 oferece excelente capacidade de processamento multimodal, proporcionando maior flexibilidade para o desenvolvimento de aplicações."
592
+ },
593
+ "gemini-1.5-pro-exp-0827": {
594
+ "description": "Gemini 1.5 Pro 0827 combina as mais recentes técnicas de otimização, proporcionando uma capacidade de processamento de dados multimodal mais eficiente."
595
+ },
551
596
  "gemini-1.5-pro-latest": {
552
597
  "description": "Gemini 1.5 Pro suporta até 2 milhões de tokens, sendo a escolha ideal para modelos multimodais de médio porte, adequados para suporte multifacetado em tarefas complexas."
553
598
  },
@@ -557,6 +602,9 @@
557
602
  "gemini-exp-1121": {
558
603
  "description": "Gemini Exp 1121 é o mais recente modelo experimental de IA multimodal do Google, com capacidade de processamento rápido, suportando entradas de texto, imagem e vídeo, adequado para a escalabilidade eficiente em várias tarefas."
559
604
  },
605
+ "gemini-exp-1206": {
606
+ "description": "Gemini Exp 1206 é o mais recente modelo experimental multimodal da Google, apresentando uma melhoria na qualidade em comparação com versões anteriores."
607
+ },
560
608
  "gemma-7b-it": {
561
609
  "description": "Gemma 7B é adequado para o processamento de tarefas de pequeno a médio porte, combinando custo e eficiência."
562
610
  },
@@ -611,6 +659,9 @@
611
659
  "glm-4v": {
612
660
  "description": "O GLM-4V oferece uma forte capacidade de compreensão e raciocínio de imagens, suportando várias tarefas visuais."
613
661
  },
662
+ "glm-4v-flash": {
663
+ "description": "GLM-4V-Flash é focado na compreensão eficiente de uma única imagem, adequado para cenários de análise de imagem rápida, como análise de imagem em tempo real ou processamento em lote de imagens."
664
+ },
614
665
  "glm-4v-plus": {
615
666
  "description": "O GLM-4V-Plus possui a capacidade de entender conteúdo de vídeo e múltiplas imagens, adequado para tarefas multimodais."
616
667
  },
@@ -647,6 +698,12 @@
647
698
  "gpt-3.5-turbo-instruct": {
648
699
  "description": "O GPT 3.5 Turbo é adequado para uma variedade de tarefas de geração e compreensão de texto, atualmente apontando para gpt-3.5-turbo-0125."
649
700
  },
701
+ "gpt-35-turbo": {
702
+ "description": "GPT 3.5 Turbo, um modelo eficiente fornecido pela OpenAI, adequado para tarefas de chat e geração de texto, suportando chamadas de função paralelas."
703
+ },
704
+ "gpt-35-turbo-16k": {
705
+ "description": "GPT 3.5 Turbo 16k, um modelo de geração de texto de alta capacidade, adequado para tarefas complexas."
706
+ },
650
707
  "gpt-4": {
651
708
  "description": "O GPT-4 oferece uma janela de contexto maior, capaz de lidar com entradas de texto mais longas, adequado para cenários que exigem integração ampla de informações e análise de dados."
652
709
  },
@@ -659,9 +716,6 @@
659
716
  "gpt-4-1106-preview": {
660
717
  "description": "O mais recente modelo GPT-4 Turbo possui funcionalidades visuais. Agora, solicitações visuais podem ser feitas usando o modo JSON e chamadas de função. O GPT-4 Turbo é uma versão aprimorada, oferecendo suporte econômico para tarefas multimodais. Ele encontra um equilíbrio entre precisão e eficiência, adequado para aplicações que requerem interação em tempo real."
661
718
  },
662
- "gpt-4-1106-vision-preview": {
663
- "description": "O mais recente modelo GPT-4 Turbo possui funcionalidades visuais. Agora, solicitações visuais podem ser feitas usando o modo JSON e chamadas de função. O GPT-4 Turbo é uma versão aprimorada, oferecendo suporte econômico para tarefas multimodais. Ele encontra um equilíbrio entre precisão e eficiência, adequado para aplicações que requerem interação em tempo real."
664
- },
665
719
  "gpt-4-32k": {
666
720
  "description": "O GPT-4 oferece uma janela de contexto maior, capaz de lidar com entradas de texto mais longas, adequado para cenários que exigem integração ampla de informações e análise de dados."
667
721
  },
@@ -689,6 +743,9 @@
689
743
  "gpt-4o-2024-08-06": {
690
744
  "description": "O ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais atual. Ele combina uma poderosa capacidade de compreensão e geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico."
691
745
  },
746
+ "gpt-4o-2024-11-20": {
747
+ "description": "ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais atualizada. Combina uma poderosa compreensão e capacidade de geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico."
748
+ },
692
749
  "gpt-4o-mini": {
693
750
  "description": "O GPT-4o mini é o mais recente modelo lançado pela OpenAI após o GPT-4 Omni, suportando entrada de texto e imagem e gerando texto como saída. Como seu modelo compacto mais avançado, ele é muito mais acessível do que outros modelos de ponta recentes, custando mais de 60% menos que o GPT-3.5 Turbo. Ele mantém uma inteligência de ponta, ao mesmo tempo que oferece um custo-benefício significativo. O GPT-4o mini obteve uma pontuação de 82% no teste MMLU e atualmente está classificado acima do GPT-4 em preferências de chat."
694
751
  },
@@ -707,6 +764,9 @@
707
764
  "hunyuan-functioncall": {
708
765
  "description": "O mais recente modelo FunctionCall da arquitetura MOE Hunyuan, treinado com dados de alta qualidade de FunctionCall, com uma janela de contexto de 32K, liderando em várias métricas de avaliação."
709
766
  },
767
+ "hunyuan-large": {
768
+ "description": ""
769
+ },
710
770
  "hunyuan-lite": {
711
771
  "description": "Atualizado para uma estrutura MOE, com uma janela de contexto de 256k, liderando em várias avaliações em NLP, código, matemática e setores diversos em comparação com muitos modelos de código aberto."
712
772
  },
@@ -787,6 +847,9 @@
787
847
  "llama-3.2-90b-vision-preview": {
788
848
  "description": "Llama 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
789
849
  },
850
+ "llama-3.3-70b-versatile": {
851
+ "description": "O modelo de linguagem multilíngue Meta Llama 3.3 (LLM) é um modelo gerador pré-treinado e ajustado para instruções, com 70B (entrada/saída de texto). O modelo de texto puro ajustado para instruções do Llama 3.3 é otimizado para casos de uso de diálogo multilíngue e supera muitos modelos de chat open source e fechados disponíveis em benchmarks comuns da indústria."
852
+ },
790
853
  "llama3-70b-8192": {
791
854
  "description": "Meta Llama 3 70B oferece capacidade de processamento incomparável para complexidade, projetado sob medida para projetos de alta demanda."
792
855
  },
@@ -1094,12 +1157,21 @@
1094
1157
  "qwen-math-turbo-latest": {
1095
1158
  "description": "O modelo de matemática Qwen é especificamente projetado para resolver problemas matemáticos."
1096
1159
  },
1160
+ "qwen-max": {
1161
+ "description": "Modelo de linguagem em larga escala com trilhões de parâmetros do Qwen, suportando entradas em diferentes idiomas, como português e inglês, atualmente a versão API por trás do produto Qwen 2.5."
1162
+ },
1097
1163
  "qwen-max-latest": {
1098
1164
  "description": "O modelo de linguagem em larga escala Qwen Max, com trilhões de parâmetros, que suporta entradas em diferentes idiomas, incluindo chinês e inglês, e é o modelo de API por trás da versão do produto Qwen 2.5."
1099
1165
  },
1166
+ "qwen-plus": {
1167
+ "description": "Versão aprimorada do modelo de linguagem em larga escala Qwen, que suporta entradas em diferentes idiomas, como português e inglês."
1168
+ },
1100
1169
  "qwen-plus-latest": {
1101
1170
  "description": "A versão aprimorada do modelo de linguagem em larga escala Qwen Plus, que suporta entradas em diferentes idiomas, incluindo chinês e inglês."
1102
1171
  },
1172
+ "qwen-turbo": {
1173
+ "description": "O modelo de linguagem em larga escala Qwen suporta entradas em diferentes idiomas, como português e inglês."
1174
+ },
1103
1175
  "qwen-turbo-latest": {
1104
1176
  "description": "O modelo de linguagem em larga escala Qwen Turbo, que suporta entradas em diferentes idiomas, incluindo chinês e inglês."
1105
1177
  },
@@ -1136,12 +1208,18 @@
1136
1208
  "qwen2.5-7b-instruct": {
1137
1209
  "description": "Modelo de 7B parâmetros do Qwen 2.5, disponível como código aberto."
1138
1210
  },
1211
+ "qwen2.5-coder-1.5b-instruct": {
1212
+ "description": "Versão open source do modelo de código do Qwen."
1213
+ },
1139
1214
  "qwen2.5-coder-32b-instruct": {
1140
1215
  "description": "Versão open source do modelo de código Qwen."
1141
1216
  },
1142
1217
  "qwen2.5-coder-7b-instruct": {
1143
1218
  "description": "Versão de código aberto do modelo de código Qwen."
1144
1219
  },
1220
+ "qwen2.5-math-1.5b-instruct": {
1221
+ "description": "O modelo Qwen-Math possui poderosas capacidades de resolução de problemas matemáticos."
1222
+ },
1145
1223
  "qwen2.5-math-72b-instruct": {
1146
1224
  "description": "O modelo Qwen-Math possui uma forte capacidade de resolução de problemas matemáticos."
1147
1225
  },
@@ -34,6 +34,9 @@
34
34
  "groq": {
35
35
  "description": "O motor de inferência LPU da Groq se destacou em testes de benchmark independentes de modelos de linguagem de grande escala (LLM), redefinindo os padrões de soluções de IA com sua velocidade e eficiência impressionantes. A Groq representa uma velocidade de inferência em tempo real, demonstrando bom desempenho em implantações baseadas em nuvem."
36
36
  },
37
+ "higress": {
38
+ "description": ""
39
+ },
37
40
  "huggingface": {
38
41
  "description": "A API de Inferência do HuggingFace oferece uma maneira rápida e gratuita de explorar milhares de modelos para diversas tarefas. Seja você um protótipo para um novo aplicativo ou tentando as funcionalidades de aprendizado de máquina, esta API permite acesso instantâneo a modelos de alto desempenho em múltiplas áreas."
39
42
  },