@lobehub/chat 1.22.14 → 1.22.16

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
@@ -47,8 +47,8 @@
47
47
  "ERNIE-4.0-8K-Preview": {
48
48
  "description": "Flagowy model ultra dużego języka opracowany przez Baidu, w porównaniu do ERNIE 3.5, oferujący kompleksową aktualizację możliwości modelu, szeroko stosowany w złożonych scenariuszach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji."
49
49
  },
50
- "ERNIE-4.0-Turbo-8K": {
51
- "description": "Flagowy model ultra dużego języka opracowany przez Baidu, charakteryzujący się doskonałymi wynikami ogólnymi, szeroko stosowany w złożonych scenariuszach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji. W porównaniu do ERNIE 4.0, oferuje lepsze wyniki wydajności."
50
+ "ERNIE-4.0-Turbo-8K-Latest": {
51
+ "description": "Opracowany przez Baidu flagowy, ultra-duży model językowy, który wykazuje doskonałe ogólne rezultaty i jest szeroko stosowany w złożonych zadaniach w różnych dziedzinach; obsługuje automatyczne łączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji odpowiadających na pytania. W porównaniu do ERNIE 4.0 wykazuje lepszą wydajność."
52
52
  },
53
53
  "ERNIE-4.0-Turbo-8K-Preview": {
54
54
  "description": "Flagowy model ultra dużego języka opracowany przez Baidu, charakteryzujący się doskonałymi wynikami ogólnymi, szeroko stosowany w złożonych scenariuszach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji. W porównaniu do ERNIE 4.0, oferuje lepsze wyniki wydajności."
@@ -80,8 +80,11 @@
80
80
  "NousResearch/Nous-Hermes-2-Yi-34B": {
81
81
  "description": "Nous Hermes-2 Yi (34B) oferuje zoptymalizowane wyjście językowe i różnorodne możliwości zastosowania."
82
82
  },
83
- "Phi-3-5-mini-instruct": {
84
- "description": "Odświeżona wersja modelu Phi-3-mini."
83
+ "OpenGVLab/InternVL2-26B": {
84
+ "description": "InternVL2 pokazuje wyjątkowe wyniki w różnych zadaniach językowych i wizualnych, w tym zrozumieniu dokumentów i wykresów, zrozumieniu tekstu w scenach, OCR, rozwiązywaniu problemów naukowych i matematycznych."
85
+ },
86
+ "OpenGVLab/InternVL2-Llama3-76B": {
87
+ "description": "InternVL2 pokazuje wyjątkowe wyniki w różnych zadaniach językowych i wizualnych, w tym zrozumieniu dokumentów i wykresów, zrozumieniu tekstu w scenach, OCR, rozwiązywaniu problemów naukowych i matematycznych."
85
88
  },
86
89
  "Phi-3-medium-128k-instruct": {
87
90
  "description": "Ten sam model Phi-3-medium, ale z większym rozmiarem kontekstu do RAG lub kilku strzałowego wywoływania."
@@ -101,9 +104,21 @@
101
104
  "Phi-3-small-8k-instruct": {
102
105
  "description": "Model z 7 miliardami parametrów, oferujący lepszą jakość niż Phi-3-mini, z naciskiem na dane o wysokiej jakości i gęstości rozumowania."
103
106
  },
107
+ "Phi-3.5-mini-instruct": {
108
+ "description": "Zaktualizowana wersja modelu Phi-3-mini."
109
+ },
110
+ "Phi-3.5-vision-instrust": {
111
+ "description": "Zaktualizowana wersja modelu Phi-3-vision."
112
+ },
104
113
  "Pro-128k": {
105
114
  "description": "Spark Pro-128K ma wyjątkową zdolność przetwarzania kontekstu, mogąc obsługiwać do 128K informacji kontekstowych, szczególnie odpowiedni do analizy całościowej i długoterminowego przetwarzania logicznego w długich tekstach, zapewniając płynne i spójne logicznie komunikowanie się oraz różnorodne wsparcie cytatów."
106
115
  },
116
+ "Pro/OpenGVLab/InternVL2-8B": {
117
+ "description": "InternVL2 pokazuje wyjątkowe wyniki w różnych zadaniach językowych i wizualnych, w tym zrozumieniu dokumentów i wykresów, zrozumieniu tekstu w scenach, OCR, rozwiązywaniu problemów naukowych i matematycznych."
118
+ },
119
+ "Pro/Qwen/Qwen2-VL-7B-Instruct": {
120
+ "description": "Qwen2-VL to najnowsza iteracja modelu Qwen-VL, osiągająca najnowocześniejsze wyniki w benchmarkach zrozumienia wizualnego."
121
+ },
107
122
  "Qwen/Qwen1.5-110B-Chat": {
108
123
  "description": "Jako wersja testowa Qwen2, Qwen1.5 wykorzystuje dużą ilość danych do osiągnięcia bardziej precyzyjnych funkcji dialogowych."
109
124
  },
@@ -113,18 +128,27 @@
113
128
  "Qwen/Qwen2-72B-Instruct": {
114
129
  "description": "Qwen2 to zaawansowany uniwersalny model językowy, wspierający różne typy poleceń."
115
130
  },
131
+ "Qwen/Qwen2-VL-72B-Instruct": {
132
+ "description": "Qwen2-VL to najnowsza iteracja modelu Qwen-VL, osiągająca najnowocześniejsze wyniki w benchmarkach zrozumienia wizualnego."
133
+ },
116
134
  "Qwen/Qwen2.5-14B-Instruct": {
117
135
  "description": "Qwen2.5 to nowa seria dużych modeli językowych, zaprojektowana w celu optymalizacji przetwarzania zadań instrukcyjnych."
118
136
  },
119
137
  "Qwen/Qwen2.5-32B-Instruct": {
120
138
  "description": "Qwen2.5 to nowa seria dużych modeli językowych, zaprojektowana w celu optymalizacji przetwarzania zadań instrukcyjnych."
121
139
  },
122
- "Qwen/Qwen2.5-72B-Instruct": {
123
- "description": "Qwen2.5 to nowa seria dużych modeli językowych, z silniejszymi zdolnościami rozumienia i generacji."
140
+ "Qwen/Qwen2.5-72B-Instruct-128K": {
141
+ "description": "Qwen2.5 to nowa seria dużych modeli językowych, charakteryzująca się mocniejszymi zdolnościami rozumienia i generowania."
142
+ },
143
+ "Qwen/Qwen2.5-72B-Instruct-Turbo": {
144
+ "description": "Qwen2.5 to nowa seria dużych modeli językowych, mająca na celu optymalizację przetwarzania zadań instruktażowych."
124
145
  },
125
146
  "Qwen/Qwen2.5-7B-Instruct": {
126
147
  "description": "Qwen2.5 to nowa seria dużych modeli językowych, zaprojektowana w celu optymalizacji przetwarzania zadań instrukcyjnych."
127
148
  },
149
+ "Qwen/Qwen2.5-7B-Instruct-Turbo": {
150
+ "description": "Qwen2.5 to nowa seria dużych modeli językowych, mająca na celu optymalizację przetwarzania zadań instruktażowych."
151
+ },
128
152
  "Qwen/Qwen2.5-Coder-7B-Instruct": {
129
153
  "description": "Qwen2.5-Coder koncentruje się na pisaniu kodu."
130
154
  },
@@ -158,9 +182,6 @@
158
182
  "accounts/fireworks/models/firellava-13b": {
159
183
  "description": "fireworks-ai/FireLLaVA-13b to model językowy wizualny, który może jednocześnie przyjmować obrazy i tekst, przeszkolony na wysokiej jakości danych, idealny do zadań multimodalnych."
160
184
  },
161
- "accounts/fireworks/models/gemma2-9b-it": {
162
- "description": "Model Gemma 2 9B Instruct, oparty na wcześniejszej technologii Google, idealny do zadań generowania tekstu, takich jak odpowiadanie na pytania, podsumowywanie i wnioskowanie."
163
- },
164
185
  "accounts/fireworks/models/llama-v3-70b-instruct": {
165
186
  "description": "Model Llama 3 70B Instruct, zaprojektowany do wielojęzycznych dialogów i rozumienia języka naturalnego, przewyższa większość konkurencyjnych modeli."
166
187
  },
@@ -182,6 +203,18 @@
182
203
  "accounts/fireworks/models/llama-v3p1-8b-instruct": {
183
204
  "description": "Model Llama 3.1 8B Instruct, zoptymalizowany do wielojęzycznych dialogów, potrafi przewyższyć większość modeli open source i closed source w powszechnych standardach branżowych."
184
205
  },
206
+ "accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
207
+ "description": "Model wnioskowania wizualnego z 11B parametrów od Meta. Model zoptymalizowany do rozpoznawania wizualnego, wnioskowania obrazów, opisywania obrazów oraz odpowiadania na ogólne pytania dotyczące obrazów. Model potrafi rozumieć dane wizualne, takie jak wykresy i grafiki, a dzięki generowaniu tekstowych opisów szczegółów obrazów, łączy wizję z językiem."
208
+ },
209
+ "accounts/fireworks/models/llama-v3p2-1b-instruct": {
210
+ "description": "Model instruktażowy Llama 3.2 1B to lekki model wielojęzyczny zaprezentowany przez Meta. Zaprojektowany, aby poprawić wydajność, oferując znaczące usprawnienia w opóźnieniu i kosztach w porównaniu do większych modeli. Przykładowe przypadki użycia tego modelu obejmują wyszukiwanie i podsumowywanie."
211
+ },
212
+ "accounts/fireworks/models/llama-v3p2-3b-instruct": {
213
+ "description": "Model instruktażowy Llama 3.2 3B to lekki model wielojęzyczny zaprezentowany przez Meta. Zaprojektowany, aby poprawić wydajność, oferując znaczące usprawnienia w opóźnieniu i kosztach w porównaniu do większych modeli. Przykładowe przypadki użycia tego modelu obejmują zapytania i przepisanie sugestii oraz pomoc w pisaniu."
214
+ },
215
+ "accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
216
+ "description": "Model wnioskowania wizualnego z 90B parametrów od Meta. Model zoptymalizowany do rozpoznawania wizualnego, wnioskowania obrazów, opisywania obrazów oraz odpowiadania na ogólne pytania dotyczące obrazów. Model potrafi rozumieć dane wizualne, takie jak wykresy i grafiki, a dzięki generowaniu tekstowych opisów szczegółów obrazów, łączy wizję z językiem."
217
+ },
185
218
  "accounts/fireworks/models/mixtral-8x22b-instruct": {
186
219
  "description": "Model Mixtral MoE 8x22B Instruct, z dużą liczbą parametrów i architekturą wielu ekspertów, kompleksowo wspierający efektywne przetwarzanie złożonych zadań."
187
220
  },
@@ -197,6 +230,9 @@
197
230
  "accounts/fireworks/models/phi-3-vision-128k-instruct": {
198
231
  "description": "Model Phi 3 Vision Instruct, lekki model multimodalny, zdolny do przetwarzania złożonych informacji wizualnych i tekstowych, z silnymi zdolnościami wnioskowania."
199
232
  },
233
+ "accounts/fireworks/models/qwen2p5-72b-instruct": {
234
+ "description": "Qwen2.5 to seria modeli językowych opracowana przez zespół Qwen na chmurze Alibaba, która zawiera jedynie dekodery. Modele te występują w różnych rozmiarach, w tym 0.5B, 1.5B, 3B, 7B, 14B, 32B i 72B, i oferują dwie wersje: bazową (base) i instruktażową (instruct)."
235
+ },
200
236
  "accounts/fireworks/models/starcoder-16b": {
201
237
  "description": "Model StarCoder 15.5B, wspierający zaawansowane zadania programistyczne, z wzmocnionymi możliwościami wielojęzycznymi, idealny do złożonego generowania i rozumienia kodu."
202
238
  },
@@ -212,9 +248,6 @@
212
248
  "ai21-jamba-1.5-mini": {
213
249
  "description": "Model wielojęzyczny z 52 miliardami parametrów (12 miliardów aktywnych), oferujący okno kontekstowe o długości 256K, wywoływanie funkcji, strukturalne wyjście i generację opartą na kontekście."
214
250
  },
215
- "ai21-jamba-instruct": {
216
- "description": "Model LLM oparty na Mamba, zaprojektowany do osiągania najlepszej wydajności, jakości i efektywności kosztowej."
217
- },
218
251
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
219
252
  "description": "Claude 3.5 Sonnet podnosi standardy branżowe, przewyższając modele konkurencji oraz Claude 3 Opus, osiągając doskonałe wyniki w szerokim zakresie ocen, jednocześnie oferując szybkość i koszty na poziomie naszych modeli średniej klasy."
220
253
  },
@@ -592,9 +625,15 @@
592
625
  "llama-3.1-sonar-small-128k-online": {
593
626
  "description": "Model Llama 3.1 Sonar Small Online, z 8B parametrami, obsługujący kontekst o długości około 127,000 tokenów, zaprojektowany do czatów online, efektywnie przetwarzający różne interakcje tekstowe."
594
627
  },
628
+ "llama-3.2-11b-vision-instruct": {
629
+ "description": "Wyjątkowe zdolności wnioskowania wizualnego na obrazach o wysokiej rozdzielczości, idealne do zastosowań związanych ze zrozumieniem wizualnym."
630
+ },
595
631
  "llama-3.2-11b-vision-preview": {
596
632
  "description": "Llama 3.2 jest zaprojektowana do obsługi zadań łączących dane wizualne i tekstowe. Wykazuje doskonałe wyniki w zadaniach takich jak opisywanie obrazów i wizualne pytania i odpowiedzi, przekraczając przepaść między generowaniem języka a wnioskowaniem wizualnym."
597
633
  },
634
+ "llama-3.2-90b-vision-instruct": {
635
+ "description": "Zaawansowane zdolności wnioskowania obrazów dla zastosowań w agentach zrozumienia wizualnego."
636
+ },
598
637
  "llama-3.2-90b-vision-preview": {
599
638
  "description": "Llama 3.2 jest zaprojektowana do obsługi zadań łączących dane wizualne i tekstowe. Wykazuje doskonałe wyniki w zadaniach takich jak opisywanie obrazów i wizualne pytania i odpowiedzi, przekraczając przepaść między generowaniem języka a wnioskowaniem wizualnym."
600
639
  },
@@ -652,8 +691,8 @@
652
691
  "meta-llama/Llama-2-13b-chat-hf": {
653
692
  "description": "LLaMA-2 Chat (13B) oferuje doskonałe możliwości przetwarzania języka i znakomite doświadczenie interakcji."
654
693
  },
655
- "meta-llama/Llama-2-7b-chat-hf": {
656
- "description": "Jeden z najlepszych modeli do rozmów."
694
+ "meta-llama/Llama-2-70b-hf": {
695
+ "description": "LLaMA-2 oferuje doskonałe zdolności przetwarzania języka i znakomite doświadczenie interakcyjne."
657
696
  },
658
697
  "meta-llama/Llama-3-70b-chat-hf": {
659
698
  "description": "LLaMA-3 Chat (70B) to potężny model czatu, wspierający złożone potrzeby dialogowe."
@@ -661,6 +700,18 @@
661
700
  "meta-llama/Llama-3-8b-chat-hf": {
662
701
  "description": "LLaMA-3 Chat (8B) oferuje wsparcie dla wielu języków, obejmując bogatą wiedzę z różnych dziedzin."
663
702
  },
703
+ "meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
704
+ "description": "LLaMA 3.2 zaprojektowana do przetwarzania zadań łączących dane wizualne i tekstowe. Doskonała w zadaniach takich jak opisywanie obrazów i wizualne pytania odpowiedzi, przekracza granice między generowaniem języka a wnioskowaniem wizualnym."
705
+ },
706
+ "meta-llama/Llama-3.2-3B-Instruct-Turbo": {
707
+ "description": "LLaMA 3.2 zaprojektowana do przetwarzania zadań łączących dane wizualne i tekstowe. Doskonała w zadaniach takich jak opisywanie obrazów i wizualne pytania odpowiedzi, przekracza granice między generowaniem języka a wnioskowaniem wizualnym."
708
+ },
709
+ "meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
710
+ "description": "LLaMA 3.2 zaprojektowana do przetwarzania zadań łączących dane wizualne i tekstowe. Doskonała w zadaniach takich jak opisywanie obrazów i wizualne pytania odpowiedzi, przekracza granice między generowaniem języka a wnioskowaniem wizualnym."
711
+ },
712
+ "meta-llama/Llama-Vision-Free": {
713
+ "description": "LLaMA 3.2 zaprojektowana do przetwarzania zadań łączących dane wizualne i tekstowe. Doskonała w zadaniach takich jak opisywanie obrazów i wizualne pytania odpowiedzi, przekracza granice między generowaniem języka a wnioskowaniem wizualnym."
714
+ },
664
715
  "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
665
716
  "description": "Llama 3 70B Instruct Lite jest idealny do środowisk wymagających wysokiej wydajności i niskiego opóźnienia."
666
717
  },
@@ -739,15 +790,18 @@
739
790
  "minicpm-v": {
740
791
  "description": "MiniCPM-V to nowa generacja multimodalnego dużego modelu wydanego przez OpenBMB, który posiada doskonałe zdolności rozpoznawania OCR oraz zrozumienia multimodalnego, wspierając szeroki zakres zastosowań."
741
792
  },
793
+ "ministral-3b-latest": {
794
+ "description": "Ministral 3B to czołowy model brzegowy Mistrala."
795
+ },
796
+ "ministral-8b-latest": {
797
+ "description": "Ministral 8B to opłacalny model brzegowy Mistrala."
798
+ },
742
799
  "mistral": {
743
800
  "description": "Mistral to model 7B wydany przez Mistral AI, odpowiedni do zmiennych potrzeb przetwarzania języka."
744
801
  },
745
802
  "mistral-large": {
746
803
  "description": "Mixtral Large to flagowy model Mistral, łączący zdolności generowania kodu, matematyki i wnioskowania, wspierający kontekst o długości 128k."
747
804
  },
748
- "mistral-large-2407": {
749
- "description": "Mistral Large (2407) to zaawansowany model językowy (LLM) z najnowocześniejszymi zdolnościami rozumowania, wiedzy i kodowania."
750
- },
751
805
  "mistral-large-latest": {
752
806
  "description": "Mistral Large to flagowy model, doskonały w zadaniach wielojęzycznych, złożonym wnioskowaniu i generowaniu kodu, idealny do zaawansowanych zastosowań."
753
807
  },
@@ -769,12 +823,18 @@
769
823
  "mistralai/Mistral-7B-Instruct-v0.3": {
770
824
  "description": "Mistral (7B) Instruct v0.3 oferuje efektywne możliwości obliczeniowe i rozumienia języka naturalnego, idealne do szerokiego zakresu zastosowań."
771
825
  },
826
+ "mistralai/Mistral-7B-v0.1": {
827
+ "description": "Mistral 7B to kompaktowy, ale wysokowydajny model, dobrze radzący sobie z przetwarzaniem wsadowym i prostymi zadaniami, takimi jak klasyfikacja i generowanie tekstu, z dobrą zdolnością wnioskowania."
828
+ },
772
829
  "mistralai/Mixtral-8x22B-Instruct-v0.1": {
773
830
  "description": "Mixtral-8x22B Instruct (141B) to super duży model językowy, wspierający ekstremalne wymagania przetwarzania."
774
831
  },
775
832
  "mistralai/Mixtral-8x7B-Instruct-v0.1": {
776
833
  "description": "Mixtral 8x7B to wstępnie wytrenowany model rzadkiego mieszania ekspertów, przeznaczony do ogólnych zadań tekstowych."
777
834
  },
835
+ "mistralai/Mixtral-8x7B-v0.1": {
836
+ "description": "Mixtral 8x7B to model sparsity expert, który korzysta z wielu parametrów, aby zwiększyć prędkość wnioskowania, idealny do przetwarzania zadań wielojęzycznych i generowania kodu."
837
+ },
778
838
  "mistralai/mistral-7b-instruct": {
779
839
  "description": "Mistral 7B Instruct to model o wysokiej wydajności, który łączy optymalizację prędkości z obsługą długiego kontekstu."
780
840
  },
@@ -802,6 +862,9 @@
802
862
  "nousresearch/hermes-2-pro-llama-3-8b": {
803
863
  "description": "Hermes 2 Pro Llama 3 8B to ulepszona wersja Nous Hermes 2, zawierająca najnowsze wewnętrznie opracowane zbiory danych."
804
864
  },
865
+ "nvidia/Llama-3.1-Nemotron-70B-Instruct": {
866
+ "description": "Llama 3.1 Nemotron 70B to duży model językowy stworzony przez NVIDIA, zaprojektowany w celu zwiększenia użyteczności odpowiedzi generowanych przez LLM dla zapytań użytkowników."
867
+ },
805
868
  "o1-mini": {
806
869
  "description": "o1-mini to szybki i ekonomiczny model wnioskowania zaprojektowany z myślą o programowaniu, matematyce i zastosowaniach naukowych. Model ten ma kontekst 128K i datę graniczną wiedzy z października 2023 roku."
807
870
  },
@@ -988,6 +1051,12 @@
988
1051
  "yi-large-turbo": {
989
1052
  "description": "Model o doskonałym stosunku jakości do ceny, z doskonałymi osiągami. Wysokiej precyzji optymalizacja w oparciu o wydajność, szybkość wnioskowania i koszty."
990
1053
  },
1054
+ "yi-lightning": {
1055
+ "description": "Najnowocześniejszy model o wysokiej wydajności, zapewniający wysoką jakość wyjściową przy znacznie zwiększonej prędkości wnioskowania."
1056
+ },
1057
+ "yi-lightning-lite": {
1058
+ "description": "Lekka wersja, zaleca się użycie yi-lightning."
1059
+ },
991
1060
  "yi-medium": {
992
1061
  "description": "Model średniej wielkości, zrównoważony pod względem możliwości i kosztów. Głęboko zoptymalizowana zdolność do przestrzegania poleceń."
993
1062
  },
@@ -47,8 +47,8 @@
47
47
  "ERNIE-4.0-8K-Preview": {
48
48
  "description": "Modelo de linguagem ultra grande escala desenvolvido pela Baidu, que em comparação com o ERNIE 3.5, apresenta uma atualização completa nas capacidades do modelo, amplamente aplicável em cenários de tarefas complexas em diversas áreas; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações de perguntas e respostas."
49
49
  },
50
- "ERNIE-4.0-Turbo-8K": {
51
- "description": "Modelo de linguagem ultra grande escala desenvolvido pela Baidu, com desempenho excepcional em resultados gerais, amplamente aplicável em cenários de tarefas complexas em diversas áreas; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações de perguntas e respostas. Em comparação com o ERNIE 4.0, apresenta desempenho superior."
50
+ "ERNIE-4.0-Turbo-8K-Latest": {
51
+ "description": "Modelo de linguagem de última geração desenvolvido pela Baidu, com desempenho excepcional em uma ampla gama de cenários de tarefas complexas; suporta integração automática com plugins de busca da Baidu, garantindo a relevância da informação nas respostas. Supera o desempenho do ERNIE 4.0."
52
52
  },
53
53
  "ERNIE-4.0-Turbo-8K-Preview": {
54
54
  "description": "Modelo de linguagem ultra grande escala desenvolvido pela Baidu, com desempenho excepcional em resultados gerais, amplamente aplicável em cenários de tarefas complexas em diversas áreas; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações de perguntas e respostas. Em comparação com o ERNIE 4.0, apresenta desempenho superior."
@@ -80,8 +80,11 @@
80
80
  "NousResearch/Nous-Hermes-2-Yi-34B": {
81
81
  "description": "Nous Hermes-2 Yi (34B) oferece saídas de linguagem otimizadas e diversas possibilidades de aplicação."
82
82
  },
83
- "Phi-3-5-mini-instruct": {
84
- "description": "Atualização do modelo Phi-3-mini."
83
+ "OpenGVLab/InternVL2-26B": {
84
+ "description": "InternVL2 demonstrou desempenho excepcional em diversas tarefas de linguagem visual, incluindo compreensão de documentos e gráficos, compreensão de texto em cena, OCR, e resolução de problemas científicos e matemáticos."
85
+ },
86
+ "OpenGVLab/InternVL2-Llama3-76B": {
87
+ "description": "InternVL2 demonstrou desempenho excepcional em diversas tarefas de linguagem visual, incluindo compreensão de documentos e gráficos, compreensão de texto em cena, OCR, e resolução de problemas científicos e matemáticos."
85
88
  },
86
89
  "Phi-3-medium-128k-instruct": {
87
90
  "description": "Mesmo modelo Phi-3-medium, mas com um tamanho de contexto maior para RAG ou prompting de poucos exemplos."
@@ -101,9 +104,21 @@
101
104
  "Phi-3-small-8k-instruct": {
102
105
  "description": "Um modelo de 7B parâmetros, que apresenta melhor qualidade do que o Phi-3-mini, com foco em dados densos de raciocínio de alta qualidade."
103
106
  },
107
+ "Phi-3.5-mini-instruct": {
108
+ "description": "Versão atualizada do modelo Phi-3-mini."
109
+ },
110
+ "Phi-3.5-vision-instrust": {
111
+ "description": "Versão atualizada do modelo Phi-3-vision."
112
+ },
104
113
  "Pro-128k": {
105
114
  "description": "Spark Pro-128K possui capacidade de processamento de contexto extremamente grande, capaz de lidar com até 128K de informações de contexto, especialmente adequado para análise completa e processamento de associações lógicas de longo prazo em conteúdos longos, podendo fornecer lógica fluida e consistente e suporte a diversas citações em comunicações textuais complexas."
106
115
  },
116
+ "Pro/OpenGVLab/InternVL2-8B": {
117
+ "description": "InternVL2 demonstrou desempenho excepcional em diversas tarefas de linguagem visual, incluindo compreensão de documentos e gráficos, compreensão de texto em cena, OCR, e resolução de problemas científicos e matemáticos."
118
+ },
119
+ "Pro/Qwen/Qwen2-VL-7B-Instruct": {
120
+ "description": "Qwen2-VL é a versão mais recente do modelo Qwen-VL, alcançando desempenho de ponta em testes de compreensão visual."
121
+ },
107
122
  "Qwen/Qwen1.5-110B-Chat": {
108
123
  "description": "Como uma versão de teste do Qwen2, Qwen1.5 utiliza dados em larga escala para alcançar funcionalidades de diálogo mais precisas."
109
124
  },
@@ -113,18 +128,27 @@
113
128
  "Qwen/Qwen2-72B-Instruct": {
114
129
  "description": "Qwen2 é um modelo de linguagem universal avançado, suportando diversos tipos de instruções."
115
130
  },
131
+ "Qwen/Qwen2-VL-72B-Instruct": {
132
+ "description": "Qwen2-VL é a versão mais recente do modelo Qwen-VL, alcançando desempenho de ponta em testes de compreensão visual."
133
+ },
116
134
  "Qwen/Qwen2.5-14B-Instruct": {
117
135
  "description": "Qwen2.5 é uma nova série de modelos de linguagem em larga escala, projetada para otimizar o processamento de tarefas instrucionais."
118
136
  },
119
137
  "Qwen/Qwen2.5-32B-Instruct": {
120
138
  "description": "Qwen2.5 é uma nova série de modelos de linguagem em larga escala, projetada para otimizar o processamento de tarefas instrucionais."
121
139
  },
122
- "Qwen/Qwen2.5-72B-Instruct": {
123
- "description": "Qwen2.5 é uma nova série de modelos de linguagem em larga escala, com maior capacidade de compreensão e geração."
140
+ "Qwen/Qwen2.5-72B-Instruct-128K": {
141
+ "description": "Qwen2.5 é uma nova série de grandes modelos de linguagem, com capacidades de compreensão e geração aprimoradas."
142
+ },
143
+ "Qwen/Qwen2.5-72B-Instruct-Turbo": {
144
+ "description": "Qwen2.5 é uma nova série de grandes modelos de linguagem, projetada para otimizar o processamento de tarefas instrucionais."
124
145
  },
125
146
  "Qwen/Qwen2.5-7B-Instruct": {
126
147
  "description": "Qwen2.5 é uma nova série de modelos de linguagem em larga escala, projetada para otimizar o processamento de tarefas instrucionais."
127
148
  },
149
+ "Qwen/Qwen2.5-7B-Instruct-Turbo": {
150
+ "description": "Qwen2.5 é uma nova série de grandes modelos de linguagem, projetada para otimizar o processamento de tarefas instrucionais."
151
+ },
128
152
  "Qwen/Qwen2.5-Coder-7B-Instruct": {
129
153
  "description": "Qwen2.5-Coder foca na escrita de código."
130
154
  },
@@ -158,9 +182,6 @@
158
182
  "accounts/fireworks/models/firellava-13b": {
159
183
  "description": "fireworks-ai/FireLLaVA-13b é um modelo de linguagem visual que pode receber entradas de imagem e texto simultaneamente, treinado com dados de alta qualidade, adequado para tarefas multimodais."
160
184
  },
161
- "accounts/fireworks/models/gemma2-9b-it": {
162
- "description": "O modelo Gemma 2 9B Instruct, baseado na tecnologia anterior da Google, é adequado para responder perguntas, resumir e realizar inferências em diversas tarefas de geração de texto."
163
- },
164
185
  "accounts/fireworks/models/llama-v3-70b-instruct": {
165
186
  "description": "O modelo Llama 3 70B Instruct é otimizado para diálogos multilíngues e compreensão de linguagem natural, superando a maioria dos modelos concorrentes."
166
187
  },
@@ -182,6 +203,18 @@
182
203
  "accounts/fireworks/models/llama-v3p1-8b-instruct": {
183
204
  "description": "O modelo Llama 3.1 8B Instruct é otimizado para diálogos multilíngues, superando a maioria dos modelos de código aberto e fechado em benchmarks do setor."
184
205
  },
206
+ "accounts/fireworks/models/llama-v3p2-11b-vision-instruct": {
207
+ "description": "Modelo de raciocínio visual de 11B parâmetros da Meta, otimizado para reconhecimento visual, raciocínio visual, descrição de imagens e resposta a perguntas gerais sobre imagens. Este modelo é capaz de entender dados visuais, como gráficos e diagramas, e preencher a lacuna entre visão e linguagem gerando descrições textuais dos detalhes das imagens."
208
+ },
209
+ "accounts/fireworks/models/llama-v3p2-1b-instruct": {
210
+ "description": "O modelo de instrução Llama 3.2 1B é um modelo multilíngue leve lançado pela Meta. Este modelo visa aumentar a eficiência, oferecendo melhorias significativas em latência e custo em comparação com modelos maiores. Exemplos de uso incluem recuperação e resumo."
211
+ },
212
+ "accounts/fireworks/models/llama-v3p2-3b-instruct": {
213
+ "description": "O modelo de instrução Llama 3.2 3B é um modelo multilíngue leve lançado pela Meta. Este modelo visa aumentar a eficiência, oferecendo melhorias significativas em latência e custo em comparação com modelos maiores. Exemplos de uso incluem consultas, reescrita de prompts e auxílio na redação."
214
+ },
215
+ "accounts/fireworks/models/llama-v3p2-90b-vision-instruct": {
216
+ "description": "Modelo de raciocínio visual de 90B parâmetros da Meta, otimizado para reconhecimento visual, raciocínio visual, descrição de imagens e resposta a perguntas gerais sobre imagens. Este modelo é capaz de entender dados visuais, como gráficos e diagramas, e preencher a lacuna entre visão e linguagem gerando descrições textuais dos detalhes das imagens."
217
+ },
185
218
  "accounts/fireworks/models/mixtral-8x22b-instruct": {
186
219
  "description": "O modelo Mixtral MoE 8x22B Instruct, com parâmetros em grande escala e arquitetura de múltiplos especialistas, suporta o processamento eficiente de tarefas complexas."
187
220
  },
@@ -197,6 +230,9 @@
197
230
  "accounts/fireworks/models/phi-3-vision-128k-instruct": {
198
231
  "description": "O modelo Phi 3 Vision Instruct é um modelo multimodal leve, capaz de processar informações visuais e textuais complexas, com forte capacidade de raciocínio."
199
232
  },
233
+ "accounts/fireworks/models/qwen2p5-72b-instruct": {
234
+ "description": "Qwen2.5 é uma série de modelos de linguagem com apenas decodificadores, desenvolvida pela equipe Qwen da Alibaba Cloud. Estes modelos têm tamanhos variados, incluindo 0.5B, 1.5B, 3B, 7B, 14B, 32B e 72B, com variantes base (base) e de instrução (instruct)."
235
+ },
200
236
  "accounts/fireworks/models/starcoder-16b": {
201
237
  "description": "O modelo StarCoder 15.5B suporta tarefas de programação avançadas, com capacidade multilíngue aprimorada, adequado para geração e compreensão de código complexos."
202
238
  },
@@ -212,9 +248,6 @@
212
248
  "ai21-jamba-1.5-mini": {
213
249
  "description": "Um modelo multilíngue com 52B de parâmetros (12B ativos), oferecendo uma janela de contexto longa de 256K, chamada de função, saída estruturada e geração fundamentada."
214
250
  },
215
- "ai21-jamba-instruct": {
216
- "description": "Um modelo LLM baseado em Mamba de qualidade de produção para alcançar desempenho, qualidade e eficiência de custo de classe mundial."
217
- },
218
251
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
219
252
  "description": "O Claude 3.5 Sonnet eleva o padrão da indústria, superando modelos concorrentes e o Claude 3 Opus, apresentando um desempenho excepcional em avaliações amplas, ao mesmo tempo que mantém a velocidade e o custo de nossos modelos de nível médio."
220
253
  },
@@ -592,9 +625,15 @@
592
625
  "llama-3.1-sonar-small-128k-online": {
593
626
  "description": "O modelo Llama 3.1 Sonar Small Online possui 8B de parâmetros, suportando um comprimento de contexto de aproximadamente 127.000 tokens, projetado para chats online, capaz de processar eficientemente diversas interações textuais."
594
627
  },
628
+ "llama-3.2-11b-vision-instruct": {
629
+ "description": "Capacidade excepcional de raciocínio visual em imagens de alta resolução, adequada para aplicações de compreensão visual."
630
+ },
595
631
  "llama-3.2-11b-vision-preview": {
596
632
  "description": "Llama 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
597
633
  },
634
+ "llama-3.2-90b-vision-instruct": {
635
+ "description": "Capacidade avançada de raciocínio visual para aplicações de agentes de compreensão visual."
636
+ },
598
637
  "llama-3.2-90b-vision-preview": {
599
638
  "description": "Llama 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
600
639
  },
@@ -652,8 +691,8 @@
652
691
  "meta-llama/Llama-2-13b-chat-hf": {
653
692
  "description": "LLaMA-2 Chat (13B) oferece excelente capacidade de processamento de linguagem e uma experiência interativa notável."
654
693
  },
655
- "meta-llama/Llama-2-7b-chat-hf": {
656
- "description": "Um dos melhores modelos de diálogo."
694
+ "meta-llama/Llama-2-70b-hf": {
695
+ "description": "LLaMA-2 oferece excelente capacidade de processamento de linguagem e uma experiência interativa excepcional."
657
696
  },
658
697
  "meta-llama/Llama-3-70b-chat-hf": {
659
698
  "description": "LLaMA-3 Chat (70B) é um modelo de chat poderoso, suportando necessidades de diálogo complexas."
@@ -661,6 +700,18 @@
661
700
  "meta-llama/Llama-3-8b-chat-hf": {
662
701
  "description": "LLaMA-3 Chat (8B) oferece suporte multilíngue, abrangendo um rico conhecimento em diversas áreas."
663
702
  },
703
+ "meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo": {
704
+ "description": "LLaMA 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
705
+ },
706
+ "meta-llama/Llama-3.2-3B-Instruct-Turbo": {
707
+ "description": "LLaMA 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
708
+ },
709
+ "meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo": {
710
+ "description": "LLaMA 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
711
+ },
712
+ "meta-llama/Llama-Vision-Free": {
713
+ "description": "LLaMA 3.2 é projetado para lidar com tarefas que combinam dados visuais e textuais. Ele se destaca em tarefas como descrição de imagens e perguntas visuais, superando a lacuna entre geração de linguagem e raciocínio visual."
714
+ },
664
715
  "meta-llama/Meta-Llama-3-70B-Instruct-Lite": {
665
716
  "description": "Llama 3 70B Instruct Lite é ideal para ambientes que exigem alta eficiência e baixa latência."
666
717
  },
@@ -739,15 +790,18 @@
739
790
  "minicpm-v": {
740
791
  "description": "MiniCPM-V é a nova geração de grandes modelos multimodais lançada pela OpenBMB, com excelente capacidade de reconhecimento de OCR e compreensão multimodal, suportando uma ampla gama de cenários de aplicação."
741
792
  },
793
+ "ministral-3b-latest": {
794
+ "description": "Ministral 3B é o modelo de ponta da Mistral para aplicações de edge computing."
795
+ },
796
+ "ministral-8b-latest": {
797
+ "description": "Ministral 8B é o modelo de edge computing altamente custo-efetivo da Mistral."
798
+ },
742
799
  "mistral": {
743
800
  "description": "Mistral é um modelo de 7B lançado pela Mistral AI, adequado para demandas de processamento de linguagem variáveis."
744
801
  },
745
802
  "mistral-large": {
746
803
  "description": "Mixtral Large é o modelo de destaque da Mistral, combinando capacidades de geração de código, matemática e raciocínio, suportando uma janela de contexto de 128k."
747
804
  },
748
- "mistral-large-2407": {
749
- "description": "Mistral Large (2407) é um modelo de linguagem avançado (LLM) com capacidades de raciocínio, conhecimento e codificação de última geração."
750
- },
751
805
  "mistral-large-latest": {
752
806
  "description": "Mistral Large é o modelo de destaque, especializado em tarefas multilíngues, raciocínio complexo e geração de código, sendo a escolha ideal para aplicações de alto nível."
753
807
  },
@@ -769,12 +823,18 @@
769
823
  "mistralai/Mistral-7B-Instruct-v0.3": {
770
824
  "description": "Mistral (7B) Instruct v0.3 oferece capacidade computacional eficiente e compreensão de linguagem natural, adequada para uma ampla gama de aplicações."
771
825
  },
826
+ "mistralai/Mistral-7B-v0.1": {
827
+ "description": "Mistral 7B é um modelo compacto, mas de alto desempenho, especializado em processamento em lote e tarefas simples, como classificação e geração de texto, com boa capacidade de raciocínio."
828
+ },
772
829
  "mistralai/Mixtral-8x22B-Instruct-v0.1": {
773
830
  "description": "Mixtral-8x22B Instruct (141B) é um super modelo de linguagem, suportando demandas de processamento extremamente altas."
774
831
  },
775
832
  "mistralai/Mixtral-8x7B-Instruct-v0.1": {
776
833
  "description": "Mixtral 8x7B é um modelo de especialistas esparsos pré-treinados, utilizado para tarefas de texto de uso geral."
777
834
  },
835
+ "mistralai/Mixtral-8x7B-v0.1": {
836
+ "description": "Mixtral 8x7B é um modelo de especialistas esparsos, que utiliza múltiplos parâmetros para aumentar a velocidade de raciocínio, ideal para tarefas de geração de código e multilíngues."
837
+ },
778
838
  "mistralai/mistral-7b-instruct": {
779
839
  "description": "Mistral 7B Instruct é um modelo de padrão industrial de alto desempenho, com otimização de velocidade e suporte a longos contextos."
780
840
  },
@@ -802,6 +862,9 @@
802
862
  "nousresearch/hermes-2-pro-llama-3-8b": {
803
863
  "description": "Hermes 2 Pro Llama 3 8B é uma versão aprimorada do Nous Hermes 2, contendo os conjuntos de dados mais recentes desenvolvidos internamente."
804
864
  },
865
+ "nvidia/Llama-3.1-Nemotron-70B-Instruct": {
866
+ "description": "Llama 3.1 Nemotron 70B é um grande modelo de linguagem personalizado pela NVIDIA, visando aumentar a utilidade das respostas geradas pelo LLM para as consultas dos usuários."
867
+ },
805
868
  "o1-mini": {
806
869
  "description": "o1-mini é um modelo de raciocínio rápido e econômico, projetado para cenários de programação, matemática e ciências. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023."
807
870
  },
@@ -988,6 +1051,12 @@
988
1051
  "yi-large-turbo": {
989
1052
  "description": "Excelente relação custo-benefício e desempenho excepcional. Ajuste de alta precisão baseado em desempenho, velocidade de raciocínio e custo."
990
1053
  },
1054
+ "yi-lightning": {
1055
+ "description": "Modelo de alto desempenho mais recente, garantindo saída de alta qualidade enquanto a velocidade de raciocínio é significativamente aprimorada."
1056
+ },
1057
+ "yi-lightning-lite": {
1058
+ "description": "Versão leve, recomendada para uso com yi-lightning."
1059
+ },
991
1060
  "yi-medium": {
992
1061
  "description": "Modelo de tamanho médio com ajuste fino, equilibrando capacidades e custo. Otimização profunda da capacidade de seguir instruções."
993
1062
  },