@lobehub/chat 1.31.5 → 1.31.7
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/Dockerfile +3 -1
- package/Dockerfile.database +3 -1
- package/docs/usage/providers/cloudflare.mdx +82 -0
- package/docs/usage/providers/cloudflare.zh-CN.mdx +79 -0
- package/locales/ar/models.json +39 -7
- package/locales/ar/providers.json +4 -0
- package/locales/bg-BG/models.json +38 -6
- package/locales/bg-BG/providers.json +4 -0
- package/locales/de-DE/models.json +39 -7
- package/locales/de-DE/providers.json +4 -0
- package/locales/en-US/models.json +38 -6
- package/locales/en-US/providers.json +4 -0
- package/locales/es-ES/models.json +38 -6
- package/locales/es-ES/providers.json +4 -0
- package/locales/fa-IR/modelProvider.json +12 -0
- package/locales/fa-IR/models.json +39 -7
- package/locales/fa-IR/providers.json +4 -0
- package/locales/fr-FR/models.json +38 -6
- package/locales/fr-FR/providers.json +4 -0
- package/locales/it-IT/models.json +38 -6
- package/locales/it-IT/providers.json +4 -0
- package/locales/ja-JP/models.json +39 -7
- package/locales/ja-JP/providers.json +4 -0
- package/locales/ko-KR/models.json +38 -6
- package/locales/ko-KR/providers.json +4 -0
- package/locales/nl-NL/models.json +38 -6
- package/locales/nl-NL/providers.json +4 -0
- package/locales/pl-PL/models.json +37 -5
- package/locales/pl-PL/providers.json +4 -0
- package/locales/pt-BR/models.json +38 -6
- package/locales/pt-BR/providers.json +4 -0
- package/locales/ru-RU/models.json +38 -6
- package/locales/ru-RU/providers.json +4 -0
- package/locales/tr-TR/models.json +39 -7
- package/locales/tr-TR/providers.json +4 -0
- package/locales/vi-VN/models.json +37 -5
- package/locales/vi-VN/providers.json +4 -0
- package/locales/zh-CN/modelProvider.json +1 -1
- package/locales/zh-CN/models.json +37 -5
- package/locales/zh-CN/providers.json +4 -0
- package/locales/zh-TW/models.json +38 -6
- package/locales/zh-TW/providers.json +4 -0
- package/package.json +1 -1
- package/src/app/(main)/chat/(workspace)/@conversation/default.tsx +2 -2
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Desktop/Header/index.tsx +6 -1
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Desktop/index.tsx +63 -43
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatInput/Mobile/index.tsx +19 -1
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/Content.tsx +35 -0
- package/src/app/(main)/chat/(workspace)/@conversation/features/ChatList/index.tsx +28 -0
- package/src/config/llm.ts +0 -66
- package/src/config/modelProviders/cloudflare.ts +1 -0
- package/src/features/ChatInput/ActionBar/config.ts +1 -20
- package/src/features/ChatInput/ActionBar/index.tsx +25 -28
- package/src/features/ChatInput/types.ts +1 -0
- package/src/features/Conversation/components/ChatItem/index.tsx +1 -1
- package/src/features/Conversation/components/VirtualizedList/index.tsx +13 -28
- package/src/features/Conversation/index.ts +2 -0
- package/src/server/globalConfig/genServerLLMConfig.test.ts +5 -1
- package/src/server/globalConfig/genServerLLMConfig.ts +3 -2
- package/src/features/Conversation/index.tsx +0 -30
@@ -20,6 +20,20 @@
|
|
20
20
|
"4.0Ultra": {
|
21
21
|
"description": "Spark4.0 Ultra to najsilniejsza wersja w serii modeli Spark, która, oprócz ulepszonego łącza wyszukiwania w sieci, zwiększa zdolność rozumienia i podsumowywania treści tekstowych. Jest to kompleksowe rozwiązanie mające na celu zwiększenie wydajności biurowej i dokładne odpowiadanie na potrzeby, stanowiące inteligentny produkt wiodący w branży."
|
22
22
|
},
|
23
|
+
"@cf/meta/llama-3-8b-instruct-awq": {},
|
24
|
+
"@cf/openchat/openchat-3.5-0106": {},
|
25
|
+
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
26
|
+
"@hf/google/gemma-7b-it": {},
|
27
|
+
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
28
|
+
"description": "Generacja po generacji, Meta Llama 3 wykazuje najlepsze osiągi w szerokim zakresie benchmarków branżowych i oferuje nowe możliwości, w tym ulepszone rozumowanie."
|
29
|
+
},
|
30
|
+
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
31
|
+
"@hf/nexusflow/starling-lm-7b-beta": {},
|
32
|
+
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
33
|
+
"@hf/thebloke/deepseek-coder-6.7b-instruct": {},
|
34
|
+
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
35
|
+
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
36
|
+
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
23
37
|
"Baichuan2-Turbo": {
|
24
38
|
"description": "Wykorzystuje technologię wzmacniania wyszukiwania, aby połączyć duży model z wiedzą branżową i wiedzą z całej sieci. Obsługuje przesyłanie różnych dokumentów, takich jak PDF, Word, oraz wprowadzanie adresów URL, zapewniając szybki i kompleksowy dostęp do informacji oraz dokładne i profesjonalne wyniki."
|
25
39
|
},
|
@@ -32,6 +46,12 @@
|
|
32
46
|
"Baichuan4": {
|
33
47
|
"description": "Model o najwyższej wydajności w kraju, przewyższający zagraniczne modele w zadaniach związanych z encyklopedią, długimi tekstami i generowaniem treści w języku chińskim. Posiada również wiodące w branży zdolności multimodalne, osiągając doskonałe wyniki w wielu autorytatywnych testach."
|
34
48
|
},
|
49
|
+
"Baichuan4-Air": {
|
50
|
+
"description": "Model o najlepszych możliwościach w kraju, przewyższający zagraniczne modele w zadaniach związanych z wiedzą encyklopedyczną, długimi tekstami i twórczością w języku chińskim. Posiada również wiodące w branży możliwości multimodalne, osiągając doskonałe wyniki w wielu autorytatywnych testach."
|
51
|
+
},
|
52
|
+
"Baichuan4-Turbo": {
|
53
|
+
"description": "Model o najlepszych możliwościach w kraju, przewyższający zagraniczne modele w zadaniach związanych z wiedzą encyklopedyczną, długimi tekstami i twórczością w języku chińskim. Posiada również wiodące w branży możliwości multimodalne, osiągając doskonałe wyniki w wielu autorytatywnych testach."
|
54
|
+
},
|
35
55
|
"ERNIE-3.5-128K": {
|
36
56
|
"description": "Flagowy model dużego języka opracowany przez Baidu, obejmujący ogromne zbiory danych w języku chińskim i angielskim, charakteryzujący się silnymi zdolnościami ogólnymi, zdolny do spełnienia wymagań w większości scenariuszy związanych z pytaniami i odpowiedziami, generowaniem treści oraz aplikacjami wtyczek; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji w odpowiedziach."
|
37
57
|
},
|
@@ -47,6 +67,9 @@
|
|
47
67
|
"ERNIE-4.0-8K-Preview": {
|
48
68
|
"description": "Flagowy model ultra dużego języka opracowany przez Baidu, w porównaniu do ERNIE 3.5, oferujący kompleksową aktualizację możliwości modelu, szeroko stosowany w złożonych scenariuszach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji."
|
49
69
|
},
|
70
|
+
"ERNIE-4.0-Turbo-128K": {
|
71
|
+
"description": "Flagowy model językowy opracowany przez Baidu, o dużej skali, wykazujący doskonałe wyniki w złożonych zadaniach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji w odpowiedziach. W porównaniu do ERNIE 4.0, wykazuje lepsze osiągi."
|
72
|
+
},
|
50
73
|
"ERNIE-4.0-Turbo-8K-Latest": {
|
51
74
|
"description": "Opracowany przez Baidu flagowy, ultra-duży model językowy, który wykazuje doskonałe ogólne rezultaty i jest szeroko stosowany w złożonych zadaniach w różnych dziedzinach; obsługuje automatyczne łączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji odpowiadających na pytania. W porównaniu do ERNIE 4.0 wykazuje lepszą wydajność."
|
52
75
|
},
|
@@ -146,7 +169,7 @@
|
|
146
169
|
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
147
170
|
"description": "Qwen2.5 to nowa seria dużych modeli językowych, mająca na celu optymalizację przetwarzania zadań instruktażowych."
|
148
171
|
},
|
149
|
-
"Qwen/Qwen2.5-Coder-
|
172
|
+
"Qwen/Qwen2.5-Coder-32B-Instruct": {
|
150
173
|
"description": "Qwen2.5-Coder koncentruje się na pisaniu kodu."
|
151
174
|
},
|
152
175
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
@@ -179,6 +202,9 @@
|
|
179
202
|
"THUDM/glm-4-9b-chat": {
|
180
203
|
"description": "GLM-4 9B to otwarta wersja, oferująca zoptymalizowane doświadczenie dialogowe dla aplikacji konwersacyjnych."
|
181
204
|
},
|
205
|
+
"Tencent/Hunyuan-A52B-Instruct": {
|
206
|
+
"description": "Hunyuan-Large to największy w branży otwarty model Transformer MoE, z 389 miliardami parametrów ogółem i 52 miliardami aktywowanych parametrów."
|
207
|
+
},
|
182
208
|
"abab5.5-chat": {
|
183
209
|
"description": "Skierowany do scenariuszy produkcyjnych, wspierający przetwarzanie złożonych zadań i efektywne generowanie tekstu, odpowiedni do zastosowań w profesjonalnych dziedzinach."
|
184
210
|
},
|
@@ -587,6 +613,9 @@
|
|
587
613
|
"gpt-4o-mini": {
|
588
614
|
"description": "GPT-4o mini to najnowszy model OpenAI, wprowadzony po GPT-4 Omni, obsługujący wejścia tekstowe i wizualne oraz generujący tekst. Jako ich najnowocześniejszy model w małej skali, jest znacznie tańszy niż inne niedawno wprowadzone modele, a jego cena jest o ponad 60% niższa niż GPT-3.5 Turbo. Utrzymuje najnowocześniejszą inteligencję, jednocześnie oferując znaczną wartość za pieniądze. GPT-4o mini uzyskał wynik 82% w teście MMLU i obecnie zajmuje wyższą pozycję w preferencjach czatu niż GPT-4."
|
589
615
|
},
|
616
|
+
"grok-beta": {
|
617
|
+
"description": "Oferuje wydajność porównywalną z Grok 2, ale z wyższą efektywnością, prędkością i funkcjonalnością."
|
618
|
+
},
|
590
619
|
"gryphe/mythomax-l2-13b": {
|
591
620
|
"description": "MythoMax l2 13B to model językowy łączący kreatywność i inteligencję, zintegrowany z wieloma wiodącymi modelami."
|
592
621
|
},
|
@@ -949,6 +978,9 @@
|
|
949
978
|
"pro-128k": {
|
950
979
|
"description": "Spark Pro 128K jest wyposażony w wyjątkową zdolność przetwarzania kontekstu, mogąc obsługiwać do 128K informacji kontekstowych, co czyni go idealnym do analizy całościowej i długoterminowego przetwarzania logicznych powiązań w długich treściach, zapewniając płynność i spójność logiczną oraz różnorodne wsparcie cytatów w złożonej komunikacji tekstowej."
|
951
980
|
},
|
981
|
+
"qwen-coder-plus-latest": {
|
982
|
+
"description": "Model kodowania Qwen, oparty na ogólnym zrozumieniu."
|
983
|
+
},
|
952
984
|
"qwen-coder-turbo-latest": {
|
953
985
|
"description": "Model kodowania Qwen."
|
954
986
|
},
|
@@ -1000,15 +1032,12 @@
|
|
1000
1032
|
"qwen2.5-7b-instruct": {
|
1001
1033
|
"description": "Model Qwen 2.5 o skali 7B, udostępniony na zasadzie open source."
|
1002
1034
|
},
|
1003
|
-
"qwen2.5-coder-
|
1035
|
+
"qwen2.5-coder-32b-instruct": {
|
1004
1036
|
"description": "Otwarta wersja modelu kodowania Qwen."
|
1005
1037
|
},
|
1006
1038
|
"qwen2.5-coder-7b-instruct": {
|
1007
1039
|
"description": "Otwarta wersja modelu kodowania Qwen."
|
1008
1040
|
},
|
1009
|
-
"qwen2.5-math-1.5b-instruct": {
|
1010
|
-
"description": "Model Qwen-Math, który ma silne zdolności rozwiązywania problemów matematycznych."
|
1011
|
-
},
|
1012
1041
|
"qwen2.5-math-72b-instruct": {
|
1013
1042
|
"description": "Model Qwen-Math, który ma silne zdolności rozwiązywania problemów matematycznych."
|
1014
1043
|
},
|
@@ -1069,6 +1098,9 @@
|
|
1069
1098
|
"upstage/SOLAR-10.7B-Instruct-v1.0": {
|
1070
1099
|
"description": "Upstage SOLAR Instruct v1 (11B) jest przeznaczony do precyzyjnych zadań poleceniowych, oferując doskonałe możliwości przetwarzania języka."
|
1071
1100
|
},
|
1101
|
+
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
1102
|
+
"description": "Claude 3.5 Sonnet podnosi standardy branżowe, przewyższając modele konkurencji oraz Claude 3 Opus, osiągając doskonałe wyniki w szerokim zakresie ocen, przy zachowaniu prędkości i kosztów naszych modeli średniego poziomu."
|
1103
|
+
},
|
1072
1104
|
"wizardlm2": {
|
1073
1105
|
"description": "WizardLM 2 to model językowy dostarczany przez Microsoft AI, który wyróżnia się w złożonych dialogach, wielojęzyczności, wnioskowaniu i inteligentnych asystentach."
|
1074
1106
|
},
|
@@ -15,6 +15,7 @@
|
|
15
15
|
"bedrock": {
|
16
16
|
"description": "Bedrock to usługa oferowana przez Amazon AWS, skoncentrowana na dostarczaniu zaawansowanych modeli językowych i wizualnych dla przedsiębiorstw. Jej rodzina modeli obejmuje serię Claude od Anthropic, serię Llama 3.1 od Meta i inne, oferując różnorodne opcje od lekkich do wysokowydajnych, wspierając generowanie tekstu, dialogi, przetwarzanie obrazów i inne zadania, odpowiednie dla różnych skal i potrzeb aplikacji biznesowych."
|
17
17
|
},
|
18
|
+
"cloudflare": {},
|
18
19
|
"deepseek": {
|
19
20
|
"description": "DeepSeek to firma skoncentrowana na badaniach i zastosowaniach technologii sztucznej inteligencji, której najnowszy model DeepSeek-V2.5 łączy zdolności do prowadzenia ogólnych rozmów i przetwarzania kodu, osiągając znaczące postępy w zakresie dostosowywania do preferencji ludzkich, zadań pisarskich i przestrzegania instrukcji."
|
20
21
|
},
|
@@ -85,6 +86,9 @@
|
|
85
86
|
"wenxin": {
|
86
87
|
"description": "Platforma do rozwoju i usług aplikacji AI oraz dużych modeli w skali przedsiębiorstwa, oferująca najbardziej kompleksowy i łatwy w użyciu zestaw narzędzi do rozwoju modeli sztucznej inteligencji generatywnej oraz całego procesu tworzenia aplikacji."
|
87
88
|
},
|
89
|
+
"xai": {
|
90
|
+
"description": "xAI to firma, która dąży do budowy sztucznej inteligencji w celu przyspieszenia ludzkich odkryć naukowych. Naszą misją jest wspieranie wspólnego zrozumienia wszechświata."
|
91
|
+
},
|
88
92
|
"zeroone": {
|
89
93
|
"description": "01.AI koncentruje się na technologiach sztucznej inteligencji w erze AI 2.0, intensywnie promując innowacje i zastosowania „człowiek + sztuczna inteligencja”, wykorzystując potężne modele i zaawansowane technologie AI w celu zwiększenia wydajności ludzkiej produkcji i realizacji technologicznego wsparcia."
|
90
94
|
},
|
@@ -20,6 +20,20 @@
|
|
20
20
|
"4.0Ultra": {
|
21
21
|
"description": "Spark4.0 Ultra é a versão mais poderosa da série de grandes modelos Xinghuo, que, ao atualizar a conexão de busca online, melhora a capacidade de compreensão e resumo de conteúdo textual. É uma solução abrangente para aumentar a produtividade no trabalho e responder com precisão às demandas, sendo um produto inteligente líder na indústria."
|
22
22
|
},
|
23
|
+
"@cf/meta/llama-3-8b-instruct-awq": {},
|
24
|
+
"@cf/openchat/openchat-3.5-0106": {},
|
25
|
+
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
26
|
+
"@hf/google/gemma-7b-it": {},
|
27
|
+
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
28
|
+
"description": "Geração após geração, o Meta Llama 3 demonstra desempenho de ponta em uma ampla gama de benchmarks da indústria e oferece novas capacidades, incluindo raciocínio aprimorado."
|
29
|
+
},
|
30
|
+
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
31
|
+
"@hf/nexusflow/starling-lm-7b-beta": {},
|
32
|
+
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
33
|
+
"@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
|
34
|
+
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
35
|
+
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
36
|
+
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
23
37
|
"Baichuan2-Turbo": {
|
24
38
|
"description": "Utiliza tecnologia de busca aprimorada para conectar completamente o grande modelo com conhecimento de domínio e conhecimento da web. Suporta upload de vários documentos, como PDF e Word, e entrada de URLs, garantindo acesso a informações de forma rápida e abrangente, com resultados precisos e profissionais."
|
25
39
|
},
|
@@ -32,6 +46,12 @@
|
|
32
46
|
"Baichuan4": {
|
33
47
|
"description": "O modelo é o melhor do país, superando modelos estrangeiros em tarefas em chinês, como enciclopédias, textos longos e criação de conteúdo. Também possui capacidades multimodais líderes na indústria, com desempenho excepcional em várias avaliações de referência."
|
34
48
|
},
|
49
|
+
"Baichuan4-Air": {
|
50
|
+
"description": "Modelo com a melhor capacidade do país, superando modelos estrangeiros em tarefas em chinês como enciclopédia, textos longos e criação de conteúdo. Também possui capacidades multimodais líderes da indústria, com excelente desempenho em várias avaliações de referência."
|
51
|
+
},
|
52
|
+
"Baichuan4-Turbo": {
|
53
|
+
"description": "Modelo com a melhor capacidade do país, superando modelos estrangeiros em tarefas em chinês como enciclopédia, textos longos e criação de conteúdo. Também possui capacidades multimodais líderes da indústria, com excelente desempenho em várias avaliações de referência."
|
54
|
+
},
|
35
55
|
"ERNIE-3.5-128K": {
|
36
56
|
"description": "Modelo de linguagem de grande escala desenvolvido pela Baidu, cobrindo uma vasta quantidade de dados em chinês e inglês, com poderosas capacidades gerais, capaz de atender à maioria das demandas de perguntas e respostas em diálogos, geração de conteúdo e aplicações de plugins; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações nas respostas."
|
37
57
|
},
|
@@ -47,6 +67,9 @@
|
|
47
67
|
"ERNIE-4.0-8K-Preview": {
|
48
68
|
"description": "Modelo de linguagem ultra grande escala desenvolvido pela Baidu, que em comparação com o ERNIE 3.5, apresenta uma atualização completa nas capacidades do modelo, amplamente aplicável em cenários de tarefas complexas em diversas áreas; suporta integração automática com o plugin de busca da Baidu, garantindo a atualidade das informações de perguntas e respostas."
|
49
69
|
},
|
70
|
+
"ERNIE-4.0-Turbo-128K": {
|
71
|
+
"description": "Modelo de linguagem de grande escala desenvolvido pela Baidu, com desempenho excepcional em uma ampla gama de cenários de tarefas complexas; suporta integração automática com plugins de busca da Baidu, garantindo a atualidade das informações de perguntas e respostas. Em comparação com o ERNIE 4.0, apresenta desempenho superior."
|
72
|
+
},
|
50
73
|
"ERNIE-4.0-Turbo-8K-Latest": {
|
51
74
|
"description": "Modelo de linguagem de última geração desenvolvido pela Baidu, com desempenho excepcional em uma ampla gama de cenários de tarefas complexas; suporta integração automática com plugins de busca da Baidu, garantindo a relevância da informação nas respostas. Supera o desempenho do ERNIE 4.0."
|
52
75
|
},
|
@@ -146,7 +169,7 @@
|
|
146
169
|
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
147
170
|
"description": "Qwen2.5 é uma nova série de grandes modelos de linguagem, projetada para otimizar o processamento de tarefas instrucionais."
|
148
171
|
},
|
149
|
-
"Qwen/Qwen2.5-Coder-
|
172
|
+
"Qwen/Qwen2.5-Coder-32B-Instruct": {
|
150
173
|
"description": "Qwen2.5-Coder foca na escrita de código."
|
151
174
|
},
|
152
175
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
@@ -179,6 +202,9 @@
|
|
179
202
|
"THUDM/glm-4-9b-chat": {
|
180
203
|
"description": "GLM-4 9B é uma versão de código aberto, oferecendo uma experiência de diálogo otimizada para aplicações de conversa."
|
181
204
|
},
|
205
|
+
"Tencent/Hunyuan-A52B-Instruct": {
|
206
|
+
"description": "Hunyuan-Large é o maior modelo MoE de arquitetura Transformer open source da indústria, com um total de 389 bilhões de parâmetros e 52 bilhões de parâmetros ativados."
|
207
|
+
},
|
182
208
|
"abab5.5-chat": {
|
183
209
|
"description": "Voltado para cenários de produtividade, suportando o processamento de tarefas complexas e geração de texto eficiente, adequado para aplicações em áreas profissionais."
|
184
210
|
},
|
@@ -587,6 +613,9 @@
|
|
587
613
|
"gpt-4o-mini": {
|
588
614
|
"description": "O GPT-4o mini é o mais recente modelo lançado pela OpenAI após o GPT-4 Omni, suportando entrada de texto e imagem e gerando texto como saída. Como seu modelo compacto mais avançado, ele é muito mais acessível do que outros modelos de ponta recentes, custando mais de 60% menos que o GPT-3.5 Turbo. Ele mantém uma inteligência de ponta, ao mesmo tempo que oferece um custo-benefício significativo. O GPT-4o mini obteve uma pontuação de 82% no teste MMLU e atualmente está classificado acima do GPT-4 em preferências de chat."
|
589
615
|
},
|
616
|
+
"grok-beta": {
|
617
|
+
"description": "Apresenta desempenho equivalente ao Grok 2, mas com maior eficiência, velocidade e funcionalidades."
|
618
|
+
},
|
590
619
|
"gryphe/mythomax-l2-13b": {
|
591
620
|
"description": "MythoMax l2 13B é um modelo de linguagem que combina criatividade e inteligência, integrando vários modelos de ponta."
|
592
621
|
},
|
@@ -949,6 +978,9 @@
|
|
949
978
|
"pro-128k": {
|
950
979
|
"description": "Spark Pro 128K possui uma capacidade de processamento de contexto extremamente grande, capaz de lidar com até 128K de informações contextuais, especialmente adequado para análise completa e processamento de associações lógicas de longo prazo em conteúdos longos, podendo oferecer lógica fluida e consistente e suporte a diversas citações em comunicações textuais complexas."
|
951
980
|
},
|
981
|
+
"qwen-coder-plus-latest": {
|
982
|
+
"description": "Modelo de código Qwen."
|
983
|
+
},
|
952
984
|
"qwen-coder-turbo-latest": {
|
953
985
|
"description": "Modelo de código Qwen."
|
954
986
|
},
|
@@ -1000,15 +1032,12 @@
|
|
1000
1032
|
"qwen2.5-7b-instruct": {
|
1001
1033
|
"description": "Modelo de 7B parâmetros do Qwen 2.5, disponível como código aberto."
|
1002
1034
|
},
|
1003
|
-
"qwen2.5-coder-
|
1004
|
-
"description": "Versão
|
1035
|
+
"qwen2.5-coder-32b-instruct": {
|
1036
|
+
"description": "Versão open source do modelo de código Qwen."
|
1005
1037
|
},
|
1006
1038
|
"qwen2.5-coder-7b-instruct": {
|
1007
1039
|
"description": "Versão de código aberto do modelo de código Qwen."
|
1008
1040
|
},
|
1009
|
-
"qwen2.5-math-1.5b-instruct": {
|
1010
|
-
"description": "O modelo Qwen-Math possui uma forte capacidade de resolução de problemas matemáticos."
|
1011
|
-
},
|
1012
1041
|
"qwen2.5-math-72b-instruct": {
|
1013
1042
|
"description": "O modelo Qwen-Math possui uma forte capacidade de resolução de problemas matemáticos."
|
1014
1043
|
},
|
@@ -1069,6 +1098,9 @@
|
|
1069
1098
|
"upstage/SOLAR-10.7B-Instruct-v1.0": {
|
1070
1099
|
"description": "Upstage SOLAR Instruct v1 (11B) é adequado para tarefas de instrução refinadas, oferecendo excelente capacidade de processamento de linguagem."
|
1071
1100
|
},
|
1101
|
+
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
1102
|
+
"description": "Claude 3.5 Sonnet eleva o padrão da indústria, superando modelos concorrentes e Claude 3 Opus, apresentando um desempenho excepcional em uma ampla gama de avaliações, enquanto mantém a velocidade e o custo de nossos modelos de nível médio."
|
1103
|
+
},
|
1072
1104
|
"wizardlm2": {
|
1073
1105
|
"description": "WizardLM 2 é um modelo de linguagem fornecido pela Microsoft AI, destacando-se em diálogos complexos, multilíngue, raciocínio e assistentes inteligentes."
|
1074
1106
|
},
|
@@ -15,6 +15,7 @@
|
|
15
15
|
"bedrock": {
|
16
16
|
"description": "Bedrock é um serviço oferecido pela Amazon AWS, focado em fornecer modelos de linguagem e visão de IA avançados para empresas. Sua família de modelos inclui a série Claude da Anthropic, a série Llama 3.1 da Meta, entre outros, abrangendo uma variedade de opções, desde modelos leves até de alto desempenho, suportando geração de texto, diálogos, processamento de imagens e outras tarefas, adequando-se a aplicações empresariais de diferentes escalas e necessidades."
|
17
17
|
},
|
18
|
+
"cloudflare": {},
|
18
19
|
"deepseek": {
|
19
20
|
"description": "A DeepSeek é uma empresa focada em pesquisa e aplicação de tecnologia de inteligência artificial, cujo modelo mais recente, DeepSeek-V2.5, combina capacidades de diálogo geral e processamento de código, alcançando melhorias significativas em alinhamento com preferências humanas, tarefas de escrita e seguimento de instruções."
|
20
21
|
},
|
@@ -85,6 +86,9 @@
|
|
85
86
|
"wenxin": {
|
86
87
|
"description": "Plataforma de desenvolvimento e serviços de aplicativos nativos de IA e modelos de grande escala, voltada para empresas, que oferece a mais completa e fácil ferramenta de cadeia de ferramentas para o desenvolvimento de modelos de inteligência artificial generativa e aplicativos."
|
87
88
|
},
|
89
|
+
"xai": {
|
90
|
+
"description": "xAI é uma empresa dedicada a construir inteligência artificial para acelerar as descobertas científicas da humanidade. Nossa missão é promover a nossa compreensão coletiva do universo."
|
91
|
+
},
|
88
92
|
"zeroone": {
|
89
93
|
"description": "01.AI se concentra na tecnologia de inteligência artificial da era 2.0, promovendo fortemente a inovação e aplicação de 'humano + inteligência artificial', utilizando modelos poderosos e tecnologia de IA avançada para aumentar a produtividade humana e realizar a capacitação tecnológica."
|
90
94
|
},
|
@@ -20,6 +20,20 @@
|
|
20
20
|
"4.0Ultra": {
|
21
21
|
"description": "Spark4.0 Ultra — это самая мощная версия в серии больших моделей Xinghuo, которая, обновив сетевые поисковые связи, улучшает понимание и обобщение текстового контента. Это всестороннее решение для повышения производительности в офисе и точного реагирования на запросы, являющееся ведущим интеллектуальным продуктом в отрасли."
|
22
22
|
},
|
23
|
+
"@cf/meta/llama-3-8b-instruct-awq": {},
|
24
|
+
"@cf/openchat/openchat-3.5-0106": {},
|
25
|
+
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
26
|
+
"@hf/google/gemma-7b-it": {},
|
27
|
+
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
28
|
+
"description": "Поколение за поколением, Meta Llama 3 демонстрирует передовые результаты по широкому спектру отраслевых стандартов и предлагает новые возможности, включая улучшенное логическое мышление."
|
29
|
+
},
|
30
|
+
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
31
|
+
"@hf/nexusflow/starling-lm-7b-beta": {},
|
32
|
+
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
33
|
+
"@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
|
34
|
+
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
35
|
+
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
36
|
+
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
23
37
|
"Baichuan2-Turbo": {
|
24
38
|
"description": "Использует технологии улучшенного поиска для полной связи между большой моделью и отраслевыми знаниями, а также знаниями из сети. Поддерживает загрузку различных документов, таких как PDF и Word, а также ввод URL, обеспечивая своевременное и полное получение информации с точными и профессиональными результатами."
|
25
39
|
},
|
@@ -32,6 +46,12 @@
|
|
32
46
|
"Baichuan4": {
|
33
47
|
"description": "Модель обладает лучшими возможностями в стране, превосходя зарубежные модели в задачах на знание, длинные тексты и генерацию контента. Также обладает передовыми мультимодальными возможностями и показывает отличные результаты в нескольких авторитетных тестах."
|
34
48
|
},
|
49
|
+
"Baichuan4-Air": {
|
50
|
+
"description": "Модель обладает лучшими в стране возможностями, превосходя зарубежные модели в задачах на китайском языке, таких как энциклопедические знания, длинные тексты и генерация контента. Также обладает передовыми мультимодальными возможностями и демонстрирует отличные результаты в нескольких авторитетных оценочных тестах."
|
51
|
+
},
|
52
|
+
"Baichuan4-Turbo": {
|
53
|
+
"description": "Модель обладает лучшими в стране возможностями, превосходя зарубежные модели в задачах на китайском языке, таких как энциклопедические знания, длинные тексты и генерация контента. Также обладает передовыми мультимодальными возможностями и демонстрирует отличные результаты в нескольких авторитетных оценочных тестах."
|
54
|
+
},
|
35
55
|
"ERNIE-3.5-128K": {
|
36
56
|
"description": "Флагманская крупномасштабная языковая модель, разработанная Baidu, охватывающая огромные объемы китайских и английских текстов, обладающая мощными универсальными возможностями, способная удовлетворить большинство требований к диалоговым ответам, генерации контента и сценариям использования плагинов; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах."
|
37
57
|
},
|
@@ -47,6 +67,9 @@
|
|
47
67
|
"ERNIE-4.0-8K-Preview": {
|
48
68
|
"description": "Флагманская сверхкрупномасштабная языковая модель, разработанная Baidu, которая по сравнению с ERNIE 3.5 обеспечивает полное обновление возможностей модели и широко применяется в сложных задачах в различных областях; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах."
|
49
69
|
},
|
70
|
+
"ERNIE-4.0-Turbo-128K": {
|
71
|
+
"description": "Флагманская модель Baidu, разработанная самостоятельно, с огромным масштабом, демонстрирует отличные результаты и широко применяется в сложных задачах в различных областях; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая актуальность информации в ответах. По сравнению с ERNIE 4.0, демонстрирует лучшие результаты."
|
72
|
+
},
|
50
73
|
"ERNIE-4.0-Turbo-8K-Latest": {
|
51
74
|
"description": "Флагманская 超大型 языковая модель, разработанная Baidu, демонстрирует отличные результаты и хорошо подходит для сложных задач в различных областях; поддерживает автоматическую интеграцию с плагином поиска Baidu, обеспечивая своевременность ответов. По сравнению с ERNIE 4.0 имеет лучшие показатели производительности."
|
52
75
|
},
|
@@ -146,7 +169,7 @@
|
|
146
169
|
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
147
170
|
"description": "Qwen2.5 - это новая серия крупных языковых моделей, нацеленная на оптимизацию обработки задач с инструкциями."
|
148
171
|
},
|
149
|
-
"Qwen/Qwen2.5-Coder-
|
172
|
+
"Qwen/Qwen2.5-Coder-32B-Instruct": {
|
150
173
|
"description": "Qwen2.5-Coder сосредоточен на написании кода."
|
151
174
|
},
|
152
175
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
@@ -179,6 +202,9 @@
|
|
179
202
|
"THUDM/glm-4-9b-chat": {
|
180
203
|
"description": "GLM-4 9B — это открытая версия, обеспечивающая оптимизированный диалоговый опыт для приложений."
|
181
204
|
},
|
205
|
+
"Tencent/Hunyuan-A52B-Instruct": {
|
206
|
+
"description": "Hunyuan-Large — это крупнейшая в отрасли открытая модель Transformer архитектуры MoE с общим количеством параметров 389 миллиардов и 52 миллиарда активных параметров."
|
207
|
+
},
|
182
208
|
"abab5.5-chat": {
|
183
209
|
"description": "Ориентирован на производственные сценарии, поддерживает обработку сложных задач и эффективную генерацию текста, подходит для профессиональных приложений."
|
184
210
|
},
|
@@ -587,6 +613,9 @@
|
|
587
613
|
"gpt-4o-mini": {
|
588
614
|
"description": "GPT-4o mini — это последняя модель, выпущенная OpenAI после GPT-4 Omni, поддерживающая ввод изображений и текстов с выводом текста. Как их самый продвинутый компактный модель, она значительно дешевле других недавних передовых моделей и более чем на 60% дешевле GPT-3.5 Turbo. Она сохраняет передовой уровень интеллекта при значительном соотношении цена-качество. GPT-4o mini набрала 82% на тесте MMLU и в настоящее время занимает более высокое место в предпочтениях чата по сравнению с GPT-4."
|
589
615
|
},
|
616
|
+
"grok-beta": {
|
617
|
+
"description": "Обладает производительностью, сопоставимой с Grok 2, но с большей эффективностью, скоростью и функциональностью."
|
618
|
+
},
|
590
619
|
"gryphe/mythomax-l2-13b": {
|
591
620
|
"description": "MythoMax l2 13B — это языковая модель, объединяющая креативность и интеллект, основанная на нескольких ведущих моделях."
|
592
621
|
},
|
@@ -949,6 +978,9 @@
|
|
949
978
|
"pro-128k": {
|
950
979
|
"description": "Spark Pro 128K оснащен огромной способностью обработки контекста, способной обрабатывать до 128K контекстной информации, что делает его особенно подходящим для анализа длинных текстов и обработки долгосрочных логических связей, обеспечивая плавную и последовательную логику и разнообразную поддержку ссылок в сложных текстовых коммуникациях."
|
951
980
|
},
|
981
|
+
"qwen-coder-plus-latest": {
|
982
|
+
"description": "Модель кода Tongyi Qianwen."
|
983
|
+
},
|
952
984
|
"qwen-coder-turbo-latest": {
|
953
985
|
"description": "Модель кода Tongyi Qwen."
|
954
986
|
},
|
@@ -1000,15 +1032,12 @@
|
|
1000
1032
|
"qwen2.5-7b-instruct": {
|
1001
1033
|
"description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 7B."
|
1002
1034
|
},
|
1003
|
-
"qwen2.5-coder-
|
1004
|
-
"description": "Открытая версия модели кода Tongyi
|
1035
|
+
"qwen2.5-coder-32b-instruct": {
|
1036
|
+
"description": "Открытая версия модели кода Tongyi Qianwen."
|
1005
1037
|
},
|
1006
1038
|
"qwen2.5-coder-7b-instruct": {
|
1007
1039
|
"description": "Открытая версия модели кода Tongyi Qwen."
|
1008
1040
|
},
|
1009
|
-
"qwen2.5-math-1.5b-instruct": {
|
1010
|
-
"description": "Модель Qwen-Math с мощными способностями решения математических задач."
|
1011
|
-
},
|
1012
1041
|
"qwen2.5-math-72b-instruct": {
|
1013
1042
|
"description": "Модель Qwen-Math с мощными способностями решения математических задач."
|
1014
1043
|
},
|
@@ -1069,6 +1098,9 @@
|
|
1069
1098
|
"upstage/SOLAR-10.7B-Instruct-v1.0": {
|
1070
1099
|
"description": "Upstage SOLAR Instruct v1 (11B) подходит для детализированных командных задач, обеспечивая отличные возможности обработки языка."
|
1071
1100
|
},
|
1101
|
+
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
1102
|
+
"description": "Claude 3.5 Sonnet устанавливает новые отраслевые стандарты, превосходя модели конкурентов и Claude 3 Opus, демонстрируя отличные результаты в широком спектре оценок, при этом обладая скоростью и стоимостью наших моделей среднего уровня."
|
1103
|
+
},
|
1072
1104
|
"wizardlm2": {
|
1073
1105
|
"description": "WizardLM 2 — это языковая модель, предоставляемая Microsoft AI, которая особенно хорошо проявляет себя в сложных диалогах, многоязычных задачах, выводе и интеллектуальных помощниках."
|
1074
1106
|
},
|
@@ -15,6 +15,7 @@
|
|
15
15
|
"bedrock": {
|
16
16
|
"description": "Bedrock — это сервис, предоставляемый Amazon AWS, сосредоточенный на предоставлении предприятиям передовых AI-языковых и визуальных моделей. Его семейство моделей включает серию Claude от Anthropic, серию Llama 3.1 от Meta и другие, охватывающие широкий спектр от легковесных до высокопроизводительных решений, поддерживающих текстовую генерацию, диалоги, обработку изображений и другие задачи, подходящие для предприятий различного масштаба и потребностей."
|
17
17
|
},
|
18
|
+
"cloudflare": {},
|
18
19
|
"deepseek": {
|
19
20
|
"description": "DeepSeek — это компания, сосредоточенная на исследованиях и применении технологий искусственного интеллекта, ее последняя модель DeepSeek-V2.5 объединяет возможности общего диалога и обработки кода, достигнув значительных улучшений в области согласования с человеческими предпочтениями, написания текстов и выполнения инструкций."
|
20
21
|
},
|
@@ -85,6 +86,9 @@
|
|
85
86
|
"wenxin": {
|
86
87
|
"description": "Корпоративная платформа для разработки и обслуживания крупных моделей и нативных приложений ИИ, предлагающая самый полный и удобный инструментарий для разработки генеративных моделей искусственного интеллекта и полного процесса разработки приложений."
|
87
88
|
},
|
89
|
+
"xai": {
|
90
|
+
"description": "xAI — это компания, занимающаяся разработкой искусственного интеллекта для ускорения научных открытий человечества. Наша миссия — способствовать общему пониманию Вселенной."
|
91
|
+
},
|
88
92
|
"zeroone": {
|
89
93
|
"description": "01.AI сосредоточен на технологиях искусственного интеллекта 2.0, активно продвигая инновации и применение \"человек + искусственный интеллект\", используя мощные модели и передовые AI-технологии для повышения производительности человека и реализации технологического потенциала."
|
90
94
|
},
|
@@ -20,6 +20,20 @@
|
|
20
20
|
"4.0Ultra": {
|
21
21
|
"description": "Spark4.0 Ultra, Xinghuo büyük model serisinin en güçlü versiyonudur, çevrimiçi arama bağlantısını yükseltirken, metin içeriğini anlama ve özetleme yeteneğini artırır. Ofis verimliliğini artırmak ve taleplere doğru yanıt vermek için kapsamlı bir çözüm sunar, sektördeki akıllı ürünlerin öncüsüdür."
|
22
22
|
},
|
23
|
+
"@cf/meta/llama-3-8b-instruct-awq": {},
|
24
|
+
"@cf/openchat/openchat-3.5-0106": {},
|
25
|
+
"@cf/qwen/qwen1.5-14b-chat-awq": {},
|
26
|
+
"@hf/google/gemma-7b-it": {},
|
27
|
+
"@hf/meta-llama/meta-llama-3-8b-instruct": {
|
28
|
+
"description": "Nesil nesil, Meta Llama 3, geniş bir endüstri ölçütleri yelpazesinde en son performansı sergilemekte ve geliştirilmiş akıl yürütme gibi yeni yetenekler sunmaktadır."
|
29
|
+
},
|
30
|
+
"@hf/mistral/mistral-7b-instruct-v0.2": {},
|
31
|
+
"@hf/nexusflow/starling-lm-7b-beta": {},
|
32
|
+
"@hf/nousresearch/hermes-2-pro-mistral-7b": {},
|
33
|
+
"@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
|
34
|
+
"@hf/thebloke/neural-chat-7b-v3-1-awq": {},
|
35
|
+
"@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
|
36
|
+
"@hf/thebloke/zephyr-7b-beta-awq": {},
|
23
37
|
"Baichuan2-Turbo": {
|
24
38
|
"description": "Arama artırma teknolojisi kullanarak büyük model ile alan bilgisi ve tüm ağ bilgisi arasında kapsamlı bir bağlantı sağlar. PDF, Word gibi çeşitli belge yüklemelerini ve URL girişini destekler, bilgi edinimi zamanında ve kapsamlıdır, çıktı sonuçları doğru ve profesyoneldir."
|
25
39
|
},
|
@@ -32,6 +46,12 @@
|
|
32
46
|
"Baichuan4": {
|
33
47
|
"description": "Model yetenekleri ülke içinde birinci sırada, bilgi ansiklopedisi, uzun metinler, yaratıcı üretim gibi Çince görevlerde yurtdışındaki önde gelen modelleri geride bırakmaktadır. Ayrıca, sektör lideri çok modlu yeteneklere sahiptir ve birçok yetkili değerlendirme kriterinde mükemmel performans göstermektedir."
|
34
48
|
},
|
49
|
+
"Baichuan4-Air": {
|
50
|
+
"description": "Model yetenekleri ülke içinde birinci, bilgi ansiklopedisi, uzun metinler, yaratıcı üretim gibi Çince görevlerde uluslararası ana akım modelleri aşmaktadır. Ayrıca, sektörde lider çok modlu yeteneklere sahip olup, birçok yetkili değerlendirme ölçütünde mükemmel performans sergilemektedir."
|
51
|
+
},
|
52
|
+
"Baichuan4-Turbo": {
|
53
|
+
"description": "Model yetenekleri ülke içinde birinci, bilgi ansiklopedisi, uzun metinler, yaratıcı üretim gibi Çince görevlerde uluslararası ana akım modelleri aşmaktadır. Ayrıca, sektörde lider çok modlu yeteneklere sahip olup, birçok yetkili değerlendirme ölçütünde mükemmel performans sergilemektedir."
|
54
|
+
},
|
35
55
|
"ERNIE-3.5-128K": {
|
36
56
|
"description": "Baidu'nun kendi geliştirdiği, büyük ölçekli bir dil modeli olan ERNIE-3.5, geniş bir Çin ve İngilizce veri kümesini kapsar. Güçlü genel yeteneklere sahip olup, çoğu diyalog, soru-cevap, yaratıcı içerik üretimi ve eklenti uygulama senaryolarını karşılayabilir; ayrıca, Baidu arama eklentisi ile otomatik entegrasyonu destekleyerek, soru-cevap bilgilerinin güncelliğini sağlar."
|
37
57
|
},
|
@@ -47,6 +67,9 @@
|
|
47
67
|
"ERNIE-4.0-8K-Preview": {
|
48
68
|
"description": "Baidu'nun kendi geliştirdiği amiral gemisi ultra büyük ölçekli dil modeli, ERNIE 3.5'e kıyasla model yeteneklerinde kapsamlı bir yükseltme gerçekleştirmiştir, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, yanıt bilgilerini güncel tutar."
|
49
69
|
},
|
70
|
+
"ERNIE-4.0-Turbo-128K": {
|
71
|
+
"description": "Baidu'nun kendi geliştirdiği amiral gemisi ultra büyük ölçekli dil modeli, genel performansı mükemmel olup, çeşitli alanlardaki karmaşık görev senaryolarında geniş bir şekilde uygulanabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, soru-cevap bilgilerini güncel tutar. ERNIE 4.0'a kıyasla performans açısından daha üstündür."
|
72
|
+
},
|
50
73
|
"ERNIE-4.0-Turbo-8K-Latest": {
|
51
74
|
"description": "Baidu tarafından geliştirilen, geniş ölçekli büyük dil modeli, genel performansı mükemmeldir ve her alanda karmaşık görev sahneleri için geniş bir şekilde kullanılabilir; Baidu arama eklentisi ile otomatik entegrasyonu destekler, yanıt bilgi güncellemelerinin zamanlamasını güvence altına alır. ERNIE 4.0'a kıyasla, performans olarak daha üstündür."
|
52
75
|
},
|
@@ -146,8 +169,8 @@
|
|
146
169
|
"Qwen/Qwen2.5-7B-Instruct-Turbo": {
|
147
170
|
"description": "Qwen2.5, komut tabanlı görevlerin işlenmesini optimize etmek için tasarlanmış yeni bir büyük dil modeli serisidir."
|
148
171
|
},
|
149
|
-
"Qwen/Qwen2.5-Coder-
|
150
|
-
"description": "Qwen2.5-Coder, kod
|
172
|
+
"Qwen/Qwen2.5-Coder-32B-Instruct": {
|
173
|
+
"description": "Qwen2.5-Coder, kod yazımına odaklanmaktadır."
|
151
174
|
},
|
152
175
|
"Qwen/Qwen2.5-Math-72B-Instruct": {
|
153
176
|
"description": "Qwen2.5-Math, matematik alanındaki sorunları çözmeye odaklanır ve yüksek zorlukta sorulara profesyonel yanıtlar sunar."
|
@@ -179,6 +202,9 @@
|
|
179
202
|
"THUDM/glm-4-9b-chat": {
|
180
203
|
"description": "GLM-4 9B açık kaynak versiyonu, diyalog uygulamaları için optimize edilmiş bir diyalog deneyimi sunar."
|
181
204
|
},
|
205
|
+
"Tencent/Hunyuan-A52B-Instruct": {
|
206
|
+
"description": "Hunyuan-Large, sektördeki en büyük açık kaynaklı Transformer mimarisi MoE modelidir ve toplam 389 milyar parametre ile 52 milyar etkin parametreye sahiptir."
|
207
|
+
},
|
182
208
|
"abab5.5-chat": {
|
183
209
|
"description": "Üretkenlik senaryoları için tasarlanmış, karmaşık görev işleme ve verimli metin üretimini destekler, profesyonel alan uygulamaları için uygundur."
|
184
210
|
},
|
@@ -587,6 +613,9 @@
|
|
587
613
|
"gpt-4o-mini": {
|
588
614
|
"description": "GPT-4o mini, OpenAI'nin GPT-4 Omni'den sonra tanıttığı en yeni modeldir. Görsel ve metin girişi destekler ve metin çıktısı verir. En gelişmiş küçük model olarak, diğer son zamanlardaki öncü modellere göre çok daha ucuzdur ve GPT-3.5 Turbo'dan %60'tan fazla daha ucuzdur. En son teknolojiyi korurken, önemli bir maliyet etkinliği sunar. GPT-4o mini, MMLU testinde %82 puan almış olup, şu anda sohbet tercihleri açısından GPT-4'ün üzerinde yer almaktadır."
|
589
615
|
},
|
616
|
+
"grok-beta": {
|
617
|
+
"description": "Grok 2 ile karşılaştırılabilir performansa sahip, ancak daha yüksek verimlilik, hız ve işlevsellik sunar."
|
618
|
+
},
|
590
619
|
"gryphe/mythomax-l2-13b": {
|
591
620
|
"description": "MythoMax l2 13B, birden fazla üst düzey modelin birleşimiyle yaratıcı ve zeka odaklı bir dil modelidir."
|
592
621
|
},
|
@@ -949,6 +978,9 @@
|
|
949
978
|
"pro-128k": {
|
950
979
|
"description": "Spark Pro 128K, olağanüstü bağlam işleme yeteneği ile donatılmıştır ve 128K'ya kadar bağlam bilgilerini işleyebilir. Özellikle uzun metinlerin bütünsel analizi ve uzun vadeli mantıksal ilişkilerin işlenmesi gereken durumlar için uygundur ve karmaşık metin iletişiminde akıcı ve tutarlı bir mantık ile çeşitli alıntı desteği sunmaktadır."
|
951
980
|
},
|
981
|
+
"qwen-coder-plus-latest": {
|
982
|
+
"description": "Tongyi Qianwen kod modeli."
|
983
|
+
},
|
952
984
|
"qwen-coder-turbo-latest": {
|
953
985
|
"description": "Tongyi Qianwen kodlama modeli."
|
954
986
|
},
|
@@ -1000,15 +1032,12 @@
|
|
1000
1032
|
"qwen2.5-7b-instruct": {
|
1001
1033
|
"description": "Tongyi Qianwen 2.5, halka açık 7B ölçeğinde bir modeldir."
|
1002
1034
|
},
|
1003
|
-
"qwen2.5-coder-
|
1004
|
-
"description": "Tongyi Qianwen
|
1035
|
+
"qwen2.5-coder-32b-instruct": {
|
1036
|
+
"description": "Tongyi Qianwen kod modeli açık kaynak versiyonu."
|
1005
1037
|
},
|
1006
1038
|
"qwen2.5-coder-7b-instruct": {
|
1007
1039
|
"description": "Tongyi Qianwen kodlama modelinin açık kaynak versiyonu."
|
1008
1040
|
},
|
1009
|
-
"qwen2.5-math-1.5b-instruct": {
|
1010
|
-
"description": "Qwen-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir."
|
1011
|
-
},
|
1012
1041
|
"qwen2.5-math-72b-instruct": {
|
1013
1042
|
"description": "Qwen-Math modeli, güçlü matematik problem çözme yeteneklerine sahiptir."
|
1014
1043
|
},
|
@@ -1069,6 +1098,9 @@
|
|
1069
1098
|
"upstage/SOLAR-10.7B-Instruct-v1.0": {
|
1070
1099
|
"description": "Upstage SOLAR Instruct v1 (11B), ince ayar gerektiren talimat görevleri için uygundur ve mükemmel dil işleme yetenekleri sunar."
|
1071
1100
|
},
|
1101
|
+
"us.anthropic.claude-3-5-sonnet-20241022-v2:0": {
|
1102
|
+
"description": "Claude 3.5 Sonnet, endüstri standartlarını yükselterek, rakip modelleri ve Claude 3 Opus'u aşan performans sergilemekte; geniş değerlendirmelerde mükemmel sonuçlar verirken, orta seviye modellerimizin hız ve maliyetine sahiptir."
|
1103
|
+
},
|
1072
1104
|
"wizardlm2": {
|
1073
1105
|
"description": "WizardLM 2, Microsoft AI tarafından sunulan bir dil modelidir, karmaşık diyaloglar, çok dilli, akıl yürütme ve akıllı asistan alanlarında özellikle başarılıdır."
|
1074
1106
|
},
|
@@ -15,6 +15,7 @@
|
|
15
15
|
"bedrock": {
|
16
16
|
"description": "Bedrock, Amazon AWS tarafından sunulan bir hizmettir ve işletmelere gelişmiş yapay zeka dil modelleri ve görsel modeller sağlamaya odaklanmaktadır. Model ailesi, Anthropic'in Claude serisi, Meta'nın Llama 3.1 serisi gibi seçenekleri içermekte olup, metin üretimi, diyalog, görüntü işleme gibi çeşitli görevleri desteklemektedir. Farklı ölçek ve ihtiyaçlara uygun kurumsal uygulamalar için geniş bir yelpaze sunmaktadır."
|
17
17
|
},
|
18
|
+
"cloudflare": {},
|
18
19
|
"deepseek": {
|
19
20
|
"description": "DeepSeek, yapay zeka teknolojisi araştırma ve uygulamalarına odaklanan bir şirkettir. En son modeli DeepSeek-V2.5, genel diyalog ve kod işleme yeteneklerini birleştirerek, insan tercihleriyle uyum, yazma görevleri ve talimat takibi gibi alanlarda önemli iyileştirmeler sağlamaktadır."
|
20
21
|
},
|
@@ -85,6 +86,9 @@
|
|
85
86
|
"wenxin": {
|
86
87
|
"description": "Kurumsal düzeyde tek duraklı büyük model ve AI yerel uygulama geliştirme ve hizmet platformu, en kapsamlı ve kullanımı kolay üretken yapay zeka modeli geliştirme, uygulama geliştirme için tam süreç araç zinciri sunar."
|
87
88
|
},
|
89
|
+
"xai": {
|
90
|
+
"description": "xAI, insan bilimsel keşiflerini hızlandırmak için yapay zeka geliştirmeye adanmış bir şirkettir. Misyonumuz, evrene dair ortak anlayışımızı ilerletmektir."
|
91
|
+
},
|
88
92
|
"zeroone": {
|
89
93
|
"description": "01.AI, yapay zeka 2.0 çağının yapay zeka teknolojisine odaklanmakta ve 'insan + yapay zeka' yenilik ve uygulamalarını teşvik etmektedir. Son derece güçlü modeller ve gelişmiş yapay zeka teknolojileri kullanarak insan üretkenliğini artırmayı ve teknolojik güçlendirmeyi hedeflemektedir."
|
90
94
|
},
|