@lobehub/chat 1.74.2 → 1.74.3
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +33 -0
- package/changelog/v1.json +9 -0
- package/docs/developer/database-schema.dbml +54 -2
- package/locales/ar/common.json +51 -0
- package/locales/ar/models.json +69 -3
- package/locales/ar/providers.json +6 -0
- package/locales/bg-BG/common.json +51 -0
- package/locales/bg-BG/models.json +69 -3
- package/locales/bg-BG/providers.json +6 -0
- package/locales/de-DE/common.json +51 -0
- package/locales/de-DE/models.json +69 -3
- package/locales/de-DE/providers.json +6 -0
- package/locales/en-US/common.json +51 -0
- package/locales/en-US/models.json +69 -3
- package/locales/en-US/providers.json +6 -3
- package/locales/es-ES/common.json +51 -0
- package/locales/es-ES/models.json +69 -3
- package/locales/es-ES/providers.json +6 -0
- package/locales/fa-IR/common.json +51 -0
- package/locales/fa-IR/models.json +69 -3
- package/locales/fa-IR/providers.json +6 -0
- package/locales/fr-FR/common.json +51 -0
- package/locales/fr-FR/models.json +69 -3
- package/locales/fr-FR/providers.json +6 -0
- package/locales/it-IT/common.json +51 -0
- package/locales/it-IT/models.json +69 -3
- package/locales/it-IT/providers.json +6 -0
- package/locales/ja-JP/common.json +51 -0
- package/locales/ja-JP/models.json +78 -4
- package/locales/ja-JP/providers.json +6 -0
- package/locales/ko-KR/common.json +51 -0
- package/locales/ko-KR/models.json +69 -3
- package/locales/ko-KR/providers.json +6 -0
- package/locales/nl-NL/common.json +51 -0
- package/locales/nl-NL/models.json +69 -3
- package/locales/nl-NL/providers.json +6 -0
- package/locales/pl-PL/common.json +51 -0
- package/locales/pl-PL/models.json +69 -3
- package/locales/pl-PL/providers.json +6 -0
- package/locales/pt-BR/common.json +51 -0
- package/locales/pt-BR/models.json +69 -3
- package/locales/pt-BR/providers.json +6 -0
- package/locales/ru-RU/common.json +51 -0
- package/locales/ru-RU/models.json +69 -3
- package/locales/ru-RU/providers.json +6 -0
- package/locales/tr-TR/common.json +51 -0
- package/locales/tr-TR/models.json +69 -3
- package/locales/tr-TR/providers.json +6 -0
- package/locales/vi-VN/common.json +51 -0
- package/locales/vi-VN/models.json +69 -3
- package/locales/vi-VN/providers.json +6 -0
- package/locales/zh-CN/common.json +53 -2
- package/locales/zh-CN/models.json +79 -13
- package/locales/zh-CN/providers.json +6 -4
- package/locales/zh-TW/common.json +51 -0
- package/locales/zh-TW/models.json +81 -4
- package/locales/zh-TW/providers.json +6 -0
- package/package.json +1 -1
- package/packages/web-crawler/src/utils/__tests__/withTimeout.test.ts +0 -1
- package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/Checker.tsx +4 -0
- package/src/database/client/db.ts +102 -11
- package/src/database/client/migrations.json +38 -8
- package/src/database/migrations/0018_add_client_id_for_entities.sql +32 -0
- package/src/database/migrations/meta/0018_snapshot.json +4212 -0
- package/src/database/migrations/meta/_journal.json +7 -0
- package/src/database/models/drizzleMigration.ts +23 -0
- package/src/database/schemas/agent.ts +48 -31
- package/src/database/schemas/file.ts +32 -16
- package/src/database/schemas/message.ts +91 -54
- package/src/database/schemas/rag.ts +65 -32
- package/src/database/schemas/session.ts +6 -3
- package/src/database/schemas/topic.ts +31 -24
- package/src/features/InitClientDB/ErrorResult.tsx +53 -32
- package/src/features/InitClientDB/features/DatabaseRepair/Backup.tsx +77 -0
- package/src/features/InitClientDB/features/DatabaseRepair/Diagnosis.tsx +98 -0
- package/src/features/InitClientDB/features/DatabaseRepair/Repair.tsx +220 -0
- package/src/features/InitClientDB/features/DatabaseRepair/index.tsx +85 -0
- package/src/features/ModelSwitchPanel/index.tsx +13 -7
- package/src/locales/default/common.ts +53 -1
- package/src/store/global/actions/clientDb.ts +19 -3
- package/src/store/global/initialState.ts +6 -1
- package/src/store/global/selectors/clientDB.ts +43 -0
- package/src/store/global/selectors/index.ts +1 -0
- package/src/store/user/slices/settings/selectors/general.test.ts +90 -0
- package/src/types/clientDB.ts +13 -0
@@ -518,6 +518,18 @@
|
|
518
518
|
"baichuan/baichuan2-13b-chat": {
|
519
519
|
"description": "Baichuan-13B to otwarty model językowy stworzony przez Baichuan Intelligence, zawierający 13 miliardów parametrów, który osiągnął najlepsze wyniki w swojej klasie w autorytatywnych benchmarkach w języku chińskim i angielskim."
|
520
520
|
},
|
521
|
+
"c4ai-aya-expanse-32b": {
|
522
|
+
"description": "Aya Expanse to model wielojęzyczny o wysokiej wydajności 32B, zaprojektowany w celu wyzwania wydajności modeli jednolanguage poprzez innowacje w zakresie dostosowywania instrukcji, arbitrażu danych, treningu preferencji i łączenia modeli. Obsługuje 23 języki."
|
523
|
+
},
|
524
|
+
"c4ai-aya-expanse-8b": {
|
525
|
+
"description": "Aya Expanse to model wielojęzyczny o wysokiej wydajności 8B, zaprojektowany w celu wyzwania wydajności modeli jednolanguage poprzez innowacje w zakresie dostosowywania instrukcji, arbitrażu danych, treningu preferencji i łączenia modeli. Obsługuje 23 języki."
|
526
|
+
},
|
527
|
+
"c4ai-aya-vision-32b": {
|
528
|
+
"description": "Aya Vision to zaawansowany model wielomodalny, który osiąga doskonałe wyniki w wielu kluczowych benchmarkach dotyczących zdolności językowych, tekstowych i obrazowych. Obsługuje 23 języki. Ta wersja z 32 miliardami parametrów koncentruje się na najnowocześniejszej wydajności wielojęzycznej."
|
529
|
+
},
|
530
|
+
"c4ai-aya-vision-8b": {
|
531
|
+
"description": "Aya Vision to zaawansowany model wielomodalny, który osiąga doskonałe wyniki w wielu kluczowych benchmarkach dotyczących zdolności językowych, tekstowych i obrazowych. Ta wersja z 8 miliardami parametrów koncentruje się na niskiej latencji i najlepszej wydajności."
|
532
|
+
},
|
521
533
|
"charglm-3": {
|
522
534
|
"description": "CharGLM-3 zaprojektowany z myślą o odgrywaniu ról i emocjonalnym towarzyszeniu, obsługujący ultra-długą pamięć wielokrotną i spersonalizowane dialogi, z szerokim zakresem zastosowań."
|
523
535
|
},
|
@@ -602,12 +614,39 @@
|
|
602
614
|
"cohere-command-r-plus": {
|
603
615
|
"description": "Command R+ to model zoptymalizowany pod kątem RAG, zaprojektowany do obsługi obciążeń roboczych na poziomie przedsiębiorstwa."
|
604
616
|
},
|
617
|
+
"command": {
|
618
|
+
"description": "Model konwersacyjny, który przestrzega instrukcji, oferujący wysoką jakość i niezawodność w zadaniach językowych, a także dłuższą długość kontekstu w porównaniu do naszych podstawowych modeli generacyjnych."
|
619
|
+
},
|
620
|
+
"command-a-03-2025": {
|
621
|
+
"description": "Command A to nasz najsilniejszy model, który do tej pory osiągnął najlepsze wyniki, doskonale sprawdzający się w zastosowaniach narzędziowych, agentowych, generacji wzbogaconej o wyszukiwanie (RAG) oraz w kontekście wielojęzycznym. Command A ma długość kontekstu 256K, działa na zaledwie dwóch GPU i w porównaniu do Command R+ 08-2024 zwiększa wydajność o 150%."
|
622
|
+
},
|
623
|
+
"command-light": {
|
624
|
+
"description": "Mniejsza i szybsza wersja Command, niemal równie potężna, ale szybsza."
|
625
|
+
},
|
626
|
+
"command-light-nightly": {
|
627
|
+
"description": "Aby skrócić czas między wydaniami głównych wersji, wprowadziliśmy nocną wersję modelu Command. Dla serii command-light ta wersja nazywa się command-light-nightly. Proszę pamiętać, że command-light-nightly to najnowsza, najbardziej eksperymentalna i (możliwie) niestabilna wersja. Wersje nocne są regularnie aktualizowane i nie są zapowiadane z wyprzedzeniem, dlatego nie zaleca się ich używania w środowisku produkcyjnym."
|
628
|
+
},
|
629
|
+
"command-nightly": {
|
630
|
+
"description": "Aby skrócić czas między wydaniami głównych wersji, wprowadziliśmy nocną wersję modelu Command. Dla serii Command ta wersja nazywa się command-cightly. Proszę pamiętać, że command-nightly to najnowsza, najbardziej eksperymentalna i (możliwie) niestabilna wersja. Wersje nocne są regularnie aktualizowane i nie są zapowiadane z wyprzedzeniem, dlatego nie zaleca się ich używania w środowisku produkcyjnym."
|
631
|
+
},
|
605
632
|
"command-r": {
|
606
633
|
"description": "Command R to LLM zoptymalizowany do dialogów i zadań z długim kontekstem, szczególnie odpowiedni do dynamicznej interakcji i zarządzania wiedzą."
|
607
634
|
},
|
635
|
+
"command-r-03-2024": {
|
636
|
+
"description": "Command R to model konwersacyjny, który przestrzega instrukcji, oferujący wyższą jakość i niezawodność w zadaniach językowych, a także dłuższą długość kontekstu w porównaniu do wcześniejszych modeli. Może być używany w złożonych przepływach pracy, takich jak generacja kodu, generacja wzbogacona o wyszukiwanie (RAG), korzystanie z narzędzi i agentów."
|
637
|
+
},
|
638
|
+
"command-r-08-2024": {
|
639
|
+
"description": "command-r-08-2024 to zaktualizowana wersja modelu Command R, wydana w sierpniu 2024 roku."
|
640
|
+
},
|
608
641
|
"command-r-plus": {
|
609
642
|
"description": "Command R+ to model językowy o wysokiej wydajności, zaprojektowany z myślą o rzeczywistych scenariuszach biznesowych i złożonych zastosowaniach."
|
610
643
|
},
|
644
|
+
"command-r-plus-04-2024": {
|
645
|
+
"description": "Command R+ to model konwersacyjny, który przestrzega instrukcji, oferujący wyższą jakość i niezawodność w zadaniach językowych, a także dłuższą długość kontekstu w porównaniu do wcześniejszych modeli. Jest najlepiej dostosowany do złożonych przepływów pracy RAG i wieloetapowego korzystania z narzędzi."
|
646
|
+
},
|
647
|
+
"command-r7b-12-2024": {
|
648
|
+
"description": "command-r7b-12-2024 to mała i wydajna zaktualizowana wersja, wydana w grudniu 2024 roku. Doskonale sprawdza się w zadaniach wymagających złożonego rozumowania i wieloetapowego przetwarzania, takich jak RAG, korzystanie z narzędzi i agenci."
|
649
|
+
},
|
611
650
|
"dall-e-2": {
|
612
651
|
"description": "Druga generacja modelu DALL·E, obsługująca bardziej realistyczne i dokładne generowanie obrazów, o rozdzielczości czterokrotnie większej niż pierwsza generacja."
|
613
652
|
},
|
@@ -668,12 +707,24 @@
|
|
668
707
|
"deepseek-r1": {
|
669
708
|
"description": "DeepSeek-R1 to model wnioskowania napędzany uczeniem przez wzmacnianie (RL), który rozwiązuje problemy z powtarzalnością i czytelnością modelu. Przed RL, DeepSeek-R1 wprowadził dane z zimnego startu, co dodatkowo zoptymalizowało wydajność wnioskowania. W zadaniach matematycznych, kodowania i wnioskowania osiąga wyniki porównywalne z OpenAI-o1, a dzięki starannie zaprojektowanym metodom treningowym poprawia ogólne efekty."
|
670
709
|
},
|
710
|
+
"deepseek-r1-70b-fast-online": {
|
711
|
+
"description": "DeepSeek R1 70B szybka wersja, wspierająca wyszukiwanie w czasie rzeczywistym, oferująca szybszy czas reakcji przy zachowaniu wydajności modelu."
|
712
|
+
},
|
713
|
+
"deepseek-r1-70b-online": {
|
714
|
+
"description": "DeepSeek R1 70B standardowa wersja, wspierająca wyszukiwanie w czasie rzeczywistym, odpowiednia do zadań konwersacyjnych i przetwarzania tekstu wymagających najnowszych informacji."
|
715
|
+
},
|
671
716
|
"deepseek-r1-distill-llama-70b": {
|
672
717
|
"description": "DeepSeek R1 — większy i inteligentniejszy model w zestawie DeepSeek — został destylowany do architektury Llama 70B. Na podstawie testów referencyjnych i ocen ręcznych, model ten jest bardziej inteligentny niż oryginalna Llama 70B, szczególnie w zadaniach wymagających precyzji matematycznej i faktograficznej."
|
673
718
|
},
|
674
719
|
"deepseek-r1-distill-llama-8b": {
|
675
720
|
"description": "Modele z serii DeepSeek-R1-Distill są dostosowywane do modeli open source, takich jak Qwen i Llama, poprzez technologię destylacji wiedzy, na podstawie próbek generowanych przez DeepSeek-R1."
|
676
721
|
},
|
722
|
+
"deepseek-r1-distill-qianfan-llama-70b": {
|
723
|
+
"description": "Pierwsze wydanie 14 lutego 2025 roku, wyodrębnione przez zespół badawczy Qianfan z modelu bazowego Llama3_70B (zbudowanego z Meta Llama), w którym dodano również korpus Qianfan."
|
724
|
+
},
|
725
|
+
"deepseek-r1-distill-qianfan-llama-8b": {
|
726
|
+
"description": "Pierwsze wydanie 14 lutego 2025 roku, wyodrębnione przez zespół badawczy Qianfan z modelu bazowego Llama3_8B (zbudowanego z Meta Llama), w którym dodano również korpus Qianfan."
|
727
|
+
},
|
677
728
|
"deepseek-r1-distill-qwen-1.5b": {
|
678
729
|
"description": "Modele z serii DeepSeek-R1-Distill są dostosowywane do modeli open source, takich jak Qwen i Llama, poprzez technologię destylacji wiedzy, na podstawie próbek generowanych przez DeepSeek-R1."
|
679
730
|
},
|
@@ -686,6 +737,12 @@
|
|
686
737
|
"deepseek-r1-distill-qwen-7b": {
|
687
738
|
"description": "Modele z serii DeepSeek-R1-Distill są dostosowywane do modeli open source, takich jak Qwen i Llama, poprzez technologię destylacji wiedzy, na podstawie próbek generowanych przez DeepSeek-R1."
|
688
739
|
},
|
740
|
+
"deepseek-r1-fast-online": {
|
741
|
+
"description": "DeepSeek R1 pełna szybka wersja, wspierająca wyszukiwanie w czasie rzeczywistym, łącząca potężne możliwości 671 miliardów parametrów z szybszym czasem reakcji."
|
742
|
+
},
|
743
|
+
"deepseek-r1-online": {
|
744
|
+
"description": "DeepSeek R1 pełna wersja, z 671 miliardami parametrów, wspierająca wyszukiwanie w czasie rzeczywistym, z potężniejszymi zdolnościami rozumienia i generowania."
|
745
|
+
},
|
689
746
|
"deepseek-reasoner": {
|
690
747
|
"description": "Model inferency wprowadzony przez DeepSeek. Przed wygenerowaniem ostatecznej odpowiedzi, model najpierw przedstawia fragment łańcucha myślowego, aby zwiększyć dokładność końcowej odpowiedzi."
|
691
748
|
},
|
@@ -764,6 +821,9 @@
|
|
764
821
|
"ernie-4.0-turbo-8k-preview": {
|
765
822
|
"description": "Flagowy model językowy Baidu o ultra dużej skali, charakteryzujący się doskonałymi wynikami ogólnymi, szeroko stosowany w złożonych zadaniach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji. W porównaniu do ERNIE 4.0, oferuje lepsze wyniki wydajności."
|
766
823
|
},
|
824
|
+
"ernie-4.5-8k-preview": {
|
825
|
+
"description": "Model ERNIE 4.5 to nowa generacja natywnego modelu wielomodalnego opracowanego przez Baidu, który osiąga doskonałe wyniki w zakresie zrozumienia wielomodalnego dzięki wspólnemu modelowaniu wielu modalności; posiada bardziej zaawansowane zdolności językowe, a także znacznie poprawione zdolności rozumienia, generowania, logicznego myślenia i pamięci, eliminując halucynacje oraz poprawiając zdolności wnioskowania logicznego i kodowania."
|
826
|
+
},
|
767
827
|
"ernie-char-8k": {
|
768
828
|
"description": "Model językowy opracowany przez Baidu, skoncentrowany na specyficznych scenariuszach, odpowiedni do zastosowań w grach NPC, dialogach obsługi klienta, odgrywaniu ról w dialogach, charakteryzujący się wyraźnym i spójnym stylem postaci, silniejszą zdolnością do podążania za instrukcjami oraz lepszą wydajnością wnioskowania."
|
769
829
|
},
|
@@ -1097,9 +1157,6 @@
|
|
1097
1157
|
"hunyuan-turbo": {
|
1098
1158
|
"description": "Hunyuan to nowa generacja dużego modelu językowego w wersji próbnej, wykorzystująca nową strukturę modelu mieszanych ekspertów (MoE), która w porównaniu do hunyuan-pro charakteryzuje się szybszą efektywnością wnioskowania i lepszymi wynikami."
|
1099
1159
|
},
|
1100
|
-
"hunyuan-turbo-20241120": {
|
1101
|
-
"description": "Stała wersja hunyuan-turbo z dnia 20 listopada 2024 roku, będąca pomiędzy hunyuan-turbo a hunyuan-turbo-latest."
|
1102
|
-
},
|
1103
1160
|
"hunyuan-turbo-20241223": {
|
1104
1161
|
"description": "Optymalizacja tej wersji: skalowanie danych instrukcji, znaczne zwiększenie ogólnej zdolności generalizacji modelu; znaczne zwiększenie zdolności w zakresie matematyki, kodowania i rozumowania logicznego; optymalizacja zdolności związanych z rozumieniem tekstu i słów; optymalizacja jakości generowania treści w tworzeniu tekstów."
|
1105
1162
|
},
|
@@ -1109,6 +1166,15 @@
|
|
1109
1166
|
"hunyuan-turbo-vision": {
|
1110
1167
|
"description": "Nowa generacja flagowego modelu językowo-wizualnego Hunyuan, wykorzystująca nową strukturę modelu mieszanych ekspertów (MoE), z pełnym zwiększeniem zdolności w zakresie podstawowego rozpoznawania, tworzenia treści, pytań i odpowiedzi oraz analizy i rozumowania w porównaniu do poprzedniej generacji modeli."
|
1111
1168
|
},
|
1169
|
+
"hunyuan-turbos-20250226": {
|
1170
|
+
"description": "hunyuan-TurboS pv2.1.2 to stabilna wersja zaktualizowanej bazy treningowej, z podniesioną liczbą tokenów; poprawione zdolności myślenia w matematyce/logice/kodzie; poprawa ogólnego doświadczenia w języku chińskim i angielskim, w tym w tworzeniu tekstu, rozumieniu tekstu, pytaniach i odpowiedziach oraz rozmowach."
|
1171
|
+
},
|
1172
|
+
"hunyuan-turbos-20250313": {
|
1173
|
+
"description": "Ujednolicenie stylu rozwiązywania problemów matematycznych, wzmocnienie wieloetapowych pytań i odpowiedzi matematycznych. Optymalizacja stylu odpowiedzi w tworzeniu tekstu, eliminacja smaku AI, zwiększenie literackiego wyrazu."
|
1174
|
+
},
|
1175
|
+
"hunyuan-turbos-latest": {
|
1176
|
+
"description": "hunyuan-TurboS to najnowsza wersja flagowego modelu Hunyuan, oferująca silniejsze zdolności myślenia i lepsze efekty doświadczenia."
|
1177
|
+
},
|
1112
1178
|
"hunyuan-vision": {
|
1113
1179
|
"description": "Najnowocześniejszy model multimodalny Hunyuan, wspierający generowanie treści tekstowych na podstawie obrazów i tekstu."
|
1114
1180
|
},
|
@@ -23,6 +23,9 @@
|
|
23
23
|
"cloudflare": {
|
24
24
|
"description": "Uruchamiaj modele uczenia maszynowego napędzane przez GPU w globalnej sieci Cloudflare."
|
25
25
|
},
|
26
|
+
"cohere": {
|
27
|
+
"description": "Cohere przynosi najnowocześniejsze modele wielojęzyczne, zaawansowane funkcje wyszukiwania oraz dostosowane do nowoczesnych przedsiębiorstw przestrzenie robocze AI — wszystko zintegrowane w jednej bezpiecznej platformie."
|
28
|
+
},
|
26
29
|
"deepseek": {
|
27
30
|
"description": "DeepSeek to firma skoncentrowana na badaniach i zastosowaniach technologii sztucznej inteligencji, której najnowszy model DeepSeek-V2.5 łączy zdolności do prowadzenia ogólnych rozmów i przetwarzania kodu, osiągając znaczące postępy w zakresie dostosowywania do preferencji ludzkich, zadań pisarskich i przestrzegania instrukcji."
|
28
31
|
},
|
@@ -101,6 +104,9 @@
|
|
101
104
|
"sambanova": {
|
102
105
|
"description": "SambaNova Cloud umożliwia deweloperom łatwe korzystanie z najlepszych modeli open source oraz cieszenie się najszybszą prędkością wnioskowania."
|
103
106
|
},
|
107
|
+
"search1api": {
|
108
|
+
"description": "Search1API oferuje dostęp do serii modeli DeepSeek, które można łączyć z siecią w razie potrzeby, w tym wersji standardowej i szybkiej, wspierając wybór modeli o różnych rozmiarach parametrów."
|
109
|
+
},
|
104
110
|
"sensenova": {
|
105
111
|
"description": "SenseTime codziennie się rozwija, opierając się na potężnym wsparciu infrastrukturalnym SenseTime, oferując wydajne i łatwe w użyciu usługi dużych modeli w pełnym zakresie."
|
106
112
|
},
|
@@ -41,7 +41,10 @@
|
|
41
41
|
"error": {
|
42
42
|
"desc": "Lamentamos, ocorreu uma exceção durante o processo de inicialização do banco de dados Pglite. Por favor, clique no botão para tentar novamente. Se o erro persistir após várias tentativas, por favor <1>envie um problema</1> e nós iremos ajudá-lo a resolver o quanto antes",
|
43
43
|
"detail": "Causa do erro: [{{type}}] {{message}}. Detalhes abaixo:",
|
44
|
+
"detailTitle": "Razão do erro",
|
45
|
+
"report": "Relatar problema",
|
44
46
|
"retry": "Tentar Novamente",
|
47
|
+
"selfSolve": "Solução autônoma",
|
45
48
|
"title": "Falha na inicialização do banco de dados"
|
46
49
|
},
|
47
50
|
"initing": {
|
@@ -80,6 +83,54 @@
|
|
80
83
|
"button": "Usar agora",
|
81
84
|
"desc": "Pronto para uso",
|
82
85
|
"title": "Banco de dados PGlite pronto"
|
86
|
+
},
|
87
|
+
"solve": {
|
88
|
+
"backup": {
|
89
|
+
"backup": "Backup",
|
90
|
+
"backupSuccess": "Backup realizado com sucesso",
|
91
|
+
"desc": "Exportar dados críticos do banco de dados atual",
|
92
|
+
"export": "Exportar todos os dados",
|
93
|
+
"exportDesc": "Os dados exportados serão salvos em formato JSON, podendo ser utilizados para recuperação ou análise posterior.",
|
94
|
+
"reset": {
|
95
|
+
"alert": "Aviso",
|
96
|
+
"alertDesc": "As operações a seguir podem resultar em perda de dados. Certifique-se de ter feito backup dos dados importantes antes de continuar.",
|
97
|
+
"button": "Redefinir completamente o banco de dados (excluir todos os dados)",
|
98
|
+
"confirm": {
|
99
|
+
"desc": "Esta operação excluirá todos os dados e não poderá ser desfeita. Você confirma que deseja continuar?",
|
100
|
+
"title": "Confirmar redefinição do banco de dados"
|
101
|
+
},
|
102
|
+
"desc": "Redefinir o banco de dados em caso de migração irreversível",
|
103
|
+
"title": "Redefinição do banco de dados"
|
104
|
+
},
|
105
|
+
"restore": "Restaurar",
|
106
|
+
"restoreSuccess": "Restauração realizada com sucesso",
|
107
|
+
"title": "Backup de dados"
|
108
|
+
},
|
109
|
+
"diagnosis": {
|
110
|
+
"createdAt": "Data de criação",
|
111
|
+
"migratedAt": "Data de conclusão da migração",
|
112
|
+
"sql": "SQL de migração",
|
113
|
+
"title": "Status da migração"
|
114
|
+
},
|
115
|
+
"repair": {
|
116
|
+
"desc": "Gerenciar manualmente o status da migração",
|
117
|
+
"runSQL": "Executar personalizado",
|
118
|
+
"sql": {
|
119
|
+
"clear": "Limpar",
|
120
|
+
"desc": "Executar instruções SQL personalizadas para corrigir problemas no banco de dados",
|
121
|
+
"markFinished": "Marcar como concluído",
|
122
|
+
"placeholder": "Digite a instrução SQL...",
|
123
|
+
"result": "Resultado da execução",
|
124
|
+
"run": "Executar",
|
125
|
+
"title": "Executor de SQL"
|
126
|
+
},
|
127
|
+
"title": "Controle de migração"
|
128
|
+
},
|
129
|
+
"tabs": {
|
130
|
+
"backup": "Backup e Restauração",
|
131
|
+
"diagnosis": "Diagnóstico",
|
132
|
+
"repair": "Reparo"
|
133
|
+
}
|
83
134
|
}
|
84
135
|
},
|
85
136
|
"close": "Fechar",
|
@@ -518,6 +518,18 @@
|
|
518
518
|
"baichuan/baichuan2-13b-chat": {
|
519
519
|
"description": "Baichuan-13B é um modelo de linguagem de código aberto e comercializável desenvolvido pela Baichuan Intelligence, contendo 13 bilhões de parâmetros, alcançando os melhores resultados em benchmarks de chinês e inglês na mesma dimensão."
|
520
520
|
},
|
521
|
+
"c4ai-aya-expanse-32b": {
|
522
|
+
"description": "Aya Expanse é um modelo multilíngue de alto desempenho com 32B, projetado para desafiar o desempenho de modelos monolíngues por meio de inovações em ajuste por instrução, arbitragem de dados, treinamento de preferências e fusão de modelos. Ele suporta 23 idiomas."
|
523
|
+
},
|
524
|
+
"c4ai-aya-expanse-8b": {
|
525
|
+
"description": "Aya Expanse é um modelo multilíngue de alto desempenho com 8B, projetado para desafiar o desempenho de modelos monolíngues por meio de inovações em ajuste por instrução, arbitragem de dados, treinamento de preferências e fusão de modelos. Ele suporta 23 idiomas."
|
526
|
+
},
|
527
|
+
"c4ai-aya-vision-32b": {
|
528
|
+
"description": "Aya Vision é um modelo multimodal de ponta, apresentando desempenho excepcional em múltiplos benchmarks críticos de linguagem, texto e imagem. Esta versão de 32 bilhões de parâmetros foca no desempenho multilíngue de ponta."
|
529
|
+
},
|
530
|
+
"c4ai-aya-vision-8b": {
|
531
|
+
"description": "Aya Vision é um modelo multimodal de ponta, apresentando desempenho excepcional em múltiplos benchmarks críticos de linguagem, texto e imagem. Esta versão de 8 bilhões de parâmetros foca em baixa latência e desempenho ideal."
|
532
|
+
},
|
521
533
|
"charglm-3": {
|
522
534
|
"description": "O CharGLM-3 é projetado para interpretação de personagens e companhia emocional, suportando memória de múltiplas rodadas e diálogos personalizados, com ampla aplicação."
|
523
535
|
},
|
@@ -602,12 +614,39 @@
|
|
602
614
|
"cohere-command-r-plus": {
|
603
615
|
"description": "Command R+ é um modelo otimizado para RAG de última geração, projetado para lidar com cargas de trabalho de nível empresarial."
|
604
616
|
},
|
617
|
+
"command": {
|
618
|
+
"description": "Um modelo de diálogo que segue instruções, apresentando alta qualidade e confiabilidade em tarefas linguísticas, além de um comprimento de contexto mais longo em comparação com nosso modelo de geração básico."
|
619
|
+
},
|
620
|
+
"command-a-03-2025": {
|
621
|
+
"description": "O Command A é o nosso modelo mais poderoso até agora, apresentando um desempenho excepcional em uso de ferramentas, agentes, geração aumentada por recuperação (RAG) e cenários de aplicação multilíngue. O Command A possui um comprimento de contexto de 256K, pode ser executado com apenas duas GPUs e, em comparação com o Command R+ 08-2024, teve um aumento de 150% na taxa de transferência."
|
622
|
+
},
|
623
|
+
"command-light": {
|
624
|
+
"description": "Uma versão do Command que é menor e mais rápida, quase tão poderosa, mas com maior velocidade."
|
625
|
+
},
|
626
|
+
"command-light-nightly": {
|
627
|
+
"description": "Para reduzir o intervalo entre os lançamentos de versões principais, lançamos versões noturnas do modelo Command. Para a série command-light, essa versão é chamada de command-light-nightly. Observe que o command-light-nightly é a versão mais recente, experimental e (possivelmente) instável. As versões noturnas são atualizadas regularmente e sem aviso prévio, portanto, não são recomendadas para uso em ambientes de produção."
|
628
|
+
},
|
629
|
+
"command-nightly": {
|
630
|
+
"description": "Para reduzir o intervalo entre os lançamentos de versões principais, lançamos versões noturnas do modelo Command. Para a série Command, essa versão é chamada de command-cightly. Observe que o command-nightly é a versão mais recente, experimental e (possivelmente) instável. As versões noturnas são atualizadas regularmente e sem aviso prévio, portanto, não são recomendadas para uso em ambientes de produção."
|
631
|
+
},
|
605
632
|
"command-r": {
|
606
633
|
"description": "Command R é um LLM otimizado para tarefas de diálogo e longos contextos, especialmente adequado para interações dinâmicas e gerenciamento de conhecimento."
|
607
634
|
},
|
635
|
+
"command-r-03-2024": {
|
636
|
+
"description": "O Command R é um modelo de diálogo que segue instruções, apresentando maior qualidade e confiabilidade em tarefas linguísticas, além de um comprimento de contexto mais longo em comparação com modelos anteriores. Ele pode ser utilizado em fluxos de trabalho complexos, como geração de código, geração aumentada por recuperação (RAG), uso de ferramentas e agentes."
|
637
|
+
},
|
638
|
+
"command-r-08-2024": {
|
639
|
+
"description": "O command-r-08-2024 é uma versão atualizada do modelo Command R, lançada em agosto de 2024."
|
640
|
+
},
|
608
641
|
"command-r-plus": {
|
609
642
|
"description": "Command R+ é um modelo de linguagem de grande porte de alto desempenho, projetado para cenários empresariais reais e aplicações complexas."
|
610
643
|
},
|
644
|
+
"command-r-plus-04-2024": {
|
645
|
+
"description": "O Command R+ é um modelo de diálogo que segue instruções, apresentando maior qualidade e confiabilidade em tarefas linguísticas, além de um comprimento de contexto mais longo em comparação com modelos anteriores. É mais adequado para fluxos de trabalho complexos de RAG e uso de ferramentas em múltiplas etapas."
|
646
|
+
},
|
647
|
+
"command-r7b-12-2024": {
|
648
|
+
"description": "O command-r7b-12-2024 é uma versão compacta e eficiente, lançada em dezembro de 2024. Ele se destaca em tarefas que exigem raciocínio complexo e processamento em múltiplas etapas, como RAG, uso de ferramentas e agentes."
|
649
|
+
},
|
611
650
|
"dall-e-2": {
|
612
651
|
"description": "O segundo modelo DALL·E, suporta geração de imagens mais realistas e precisas, com resolução quatro vezes maior que a da primeira geração."
|
613
652
|
},
|
@@ -668,12 +707,24 @@
|
|
668
707
|
"deepseek-r1": {
|
669
708
|
"description": "DeepSeek-R1 é um modelo de inferência impulsionado por aprendizado por reforço (RL), que resolve problemas de repetitividade e legibilidade no modelo. Antes do RL, o DeepSeek-R1 introduziu dados de inicialização a frio, otimizando ainda mais o desempenho da inferência. Ele apresenta desempenho comparável ao OpenAI-o1 em tarefas matemáticas, de código e de inferência, e melhora o resultado geral por meio de métodos de treinamento cuidadosamente projetados."
|
670
709
|
},
|
710
|
+
"deepseek-r1-70b-fast-online": {
|
711
|
+
"description": "DeepSeek R1 70B versão rápida, suporta busca em tempo real, oferecendo maior velocidade de resposta enquanto mantém o desempenho do modelo."
|
712
|
+
},
|
713
|
+
"deepseek-r1-70b-online": {
|
714
|
+
"description": "DeepSeek R1 70B versão padrão, suporta busca em tempo real, adequado para diálogos e tarefas de processamento de texto que requerem informações atualizadas."
|
715
|
+
},
|
671
716
|
"deepseek-r1-distill-llama-70b": {
|
672
717
|
"description": "DeepSeek R1 — um modelo maior e mais inteligente dentro do pacote DeepSeek — foi destilado para a arquitetura Llama 70B. Com base em testes de referência e avaliações humanas, este modelo é mais inteligente que o Llama 70B original, destacando-se especialmente em tarefas que exigem precisão matemática e factual."
|
673
718
|
},
|
674
719
|
"deepseek-r1-distill-llama-8b": {
|
675
720
|
"description": "O modelo da série DeepSeek-R1-Distill é obtido através da técnica de destilação de conhecimento, ajustando amostras geradas pelo DeepSeek-R1 em modelos de código aberto como Qwen e Llama."
|
676
721
|
},
|
722
|
+
"deepseek-r1-distill-qianfan-llama-70b": {
|
723
|
+
"description": "Lançado pela primeira vez em 14 de fevereiro de 2025, destilado pela equipe de desenvolvimento do modelo Qianfan a partir do modelo base Llama3_70B (Construído com Meta Llama), com dados de destilação que também incluem o corpus do Qianfan."
|
724
|
+
},
|
725
|
+
"deepseek-r1-distill-qianfan-llama-8b": {
|
726
|
+
"description": "Lançado pela primeira vez em 14 de fevereiro de 2025, destilado pela equipe de desenvolvimento do modelo Qianfan a partir do modelo base Llama3_8B (Construído com Meta Llama), com dados de destilação que também incluem o corpus do Qianfan."
|
727
|
+
},
|
677
728
|
"deepseek-r1-distill-qwen-1.5b": {
|
678
729
|
"description": "O modelo da série DeepSeek-R1-Distill é obtido através da técnica de destilação de conhecimento, ajustando amostras geradas pelo DeepSeek-R1 em modelos de código aberto como Qwen e Llama."
|
679
730
|
},
|
@@ -686,6 +737,12 @@
|
|
686
737
|
"deepseek-r1-distill-qwen-7b": {
|
687
738
|
"description": "O modelo da série DeepSeek-R1-Distill é obtido através da técnica de destilação de conhecimento, ajustando amostras geradas pelo DeepSeek-R1 em modelos de código aberto como Qwen e Llama."
|
688
739
|
},
|
740
|
+
"deepseek-r1-fast-online": {
|
741
|
+
"description": "DeepSeek R1 versão completa rápida, suporta busca em tempo real, combinando a poderosa capacidade de 671B de parâmetros com maior velocidade de resposta."
|
742
|
+
},
|
743
|
+
"deepseek-r1-online": {
|
744
|
+
"description": "DeepSeek R1 versão completa, com 671B de parâmetros, suporta busca em tempo real, apresentando capacidades de compreensão e geração mais robustas."
|
745
|
+
},
|
689
746
|
"deepseek-reasoner": {
|
690
747
|
"description": "Modelo de raciocínio lançado pela DeepSeek. Antes de fornecer a resposta final, o modelo gera uma cadeia de pensamento para aumentar a precisão da resposta final."
|
691
748
|
},
|
@@ -764,6 +821,9 @@
|
|
764
821
|
"ernie-4.0-turbo-8k-preview": {
|
765
822
|
"description": "Modelo de linguagem de grande escala de nível flagship desenvolvido pela Baidu, com desempenho geral excepcional, amplamente aplicável a cenários de tarefas complexas em várias áreas; suporta integração automática com plugins de busca da Baidu, garantindo a atualidade das informações de perguntas e respostas. Em comparação com o ERNIE 4.0, apresenta desempenho superior."
|
766
823
|
},
|
824
|
+
"ernie-4.5-8k-preview": {
|
825
|
+
"description": "O modelo ERNIE 4.5 é a nova geração de modelo de base multimodal nativo desenvolvido pela Baidu, alcançando otimização colaborativa por meio de modelagem conjunta de múltiplos modos, com excelente capacidade de compreensão multimodal; apresenta habilidades linguísticas aprimoradas, com melhorias abrangentes em compreensão, geração, lógica e memória, além de redução de alucinações e melhorias significativas em raciocínio lógico e habilidades de codificação."
|
826
|
+
},
|
767
827
|
"ernie-char-8k": {
|
768
828
|
"description": "Modelo de linguagem de grande escala vertical desenvolvido pela Baidu, adequado para aplicações como NPCs de jogos, diálogos de atendimento ao cliente e interpretação de personagens, com estilo de personagem mais distinto e consistente, capacidade de seguir instruções mais forte e desempenho de inferência superior."
|
769
829
|
},
|
@@ -1097,9 +1157,6 @@
|
|
1097
1157
|
"hunyuan-turbo": {
|
1098
1158
|
"description": "Versão de pré-visualização do novo modelo de linguagem de próxima geração Hunyuan, utilizando uma nova estrutura de modelo de especialistas mistos (MoE), com eficiência de inferência mais rápida e desempenho superior em comparação ao Hunyuan-Pro."
|
1099
1159
|
},
|
1100
|
-
"hunyuan-turbo-20241120": {
|
1101
|
-
"description": "Versão fixa do hunyuan-turbo de 20 de novembro de 2024, uma versão intermediária entre hunyuan-turbo e hunyuan-turbo-latest."
|
1102
|
-
},
|
1103
1160
|
"hunyuan-turbo-20241223": {
|
1104
1161
|
"description": "Esta versão otimiza: escalonamento de instruções de dados, aumentando significativamente a capacidade de generalização do modelo; melhoria substancial nas habilidades matemáticas, de codificação e de raciocínio lógico; otimização das capacidades de compreensão de texto e palavras; melhoria na qualidade da geração de conteúdo de criação de texto."
|
1105
1162
|
},
|
@@ -1109,6 +1166,15 @@
|
|
1109
1166
|
"hunyuan-turbo-vision": {
|
1110
1167
|
"description": "Novo modelo de linguagem visual de próxima geração da Hunyuan, adotando uma nova estrutura de modelo de especialistas mistos (MoE), com melhorias abrangentes em relação ao modelo anterior nas capacidades de reconhecimento básico, criação de conteúdo, perguntas e respostas de conhecimento, e análise e raciocínio relacionados à compreensão de texto e imagem."
|
1111
1168
|
},
|
1169
|
+
"hunyuan-turbos-20250226": {
|
1170
|
+
"description": "Versão fixa do hunyuan-TurboS pv2.1.2 com atualização do token de treinamento; aprimoramento das capacidades de raciocínio em matemática/lógica/código; melhoria da experiência em chinês e inglês, incluindo criação de texto, compreensão de texto, perguntas e respostas de conhecimento, conversas informais, entre outros."
|
1171
|
+
},
|
1172
|
+
"hunyuan-turbos-20250313": {
|
1173
|
+
"description": "Estilo unificado para etapas de resolução de problemas matemáticos, fortalecendo perguntas e respostas matemáticas em múltiplas rodadas. Otimização do estilo de resposta para criação de texto, removendo o 'sabor' de IA e aumentando a eloquência."
|
1174
|
+
},
|
1175
|
+
"hunyuan-turbos-latest": {
|
1176
|
+
"description": "A versão mais recente do hunyuan-TurboS, o modelo de grande porte da Hunyuan, possui uma capacidade de raciocínio mais forte e uma experiência aprimorada."
|
1177
|
+
},
|
1112
1178
|
"hunyuan-vision": {
|
1113
1179
|
"description": "O mais recente modelo multimodal Hunyuan, que suporta a entrada de imagens e texto para gerar conteúdo textual."
|
1114
1180
|
},
|
@@ -23,6 +23,9 @@
|
|
23
23
|
"cloudflare": {
|
24
24
|
"description": "Execute modelos de aprendizado de máquina impulsionados por GPU sem servidor na rede global da Cloudflare."
|
25
25
|
},
|
26
|
+
"cohere": {
|
27
|
+
"description": "Cohere traz para você os modelos multilíngues mais avançados, funcionalidades de busca sofisticadas e um espaço de trabalho de IA personalizado para empresas modernas — tudo integrado em uma plataforma segura."
|
28
|
+
},
|
26
29
|
"deepseek": {
|
27
30
|
"description": "A DeepSeek é uma empresa focada em pesquisa e aplicação de tecnologia de inteligência artificial, cujo modelo mais recente, DeepSeek-V2.5, combina capacidades de diálogo geral e processamento de código, alcançando melhorias significativas em alinhamento com preferências humanas, tarefas de escrita e seguimento de instruções."
|
28
31
|
},
|
@@ -101,6 +104,9 @@
|
|
101
104
|
"sambanova": {
|
102
105
|
"description": "O SambaNova Cloud permite que os desenvolvedores utilizem facilmente os melhores modelos de código aberto e desfrutem da maior velocidade de inferência."
|
103
106
|
},
|
107
|
+
"search1api": {
|
108
|
+
"description": "Search1API oferece acesso à série de modelos DeepSeek que podem se conectar à internet conforme necessário, incluindo versões padrão e rápida, suportando a escolha de modelos em várias escalas de parâmetros."
|
109
|
+
},
|
104
110
|
"sensenova": {
|
105
111
|
"description": "A SenseTime oferece serviços de grandes modelos de pilha completa, aproveitando o forte suporte da infraestrutura da SenseTime."
|
106
112
|
},
|
@@ -41,7 +41,10 @@
|
|
41
41
|
"error": {
|
42
42
|
"desc": "К сожалению, произошла ошибка при инициализации базы данных Pglite. Пожалуйста, нажмите кнопку, чтобы попробовать снова. Если после нескольких попыток ошибка сохраняется, пожалуйста, <1>отправьте запрос</1>, и мы постараемся помочь вам в кратчайшие сроки.",
|
43
43
|
"detail": "Причина ошибки: [{{type}}] {{message}}. Подробности ниже:",
|
44
|
+
"detailTitle": "Причина ошибки",
|
45
|
+
"report": "Сообщить о проблеме",
|
44
46
|
"retry": "Повторить",
|
47
|
+
"selfSolve": "Самостоятельное решение",
|
45
48
|
"title": "Не удалось инициализировать базу данных"
|
46
49
|
},
|
47
50
|
"initing": {
|
@@ -80,6 +83,54 @@
|
|
80
83
|
"button": "Использовать сейчас",
|
81
84
|
"desc": "Использовать сейчас",
|
82
85
|
"title": "База данных PGlite готова"
|
86
|
+
},
|
87
|
+
"solve": {
|
88
|
+
"backup": {
|
89
|
+
"backup": "Резервное копирование",
|
90
|
+
"backupSuccess": "Резервное копирование успешно",
|
91
|
+
"desc": "Экспортировать ключевые данные из текущей базы данных",
|
92
|
+
"export": "Экспортировать все данные",
|
93
|
+
"exportDesc": "Экспортированные данные будут сохранены в формате JSON и могут быть использованы для последующего восстановления или анализа.",
|
94
|
+
"reset": {
|
95
|
+
"alert": "Предупреждение",
|
96
|
+
"alertDesc": "Следующие действия могут привести к потере данных. Пожалуйста, убедитесь, что вы сделали резервную копию важных данных перед продолжением.",
|
97
|
+
"button": "Полностью сбросить базу данных (удалить все данные)",
|
98
|
+
"confirm": {
|
99
|
+
"desc": "Это действие удалит все данные и не подлежит отмене, вы уверены, что хотите продолжить?",
|
100
|
+
"title": "Подтвердите сброс базы данных"
|
101
|
+
},
|
102
|
+
"desc": "Сброс базы данных в случае невозможности восстановления",
|
103
|
+
"title": "Сброс базы данных"
|
104
|
+
},
|
105
|
+
"restore": "Восстановить",
|
106
|
+
"restoreSuccess": "Восстановление успешно",
|
107
|
+
"title": "Резервное копирование данных"
|
108
|
+
},
|
109
|
+
"diagnosis": {
|
110
|
+
"createdAt": "Дата создания",
|
111
|
+
"migratedAt": "Дата завершения миграции",
|
112
|
+
"sql": "SQL миграции",
|
113
|
+
"title": "Статус миграции"
|
114
|
+
},
|
115
|
+
"repair": {
|
116
|
+
"desc": "Ручное управление статусом миграции",
|
117
|
+
"runSQL": "Пользовательское выполнение",
|
118
|
+
"sql": {
|
119
|
+
"clear": "Очистить",
|
120
|
+
"desc": "Выполнить пользовательский SQL-запрос для исправления проблем с базой данных",
|
121
|
+
"markFinished": "Отметить как завершенное",
|
122
|
+
"placeholder": "Введите SQL-запрос...",
|
123
|
+
"result": "Результат выполнения",
|
124
|
+
"run": "Выполнить",
|
125
|
+
"title": "SQL-исполнитель"
|
126
|
+
},
|
127
|
+
"title": "Управление миграцией"
|
128
|
+
},
|
129
|
+
"tabs": {
|
130
|
+
"backup": "Резервное копирование и восстановление",
|
131
|
+
"diagnosis": "Диагностика",
|
132
|
+
"repair": "Ремонт"
|
133
|
+
}
|
83
134
|
}
|
84
135
|
},
|
85
136
|
"close": "Закрыть",
|
@@ -518,6 +518,18 @@
|
|
518
518
|
"baichuan/baichuan2-13b-chat": {
|
519
519
|
"description": "Baichuan-13B — это открытая коммерческая крупная языковая модель с 13 миллиардами параметров, разработанная Baichuan Intelligence, которая показала лучшие результаты среди моделей того же размера на авторитетных бенчмарках на китайском и английском языках."
|
520
520
|
},
|
521
|
+
"c4ai-aya-expanse-32b": {
|
522
|
+
"description": "Aya Expanse — это высокопроизводительная многоязычная модель 32B, созданная для того, чтобы бросить вызов производительности одноязычных моделей с помощью инноваций в области настройки по инструкциям, арбитража данных, обучения предпочтениям и объединения моделей. Она поддерживает 23 языка."
|
523
|
+
},
|
524
|
+
"c4ai-aya-expanse-8b": {
|
525
|
+
"description": "Aya Expanse — это высокопроизводительная многоязычная модель 8B, созданная для того, чтобы бросить вызов производительности одноязычных моделей с помощью инноваций в области настройки по инструкциям, арбитража данных, обучения предпочтениям и объединения моделей. Она поддерживает 23 языка."
|
526
|
+
},
|
527
|
+
"c4ai-aya-vision-32b": {
|
528
|
+
"description": "Aya Vision — это передовая мультимодальная модель, которая демонстрирует отличные результаты по нескольким ключевым бенчмаркам в области языковых, текстовых и визуальных возможностей. Эта версия с 32 миллиардами параметров сосредоточена на передовых многоязычных результатах."
|
529
|
+
},
|
530
|
+
"c4ai-aya-vision-8b": {
|
531
|
+
"description": "Aya Vision — это передовая мультимодальная модель, которая демонстрирует отличные результаты по нескольким ключевым бенчмаркам в области языковых, текстовых и визуальных возможностей. Эта версия с 8 миллиардами параметров сосредоточена на низкой задержке и оптимальной производительности."
|
532
|
+
},
|
521
533
|
"charglm-3": {
|
522
534
|
"description": "CharGLM-3 разработан для ролевых игр и эмоционального сопровождения, поддерживает сверхдлинную многократную память и персонализированные диалоги, имеет широкое применение."
|
523
535
|
},
|
@@ -602,12 +614,39 @@
|
|
602
614
|
"cohere-command-r-plus": {
|
603
615
|
"description": "Command R+ — это модель, оптимизированная для RAG, предназначенная для решения задач корпоративного уровня."
|
604
616
|
},
|
617
|
+
"command": {
|
618
|
+
"description": "Диалоговая модель, следуя инструкциям, которая демонстрирует высокое качество и надежность в языковых задачах, а также имеет более длинную длину контекста по сравнению с нашей базовой генеративной моделью."
|
619
|
+
},
|
620
|
+
"command-a-03-2025": {
|
621
|
+
"description": "Команда A — это наша самая мощная модель на сегодняшний день, которая демонстрирует отличные результаты в использовании инструментов, агентировании, улучшенной генерации с помощью поиска (RAG) и многоязычных приложениях. Команда A имеет длину контекста 256K и может работать всего на двух GPU, а производительность увеличилась на 150% по сравнению с Command R+ 08-2024."
|
622
|
+
},
|
623
|
+
"command-light": {
|
624
|
+
"description": "Более компактная и быстрая версия Command, почти столь же мощная, но более быстрая."
|
625
|
+
},
|
626
|
+
"command-light-nightly": {
|
627
|
+
"description": "Чтобы сократить временные интервалы между основными выпусками, мы представили ночную версию модели Command. Для серии command-light эта версия называется command-light-nightly. Обратите внимание, что command-light-nightly — это самая последняя, экспериментальная и (возможно) нестабильная версия. Ночные версии регулярно обновляются без предварительного уведомления, поэтому их не рекомендуется использовать в производственной среде."
|
628
|
+
},
|
629
|
+
"command-nightly": {
|
630
|
+
"description": "Чтобы сократить временные интервалы между основными выпусками, мы представили ночную версию модели Command. Для серии Command эта версия называется command-cightly. Обратите внимание, что command-nightly — это самая последняя, экспериментальная и (возможно) нестабильная версия. Ночные версии регулярно обновляются без предварительного уведомления, поэтому их не рекомендуется использовать в производственной среде."
|
631
|
+
},
|
605
632
|
"command-r": {
|
606
633
|
"description": "Command R — это LLM, оптимизированная для диалогов и задач с длинным контекстом, особенно подходит для динамического взаимодействия и управления знаниями."
|
607
634
|
},
|
635
|
+
"command-r-03-2024": {
|
636
|
+
"description": "Команда R — это диалоговая модель, следуя инструкциям, которая демонстрирует более высокое качество и надежность в языковых задачах, а также имеет более длинную длину контекста по сравнению с предыдущими моделями. Она может использоваться для сложных рабочих процессов, таких как генерация кода, улучшенная генерация с помощью поиска (RAG), использование инструментов и агентирование."
|
637
|
+
},
|
638
|
+
"command-r-08-2024": {
|
639
|
+
"description": "command-r-08-2024 — это обновленная версия модели Command R, выпущенная в августе 2024 года."
|
640
|
+
},
|
608
641
|
"command-r-plus": {
|
609
642
|
"description": "Command R+ — это высокопроизводительная большая языковая модель, специально разработанная для реальных бизнес-сценариев и сложных приложений."
|
610
643
|
},
|
644
|
+
"command-r-plus-04-2024": {
|
645
|
+
"description": "Команда R+ — это диалоговая модель, следуя инструкциям, которая демонстрирует более высокое качество и надежность в языковых задачах, а также имеет более длинную длину контекста по сравнению с предыдущими моделями. Она лучше всего подходит для сложных рабочих процессов RAG и многократного использования инструментов."
|
646
|
+
},
|
647
|
+
"command-r7b-12-2024": {
|
648
|
+
"description": "command-r7b-12-2024 — это компактная и эффективная обновленная версия, выпущенная в декабре 2024 года. Она демонстрирует отличные результаты в задачах, требующих сложного рассуждения и многократной обработки, таких как RAG, использование инструментов и агентирование."
|
649
|
+
},
|
611
650
|
"dall-e-2": {
|
612
651
|
"description": "Вторая генерация модели DALL·E, поддерживающая более реалистичную и точную генерацию изображений с разрешением в 4 раза выше, чем у первой генерации."
|
613
652
|
},
|
@@ -668,12 +707,24 @@
|
|
668
707
|
"deepseek-r1": {
|
669
708
|
"description": "DeepSeek-R1 — это модель вывода, управляемая методом обучения с подкреплением (RL), которая решает проблемы повторяемости и читаемости модели. Перед применением RL DeepSeek-R1 вводит данные холодного старта, что дополнительно оптимизирует производительность вывода. Она показывает сопоставимые результаты с OpenAI-o1 в математических, кодовых и задачах вывода, а также улучшает общую эффективность благодаря тщательно разработанным методам обучения."
|
670
709
|
},
|
710
|
+
"deepseek-r1-70b-fast-online": {
|
711
|
+
"description": "DeepSeek R1 70B быстрая версия, поддерживающая онлайн-поиск в реальном времени, обеспечивающая более быструю скорость отклика при сохранении производительности модели."
|
712
|
+
},
|
713
|
+
"deepseek-r1-70b-online": {
|
714
|
+
"description": "DeepSeek R1 70B стандартная версия, поддерживающая онлайн-поиск в реальном времени, подходит для диалогов и текстовых задач, требующих актуальной информации."
|
715
|
+
},
|
671
716
|
"deepseek-r1-distill-llama-70b": {
|
672
717
|
"description": "DeepSeek R1 — более крупная и умная модель в наборе DeepSeek, была дистиллирована в архитектуру Llama 70B. На основе бенчмарков и ручной оценки эта модель более умная, особенно в задачах, требующих математической и фактической точности."
|
673
718
|
},
|
674
719
|
"deepseek-r1-distill-llama-8b": {
|
675
720
|
"description": "Модели серии DeepSeek-R1-Distill были получены с помощью технологии дистилляции знаний, донастраивая образцы, сгенерированные DeepSeek-R1, на открытых моделях, таких как Qwen и Llama."
|
676
721
|
},
|
722
|
+
"deepseek-r1-distill-qianfan-llama-70b": {
|
723
|
+
"description": "Выпущена 14 февраля 2025 года, дистиллированная модель, разработанная командой Qianfan на основе Llama3_70B (создана с использованием Meta Llama), в дистиллированные данные также были добавлены материалы Qianfan."
|
724
|
+
},
|
725
|
+
"deepseek-r1-distill-qianfan-llama-8b": {
|
726
|
+
"description": "Выпущена 14 февраля 2025 года, дистиллированная модель, разработанная командой Qianfan на основе Llama3_8B (создана с использованием Meta Llama), в дистиллированные данные также были добавлены материалы Qianfan."
|
727
|
+
},
|
677
728
|
"deepseek-r1-distill-qwen-1.5b": {
|
678
729
|
"description": "Модели серии DeepSeek-R1-Distill были получены с помощью технологии дистилляции знаний, донастраивая образцы, сгенерированные DeepSeek-R1, на открытых моделях, таких как Qwen и Llama."
|
679
730
|
},
|
@@ -686,6 +737,12 @@
|
|
686
737
|
"deepseek-r1-distill-qwen-7b": {
|
687
738
|
"description": "Модели серии DeepSeek-R1-Distill были получены с помощью технологии дистилляции знаний, донастраивая образцы, сгенерированные DeepSeek-R1, на открытых моделях, таких как Qwen и Llama."
|
688
739
|
},
|
740
|
+
"deepseek-r1-fast-online": {
|
741
|
+
"description": "DeepSeek R1 полная быстрая версия, поддерживающая онлайн-поиск в реальном времени, объединяющая мощные возможности 671B параметров и более быструю скорость отклика."
|
742
|
+
},
|
743
|
+
"deepseek-r1-online": {
|
744
|
+
"description": "DeepSeek R1 полная версия, имеющая 671B параметров, поддерживающая онлайн-поиск в реальном времени, обладающая более мощными способностями понимания и генерации."
|
745
|
+
},
|
689
746
|
"deepseek-reasoner": {
|
690
747
|
"description": "Модель вывода, представленная DeepSeek. Перед тем как выдать окончательный ответ, модель сначала выводит цепочку размышлений, чтобы повысить точность окончательного ответа."
|
691
748
|
},
|
@@ -764,6 +821,9 @@
|
|
764
821
|
"ernie-4.0-turbo-8k-preview": {
|
765
822
|
"description": "Флагманская сверхбольшая языковая модель, разработанная Baidu, демонстрирует отличные результаты в комплексных задачах, широко применима в различных областях; поддерживает автоматическое подключение к плагину поиска Baidu, обеспечивая актуальность информации. По сравнению с ERNIE 4.0, она показывает лучшие результаты."
|
766
823
|
},
|
824
|
+
"ernie-4.5-8k-preview": {
|
825
|
+
"description": "Модель Ernie 4.5 — это новое поколение оригинальной мультимодальной базовой модели, разработанной Baidu, которая достигает совместной оптимизации через совместное моделирование нескольких модальностей, обладая отличными способностями к мультимодальному пониманию; обладает более совершенными языковыми способностями, улучшенными способностями к пониманию, генерации, логике и памяти, а также значительно улучшенными способностями к устранению галлюцинаций, логическому выводу и кодированию."
|
826
|
+
},
|
767
827
|
"ernie-char-8k": {
|
768
828
|
"description": "Специализированная большая языковая модель, разработанная Baidu, подходящая для применения в игровых NPC, диалогах службы поддержки, ролевых играх и других сценариях, с более ярким и последовательным стилем персонажей, более высокой способностью следовать инструкциям и лучшей производительностью вывода."
|
769
829
|
},
|
@@ -1097,9 +1157,6 @@
|
|
1097
1157
|
"hunyuan-turbo": {
|
1098
1158
|
"description": "Предварительная версия нового поколения языковой модели Hunyuan, использующая совершенно новую структуру смешанной экспертной модели (MoE), которая обеспечивает более быструю эффективность вывода и более сильные результаты по сравнению с hunyuan-pro."
|
1099
1159
|
},
|
1100
|
-
"hunyuan-turbo-20241120": {
|
1101
|
-
"description": "Фиксированная версия hunyuan-turbo от 20 ноября 2024 года, промежуточная между hunyuan-turbo и hunyuan-turbo-latest."
|
1102
|
-
},
|
1103
1160
|
"hunyuan-turbo-20241223": {
|
1104
1161
|
"description": "Оптимизация этой версии: масштабирование данных и инструкций, значительное повышение общей обобщающей способности модели; значительное улучшение математических, кодовых и логических способностей; оптимизация понимания текста и связанных с ним способностей понимания слов; оптимизация качества генерации контента при создании текста."
|
1105
1162
|
},
|
@@ -1109,6 +1166,15 @@
|
|
1109
1166
|
"hunyuan-turbo-vision": {
|
1110
1167
|
"description": "Флагманская модель нового поколения Hunyuan в области визуального языка, использующая совершенно новую структуру смешанной экспертной модели (MoE), с полным улучшением способностей в области базового распознавания, создания контента, вопросов и ответов на знания, анализа и вывода по сравнению с предыдущей моделью."
|
1111
1168
|
},
|
1169
|
+
"hunyuan-turbos-20250226": {
|
1170
|
+
"description": "hunyuan-TurboS pv2.1.2 — фиксированная версия, в которой обновлены токены предобученной базы; улучшены аналитические способности в математике/логике/кодировании; улучшен общий опыт на китайском и английском языках, включая текстовое творчество, понимание текста, вопросы и ответы, беседы и т.д."
|
1171
|
+
},
|
1172
|
+
"hunyuan-turbos-20250313": {
|
1173
|
+
"description": "Унификация стиля решения математических задач, улучшение многократных вопросов и ответов по математике. Оптимизация стиля ответов в текстовом творчестве, устранение «вкуса ИИ», добавление литературности."
|
1174
|
+
},
|
1175
|
+
"hunyuan-turbos-latest": {
|
1176
|
+
"description": "hunyuan-TurboS — это последняя версия флагманской модели Hunyuan, обладающая более сильными аналитическими способностями и улучшенным качеством работы."
|
1177
|
+
},
|
1112
1178
|
"hunyuan-vision": {
|
1113
1179
|
"description": "Последняя многомодальная модель Hunyuan, поддерживающая ввод изображений и текста для генерации текстового контента."
|
1114
1180
|
},
|