@lobehub/chat 1.47.16 → 1.47.18

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (51) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/locales/ar/modelProvider.json +1 -0
  4. package/locales/ar/models.json +30 -3
  5. package/locales/bg-BG/modelProvider.json +1 -0
  6. package/locales/bg-BG/models.json +30 -3
  7. package/locales/de-DE/modelProvider.json +1 -0
  8. package/locales/de-DE/models.json +30 -3
  9. package/locales/en-US/modelProvider.json +1 -0
  10. package/locales/en-US/models.json +30 -3
  11. package/locales/es-ES/modelProvider.json +1 -0
  12. package/locales/es-ES/models.json +30 -3
  13. package/locales/fa-IR/modelProvider.json +1 -0
  14. package/locales/fa-IR/models.json +30 -3
  15. package/locales/fr-FR/modelProvider.json +1 -0
  16. package/locales/fr-FR/models.json +30 -3
  17. package/locales/it-IT/modelProvider.json +1 -0
  18. package/locales/it-IT/models.json +30 -3
  19. package/locales/ja-JP/modelProvider.json +1 -0
  20. package/locales/ja-JP/models.json +30 -3
  21. package/locales/ko-KR/modelProvider.json +1 -0
  22. package/locales/ko-KR/models.json +30 -3
  23. package/locales/nl-NL/modelProvider.json +1 -0
  24. package/locales/nl-NL/models.json +30 -3
  25. package/locales/pl-PL/modelProvider.json +1 -0
  26. package/locales/pl-PL/models.json +30 -3
  27. package/locales/pt-BR/modelProvider.json +1 -0
  28. package/locales/pt-BR/models.json +30 -3
  29. package/locales/ru-RU/modelProvider.json +1 -0
  30. package/locales/ru-RU/models.json +30 -3
  31. package/locales/tr-TR/modelProvider.json +1 -0
  32. package/locales/tr-TR/models.json +30 -3
  33. package/locales/vi-VN/modelProvider.json +1 -0
  34. package/locales/vi-VN/models.json +30 -3
  35. package/locales/zh-CN/modelProvider.json +2 -1
  36. package/locales/zh-CN/models.json +32 -5
  37. package/locales/zh-TW/modelProvider.json +1 -0
  38. package/locales/zh-TW/models.json +30 -3
  39. package/package.json +2 -2
  40. package/src/app/(main)/settings/provider/(detail)/azure/page.tsx +4 -6
  41. package/src/app/(main)/settings/provider/(detail)/bedrock/page.tsx +5 -4
  42. package/src/app/(main)/settings/provider/(detail)/cloudflare/page.tsx +3 -3
  43. package/src/app/(main)/settings/provider/(detail)/github/page.tsx +2 -2
  44. package/src/app/(main)/settings/provider/(detail)/huggingface/page.tsx +2 -2
  45. package/src/app/(main)/settings/provider/(detail)/wenxin/page.tsx +3 -3
  46. package/src/app/(main)/settings/provider/features/ProviderConfig/index.tsx +17 -4
  47. package/src/components/FormInput/FormInput.tsx +42 -0
  48. package/src/components/FormInput/FormPassword.tsx +42 -0
  49. package/src/components/FormInput/index.ts +2 -0
  50. package/src/config/modelProviders/deepseek.ts +3 -0
  51. package/src/locales/default/modelProvider.ts +1 -0
@@ -17,6 +17,9 @@
17
17
  "360gpt-turbo-responsibility-8k": {
18
18
  "description": "360GPT Turbo Responsibility 8K는 의미 안전성과 책임 지향성을 강조하며, 콘텐츠 안전에 대한 높은 요구가 있는 응용 시나리오를 위해 설계되어 사용자 경험의 정확성과 안정성을 보장합니다."
19
19
  },
20
+ "360gpt2-o1": {
21
+ "description": "360gpt2-o1은 트리 탐색을 사용하여 사고 체인을 구축하고 반성 메커니즘을 도입하였으며, 강화 학습을 통해 훈련되어 자기 반성과 오류 수정 능력을 갖추고 있습니다."
22
+ },
20
23
  "360gpt2-pro": {
21
24
  "description": "360GPT2 Pro는 360 회사에서 출시한 고급 자연어 처리 모델로, 뛰어난 텍스트 생성 및 이해 능력을 갖추고 있으며, 특히 생성 및 창작 분야에서 뛰어난 성능을 발휘하여 복잡한 언어 변환 및 역할 연기 작업을 처리할 수 있습니다."
22
25
  },
@@ -110,6 +113,9 @@
110
113
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
111
114
  "description": "Qwen2.5-7B-Instruct는 Alibaba Cloud에서 발표한 최신 대규모 언어 모델 시리즈 중 하나입니다. 이 7B 모델은 코딩 및 수학 분야에서 상당한 개선된 능력을 가지고 있습니다. 이 모델은 또한 29개 이상의 언어를 포함한 다국어 지원을 제공합니다. 모델은 지침 준수, 구조화된 데이터 이해 및 구조화된 출력 생성(특히 JSON)에서 상당한 향상을 보입니다."
112
115
  },
116
+ "MiniMax-Text-01": {
117
+ "description": "MiniMax-01 시리즈 모델에서는 대담한 혁신을 이루었습니다: 대규모로 선형 주의 메커니즘을 처음으로 구현하였으며, 전통적인 Transformer 아키텍처가 더 이상 유일한 선택이 아닙니다. 이 모델의 파라미터 수는 4560억에 달하며, 단일 활성화는 45.9억입니다. 모델의 종합 성능은 해외 최고의 모델과 견줄 수 있으며, 전 세계에서 가장 긴 400만 토큰의 문맥을 효율적으로 처리할 수 있습니다. 이는 GPT-4o의 32배, Claude-3.5-Sonnet의 20배에 해당합니다."
118
+ },
113
119
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
114
120
  "description": "Hermes 2 Mixtral 8x7B DPO는 뛰어난 창의적 경험을 제공하기 위해 설계된 고도로 유연한 다중 모델 통합입니다."
115
121
  },
@@ -218,6 +224,9 @@
218
224
  "Qwen2-7B-Instruct": {
219
225
  "description": "Qwen2는 Qwen 모델의 최신 시리즈로, 동등한 규모의 최적 오픈 소스 모델은 물론 더 큰 규모의 모델을 초월할 수 있습니다. Qwen2 7B는 여러 평가에서 현저한 우위를 차지하였으며, 특히 코드 및 중국어 이해에서 두드러진 성과를 보였습니다."
220
226
  },
227
+ "Qwen2-VL-72B": {
228
+ "description": "Qwen2-VL-72B는 강력한 시각 언어 모델로, 이미지와 텍스트의 다중 모드 처리를 지원하며, 이미지 내용을 정확하게 인식하고 관련 설명이나 답변을 생성할 수 있습니다."
229
+ },
221
230
  "Qwen2.5-14B-Instruct": {
222
231
  "description": "Qwen2.5-14B-Instruct는 140억 매개변수를 가진 대형 언어 모델로, 성능이 우수하며 중국어 및 다국어 시나리오를 최적화하여 스마트 Q&A, 콘텐츠 생성 등의 응용을 지원합니다."
223
232
  },
@@ -230,6 +239,9 @@
230
239
  "Qwen2.5-7B-Instruct": {
231
240
  "description": "Qwen2.5-7B-Instruct는 70억 매개변수를 가진 대형 언어 모델로, 함수 호출 및 외부 시스템과의 원활한 상호작용을 지원하여 유연성과 확장성을 크게 향상시킵니다. 중국어 및 다국어 시나리오를 최적화하여 스마트 Q&A, 콘텐츠 생성 등의 응용을 지원합니다."
232
241
  },
242
+ "Qwen2.5-Coder-14B-Instruct": {
243
+ "description": "Qwen2.5-Coder-14B-Instruct는 대규모 사전 훈련된 프로그래밍 지침 모델로, 강력한 코드 이해 및 생성 능력을 갖추고 있으며, 다양한 프로그래밍 작업을 효율적으로 처리할 수 있습니다. 특히 스마트 코드 작성, 자동화 스크립트 생성 및 프로그래밍 문제 해결에 적합합니다."
244
+ },
233
245
  "Qwen2.5-Coder-32B-Instruct": {
234
246
  "description": "Qwen2.5-Coder-32B-Instruct는 코드 생성, 코드 이해 및 효율적인 개발 시나리오를 위해 설계된 대형 언어 모델로, 업계 최고의 32B 매개변수 규모를 채택하여 다양한 프로그래밍 요구를 충족합니다."
235
247
  },
@@ -458,9 +470,6 @@
458
470
  "claude-3-sonnet-20240229": {
459
471
  "description": "Claude 3 Sonnet은 기업 작업 부하에 이상적인 균형을 제공하며, 더 낮은 가격으로 최대 효용을 제공합니다. 신뢰성이 높고 대규모 배포에 적합합니다."
460
472
  },
461
- "code-raccoon-v1": {
462
- "description": "코드 라쿤은 상상 대형 언어 모델을 기반으로 한 소프트웨어 지능 개발 도우미로, 소프트웨어 요구 분석, 아키텍처 설계, 코드 작성, 소프트웨어 테스트 등 다양한 단계를 포괄하여 사용자 코드 작성 및 프로그래밍 학습 등 다양한 요구를 충족합니다. 코드 라쿤은 Python, Java, JavaScript, C++, Go, SQL 등 90개 이상의 주요 프로그래밍 언어와 VS Code, IntelliJ IDEA 등 주요 IDE를 지원합니다. 실제 응용에서 코드 라쿤은 개발자의 프로그래밍 효율성을 50% 이상 향상시킬 수 있습니다."
463
- },
464
473
  "codegeex-4": {
465
474
  "description": "CodeGeeX-4는 강력한 AI 프로그래밍 도우미로, 다양한 프로그래밍 언어에 대한 스마트 Q&A 및 코드 완성을 지원하여 개발 효율성을 높입니다."
466
475
  },
@@ -599,6 +608,9 @@
599
608
  "gemini-2.0-flash-exp": {
600
609
  "description": "Gemini 2.0 Flash Exp는 Google의 최신 실험적 다중 모달 AI 모델로, 차세대 기능, 뛰어난 속도, 네이티브 도구 호출 및 다중 모달 생성을 갖추고 있습니다."
601
610
  },
611
+ "gemini-2.0-flash-thinking-exp-01-21": {
612
+ "description": "Gemini 2.0 Flash Exp는 Google의 최신 실험적 다중 모드 AI 모델로, 차세대 기능, 뛰어난 속도, 네이티브 도구 호출 및 다중 모드 생성을 제공합니다."
613
+ },
602
614
  "gemini-2.0-flash-thinking-exp-1219": {
603
615
  "description": "Gemini 2.0 Flash Exp는 Google의 최신 실험적 다중 모드 AI 모델로, 차세대 기능, 뛰어난 속도, 네이티브 도구 호출 및 다중 모드 생성을 제공합니다."
604
616
  },
@@ -671,6 +683,9 @@
671
683
  "glm-4v-plus": {
672
684
  "description": "GLM-4V-Plus는 비디오 콘텐츠 및 다수의 이미지에 대한 이해 능력을 갖추고 있어 다중 모드 작업에 적합합니다."
673
685
  },
686
+ "glm-zero-preview": {
687
+ "description": "GLM-Zero-Preview는 강력한 복잡한 추론 능력을 갖추고 있으며, 논리 추론, 수학, 프로그래밍 등 분야에서 우수한 성능을 발휘합니다."
688
+ },
674
689
  "google/gemini-flash-1.5": {
675
690
  "description": "Gemini 1.5 Flash는 최적화된 다중 모달 처리 능력을 제공하며, 다양한 복잡한 작업 시나리오에 적합합니다."
676
691
  },
@@ -1100,12 +1115,21 @@
1100
1115
  "moonshot-v1-128k": {
1101
1116
  "description": "Moonshot V1 128K는 초장기 컨텍스트 처리 능력을 갖춘 모델로, 초장문 생성을 위해 설계되었으며, 복잡한 생성 작업 요구를 충족하고 최대 128,000개의 토큰을 처리할 수 있어, 연구, 학술 및 대형 문서 생성 등 응용 시나리오에 매우 적합합니다."
1102
1117
  },
1118
+ "moonshot-v1-128k-vision-preview": {
1119
+ "description": "Kimi 시각 모델(예: moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 등)은 이미지 내용을 이해할 수 있으며, 이미지 텍스트, 이미지 색상 및 물체 형태 등을 포함합니다."
1120
+ },
1103
1121
  "moonshot-v1-32k": {
1104
1122
  "description": "Moonshot V1 32K는 중간 길이의 컨텍스트 처리 능력을 제공하며, 32,768개의 토큰을 처리할 수 있어, 다양한 장문 및 복잡한 대화 생성을 위해 특히 적합하며, 콘텐츠 생성, 보고서 작성 및 대화 시스템 등 분야에 활용됩니다."
1105
1123
  },
1124
+ "moonshot-v1-32k-vision-preview": {
1125
+ "description": "Kimi 시각 모델(예: moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 등)은 이미지 내용을 이해할 수 있으며, 이미지 텍스트, 이미지 색상 및 물체 형태 등을 포함합니다."
1126
+ },
1106
1127
  "moonshot-v1-8k": {
1107
1128
  "description": "Moonshot V1 8K는 짧은 텍스트 작업 생성을 위해 설계되었으며, 효율적인 처리 성능을 갖추고 있어 8,192개의 토큰을 처리할 수 있으며, 짧은 대화, 속기 및 빠른 콘텐츠 생성에 매우 적합합니다."
1108
1129
  },
1130
+ "moonshot-v1-8k-vision-preview": {
1131
+ "description": "Kimi 시각 모델(예: moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 등)은 이미지 내용을 이해할 수 있으며, 이미지 텍스트, 이미지 색상 및 물체 형태 등을 포함합니다."
1132
+ },
1109
1133
  "nousresearch/hermes-2-pro-llama-3-8b": {
1110
1134
  "description": "Hermes 2 Pro Llama 3 8B는 Nous Hermes 2의 업그레이드 버전으로, 최신 내부 개발 데이터 세트를 포함하고 있습니다."
1111
1135
  },
@@ -1313,6 +1337,9 @@
1313
1337
  "step-2-16k": {
1314
1338
  "description": "대규모 컨텍스트 상호작용을 지원하며, 복잡한 대화 시나리오에 적합합니다."
1315
1339
  },
1340
+ "taichu2_mm": {
1341
+ "description": "이미지 이해, 지식 이전, 논리 귀속 등의 능력을 통합하여, 이미지-텍스트 질문 응답 분야에서 뛰어난 성능을 보입니다."
1342
+ },
1316
1343
  "taichu_llm": {
1317
1344
  "description": "자이동 태초 언어 대모델은 뛰어난 언어 이해 능력과 텍스트 창작, 지식 질문 응답, 코드 프로그래밍, 수학 계산, 논리 추론, 감정 분석, 텍스트 요약 등의 능력을 갖추고 있습니다. 혁신적으로 대규모 데이터 사전 훈련과 다원적 풍부한 지식을 결합하여 알고리즘 기술을 지속적으로 다듬고, 방대한 텍스트 데이터에서 어휘, 구조, 문법, 의미 등의 새로운 지식을 지속적으로 흡수하여 모델 성능을 지속적으로 진화시킵니다. 사용자에게 보다 편리한 정보와 서비스, 그리고 더 지능적인 경험을 제공합니다."
1318
1345
  },
@@ -198,6 +198,7 @@
198
198
  },
199
199
  "baseURL": {
200
200
  "desc": "Moet http(s):// bevatten",
201
+ "invalid": "Voer een geldige URL in",
201
202
  "placeholder": "https://your-proxy-url.com/v1",
202
203
  "title": "API-proxy-adres"
203
204
  },
@@ -17,6 +17,9 @@
17
17
  "360gpt-turbo-responsibility-8k": {
18
18
  "description": "360GPT Turbo Responsibility 8K legt de nadruk op semantische veiligheid en verantwoordelijkheid, speciaal ontworpen voor toepassingen met hoge eisen aan inhoudsveiligheid, en zorgt voor nauwkeurigheid en robuustheid in de gebruikerservaring."
19
19
  },
20
+ "360gpt2-o1": {
21
+ "description": "360gpt2-o1 bouwt denkketens op met behulp van boomzoekmethoden en introduceert een reflectiemechanisme, getraind met versterkend leren, waardoor het model in staat is tot zelfreflectie en foutcorrectie."
22
+ },
20
23
  "360gpt2-pro": {
21
24
  "description": "360GPT2 Pro is een geavanceerd natuurlijk taalverwerkingsmodel dat is ontwikkeld door 360, met uitstekende tekstgeneratie- en begripcapaciteiten, vooral in de generatieve en creatieve domeinen, en kan complexe taaltransformaties en rolinterpretatietaken aan."
22
25
  },
@@ -110,6 +113,9 @@
110
113
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
111
114
  "description": "Qwen2.5-7B-Instruct is een van de nieuwste grote taalmodellen die door Alibaba Cloud is uitgebracht. Dit 7B-model heeft aanzienlijke verbeteringen in coderings- en wiskundige vaardigheden. Het model biedt ook meertalige ondersteuning, met meer dan 29 ondersteunde talen, waaronder Chinees en Engels. Het model heeft aanzienlijke verbeteringen in het volgen van instructies, het begrijpen van gestructureerde gegevens en het genereren van gestructureerde uitvoer (vooral JSON)."
112
115
  },
116
+ "MiniMax-Text-01": {
117
+ "description": "In de MiniMax-01-serie modellen hebben we gedurfde innovaties doorgevoerd: voor het eerst op grote schaal een lineaire aandachtmechanisme geïmplementeerd, waardoor de traditionele Transformer-architectuur niet langer de enige keuze is. Dit model heeft een parameterhoeveelheid van maar liefst 456 miljard, met een enkele activatie van 45,9 miljard. De algehele prestaties van het model zijn vergelijkbaar met die van de beste modellen in het buitenland, terwijl het efficiënt de wereldwijd langste context van 4 miljoen tokens kan verwerken, wat 32 keer de capaciteit van GPT-4o en 20 keer die van Claude-3.5-Sonnet is."
118
+ },
113
119
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
114
120
  "description": "Hermes 2 Mixtral 8x7B DPO is een zeer flexibele multi-model combinatie, ontworpen om een uitstekende creatieve ervaring te bieden."
115
121
  },
@@ -218,6 +224,9 @@
218
224
  "Qwen2-7B-Instruct": {
219
225
  "description": "Qwen2 is de nieuwste serie van het Qwen-model, dat in staat is om de beste open-source modellen van gelijke grootte of zelfs grotere modellen te overtreffen. Qwen2 7B heeft aanzienlijke voordelen behaald in verschillende evaluaties, vooral op het gebied van code en begrip van het Chinees."
220
226
  },
227
+ "Qwen2-VL-72B": {
228
+ "description": "Qwen2-VL-72B is een krachtig visueel taalmodel dat multimodale verwerking van afbeeldingen en tekst ondersteunt, in staat om afbeeldingsinhoud nauwkeurig te herkennen en relevante beschrijvingen of antwoorden te genereren."
229
+ },
221
230
  "Qwen2.5-14B-Instruct": {
222
231
  "description": "Qwen2.5-14B-Instruct is een groot taalmodel met 14 miljard parameters, met uitstekende prestaties, geoptimaliseerd voor Chinese en meertalige scenario's, en ondersteunt toepassingen zoals intelligente vraag-en-antwoord en contentgeneratie."
223
232
  },
@@ -230,6 +239,9 @@
230
239
  "Qwen2.5-7B-Instruct": {
231
240
  "description": "Qwen2.5-7B-Instruct is een groot taalmodel met 7 miljard parameters, dat function calls ondersteunt en naadloos kan interageren met externe systemen, wat de flexibiliteit en schaalbaarheid aanzienlijk vergroot. Geoptimaliseerd voor Chinese en meertalige scenario's, ondersteunt het toepassingen zoals intelligente vraag-en-antwoord en contentgeneratie."
232
241
  },
242
+ "Qwen2.5-Coder-14B-Instruct": {
243
+ "description": "Qwen2.5-Coder-14B-Instruct is een op grote schaal voorgetraind programmeerinstructiemodel met krachtige codebegrip- en generatiecapaciteiten, dat efficiënt verschillende programmeertaken kan verwerken, vooral geschikt voor slimme codegeneratie, automatiseringsscripts en het beantwoorden van programmeervragen."
244
+ },
233
245
  "Qwen2.5-Coder-32B-Instruct": {
234
246
  "description": "Qwen2.5-Coder-32B-Instruct is een groot taalmodel dat speciaal is ontworpen voor codegeneratie, codebegrip en efficiënte ontwikkelingsscenario's, met een toonaangevende parameteromvang van 32B, dat kan voldoen aan diverse programmeerbehoeften."
235
247
  },
@@ -458,9 +470,6 @@
458
470
  "claude-3-sonnet-20240229": {
459
471
  "description": "Claude 3 Sonnet biedt een ideale balans tussen intelligentie en snelheid voor bedrijfswerkbelastingen. Het biedt maximale bruikbaarheid tegen een lagere prijs, betrouwbaar en geschikt voor grootschalige implementatie."
460
472
  },
461
- "code-raccoon-v1": {
462
- "description": "Code Raccoon is een software-intelligente ontwikkelingsassistent gebaseerd op het SenseTime grote taalmodel, dat softwarebehoefteanalyse, architectuurontwerp, code schrijven, softwaretesten en andere fasen dekt, en voldoet aan de verschillende behoeften van gebruikers voor code schrijven en programmeerleren. Code Raccoon ondersteunt meer dan 90 populaire programmeertalen zoals Python, Java, JavaScript, C++, Go, SQL en populaire IDE's zoals VS Code en IntelliJ IDEA. In de praktijk kan Code Raccoon ontwikkelaars helpen om de programmeerefficiëntie met meer dan 50% te verhogen."
463
- },
464
473
  "codegeex-4": {
465
474
  "description": "CodeGeeX-4 is een krachtige AI-programmeerassistent die slimme vraag- en antwoordmogelijkheden en code-aanvulling ondersteunt voor verschillende programmeertalen, waardoor de ontwikkelingssnelheid wordt verhoogd."
466
475
  },
@@ -599,6 +608,9 @@
599
608
  "gemini-2.0-flash-exp": {
600
609
  "description": "Gemini 2.0 Flash Exp is Google's nieuwste experimentele multimodale AI-model, met de volgende generatie functies, uitstekende snelheid, ingebouwde tool-aanroepen en multimodale generatie."
601
610
  },
611
+ "gemini-2.0-flash-thinking-exp-01-21": {
612
+ "description": "Gemini 2.0 Flash Exp is Google's nieuwste experimentele multimodale AI-model, met next-gen functies, uitstekende snelheid, native tool-aanroepen en multimodale generatie."
613
+ },
602
614
  "gemini-2.0-flash-thinking-exp-1219": {
603
615
  "description": "Gemini 2.0 Flash Exp is Google's nieuwste experimentele multimodale AI-model, met next-gen functies, uitstekende snelheid, native tool-aanroepen en multimodale generatie."
604
616
  },
@@ -671,6 +683,9 @@
671
683
  "glm-4v-plus": {
672
684
  "description": "GLM-4V-Plus heeft de capaciteit om video-inhoud en meerdere afbeeldingen te begrijpen, geschikt voor multimodale taken."
673
685
  },
686
+ "glm-zero-preview": {
687
+ "description": "GLM-Zero-Preview heeft krachtige complexe redeneercapaciteiten en presteert uitstekend in logische redenering, wiskunde en programmeren."
688
+ },
674
689
  "google/gemini-flash-1.5": {
675
690
  "description": "Gemini 1.5 Flash biedt geoptimaliseerde multimodale verwerkingscapaciteiten, geschikt voor verschillende complexe taakscenario's."
676
691
  },
@@ -1100,12 +1115,21 @@
1100
1115
  "moonshot-v1-128k": {
1101
1116
  "description": "Moonshot V1 128K is een model met een superlange contextverwerkingscapaciteit, geschikt voor het genereren van zeer lange teksten, voldoet aan de behoeften van complexe generatietaken en kan tot 128.000 tokens verwerken, zeer geschikt voor onderzoek, academische en grote documentgeneratie."
1102
1117
  },
1118
+ "moonshot-v1-128k-vision-preview": {
1119
+ "description": "Het Kimi visuele model (inclusief moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, enz.) kan de inhoud van afbeeldingen begrijpen, inclusief afbeeldingstekst, kleuren en vormen van objecten."
1120
+ },
1103
1121
  "moonshot-v1-32k": {
1104
1122
  "description": "Moonshot V1 32K biedt een gemiddelde contextverwerkingscapaciteit, kan 32.768 tokens verwerken, bijzonder geschikt voor het genereren van verschillende lange documenten en complexe gesprekken, toegepast in contentcreatie, rapportgeneratie en conversatiesystemen."
1105
1123
  },
1124
+ "moonshot-v1-32k-vision-preview": {
1125
+ "description": "Het Kimi visuele model (inclusief moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, enz.) kan de inhoud van afbeeldingen begrijpen, inclusief afbeeldingstekst, kleuren en vormen van objecten."
1126
+ },
1106
1127
  "moonshot-v1-8k": {
1107
1128
  "description": "Moonshot V1 8K is speciaal ontworpen voor het genereren van korte teksttaken, met efficiënte verwerkingsprestaties, kan 8.192 tokens verwerken, zeer geschikt voor korte gesprekken, notities en snelle contentgeneratie."
1108
1129
  },
1130
+ "moonshot-v1-8k-vision-preview": {
1131
+ "description": "Het Kimi visuele model (inclusief moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, enz.) kan de inhoud van afbeeldingen begrijpen, inclusief afbeeldingstekst, kleuren en vormen van objecten."
1132
+ },
1109
1133
  "nousresearch/hermes-2-pro-llama-3-8b": {
1110
1134
  "description": "Hermes 2 Pro Llama 3 8B is een upgrade van Nous Hermes 2, met de nieuwste intern ontwikkelde datasets."
1111
1135
  },
@@ -1313,6 +1337,9 @@
1313
1337
  "step-2-16k": {
1314
1338
  "description": "Ondersteunt grootschalige contextinteracties, geschikt voor complexe gespreksscenario's."
1315
1339
  },
1340
+ "taichu2_mm": {
1341
+ "description": "Gecombineerd met beeldbegrip, kennisoverdracht en logische toerekening, excelleert het in het domein van vraag-en-antwoord met tekst en afbeeldingen."
1342
+ },
1316
1343
  "taichu_llm": {
1317
1344
  "description": "Het Zido Tai Chu-taalmodel heeft een sterke taalbegripcapaciteit en kan tekstcreatie, kennisvragen, codeprogrammering, wiskundige berekeningen, logische redenering, sentimentanalyse, tekstsamenvattingen en meer aan. Het combineert innovatief grote data voortraining met rijke kennis uit meerdere bronnen, door algoritmische technologie continu te verfijnen en voortdurend nieuwe kennis op te nemen uit enorme tekstdata op het gebied van vocabulaire, structuur, grammatica en semantiek, waardoor de modelprestaties voortdurend evolueren. Het biedt gebruikers gemakkelijkere informatie en diensten en een meer intelligente ervaring."
1318
1345
  },
@@ -198,6 +198,7 @@
198
198
  },
199
199
  "baseURL": {
200
200
  "desc": "Musi zawierać http(s)://",
201
+ "invalid": "Proszę wprowadzić prawidłowy URL",
201
202
  "placeholder": "https://your-proxy-url.com/v1",
202
203
  "title": "Adres proxy API"
203
204
  },
@@ -17,6 +17,9 @@
17
17
  "360gpt-turbo-responsibility-8k": {
18
18
  "description": "360GPT Turbo Responsibility 8K kładzie nacisk na bezpieczeństwo semantyczne i odpowiedzialność, zaprojektowany specjalnie dla aplikacji o wysokich wymaganiach dotyczących bezpieczeństwa treści, zapewniając dokładność i stabilność doświadczeń użytkowników."
19
19
  },
20
+ "360gpt2-o1": {
21
+ "description": "360gpt2-o1 wykorzystuje wyszukiwanie drzew do budowy łańcucha myślenia i wprowadza mechanizm refleksji, wykorzystując uczenie przez wzmocnienie, model posiada zdolność do samorefleksji i korekty błędów."
22
+ },
20
23
  "360gpt2-pro": {
21
24
  "description": "360GPT2 Pro to zaawansowany model przetwarzania języka naturalnego wydany przez firmę 360, charakteryzujący się doskonałymi zdolnościami generowania i rozumienia tekstu, szczególnie w obszarze generowania i tworzenia treści, zdolny do obsługi skomplikowanych zadań związanych z konwersją językową i odgrywaniem ról."
22
25
  },
@@ -110,6 +113,9 @@
110
113
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
111
114
  "description": "Qwen2.5-7B-Instruct to jeden z najnowszych modeli dużych języków wydanych przez Alibaba Cloud. Model 7B ma znacząco poprawione zdolności w zakresie kodowania i matematyki. Oferuje również wsparcie dla wielu języków, obejmując ponad 29 języków, w tym chiński i angielski. Model ten wykazuje znaczną poprawę w zakresie przestrzegania instrukcji, rozumienia danych strukturalnych oraz generowania strukturalnych wyników (szczególnie JSON)."
112
115
  },
116
+ "MiniMax-Text-01": {
117
+ "description": "W serii modeli MiniMax-01 wprowadziliśmy odważne innowacje: po raz pierwszy na dużą skalę zrealizowano mechanizm liniowej uwagi, tradycyjna architektura Transformera nie jest już jedynym wyborem. Liczba parametrów tego modelu wynosi aż 456 miliardów, z aktywacją wynoszącą 45,9 miliarda. Ogólna wydajność modelu dorównuje najlepszym modelom zagranicznym, jednocześnie efektywnie przetwarzając kontekst o długości do 4 milionów tokenów, co stanowi 32 razy więcej niż GPT-4o i 20 razy więcej niż Claude-3.5-Sonnet."
118
+ },
113
119
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
114
120
  "description": "Hermes 2 Mixtral 8x7B DPO to wysoce elastyczna fuzja wielu modeli, mająca na celu zapewnienie doskonałego doświadczenia twórczego."
115
121
  },
@@ -218,6 +224,9 @@
218
224
  "Qwen2-7B-Instruct": {
219
225
  "description": "Qwen2 to najnowsza seria modeli Qwen, która przewyższa najlepsze modele open source o podobnej skali, a nawet większe. Qwen2 7B osiągnęła znaczną przewagę w wielu testach, szczególnie w zakresie kodowania i rozumienia języka chińskiego."
220
226
  },
227
+ "Qwen2-VL-72B": {
228
+ "description": "Qwen2-VL-72B to potężny model językowo-wizualny, wspierający przetwarzanie multimodalne obrazów i tekstu, zdolny do precyzyjnego rozpoznawania treści obrazów i generowania odpowiednich opisów lub odpowiedzi."
229
+ },
221
230
  "Qwen2.5-14B-Instruct": {
222
231
  "description": "Qwen2.5-14B-Instruct to model językowy z 14 miliardami parametrów, o doskonałej wydajności, optymalizujący scenariusze w języku chińskim i wielojęzyczne, wspierający inteligentne odpowiedzi, generowanie treści i inne zastosowania."
223
232
  },
@@ -230,6 +239,9 @@
230
239
  "Qwen2.5-7B-Instruct": {
231
240
  "description": "Qwen2.5-7B-Instruct to model językowy z 7 miliardami parametrów, wspierający wywołania funkcji i bezproblemową interakcję z systemami zewnętrznymi, znacznie zwiększając elastyczność i skalowalność. Optymalizuje scenariusze w języku chińskim i wielojęzyczne, wspierając inteligentne odpowiedzi, generowanie treści i inne zastosowania."
232
241
  },
242
+ "Qwen2.5-Coder-14B-Instruct": {
243
+ "description": "Qwen2.5-Coder-14B-Instruct to model instrukcji programowania oparty na dużych wstępnych treningach, posiadający silne zdolności rozumienia i generowania kodu, zdolny do efektywnego przetwarzania różnych zadań programistycznych, szczególnie odpowiedni do inteligentnego pisania kodu, generowania skryptów automatycznych i rozwiązywania problemów programistycznych."
244
+ },
233
245
  "Qwen2.5-Coder-32B-Instruct": {
234
246
  "description": "Qwen2.5-Coder-32B-Instruct to duży model językowy zaprojektowany specjalnie do generowania kodu, rozumienia kodu i efektywnych scenariuszy rozwoju, wykorzystujący wiodącą w branży skalę 32B parametrów, zdolny do zaspokojenia różnorodnych potrzeb programistycznych."
235
247
  },
@@ -458,9 +470,6 @@
458
470
  "claude-3-sonnet-20240229": {
459
471
  "description": "Claude 3 Sonnet zapewnia idealną równowagę między inteligencją a szybkością dla obciążeń roboczych w przedsiębiorstwach. Oferuje maksymalną użyteczność przy niższej cenie, jest niezawodny i odpowiedni do dużych wdrożeń."
460
472
  },
461
- "code-raccoon-v1": {
462
- "description": "Code Raccoon to inteligentny asystent do rozwoju oprogramowania oparty na dużym modelu językowym SenseTime, obejmujący analizę wymagań oprogramowania, projektowanie architektury, pisanie kodu, testowanie oprogramowania i inne etapy, zaspokajający różnorodne potrzeby użytkowników w zakresie pisania kodu i nauki programowania. Code Raccoon wspiera ponad 90 popularnych języków programowania, takich jak Python, Java, JavaScript, C++, Go, SQL oraz popularne IDE, takie jak VS Code i IntelliJ IDEA. W praktyce Code Raccoon może pomóc programistom zwiększyć wydajność programowania o ponad 50%."
463
- },
464
473
  "codegeex-4": {
465
474
  "description": "CodeGeeX-4 to potężny asystent programowania AI, obsługujący inteligentne pytania i odpowiedzi oraz uzupełnianie kodu w różnych językach programowania, zwiększając wydajność programistów."
466
475
  },
@@ -599,6 +608,9 @@
599
608
  "gemini-2.0-flash-exp": {
600
609
  "description": "Gemini 2.0 Flash Exp to najnowszy eksperymentalny model AI o wielu modalnościach od Google, który oferuje cechy nowej generacji, doskonałą prędkość, natywne wywołania narzędzi oraz generowanie multimodalne."
601
610
  },
611
+ "gemini-2.0-flash-thinking-exp-01-21": {
612
+ "description": "Gemini 2.0 Flash Exp to najnowszy eksperymentalny model AI multimodalnego Google, posiadający cechy nowej generacji, doskonałą prędkość, natywne wywołania narzędzi oraz generację multimodalną."
613
+ },
602
614
  "gemini-2.0-flash-thinking-exp-1219": {
603
615
  "description": "Gemini 2.0 Flash Exp to najnowszy eksperymentalny model AI multimodalnego Google, oferujący funkcje nowej generacji, doskonałą prędkość, natywne wywołania narzędzi oraz generację multimodalną."
604
616
  },
@@ -671,6 +683,9 @@
671
683
  "glm-4v-plus": {
672
684
  "description": "GLM-4V-Plus ma zdolność rozumienia treści wideo oraz wielu obrazów, odpowiedni do zadań multimodalnych."
673
685
  },
686
+ "glm-zero-preview": {
687
+ "description": "GLM-Zero-Preview posiada silne zdolności do złożonego wnioskowania, wyróżniając się w dziedzinach takich jak wnioskowanie logiczne, matematyka i programowanie."
688
+ },
674
689
  "google/gemini-flash-1.5": {
675
690
  "description": "Gemini 1.5 Flash oferuje zoptymalizowane możliwości przetwarzania multimodalnego, odpowiednie do różnych złożonych scenariuszy zadań."
676
691
  },
@@ -1100,12 +1115,21 @@
1100
1115
  "moonshot-v1-128k": {
1101
1116
  "description": "Moonshot V1 128K to model o zdolności przetwarzania kontekstu o ultra-długiej długości, odpowiedni do generowania bardzo długich tekstów, spełniający wymagania złożonych zadań generacyjnych, zdolny do przetwarzania treści do 128 000 tokenów, idealny do zastosowań w badaniach, akademickich i generowaniu dużych dokumentów."
1102
1117
  },
1118
+ "moonshot-v1-128k-vision-preview": {
1119
+ "description": "Model wizualny Kimi (w tym moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview itp.) potrafi rozumieć treść obrazów, w tym teksty na obrazach, kolory obrazów i kształty obiektów."
1120
+ },
1103
1121
  "moonshot-v1-32k": {
1104
1122
  "description": "Moonshot V1 32K oferuje zdolność przetwarzania kontekstu o średniej długości, zdolną do przetwarzania 32 768 tokenów, szczególnie odpowiednią do generowania różnych długich dokumentów i złożonych dialogów, stosowaną w tworzeniu treści, generowaniu raportów i systemach dialogowych."
1105
1123
  },
1124
+ "moonshot-v1-32k-vision-preview": {
1125
+ "description": "Model wizualny Kimi (w tym moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview itp.) potrafi rozumieć treść obrazów, w tym teksty na obrazach, kolory obrazów i kształty obiektów."
1126
+ },
1106
1127
  "moonshot-v1-8k": {
1107
1128
  "description": "Moonshot V1 8K zaprojektowany do generowania krótkich tekstów, charakteryzuje się wydajnością przetwarzania, zdolny do przetwarzania 8 192 tokenów, idealny do krótkich dialogów, notatek i szybkiego generowania treści."
1108
1129
  },
1130
+ "moonshot-v1-8k-vision-preview": {
1131
+ "description": "Model wizualny Kimi (w tym moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview itp.) potrafi rozumieć treść obrazów, w tym teksty na obrazach, kolory obrazów i kształty obiektów."
1132
+ },
1109
1133
  "nousresearch/hermes-2-pro-llama-3-8b": {
1110
1134
  "description": "Hermes 2 Pro Llama 3 8B to ulepszona wersja Nous Hermes 2, zawierająca najnowsze wewnętrznie opracowane zbiory danych."
1111
1135
  },
@@ -1313,6 +1337,9 @@
1313
1337
  "step-2-16k": {
1314
1338
  "description": "Obsługuje interakcje z dużą ilością kontekstu, idealny do złożonych scenariuszy dialogowych."
1315
1339
  },
1340
+ "taichu2_mm": {
1341
+ "description": "Łączy zdolności rozumienia obrazów, transferu wiedzy, logicznego wnioskowania i wyróżnia się w dziedzinie pytań i odpowiedzi związanych z obrazem i tekstem."
1342
+ },
1316
1343
  "taichu_llm": {
1317
1344
  "description": "Model językowy TaiChu charakteryzuje się wyjątkową zdolnością rozumienia języka oraz umiejętnościami w zakresie tworzenia tekstów, odpowiadania na pytania, programowania, obliczeń matematycznych, wnioskowania logicznego, analizy emocji i streszczenia tekstu. Innowacyjnie łączy wstępne uczenie się na dużych zbiorach danych z bogatą wiedzą z wielu źródeł, stale doskonaląc technologię algorytmiczną i nieustannie przyswajając nową wiedzę z zakresu słownictwa, struktury, gramatyki i semantyki z ogromnych zbiorów danych tekstowych, co prowadzi do ciągłej ewolucji modelu. Umożliwia użytkownikom łatwiejszy dostęp do informacji i usług oraz bardziej inteligentne doświadczenia."
1318
1345
  },
@@ -198,6 +198,7 @@
198
198
  },
199
199
  "baseURL": {
200
200
  "desc": "Deve incluir http(s)://",
201
+ "invalid": "Por favor, insira uma URL válida",
201
202
  "placeholder": "https://seu-endereco-proxy.com/v1",
202
203
  "title": "Endereço do Proxy API"
203
204
  },
@@ -17,6 +17,9 @@
17
17
  "360gpt-turbo-responsibility-8k": {
18
18
  "description": "360GPT Turbo Responsibility 8K enfatiza segurança semântica e responsabilidade, projetado especificamente para cenários de aplicação com altas exigências de segurança de conteúdo, garantindo precisão e robustez na experiência do usuário."
19
19
  },
20
+ "360gpt2-o1": {
21
+ "description": "O 360gpt2-o1 utiliza busca em árvore para construir cadeias de pensamento e introduz um mecanismo de reflexão, sendo treinado com aprendizado por reforço, o modelo possui a capacidade de auto-reflexão e correção de erros."
22
+ },
20
23
  "360gpt2-pro": {
21
24
  "description": "360GPT2 Pro é um modelo avançado de processamento de linguagem natural lançado pela 360, com excelente capacidade de geração e compreensão de texto, destacando-se especialmente na geração e criação de conteúdo, capaz de lidar com tarefas complexas de conversão de linguagem e interpretação de papéis."
22
25
  },
@@ -110,6 +113,9 @@
110
113
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
111
114
  "description": "Qwen2.5-7B-Instruct é um dos mais recentes modelos de linguagem de grande escala lançados pela Alibaba Cloud. Este modelo de 7B apresenta melhorias significativas em áreas como codificação e matemática. O modelo também oferece suporte multilíngue, abrangendo mais de 29 idiomas, incluindo chinês e inglês. O modelo teve melhorias significativas em seguir instruções, entender dados estruturados e gerar saídas estruturadas (especialmente JSON)."
112
115
  },
116
+ "MiniMax-Text-01": {
117
+ "description": "Na série de modelos MiniMax-01, fizemos inovações ousadas: pela primeira vez, implementamos em larga escala um mecanismo de atenção linear, tornando a arquitetura Transformer tradicional não mais a única opção. Este modelo possui um total de 456 bilhões de parâmetros, com 45,9 bilhões ativados em uma única vez. O desempenho geral do modelo é comparável aos melhores modelos internacionais, enquanto lida eficientemente com contextos de até 4 milhões de tokens, 32 vezes mais que o GPT-4o e 20 vezes mais que o Claude-3.5-Sonnet."
118
+ },
113
119
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
114
120
  "description": "Hermes 2 Mixtral 8x7B DPO é uma fusão de múltiplos modelos altamente flexível, projetada para oferecer uma experiência criativa excepcional."
115
121
  },
@@ -218,6 +224,9 @@
218
224
  "Qwen2-7B-Instruct": {
219
225
  "description": "Qwen2 é a mais recente série do modelo Qwen, capaz de superar modelos de código aberto de tamanho equivalente e até mesmo modelos de maior escala. O Qwen2 7B obteve vantagens significativas em várias avaliações, especialmente em compreensão de código e chinês."
220
226
  },
227
+ "Qwen2-VL-72B": {
228
+ "description": "O Qwen2-VL-72B é um poderoso modelo de linguagem visual, que suporta processamento multimodal de imagens e texto, capaz de reconhecer com precisão o conteúdo das imagens e gerar descrições ou respostas relacionadas."
229
+ },
221
230
  "Qwen2.5-14B-Instruct": {
222
231
  "description": "Qwen2.5-14B-Instruct é um grande modelo de linguagem com 14 bilhões de parâmetros, com desempenho excelente, otimizado para cenários em chinês e multilíngues, suportando aplicações como perguntas e respostas inteligentes e geração de conteúdo."
223
232
  },
@@ -230,6 +239,9 @@
230
239
  "Qwen2.5-7B-Instruct": {
231
240
  "description": "Qwen2.5-7B-Instruct é um grande modelo de linguagem com 7 bilhões de parâmetros, que suporta chamadas de função e interação sem costura com sistemas externos, aumentando significativamente a flexibilidade e escalabilidade. Otimizado para cenários em chinês e multilíngues, suporta aplicações como perguntas e respostas inteligentes e geração de conteúdo."
232
241
  },
242
+ "Qwen2.5-Coder-14B-Instruct": {
243
+ "description": "O Qwen2.5-Coder-14B-Instruct é um modelo de instrução de programação baseado em pré-treinamento em larga escala, com forte capacidade de compreensão e geração de código, capaz de lidar eficientemente com diversas tarefas de programação, especialmente adequado para escrita inteligente de código, geração de scripts automatizados e resolução de problemas de programação."
244
+ },
233
245
  "Qwen2.5-Coder-32B-Instruct": {
234
246
  "description": "Qwen2.5-Coder-32B-Instruct é um grande modelo de linguagem projetado para geração de código, compreensão de código e cenários de desenvolvimento eficiente, com uma escala de 32 bilhões de parâmetros, atendendo a diversas necessidades de programação."
235
247
  },
@@ -458,9 +470,6 @@
458
470
  "claude-3-sonnet-20240229": {
459
471
  "description": "Claude 3 Sonnet oferece um equilíbrio ideal entre inteligência e velocidade para cargas de trabalho empresariais. Ele fornece máxima utilidade a um custo mais baixo, sendo confiável e adequado para implantação em larga escala."
460
472
  },
461
- "code-raccoon-v1": {
462
- "description": "O Código Raccoon é um assistente de desenvolvimento inteligente baseado no grande modelo de linguagem da SenseTime, cobrindo análise de requisitos de software, design de arquitetura, escrita de código, testes de software e outros aspectos, atendendo a diversas necessidades de escrita de código e aprendizado de programação. O Código Raccoon suporta mais de 90 linguagens de programação populares, como Python, Java, JavaScript, C++, Go, SQL, e IDEs populares como VS Code e IntelliJ IDEA. Na prática, o Código Raccoon pode ajudar os desenvolvedores a aumentar a eficiência da programação em mais de 50%."
463
- },
464
473
  "codegeex-4": {
465
474
  "description": "O CodeGeeX-4 é um poderoso assistente de programação AI, suportando perguntas e respostas inteligentes e autocompletar em várias linguagens de programação, aumentando a eficiência do desenvolvimento."
466
475
  },
@@ -599,6 +608,9 @@
599
608
  "gemini-2.0-flash-exp": {
600
609
  "description": "O Gemini 2.0 Flash Exp é o mais recente modelo de IA multiodal experimental do Google, com recursos de próxima geração, velocidade extraordinária, chamadas nativas de ferramentas e geração multimodal."
601
610
  },
611
+ "gemini-2.0-flash-thinking-exp-01-21": {
612
+ "description": "O Gemini 2.0 Flash Exp é o mais recente modelo experimental de IA multimodal do Google, com características de próxima geração, velocidade excepcional, chamadas nativas de ferramentas e geração multimodal."
613
+ },
602
614
  "gemini-2.0-flash-thinking-exp-1219": {
603
615
  "description": "Gemini 2.0 Flash Exp é o mais recente modelo de IA multimodal experimental do Google, com recursos de próxima geração, velocidade excepcional, chamadas nativas de ferramentas e geração multimodal."
604
616
  },
@@ -671,6 +683,9 @@
671
683
  "glm-4v-plus": {
672
684
  "description": "O GLM-4V-Plus possui a capacidade de entender conteúdo de vídeo e múltiplas imagens, adequado para tarefas multimodais."
673
685
  },
686
+ "glm-zero-preview": {
687
+ "description": "O GLM-Zero-Preview possui uma poderosa capacidade de raciocínio complexo, destacando-se em áreas como raciocínio lógico, matemática e programação."
688
+ },
674
689
  "google/gemini-flash-1.5": {
675
690
  "description": "Gemini 1.5 Flash oferece capacidades de processamento multimodal otimizadas, adequadas para uma variedade de cenários de tarefas complexas."
676
691
  },
@@ -1100,12 +1115,21 @@
1100
1115
  "moonshot-v1-128k": {
1101
1116
  "description": "Moonshot V1 128K é um modelo com capacidade de processamento de contexto ultra longo, adequado para gerar textos muito longos, atendendo a demandas complexas de geração, capaz de lidar com até 128.000 tokens, ideal para pesquisa, acadêmicos e geração de documentos extensos."
1102
1117
  },
1118
+ "moonshot-v1-128k-vision-preview": {
1119
+ "description": "O modelo visual Kimi (incluindo moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, etc.) é capaz de entender o conteúdo das imagens, incluindo texto, cores e formas dos objetos."
1120
+ },
1103
1121
  "moonshot-v1-32k": {
1104
1122
  "description": "Moonshot V1 32K oferece capacidade de processamento de contexto de comprimento médio, capaz de lidar com 32.768 tokens, especialmente adequado para gerar vários documentos longos e diálogos complexos, aplicável em criação de conteúdo, geração de relatórios e sistemas de diálogo."
1105
1123
  },
1124
+ "moonshot-v1-32k-vision-preview": {
1125
+ "description": "O modelo visual Kimi (incluindo moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, etc.) é capaz de entender o conteúdo das imagens, incluindo texto, cores e formas dos objetos."
1126
+ },
1106
1127
  "moonshot-v1-8k": {
1107
1128
  "description": "Moonshot V1 8K é projetado para tarefas de geração de texto curto, com desempenho de processamento eficiente, capaz de lidar com 8.192 tokens, ideal para diálogos curtos, anotações e geração rápida de conteúdo."
1108
1129
  },
1130
+ "moonshot-v1-8k-vision-preview": {
1131
+ "description": "O modelo visual Kimi (incluindo moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview, etc.) é capaz de entender o conteúdo das imagens, incluindo texto, cores e formas dos objetos."
1132
+ },
1109
1133
  "nousresearch/hermes-2-pro-llama-3-8b": {
1110
1134
  "description": "Hermes 2 Pro Llama 3 8B é uma versão aprimorada do Nous Hermes 2, contendo os conjuntos de dados mais recentes desenvolvidos internamente."
1111
1135
  },
@@ -1313,6 +1337,9 @@
1313
1337
  "step-2-16k": {
1314
1338
  "description": "Suporta interações de contexto em larga escala, adequado para cenários de diálogo complexos."
1315
1339
  },
1340
+ "taichu2_mm": {
1341
+ "description": "Integra capacidades de compreensão de imagem, transferência de conhecimento e atribuição lógica, destacando-se no campo de perguntas e respostas baseadas em texto e imagem."
1342
+ },
1316
1343
  "taichu_llm": {
1317
1344
  "description": "O modelo de linguagem Taichu possui uma forte capacidade de compreensão de linguagem, além de habilidades em criação de texto, perguntas e respostas, programação de código, cálculos matemáticos, raciocínio lógico, análise de sentimentos e resumo de texto. Inova ao combinar pré-treinamento com grandes dados e conhecimento rico de múltiplas fontes, aprimorando continuamente a tecnologia de algoritmos e absorvendo novos conhecimentos de vocabulário, estrutura, gramática e semântica de grandes volumes de dados textuais, proporcionando aos usuários informações e serviços mais convenientes e uma experiência mais inteligente."
1318
1345
  },
@@ -198,6 +198,7 @@
198
198
  },
199
199
  "baseURL": {
200
200
  "desc": "Должен содержать http(s)://",
201
+ "invalid": "Пожалуйста, введите действительный URL",
201
202
  "placeholder": "https://your-proxy-url.com/v1",
202
203
  "title": "API адрес прокси"
203
204
  },
@@ -17,6 +17,9 @@
17
17
  "360gpt-turbo-responsibility-8k": {
18
18
  "description": "360GPT Turbo Responsibility 8K акцентирует внимание на семантической безопасности и ответственности, специально разработан для приложений с высокими требованиями к безопасности контента, обеспечивая точность и надежность пользовательского опыта."
19
19
  },
20
+ "360gpt2-o1": {
21
+ "description": "360gpt2-o1 использует дерево поиска для построения цепочек размышлений и вводит механизм рефлексии, обучаясь с помощью усиленного обучения, модель обладает способностью к саморефлексии и исправлению ошибок."
22
+ },
20
23
  "360gpt2-pro": {
21
24
  "description": "360GPT2 Pro — это продвинутая модель обработки естественного языка, выпущенная компанией 360, обладающая выдающимися способностями к генерации и пониманию текста, особенно в области генерации и творчества, способная обрабатывать сложные языковые преобразования и ролевые задачи."
22
25
  },
@@ -110,6 +113,9 @@
110
113
  "LoRA/Qwen/Qwen2.5-7B-Instruct": {
111
114
  "description": "Qwen2.5-7B-Instruct — это одна из последних языковых моделей, выпущенных Alibaba Cloud. Эта 7B модель значительно улучшила способности в области кодирования и математики. Модель также поддерживает множество языков, охватывающих более 29 языков, включая китайский и английский. Она значительно улучшила выполнение инструкций, понимание структурированных данных и генерацию структурированных выходных данных (особенно JSON)."
112
115
  },
116
+ "MiniMax-Text-01": {
117
+ "description": "В серии моделей MiniMax-01 мы сделали смелые инновации: впервые в крупномасштабном масштабе реализован линейный механизм внимания, традиционная архитектура Transformer больше не является единственным выбором. Объем параметров этой модели достигает 456 миллиардов, из которых 45,9 миллиарда активируются за один раз. Комплексная производительность модели сопоставима с ведущими зарубежными моделями, при этом она может эффективно обрабатывать контекст длиной до 4 миллионов токенов, что в 32 раза больше, чем у GPT-4o, и в 20 раз больше, чем у Claude-3.5-Sonnet."
118
+ },
113
119
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
114
120
  "description": "Hermes 2 Mixtral 8x7B DPO — это высокоадаптивная многомодельная комбинация, предназначенная для предоставления выдающегося творческого опыта."
115
121
  },
@@ -218,6 +224,9 @@
218
224
  "Qwen2-7B-Instruct": {
219
225
  "description": "Qwen2 — это последняя серия моделей Qwen, способная превосходить лучшие открытые модели сопоставимого размера и даже более крупные модели. Qwen2 7B демонстрирует значительные преимущества в нескольких тестах, особенно в понимании кода и китайского языка."
220
226
  },
227
+ "Qwen2-VL-72B": {
228
+ "description": "Qwen2-VL-72B — это мощная модель визуального языка, поддерживающая многомодальную обработку изображений и текста, способная точно распознавать содержимое изображений и генерировать соответствующие описания или ответы."
229
+ },
221
230
  "Qwen2.5-14B-Instruct": {
222
231
  "description": "Qwen2.5-14B-Instruct — это языковая модель с 14 миллиардами параметров, с отличными показателями производительности, оптимизированная для китайского и многоязычного контекста, поддерживает интеллектуальные ответы, генерацию контента и другие приложения."
223
232
  },
@@ -230,6 +239,9 @@
230
239
  "Qwen2.5-7B-Instruct": {
231
240
  "description": "Qwen2.5-7B-Instruct — это языковая модель с 7 миллиардами параметров, поддерживающая вызовы функций и бесшовное взаимодействие с внешними системами, что значительно повышает гибкость и масштабируемость. Оптимизирована для китайского и многоязычного контекста, поддерживает интеллектуальные ответы, генерацию контента и другие приложения."
232
241
  },
242
+ "Qwen2.5-Coder-14B-Instruct": {
243
+ "description": "Qwen2.5-Coder-14B-Instruct — это модель программирования на основе масштабного предварительного обучения, обладающая мощными способностями к пониманию и генерации кода, способная эффективно решать различные задачи программирования, особенно подходит для интеллектуального написания кода, автоматизации скриптов и ответов на программные вопросы."
244
+ },
233
245
  "Qwen2.5-Coder-32B-Instruct": {
234
246
  "description": "Qwen2.5-Coder-32B-Instruct — это крупная языковая модель, специально разработанная для генерации кода, понимания кода и эффективных сценариев разработки, с передовым масштабом параметров 32B, способная удовлетворить разнообразные потребности программирования."
235
247
  },
@@ -458,9 +470,6 @@
458
470
  "claude-3-sonnet-20240229": {
459
471
  "description": "Claude 3 Sonnet обеспечивает идеальный баланс между интеллектом и скоростью для корпоративных рабочих нагрузок. Он предлагает максимальную полезность по более низкой цене, надежен и подходит для масштабного развертывания."
460
472
  },
461
- "code-raccoon-v1": {
462
- "description": "Кодовый енот — это программный интеллектуальный помощник на основе языковой модели SenseTime, охватывающий такие этапы, как анализ требований к программному обеспечению, проектирование архитектуры, написание кода, тестирование программного обеспечения и т. д., удовлетворяющий различные потребности пользователей в написании кода и обучении программированию. Кодовый енот поддерживает более 90 популярных языков программирования, таких как Python, Java, JavaScript, C++, Go, SQL, а также популярные IDE, такие как VS Code и IntelliJ IDEA. В реальных приложениях кодовый енот может помочь разработчикам повысить эффективность программирования более чем на 50%."
463
- },
464
473
  "codegeex-4": {
465
474
  "description": "CodeGeeX-4 — это мощный AI помощник по программированию, поддерживающий интеллектуальные ответы и автозаполнение кода на различных языках программирования, повышая эффективность разработки."
466
475
  },
@@ -599,6 +608,9 @@
599
608
  "gemini-2.0-flash-exp": {
600
609
  "description": "Gemini 2.0 Flash Exp — это новейшая экспериментальная мультимодальная AI-модель от Google, обладающая функциями следующего поколения, выдающейся скоростью, нативными инструментами и мультимодальной генерацией."
601
610
  },
611
+ "gemini-2.0-flash-thinking-exp-01-21": {
612
+ "description": "Gemini 2.0 Flash Exp — это последняя экспериментальная многомодальная AI модель от Google, обладающая следующими поколениями характеристик, выдающейся скоростью, нативным вызовом инструментов и многомодальной генерацией."
613
+ },
602
614
  "gemini-2.0-flash-thinking-exp-1219": {
603
615
  "description": "Gemini 2.0 Flash Exp — это последняя экспериментальная многомодальная AI-модель от Google, обладающая следующими поколениями функций, выдающейся скоростью, нативными вызовами инструментов и многомодальной генерацией."
604
616
  },
@@ -671,6 +683,9 @@
671
683
  "glm-4v-plus": {
672
684
  "description": "GLM-4V-Plus обладает способностью понимать видео-контент и множество изображений, подходит для мультимодальных задач."
673
685
  },
686
+ "glm-zero-preview": {
687
+ "description": "GLM-Zero-Preview обладает мощными способностями к сложному выводу, демонстрируя отличные результаты в области логического вывода, математики и программирования."
688
+ },
674
689
  "google/gemini-flash-1.5": {
675
690
  "description": "Gemini 1.5 Flash предлагает оптимизированные возможности многомодальной обработки, подходящие для различных сложных задач."
676
691
  },
@@ -1100,12 +1115,21 @@
1100
1115
  "moonshot-v1-128k": {
1101
1116
  "description": "Moonshot V1 128K — это модель с возможностями обработки сверхдлинного контекста, подходящая для генерации очень длинных текстов, удовлетворяющая требованиям сложных задач генерации, способная обрабатывать до 128 000 токенов, идеально подходящая для научных исследований, академических и крупных документальных приложений."
1102
1117
  },
1118
+ "moonshot-v1-128k-vision-preview": {
1119
+ "description": "Модель визуализации Kimi (включая moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview и др.) может понимать содержимое изображений, включая текст на изображениях, цвета изображений и формы объектов."
1120
+ },
1103
1121
  "moonshot-v1-32k": {
1104
1122
  "description": "Moonshot V1 32K предлагает возможности обработки контекста средней длины, способная обрабатывать 32 768 токенов, особенно подходит для генерации различных длинных документов и сложных диалогов, применяется в создании контента, генерации отчетов и диалоговых систем."
1105
1123
  },
1124
+ "moonshot-v1-32k-vision-preview": {
1125
+ "description": "Модель визуализации Kimi (включая moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview и др.) может понимать содержимое изображений, включая текст на изображениях, цвета изображений и формы объектов."
1126
+ },
1106
1127
  "moonshot-v1-8k": {
1107
1128
  "description": "Moonshot V1 8K специально разработан для генерации коротких текстов, обладая высокой производительностью обработки, способный обрабатывать 8 192 токена, идеально подходит для кратких диалогов, стенографирования и быстрой генерации контента."
1108
1129
  },
1130
+ "moonshot-v1-8k-vision-preview": {
1131
+ "description": "Модель визуализации Kimi (включая moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview и др.) может понимать содержимое изображений, включая текст на изображениях, цвета изображений и формы объектов."
1132
+ },
1109
1133
  "nousresearch/hermes-2-pro-llama-3-8b": {
1110
1134
  "description": "Hermes 2 Pro Llama 3 8B — это обновленная версия Nous Hermes 2, содержащая последние внутренние разработанные наборы данных."
1111
1135
  },
@@ -1313,6 +1337,9 @@
1313
1337
  "step-2-16k": {
1314
1338
  "description": "Поддерживает масштабные взаимодействия контекста, подходит для сложных диалоговых сценариев."
1315
1339
  },
1340
+ "taichu2_mm": {
1341
+ "description": "Объединяет способности понимания изображений, переноса знаний, логической атрибуции и демонстрирует выдающиеся результаты в области вопросов и ответов на основе текста и изображений."
1342
+ },
1316
1343
  "taichu_llm": {
1317
1344
  "description": "Модель языка TaiChu обладает выдающимися способностями к пониманию языка, а также к созданию текстов, ответам на вопросы, программированию, математическим вычислениям, логическому выводу, анализу эмоций и резюмированию текстов. Инновационно сочетает предобучение на больших данных с богатством многопоточных знаний, постоянно совершенствуя алгоритмические технологии и поглощая новые знания о словах, структуре, грамматике и семантике из огромных объемов текстовых данных, обеспечивая пользователям более удобную информацию и услуги, а также более интеллектуальный опыт."
1318
1345
  },
@@ -198,6 +198,7 @@
198
198
  },
199
199
  "baseURL": {
200
200
  "desc": "http(s):// içermelidir",
201
+ "invalid": "Lütfen geçerli bir URL girin",
201
202
  "placeholder": "https://your-proxy-url.com/v1",
202
203
  "title": "API Proxy Adresi"
203
204
  },