@lobehub/chat 1.48.0 → 1.48.2
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +51 -0
- package/README.ja-JP.md +14 -14
- package/README.md +14 -14
- package/README.zh-CN.md +14 -14
- package/changelog/v1.json +18 -0
- package/docs/changelog/2025-01-22-new-ai-provider.mdx +25 -0
- package/docs/changelog/2025-01-22-new-ai-provider.zh-CN.mdx +23 -0
- package/docs/changelog/index.json +23 -17
- package/docs/self-hosting/advanced/auth/next-auth/casdoor.mdx +1 -0
- package/docs/self-hosting/advanced/auth/next-auth/casdoor.zh-CN.mdx +1 -0
- package/docs/self-hosting/advanced/knowledge-base.mdx +1 -0
- package/docs/self-hosting/advanced/knowledge-base.zh-CN.mdx +1 -0
- package/docs/self-hosting/advanced/observability/langfuse.mdx +28 -45
- package/docs/self-hosting/server-database.mdx +1 -1
- package/locales/ar/changelog.json +2 -2
- package/locales/ar/models.json +27 -0
- package/locales/bg-BG/changelog.json +2 -2
- package/locales/bg-BG/models.json +27 -0
- package/locales/de-DE/changelog.json +2 -2
- package/locales/de-DE/models.json +27 -0
- package/locales/en-US/changelog.json +2 -2
- package/locales/en-US/models.json +27 -0
- package/locales/es-ES/changelog.json +2 -2
- package/locales/es-ES/models.json +27 -0
- package/locales/fa-IR/changelog.json +2 -2
- package/locales/fa-IR/models.json +27 -0
- package/locales/fr-FR/changelog.json +2 -2
- package/locales/fr-FR/models.json +27 -0
- package/locales/it-IT/changelog.json +2 -2
- package/locales/it-IT/models.json +27 -0
- package/locales/ja-JP/changelog.json +2 -2
- package/locales/ja-JP/models.json +27 -0
- package/locales/ko-KR/changelog.json +2 -2
- package/locales/ko-KR/models.json +27 -0
- package/locales/nl-NL/changelog.json +2 -2
- package/locales/nl-NL/models.json +27 -0
- package/locales/pl-PL/changelog.json +2 -2
- package/locales/pl-PL/models.json +27 -0
- package/locales/pt-BR/changelog.json +2 -2
- package/locales/pt-BR/models.json +27 -0
- package/locales/ru-RU/changelog.json +2 -2
- package/locales/ru-RU/models.json +27 -0
- package/locales/tr-TR/changelog.json +2 -2
- package/locales/tr-TR/models.json +27 -0
- package/locales/vi-VN/changelog.json +2 -2
- package/locales/vi-VN/models.json +27 -0
- package/locales/zh-CN/changelog.json +2 -2
- package/locales/zh-CN/models.json +28 -1
- package/locales/zh-TW/changelog.json +2 -2
- package/locales/zh-TW/models.json +27 -0
- package/package.json +1 -1
- package/src/app/@modal/(.)changelog/modal/features/Pagination.tsx +1 -1
- package/src/config/modelProviders/ollama.ts +1 -1
- package/src/libs/agent-runtime/qwen/index.ts +3 -0
- package/src/locales/default/changelog.ts +1 -1
- package/src/server/services/changelog/index.test.ts +1 -1
- package/src/server/services/changelog/index.ts +1 -1
@@ -809,9 +809,18 @@
|
|
809
809
|
"hunyuan-functioncall": {
|
810
810
|
"description": "混元の最新のMOEアーキテクチャFunctionCallモデルで、高品質のFunctionCallデータトレーニングを経て、コンテキストウィンドウは32Kに達し、複数の次元の評価指標でリーダーシップを発揮しています。"
|
811
811
|
},
|
812
|
+
"hunyuan-large": {
|
813
|
+
"description": "Hunyuan-largeモデルの総パラメータ数は約389B、活性化パラメータ数は約52Bで、現在業界で最大のパラメータ規模を持ち、最も優れた効果を持つTransformerアーキテクチャのオープンソースMoEモデル。"
|
814
|
+
},
|
815
|
+
"hunyuan-large-longcontext": {
|
816
|
+
"description": "文書要約や文書問答などの長文タスクを得意とし、一般的なテキスト生成タスクの処理能力も備えている。長文の分析と生成において優れたパフォーマンスを発揮し、複雑で詳細な長文内容の処理要求に効果的に対応できる。"
|
817
|
+
},
|
812
818
|
"hunyuan-lite": {
|
813
819
|
"description": "MOE構造にアップグレードされ、コンテキストウィンドウは256kで、NLP、コード、数学、業界などの多くの評価セットで多くのオープンソースモデルをリードしています。"
|
814
820
|
},
|
821
|
+
"hunyuan-lite-vision": {
|
822
|
+
"description": "混元最新の7Bマルチモーダルモデル、コンテキストウィンドウ32K、中英文シーンのマルチモーダル対話、画像物体認識、文書表理解、マルチモーダル数学などをサポートし、複数の次元で評価指標が7B競合モデルを上回る。"
|
823
|
+
},
|
815
824
|
"hunyuan-pro": {
|
816
825
|
"description": "万億規模のパラメータを持つMOE-32K長文モデルです。さまざまなベンチマークで絶対的なリーダーシップを達成し、複雑な指示や推論、複雑な数学能力を備え、functioncallをサポートし、多言語翻訳、金融、法律、医療などの分野で重点的に最適化されています。"
|
817
826
|
},
|
@@ -824,9 +833,24 @@
|
|
824
833
|
"hunyuan-standard-256K": {
|
825
834
|
"description": "より優れたルーティング戦略を採用し、負荷分散と専門家の収束の問題を緩和しました。長文に関しては、大海捞針指標が99.9%に達しています。MOE-256Kは長さと効果の面でさらに突破し、入力可能な長さを大幅に拡張しました。"
|
826
835
|
},
|
836
|
+
"hunyuan-standard-vision": {
|
837
|
+
"description": "混元最新のマルチモーダルモデルで、多言語での応答をサポートし、中英文能力が均衡している。"
|
838
|
+
},
|
827
839
|
"hunyuan-turbo": {
|
828
840
|
"description": "混元の新世代大規模言語モデルのプレビュー版で、全く新しい混合専門家モデル(MoE)構造を採用し、hunyuan-proに比べて推論効率が向上し、パフォーマンスも強化されています。"
|
829
841
|
},
|
842
|
+
"hunyuan-turbo-20241120": {
|
843
|
+
"description": "hunyuan-turbo 2024年11月20日の固定バージョンで、hunyuan-turboとhunyuan-turbo-latestの間に位置するバージョン。"
|
844
|
+
},
|
845
|
+
"hunyuan-turbo-20241223": {
|
846
|
+
"description": "このバージョンの最適化:データ指令のスケーリングにより、モデルの汎用的な一般化能力を大幅に向上;数学、コード、論理推論能力を大幅に向上;テキスト理解と語彙理解に関連する能力を最適化;テキスト作成の内容生成の質を最適化。"
|
847
|
+
},
|
848
|
+
"hunyuan-turbo-latest": {
|
849
|
+
"description": "汎用体験の最適化、NLP理解、テキスト作成、雑談、知識問答、翻訳、分野などを含む;擬人性を向上させ、モデルの感情知能を最適化;意図が曖昧な時のモデルの能動的な明確化能力を向上;語彙解析に関する問題の処理能力を向上;創作の質とインタラクティブ性を向上;多段階体験を向上。"
|
850
|
+
},
|
851
|
+
"hunyuan-turbo-vision": {
|
852
|
+
"description": "混元の次世代視覚言語フラッグシップ大モデルで、全く新しい混合専門家モデル(MoE)構造を採用し、画像とテキストの理解に関連する基礎認識、コンテンツ作成、知識問答、分析推論などの能力が前世代モデルに比べて全面的に向上。"
|
853
|
+
},
|
830
854
|
"hunyuan-vision": {
|
831
855
|
"description": "混元の最新のマルチモーダルモデルで、画像とテキストの入力をサポートし、テキストコンテンツを生成します。"
|
832
856
|
},
|
@@ -1193,6 +1217,9 @@
|
|
1193
1217
|
"pro-128k": {
|
1194
1218
|
"description": "Spark Pro 128Kは特大のコンテキスト処理能力を備え、最大128Kのコンテキスト情報を処理できます。特に、全体を通じての分析や長期的な論理的関連性の処理が必要な長文コンテンツに適しており、複雑なテキストコミュニケーションにおいて滑らかで一貫した論理と多様な引用サポートを提供します。"
|
1195
1219
|
},
|
1220
|
+
"qvq-72b-preview": {
|
1221
|
+
"description": "QVQモデルはQwenチームによって開発された実験的研究モデルで、視覚推論能力の向上に特化しており、特に数学推論の分野で優れた性能を発揮。"
|
1222
|
+
},
|
1196
1223
|
"qwen-coder-plus-latest": {
|
1197
1224
|
"description": "通義千問コードモデル。"
|
1198
1225
|
},
|
@@ -8,8 +8,8 @@
|
|
8
8
|
"allChangelog": "모든 업데이트 로그 보기",
|
9
9
|
"description": "{{appName}}의 새로운 기능과 개선 사항을 지속적으로 추적하세요",
|
10
10
|
"pagination": {
|
11
|
-
"
|
12
|
-
"
|
11
|
+
"next": "다음 페이지",
|
12
|
+
"older": "이전 변경 사항 보기"
|
13
13
|
},
|
14
14
|
"readDetails": "자세히 읽기",
|
15
15
|
"title": "업데이트 로그",
|
@@ -809,9 +809,18 @@
|
|
809
809
|
"hunyuan-functioncall": {
|
810
810
|
"description": "혼원 최신 MOE 구조의 FunctionCall 모델로, 고품질 FunctionCall 데이터 훈련을 거쳤으며, 컨텍스트 윈도우는 32K에 도달하고 여러 차원의 평가 지표에서 선두에 있습니다."
|
811
811
|
},
|
812
|
+
"hunyuan-large": {
|
813
|
+
"description": "Hunyuan-large 모델의 총 매개변수 수는 약 389B, 활성화 매개변수 수는 약 52B로, 현재 업계에서 매개변수 규모가 가장 크고 성능이 가장 우수한 Transformer 구조의 오픈 소스 MoE 모델입니다."
|
814
|
+
},
|
815
|
+
"hunyuan-large-longcontext": {
|
816
|
+
"description": "문서 요약 및 문서 질문 응답과 같은 긴 문서 작업을 잘 처리하며, 일반 텍스트 생성 작업도 수행할 수 있는 능력을 갖추고 있습니다. 긴 텍스트의 분석 및 생성에서 뛰어난 성능을 보이며, 복잡하고 상세한 긴 문서 내용 처리 요구에 효과적으로 대응할 수 있습니다."
|
817
|
+
},
|
812
818
|
"hunyuan-lite": {
|
813
819
|
"description": "MOE 구조로 업그레이드되었으며, 컨텍스트 윈도우는 256k로 설정되어 NLP, 코드, 수학, 산업 등 여러 평가 집합에서 많은 오픈 소스 모델을 선도하고 있습니다."
|
814
820
|
},
|
821
|
+
"hunyuan-lite-vision": {
|
822
|
+
"description": "혼원 최신 7B 다중 모달 모델, 컨텍스트 윈도우 32K, 중문 및 영문 환경에서의 다중 모달 대화, 이미지 객체 인식, 문서 표 이해, 다중 모달 수학 등을 지원하며, 여러 차원에서 평가 지표가 7B 경쟁 모델보다 우수합니다."
|
823
|
+
},
|
815
824
|
"hunyuan-pro": {
|
816
825
|
"description": "조 단위 매개변수 규모의 MOE-32K 긴 문서 모델입니다. 다양한 벤치마크에서 절대적인 선두 수준에 도달하며, 복잡한 지시 및 추론, 복잡한 수학 능력을 갖추고 있으며, functioncall을 지원하고 다국어 번역, 금융, 법률, 의료 등 분야에서 최적화된 응용을 제공합니다."
|
817
826
|
},
|
@@ -824,9 +833,24 @@
|
|
824
833
|
"hunyuan-standard-256K": {
|
825
834
|
"description": "더 나은 라우팅 전략을 채택하여 부하 균형 및 전문가 수렴 문제를 완화했습니다. 긴 문서의 경우, 대해잡기 지표가 99.9%에 도달했습니다. MOE-256K는 길이와 효과에서 더욱 발전하여 입력 길이를 크게 확장했습니다."
|
826
835
|
},
|
836
|
+
"hunyuan-standard-vision": {
|
837
|
+
"description": "혼원 최신 다중 모달 모델, 다국어 응답 지원, 중문 및 영문 능력이 균형 잡혀 있습니다."
|
838
|
+
},
|
827
839
|
"hunyuan-turbo": {
|
828
840
|
"description": "혼원 최신 세대 대형 언어 모델의 미리보기 버전으로, 새로운 혼합 전문가 모델(MoE) 구조를 채택하여 hunyuan-pro보다 추론 효율이 더 빠르고 성능이 더 뛰어납니다."
|
829
841
|
},
|
842
|
+
"hunyuan-turbo-20241120": {
|
843
|
+
"description": "hunyuan-turbo 2024년 11월 20일 고정 버전, hunyuan-turbo와 hunyuan-turbo-latest 사이의 버전."
|
844
|
+
},
|
845
|
+
"hunyuan-turbo-20241223": {
|
846
|
+
"description": "이번 버전 최적화: 데이터 지시 스케일링, 모델의 일반화 능력 대폭 향상; 수학, 코드, 논리 추론 능력 대폭 향상; 텍스트 이해 및 단어 이해 관련 능력 최적화; 텍스트 창작 내용 생성 질 최적화."
|
847
|
+
},
|
848
|
+
"hunyuan-turbo-latest": {
|
849
|
+
"description": "일반적인 경험 최적화, NLP 이해, 텍스트 창작, 대화, 지식 질문 응답, 번역, 분야 등; 인간화 향상, 모델의 감정 지능 최적화; 의도가 모호할 때 모델의 능동적인 명확화 능력 향상; 단어 및 구문 분석 관련 문제 처리 능력 향상; 창작의 질과 상호작용성 향상; 다중 회차 경험 향상."
|
850
|
+
},
|
851
|
+
"hunyuan-turbo-vision": {
|
852
|
+
"description": "혼원 차세대 비주얼 언어 플래그십 대형 모델, 새로운 혼합 전문가 모델(MoE) 구조를 채택하여, 이미지 및 텍스트 이해 관련 기본 인식, 콘텐츠 창작, 지식 질문 응답, 분석 추론 등의 능력이 이전 세대 모델에 비해 전반적으로 향상되었습니다."
|
853
|
+
},
|
830
854
|
"hunyuan-vision": {
|
831
855
|
"description": "혼원 최신 다중 모달 모델로, 이미지와 텍스트 입력을 지원하여 텍스트 콘텐츠를 생성합니다."
|
832
856
|
},
|
@@ -1193,6 +1217,9 @@
|
|
1193
1217
|
"pro-128k": {
|
1194
1218
|
"description": "Spark Pro 128K는 매우 큰 컨텍스트 처리 능력을 갖추고 있으며, 최대 128K의 컨텍스트 정보를 처리할 수 있습니다. 특히 전체 분석 및 장기 논리 연관 처리가 필요한 긴 문서 콘텐츠에 적합하며, 복잡한 텍스트 커뮤니케이션에서 매끄럽고 일관된 논리와 다양한 인용 지원을 제공합니다."
|
1195
1219
|
},
|
1220
|
+
"qvq-72b-preview": {
|
1221
|
+
"description": "QVQ 모델은 Qwen 팀이 개발한 실험적 연구 모델로, 시각적 추론 능력 향상에 중점을 두고 있으며, 특히 수학적 추론 분야에서 두드러진 성과를 보입니다."
|
1222
|
+
},
|
1196
1223
|
"qwen-coder-plus-latest": {
|
1197
1224
|
"description": "통의 천문 코드 모델입니다."
|
1198
1225
|
},
|
@@ -8,8 +8,8 @@
|
|
8
8
|
"allChangelog": "Bekijk alle changelogs",
|
9
9
|
"description": "Blijf op de hoogte van nieuwe functies en verbeteringen van {{appName}}",
|
10
10
|
"pagination": {
|
11
|
-
"
|
12
|
-
"
|
11
|
+
"next": "Volgende pagina",
|
12
|
+
"older": "Bekijk eerdere wijzigingen"
|
13
13
|
},
|
14
14
|
"readDetails": "Lees meer",
|
15
15
|
"title": "Changelog",
|
@@ -809,9 +809,18 @@
|
|
809
809
|
"hunyuan-functioncall": {
|
810
810
|
"description": "Het nieuwste MOE-architectuur FunctionCall-model van Hunyuan, getraind op hoogwaardige FunctionCall-gegevens, met een contextvenster van 32K, en staat voorop in meerdere dimensies van evaluatie-indicatoren."
|
811
811
|
},
|
812
|
+
"hunyuan-large": {
|
813
|
+
"description": "Het Hunyuan-large model heeft een totaal aantal parameters van ongeveer 389B, met ongeveer 52B actieve parameters, en is het grootste en beste open-source MoE-model met Transformer-architectuur in de industrie."
|
814
|
+
},
|
815
|
+
"hunyuan-large-longcontext": {
|
816
|
+
"description": "Uitstekend in het verwerken van lange teksttaken zoals document samenvattingen en documentvragen, en heeft ook de capaciteit om algemene tekstgeneratietaken uit te voeren. Het presteert uitstekend in de analyse en generatie van lange teksten en kan effectief omgaan met complexe en gedetailleerde lange inhoudsverwerkingsbehoeften."
|
817
|
+
},
|
812
818
|
"hunyuan-lite": {
|
813
819
|
"description": "Geüpgraded naar een MOE-structuur, met een contextvenster van 256k, en leidt in verschillende evaluatiesets op het gebied van NLP, code, wiskunde en industrie ten opzichte van vele open-source modellen."
|
814
820
|
},
|
821
|
+
"hunyuan-lite-vision": {
|
822
|
+
"description": "De nieuwste 7B multimodale Hunyuan-model, met een contextvenster van 32K, ondersteunt multimodale gesprekken in het Chinees en het Engels, objectherkenning in afbeeldingen, document- en tabelbegrip, multimodale wiskunde, enz., en scoort op meerdere dimensies beter dan 7B concurrentiemodellen."
|
823
|
+
},
|
815
824
|
"hunyuan-pro": {
|
816
825
|
"description": "Een MOE-32K lange tekstmodel met triljoenen parameters. Bereikt een absoluut leidend niveau op verschillende benchmarks, met complexe instructies en redenering, beschikt over complexe wiskundige capaciteiten, ondersteunt function calls, en is geoptimaliseerd voor toepassingen in meertalige vertaling, financiële, juridische en medische gebieden."
|
817
826
|
},
|
@@ -824,9 +833,24 @@
|
|
824
833
|
"hunyuan-standard-256K": {
|
825
834
|
"description": "Maakt gebruik van een betere routeringsstrategie en verlicht tegelijkertijd de problemen van load balancing en expert convergentie. Voor lange teksten bereikt de naald in een hooiberg-index 99,9%. MOE-256K doorbreekt verder in lengte en effectiviteit, waardoor de invoerlengte aanzienlijk wordt vergroot."
|
826
835
|
},
|
836
|
+
"hunyuan-standard-vision": {
|
837
|
+
"description": "De nieuwste multimodale Hunyuan-model, ondersteunt meertalige antwoorden, met evenwichtige capaciteiten in het Chinees en het Engels."
|
838
|
+
},
|
827
839
|
"hunyuan-turbo": {
|
828
840
|
"description": "Een previewversie van het nieuwe generatie grote taalmodel van Hunyuan, met een nieuwe hybride expertmodel (MoE) structuur, die sneller inferentie-efficiëntie biedt en betere prestaties levert dan hunyan-pro."
|
829
841
|
},
|
842
|
+
"hunyuan-turbo-20241120": {
|
843
|
+
"description": "Hunyuan-turbo versie van 20 november 2024, een vaste versie die zich tussen hunyuan-turbo en hunyuan-turbo-latest bevindt."
|
844
|
+
},
|
845
|
+
"hunyuan-turbo-20241223": {
|
846
|
+
"description": "Deze versie optimaliseert: gegevensinstructiescaling, wat de algemene generalisatiecapaciteit van het model aanzienlijk verbetert; aanzienlijke verbetering van wiskunde-, code- en logische redeneervaardigheden; optimalisatie van tekstbegrip en woordbegrip gerelateerde capaciteiten; optimalisatie van de kwaliteit van tekstcreatie en inhoudsgeneratie."
|
847
|
+
},
|
848
|
+
"hunyuan-turbo-latest": {
|
849
|
+
"description": "Algemene ervaring optimalisatie, inclusief NLP-begrip, tekstcreatie, casual gesprekken, kennisvragen, vertalingen, en domeinspecifieke toepassingen; verbetering van de menselijkheid, optimalisatie van de emotionele intelligentie van het model; verbetering van het vermogen van het model om actief te verduidelijken bij vage intenties; verbetering van de verwerking van vragen over woord- en zinsanalyse; verbetering van de kwaliteit en interactie van creaties; verbetering van de ervaring in meerdere rondes."
|
850
|
+
},
|
851
|
+
"hunyuan-turbo-vision": {
|
852
|
+
"description": "De nieuwe generatie visuele taal vlaggenschipmodel van Hunyuan, met een geheel nieuwe hybride expertmodel (MoE) structuur, biedt aanzienlijke verbeteringen in basisherkenning, inhoudcreatie, kennisvragen, en analytische redeneervaardigheden in vergelijking met de vorige generatie modellen."
|
853
|
+
},
|
830
854
|
"hunyuan-vision": {
|
831
855
|
"description": "Het nieuwste multimodale model van Hunyuan, ondersteunt het genereren van tekstinhoud op basis van afbeelding + tekstinvoer."
|
832
856
|
},
|
@@ -1193,6 +1217,9 @@
|
|
1193
1217
|
"pro-128k": {
|
1194
1218
|
"description": "Spark Pro 128K is uitgerust met een zeer grote contextverwerkingscapaciteit, in staat om tot 128K contextinformatie te verwerken. Het is bijzonder geschikt voor lange teksten die een volledige analyse en langdurige logische verbanden vereisen, en biedt een vloeiende en consistente logica met diverse ondersteuningen voor citaten in complexe tekstcommunicatie."
|
1195
1219
|
},
|
1220
|
+
"qvq-72b-preview": {
|
1221
|
+
"description": "Het QVQ-model is een experimenteel onderzoeksmodel ontwikkeld door het Qwen-team, gericht op het verbeteren van visuele redeneervaardigheden, vooral in het domein van wiskundige redenering."
|
1222
|
+
},
|
1196
1223
|
"qwen-coder-plus-latest": {
|
1197
1224
|
"description": "Tongyi Qianwen code model."
|
1198
1225
|
},
|
@@ -8,8 +8,8 @@
|
|
8
8
|
"allChangelog": "Zobacz wszystkie dzienniki zmian",
|
9
9
|
"description": "Na bieżąco śledź nowe funkcje i ulepszenia {{appName}}",
|
10
10
|
"pagination": {
|
11
|
-
"
|
12
|
-
"
|
11
|
+
"next": "Następna strona",
|
12
|
+
"older": "Zobacz wcześniejsze zmiany"
|
13
13
|
},
|
14
14
|
"readDetails": "Przeczytaj szczegóły",
|
15
15
|
"title": "Dziennik zmian",
|
@@ -809,9 +809,18 @@
|
|
809
809
|
"hunyuan-functioncall": {
|
810
810
|
"description": "Najnowocześniejszy model FunctionCall w architekturze MOE Hunyuan, przeszkolony na wysokiej jakości danych FunctionCall, z oknem kontekstowym o długości 32K, osiągający wiodące wyniki w wielu wymiarach oceny."
|
811
811
|
},
|
812
|
+
"hunyuan-large": {
|
813
|
+
"description": "Model Hunyuan-large ma całkowitą liczbę parametrów wynoszącą około 389B, z aktywowanymi parametrami wynoszącymi około 52B, co czyni go obecnie największym i najlepiej działającym modelem MoE w architekturze Transformer w branży."
|
814
|
+
},
|
815
|
+
"hunyuan-large-longcontext": {
|
816
|
+
"description": "Specjalizuje się w zadaniach związanych z długimi tekstami, takich jak streszczenia dokumentów i pytania i odpowiedzi dotyczące dokumentów, a także ma zdolność do obsługi ogólnych zadań generowania tekstu. Wykazuje doskonałe wyniki w analizie i generowaniu długich tekstów, skutecznie radząc sobie z złożonymi i szczegółowymi wymaganiami dotyczącymi przetwarzania długich treści."
|
817
|
+
},
|
812
818
|
"hunyuan-lite": {
|
813
819
|
"description": "Zaktualizowana do struktury MOE, z oknem kontekstowym o długości 256k, prowadzi w wielu zestawach testowych w NLP, kodowaniu, matematyce i innych dziedzinach w porównaniu do wielu modeli open source."
|
814
820
|
},
|
821
|
+
"hunyuan-lite-vision": {
|
822
|
+
"description": "Najnowocześniejszy model multimodalny 7B Hunyuan, z oknem kontekstowym 32K, wspierający multimodalne dialogi w języku chińskim i angielskim, rozpoznawanie obiektów w obrazach, zrozumienie dokumentów i tabel, multimodalną matematykę itp., z wynikami w wielu wymiarach lepszymi niż modele konkurencyjne 7B."
|
823
|
+
},
|
815
824
|
"hunyuan-pro": {
|
816
825
|
"description": "Model długiego tekstu MOE-32K o skali bilionów parametrów. Osiąga absolutnie wiodący poziom w różnych benchmarkach, obsługując złożone instrukcje i wnioskowanie, posiadając zaawansowane umiejętności matematyczne, wspierając wywołania funkcji, z optymalizacjami w obszarach takich jak tłumaczenia wielojęzyczne, prawo finansowe i medyczne."
|
817
826
|
},
|
@@ -824,9 +833,24 @@
|
|
824
833
|
"hunyuan-standard-256K": {
|
825
834
|
"description": "Zastosowano lepszą strategię routingu, jednocześnie łagodząc problemy z równoważeniem obciążenia i zbieżnością ekspertów. W przypadku długich tekstów wskaźnik 'znalezienia igły w stogu siana' osiąga 99,9%. MOE-256K dokonuje dalszych przełomów w długości i efektywności, znacznie rozszerzając możliwą długość wejścia."
|
826
835
|
},
|
836
|
+
"hunyuan-standard-vision": {
|
837
|
+
"description": "Najnowocześniejszy model multimodalny Hunyuan, wspierający odpowiedzi w wielu językach, z równoważnymi zdolnościami w języku chińskim i angielskim."
|
838
|
+
},
|
827
839
|
"hunyuan-turbo": {
|
828
840
|
"description": "Hunyuan to nowa generacja dużego modelu językowego w wersji próbnej, wykorzystująca nową strukturę modelu mieszanych ekspertów (MoE), która w porównaniu do hunyuan-pro charakteryzuje się szybszą efektywnością wnioskowania i lepszymi wynikami."
|
829
841
|
},
|
842
|
+
"hunyuan-turbo-20241120": {
|
843
|
+
"description": "Stała wersja hunyuan-turbo z dnia 20 listopada 2024 roku, będąca pomiędzy hunyuan-turbo a hunyuan-turbo-latest."
|
844
|
+
},
|
845
|
+
"hunyuan-turbo-20241223": {
|
846
|
+
"description": "Optymalizacja tej wersji: skalowanie danych instrukcji, znaczne zwiększenie ogólnej zdolności generalizacji modelu; znaczne zwiększenie zdolności w zakresie matematyki, kodowania i rozumowania logicznego; optymalizacja zdolności związanych z rozumieniem tekstu i słów; optymalizacja jakości generowania treści w tworzeniu tekstów."
|
847
|
+
},
|
848
|
+
"hunyuan-turbo-latest": {
|
849
|
+
"description": "Ogólna optymalizacja doświadczeń, w tym zrozumienie NLP, tworzenie tekstów, rozmowy, pytania i odpowiedzi, tłumaczenia, obszary tematyczne itp.; zwiększenie humanizacji, optymalizacja inteligencji emocjonalnej modelu; poprawa zdolności modelu do aktywnego wyjaśniania w przypadku niejasnych intencji; poprawa zdolności do rozwiązywania problemów związanych z analizą słów; poprawa jakości i interaktywności twórczości; poprawa doświadczeń w wielokrotnych interakcjach."
|
850
|
+
},
|
851
|
+
"hunyuan-turbo-vision": {
|
852
|
+
"description": "Nowa generacja flagowego modelu językowo-wizualnego Hunyuan, wykorzystująca nową strukturę modelu mieszanych ekspertów (MoE), z pełnym zwiększeniem zdolności w zakresie podstawowego rozpoznawania, tworzenia treści, pytań i odpowiedzi oraz analizy i rozumowania w porównaniu do poprzedniej generacji modeli."
|
853
|
+
},
|
830
854
|
"hunyuan-vision": {
|
831
855
|
"description": "Najnowocześniejszy model multimodalny Hunyuan, wspierający generowanie treści tekstowych na podstawie obrazów i tekstu."
|
832
856
|
},
|
@@ -1193,6 +1217,9 @@
|
|
1193
1217
|
"pro-128k": {
|
1194
1218
|
"description": "Spark Pro 128K jest wyposażony w wyjątkową zdolność przetwarzania kontekstu, mogąc obsługiwać do 128K informacji kontekstowych, co czyni go idealnym do analizy całościowej i długoterminowego przetwarzania logicznych powiązań w długich treściach, zapewniając płynność i spójność logiczną oraz różnorodne wsparcie cytatów w złożonej komunikacji tekstowej."
|
1195
1219
|
},
|
1220
|
+
"qvq-72b-preview": {
|
1221
|
+
"description": "Model QVQ jest eksperymentalnym modelem badawczym opracowanym przez zespół Qwen, skoncentrowanym na zwiększeniu zdolności w zakresie rozumowania wizualnego, szczególnie w dziedzinie rozumowania matematycznego."
|
1222
|
+
},
|
1196
1223
|
"qwen-coder-plus-latest": {
|
1197
1224
|
"description": "Model kodowania Qwen, oparty na ogólnym zrozumieniu."
|
1198
1225
|
},
|
@@ -8,8 +8,8 @@
|
|
8
8
|
"allChangelog": "Veja todos os registros de alterações",
|
9
9
|
"description": "Acompanhe as novas funcionalidades e melhorias do {{appName}}",
|
10
10
|
"pagination": {
|
11
|
-
"
|
12
|
-
"
|
11
|
+
"next": "Próxima página",
|
12
|
+
"older": "Ver alterações anteriores"
|
13
13
|
},
|
14
14
|
"readDetails": "Leia os detalhes",
|
15
15
|
"title": "Registro de Atualizações",
|
@@ -809,9 +809,18 @@
|
|
809
809
|
"hunyuan-functioncall": {
|
810
810
|
"description": "O mais recente modelo FunctionCall da arquitetura MOE Hunyuan, treinado com dados de alta qualidade de FunctionCall, com uma janela de contexto de 32K, liderando em várias métricas de avaliação."
|
811
811
|
},
|
812
|
+
"hunyuan-large": {
|
813
|
+
"description": "O modelo Hunyuan-large possui um total de aproximadamente 389B de parâmetros, com cerca de 52B de parâmetros ativados, sendo o modelo MoE de código aberto com a maior escala de parâmetros e melhor desempenho na arquitetura Transformer atualmente disponível no mercado."
|
814
|
+
},
|
815
|
+
"hunyuan-large-longcontext": {
|
816
|
+
"description": "Especializado em tarefas de texto longo, como resumo de documentos e perguntas e respostas de documentos, também possui a capacidade de lidar com tarefas gerais de geração de texto. Apresenta desempenho excepcional na análise e geração de textos longos, conseguindo atender efetivamente às demandas complexas e detalhadas de processamento de conteúdo longo."
|
817
|
+
},
|
812
818
|
"hunyuan-lite": {
|
813
819
|
"description": "Atualizado para uma estrutura MOE, com uma janela de contexto de 256k, liderando em várias avaliações em NLP, código, matemática e setores diversos em comparação com muitos modelos de código aberto."
|
814
820
|
},
|
821
|
+
"hunyuan-lite-vision": {
|
822
|
+
"description": "Modelo multimodal mais recente de 7B da Hunyuan, com janela de contexto de 32K, suporta diálogos multimodais em cenários em chinês e português, reconhecimento de objetos em imagens, compreensão de documentos e tabelas, matemática multimodal, entre outros, superando modelos concorrentes de 7B em várias métricas de avaliação."
|
823
|
+
},
|
815
824
|
"hunyuan-pro": {
|
816
825
|
"description": "Modelo de texto longo MOE-32K com trilhões de parâmetros. Alcança níveis de liderança absoluta em vários benchmarks, com capacidades complexas de instrução e raciocínio, habilidades matemáticas complexas, suporte a chamadas de função, otimizado para áreas como tradução multilíngue, finanças, direito e saúde."
|
817
826
|
},
|
@@ -824,9 +833,24 @@
|
|
824
833
|
"hunyuan-standard-256K": {
|
825
834
|
"description": "Adota uma estratégia de roteamento superior, ao mesmo tempo que mitiga problemas de balanceamento de carga e convergência de especialistas. Em termos de textos longos, o índice de precisão atinge 99,9%. O MOE-256K rompe ainda mais em comprimento e desempenho, expandindo significativamente o comprimento de entrada permitido."
|
826
835
|
},
|
836
|
+
"hunyuan-standard-vision": {
|
837
|
+
"description": "Modelo multimodal mais recente da Hunyuan, suporta respostas em múltiplas línguas, com habilidades equilibradas em chinês e português."
|
838
|
+
},
|
827
839
|
"hunyuan-turbo": {
|
828
840
|
"description": "Versão de pré-visualização do novo modelo de linguagem de próxima geração Hunyuan, utilizando uma nova estrutura de modelo de especialistas mistos (MoE), com eficiência de inferência mais rápida e desempenho superior em comparação ao Hunyuan-Pro."
|
829
841
|
},
|
842
|
+
"hunyuan-turbo-20241120": {
|
843
|
+
"description": "Versão fixa do hunyuan-turbo de 20 de novembro de 2024, uma versão intermediária entre hunyuan-turbo e hunyuan-turbo-latest."
|
844
|
+
},
|
845
|
+
"hunyuan-turbo-20241223": {
|
846
|
+
"description": "Esta versão otimiza: escalonamento de instruções de dados, aumentando significativamente a capacidade de generalização do modelo; melhoria substancial nas habilidades matemáticas, de codificação e de raciocínio lógico; otimização das capacidades de compreensão de texto e palavras; melhoria na qualidade da geração de conteúdo de criação de texto."
|
847
|
+
},
|
848
|
+
"hunyuan-turbo-latest": {
|
849
|
+
"description": "Otimização da experiência geral, incluindo compreensão de NLP, criação de texto, conversas informais, perguntas e respostas de conhecimento, tradução, entre outros; aumento da humanização, otimização da inteligência emocional do modelo; melhoria na capacidade do modelo de esclarecer ativamente em casos de intenção ambígua; aprimoramento na capacidade de lidar com questões de análise de palavras; melhoria na qualidade e interatividade da criação; aprimoramento da experiência em múltiplas interações."
|
850
|
+
},
|
851
|
+
"hunyuan-turbo-vision": {
|
852
|
+
"description": "Novo modelo de linguagem visual de próxima geração da Hunyuan, adotando uma nova estrutura de modelo de especialistas mistos (MoE), com melhorias abrangentes em relação ao modelo anterior nas capacidades de reconhecimento básico, criação de conteúdo, perguntas e respostas de conhecimento, e análise e raciocínio relacionados à compreensão de texto e imagem."
|
853
|
+
},
|
830
854
|
"hunyuan-vision": {
|
831
855
|
"description": "O mais recente modelo multimodal Hunyuan, que suporta a entrada de imagens e texto para gerar conteúdo textual."
|
832
856
|
},
|
@@ -1193,6 +1217,9 @@
|
|
1193
1217
|
"pro-128k": {
|
1194
1218
|
"description": "Spark Pro 128K possui uma capacidade de processamento de contexto extremamente grande, capaz de lidar com até 128K de informações contextuais, especialmente adequado para análise completa e processamento de associações lógicas de longo prazo em conteúdos longos, podendo oferecer lógica fluida e consistente e suporte a diversas citações em comunicações textuais complexas."
|
1195
1219
|
},
|
1220
|
+
"qvq-72b-preview": {
|
1221
|
+
"description": "O modelo QVQ é um modelo de pesquisa experimental desenvolvido pela equipe Qwen, focado em melhorar a capacidade de raciocínio visual, especialmente na área de raciocínio matemático."
|
1222
|
+
},
|
1196
1223
|
"qwen-coder-plus-latest": {
|
1197
1224
|
"description": "Modelo de código Qwen."
|
1198
1225
|
},
|
@@ -8,8 +8,8 @@
|
|
8
8
|
"allChangelog": "Просмотреть все журналы изменений",
|
9
9
|
"description": "Постоянно следите за новыми функциями и улучшениями {{appName}}",
|
10
10
|
"pagination": {
|
11
|
-
"
|
12
|
-
"
|
11
|
+
"next": "Следующая страница",
|
12
|
+
"older": "Посмотреть историю изменений"
|
13
13
|
},
|
14
14
|
"readDetails": "Читать детали",
|
15
15
|
"title": "Журнал изменений",
|
@@ -809,9 +809,18 @@
|
|
809
809
|
"hunyuan-functioncall": {
|
810
810
|
"description": "Последняя модель Hunyuan с архитектурой MOE FunctionCall, обученная на высококачественных данных FunctionCall, с контекстным окном до 32K, занимает лидирующие позиции по множеству оценочных показателей."
|
811
811
|
},
|
812
|
+
"hunyuan-large": {
|
813
|
+
"description": "Модель Hunyuan-large имеет общее количество параметров около 389B, активных параметров около 52B, что делает её самой крупной и эффективной открытой моделью MoE с архитектурой Transformer в отрасли."
|
814
|
+
},
|
815
|
+
"hunyuan-large-longcontext": {
|
816
|
+
"description": "Специализируется на обработке длинных текстовых задач, таких как резюме документов и вопросы и ответы по документам, а также обладает способностью обрабатывать общие задачи генерации текста. Отлично справляется с анализом и генерацией длинных текстов, эффективно справляясь с требованиями к обработке сложного и детального длинного контента."
|
817
|
+
},
|
812
818
|
"hunyuan-lite": {
|
813
819
|
"description": "Обновленная версия с MOE-структурой, контекстное окно составляет 256k, она опережает множество открытых моделей в оценках по NLP, коду, математике и другим областям."
|
814
820
|
},
|
821
|
+
"hunyuan-lite-vision": {
|
822
|
+
"description": "Последняя многомодальная модель Hunyuan с 7B параметрами, окно контекста 32K, поддерживает многомодальный диалог на китайском и английском языках, распознавание объектов на изображениях, понимание документов и таблиц, многомодальную математику и т. д., по многим измерениям превосходит модели конкурентов с 7B параметрами."
|
823
|
+
},
|
815
824
|
"hunyuan-pro": {
|
816
825
|
"description": "Модель длинного текста с параметрами уровня триллиона MOE-32K. Она достигает абсолютного лидерства на различных бенчмарках, обладает сложными инструкциями и выводом, имеет сложные математические способности и поддерживает вызовы функций, с акцентом на оптимизацию в области многоязычного перевода, финансов, права и медицины."
|
817
826
|
},
|
@@ -824,9 +833,24 @@
|
|
824
833
|
"hunyuan-standard-256K": {
|
825
834
|
"description": "Использует более оптимальную стратегию маршрутизации, одновременно смягчая проблемы с балансировкой нагрузки и сходимостью экспертов. В области длинных текстов показатель «найти иголку в стоге сена» достигает 99,9%. MOE-256K делает дальнейший прорыв в длине и качестве, значительно расширяя допустимую длину ввода."
|
826
835
|
},
|
836
|
+
"hunyuan-standard-vision": {
|
837
|
+
"description": "Последняя многомодальная модель Hunyuan, поддерживающая многоязычные ответы, с сбалансированными способностями на китайском и английском языках."
|
838
|
+
},
|
827
839
|
"hunyuan-turbo": {
|
828
840
|
"description": "Предварительная версия нового поколения языковой модели Hunyuan, использующая совершенно новую структуру смешанной экспертной модели (MoE), которая обеспечивает более быструю эффективность вывода и более сильные результаты по сравнению с hunyuan-pro."
|
829
841
|
},
|
842
|
+
"hunyuan-turbo-20241120": {
|
843
|
+
"description": "Фиксированная версия hunyuan-turbo от 20 ноября 2024 года, промежуточная между hunyuan-turbo и hunyuan-turbo-latest."
|
844
|
+
},
|
845
|
+
"hunyuan-turbo-20241223": {
|
846
|
+
"description": "Оптимизация этой версии: масштабирование данных и инструкций, значительное повышение общей обобщающей способности модели; значительное улучшение математических, кодовых и логических способностей; оптимизация понимания текста и связанных с ним способностей понимания слов; оптимизация качества генерации контента при создании текста."
|
847
|
+
},
|
848
|
+
"hunyuan-turbo-latest": {
|
849
|
+
"description": "Оптимизация общего опыта, включая понимание NLP, создание текста, общение, вопросы и ответы на знания, перевод, области и т. д.; повышение человечности, оптимизация эмоционального интеллекта модели; улучшение способности модели активно прояснять неясные намерения; повышение способности обработки вопросов, связанных с анализом слов; улучшение качества и интерактивности творчества; улучшение многократного взаимодействия."
|
850
|
+
},
|
851
|
+
"hunyuan-turbo-vision": {
|
852
|
+
"description": "Флагманская модель нового поколения Hunyuan в области визуального языка, использующая совершенно новую структуру смешанной экспертной модели (MoE), с полным улучшением способностей в области базового распознавания, создания контента, вопросов и ответов на знания, анализа и вывода по сравнению с предыдущей моделью."
|
853
|
+
},
|
830
854
|
"hunyuan-vision": {
|
831
855
|
"description": "Последняя многомодальная модель Hunyuan, поддерживающая ввод изображений и текста для генерации текстового контента."
|
832
856
|
},
|
@@ -1193,6 +1217,9 @@
|
|
1193
1217
|
"pro-128k": {
|
1194
1218
|
"description": "Spark Pro 128K оснащен огромной способностью обработки контекста, способной обрабатывать до 128K контекстной информации, что делает его особенно подходящим для анализа длинных текстов и обработки долгосрочных логических связей, обеспечивая плавную и последовательную логику и разнообразную поддержку ссылок в сложных текстовых коммуникациях."
|
1195
1219
|
},
|
1220
|
+
"qvq-72b-preview": {
|
1221
|
+
"description": "Модель QVQ, разработанная командой Qwen, является экспериментальной исследовательской моделью, сосредоточенной на повышении визуальных способностей рассуждения, особенно в области математического рассуждения."
|
1222
|
+
},
|
1196
1223
|
"qwen-coder-plus-latest": {
|
1197
1224
|
"description": "Модель кода Tongyi Qianwen."
|
1198
1225
|
},
|
@@ -8,8 +8,8 @@
|
|
8
8
|
"allChangelog": "Tüm güncelleme günlüklerini görüntüle",
|
9
9
|
"description": "{{appName}}'in yeni özelliklerini ve iyileştirmelerini sürekli takip edin",
|
10
10
|
"pagination": {
|
11
|
-
"
|
12
|
-
"
|
11
|
+
"next": "Sonraki Sayfa",
|
12
|
+
"older": "Geçmiş değişiklikleri görüntüle"
|
13
13
|
},
|
14
14
|
"readDetails": "Detayları okuyun",
|
15
15
|
"title": "Güncelleme Günlüğü",
|
@@ -809,9 +809,18 @@
|
|
809
809
|
"hunyuan-functioncall": {
|
810
810
|
"description": "Hunyuan'ın en son MOE mimarisi FunctionCall modeli, yüksek kaliteli FunctionCall verisi ile eğitilmiş olup, bağlam penceresi 32K'ya ulaşmıştır ve birçok boyutta değerlendirme göstergelerinde lider konumdadır."
|
811
811
|
},
|
812
|
+
"hunyuan-large": {
|
813
|
+
"description": "Hunyuan-large modelinin toplam parametre sayısı yaklaşık 389B, etkin parametre sayısı yaklaşık 52B'dir; bu, mevcut endüstrideki en büyük parametre ölçeğine sahip ve en iyi performansı gösteren Transformer mimarisinin açık kaynaklı MoE modelidir."
|
814
|
+
},
|
815
|
+
"hunyuan-large-longcontext": {
|
816
|
+
"description": "Uzun metin görevlerini, örneğin belge özeti ve belge sorgulama gibi, işleme konusunda uzmandır; aynı zamanda genel metin oluşturma görevlerini de yerine getirme yeteneğine sahiptir. Uzun metinlerin analizi ve oluşturulmasında mükemmel bir performans sergiler, karmaşık ve ayrıntılı uzun metin içerik işleme ihtiyaçlarına etkili bir şekilde yanıt verebilir."
|
817
|
+
},
|
812
818
|
"hunyuan-lite": {
|
813
819
|
"description": "MOE yapısına yükseltilmiş, bağlam penceresi 256k, NLP, kod, matematik, endüstri gibi birçok değerlendirme setinde birçok açık kaynak modelden önde."
|
814
820
|
},
|
821
|
+
"hunyuan-lite-vision": {
|
822
|
+
"description": "Hunyuan'ın en son 7B çok modlu modeli, bağlam penceresi 32K, Çince ve İngilizce senaryolarında çok modlu diyalog, görüntü nesne tanıma, belge tablo anlama, çok modlu matematik vb. destekler; birçok boyutta değerlendirme kriterleri 7B rakip modellerden üstündür."
|
823
|
+
},
|
815
824
|
"hunyuan-pro": {
|
816
825
|
"description": "Trilyon seviyesinde parametre ölçeğine sahip MOE-32K uzun metin modeli. Çeşitli benchmarklarda kesin bir liderlik seviyesine ulaşarak, karmaşık talimatlar ve akıl yürütme yetenekleri ile karmaşık matematik yetenekleri sunar, functioncall desteği ile çok dilli çeviri, finans, hukuk ve sağlık gibi alanlarda önemli optimizasyonlar sağlar."
|
817
826
|
},
|
@@ -824,9 +833,24 @@
|
|
824
833
|
"hunyuan-standard-256K": {
|
825
834
|
"description": "Daha iyi bir yönlendirme stratejisi kullanarak, yük dengeleme ve uzman yakınsaması sorunlarını hafifletir. Uzun metinlerde, iğne arama göstergesi %99.9'a ulaşmaktadır. MOE-256K, uzunluk ve etki açısından daha fazla bir sıçrama yaparak, girdi uzunluğunu büyük ölçüde genişletir."
|
826
835
|
},
|
836
|
+
"hunyuan-standard-vision": {
|
837
|
+
"description": "Hunyuan'ın en son çok modlu modeli, çok dilli yanıtları destekler, Çince ve İngilizce yetenekleri dengelidir."
|
838
|
+
},
|
827
839
|
"hunyuan-turbo": {
|
828
840
|
"description": "Hunyuan'ın yeni nesil büyük dil modelinin önizleme sürümü, tamamen yeni bir karma uzman modeli (MoE) yapısı kullanır ve hunyuan-pro'ya kıyasla daha hızlı çıkarım verimliliği ve daha güçlü performans sunar."
|
829
841
|
},
|
842
|
+
"hunyuan-turbo-20241120": {
|
843
|
+
"description": "Hunyuan-turbo 2024 yılı 11 ay 20 günü sabit sürümü, hunyuan-turbo ve hunyuan-turbo-latest arasında bir versiyon."
|
844
|
+
},
|
845
|
+
"hunyuan-turbo-20241223": {
|
846
|
+
"description": "Bu sürümde yapılan optimizasyonlar: veri talimatı ölçeklendirme, modelin genel genelleme yeteneğini büyük ölçüde artırma; matematik, kodlama, mantıksal akıl yürütme yeteneklerini büyük ölçüde artırma; metin anlama ve kelime anlama ile ilgili yetenekleri optimize etme; metin oluşturma içerik üretim kalitesini optimize etme."
|
847
|
+
},
|
848
|
+
"hunyuan-turbo-latest": {
|
849
|
+
"description": "Genel deneyim optimizasyonu, NLP anlama, metin oluşturma, sohbet, bilgi sorgulama, çeviri, alan vb. dahil; insan benzeri özellikleri artırma, modelin duygusal zekasını optimize etme; niyet belirsiz olduğunda modelin aktif olarak netleştirme yeteneğini artırma; kelime ve terim analizi ile ilgili sorunların işlenme yeteneğini artırma; yaratım kalitesini ve etkileşimliğini artırma; çoklu tur deneyimini geliştirme."
|
850
|
+
},
|
851
|
+
"hunyuan-turbo-vision": {
|
852
|
+
"description": "Hunyuan'ın yeni nesil görsel dil amiral modeli, tamamen yeni bir karışık uzman modeli (MoE) yapısını benimser; metin ve görüntü anlama ile ilgili temel tanıma, içerik oluşturma, bilgi sorgulama, analiz ve akıl yürütme gibi yeteneklerde bir önceki nesil modele göre kapsamlı bir iyileştirme sağlar."
|
853
|
+
},
|
830
854
|
"hunyuan-vision": {
|
831
855
|
"description": "Hunyuan'ın en son çok modlu modeli, resim + metin girişi ile metin içeriği oluşturmayı destekler."
|
832
856
|
},
|
@@ -1193,6 +1217,9 @@
|
|
1193
1217
|
"pro-128k": {
|
1194
1218
|
"description": "Spark Pro 128K, olağanüstü bağlam işleme yeteneği ile donatılmıştır ve 128K'ya kadar bağlam bilgilerini işleyebilir. Özellikle uzun metinlerin bütünsel analizi ve uzun vadeli mantıksal ilişkilerin işlenmesi gereken durumlar için uygundur ve karmaşık metin iletişiminde akıcı ve tutarlı bir mantık ile çeşitli alıntı desteği sunmaktadır."
|
1195
1219
|
},
|
1220
|
+
"qvq-72b-preview": {
|
1221
|
+
"description": "QVQ modeli, Qwen ekibi tarafından geliştirilen deneysel bir araştırma modelidir; görsel akıl yürütme yeteneğini artırmaya odaklanır, özellikle matematik akıl yürütme alanında."
|
1222
|
+
},
|
1196
1223
|
"qwen-coder-plus-latest": {
|
1197
1224
|
"description": "Tongyi Qianwen kod modeli."
|
1198
1225
|
},
|
@@ -8,8 +8,8 @@
|
|
8
8
|
"allChangelog": "Xem tất cả nhật ký cập nhật",
|
9
9
|
"description": "Theo dõi các tính năng và cải tiến mới của {{appName}}",
|
10
10
|
"pagination": {
|
11
|
-
"
|
12
|
-
"
|
11
|
+
"next": "Trang tiếp theo",
|
12
|
+
"older": "Xem thay đổi lịch sử"
|
13
13
|
},
|
14
14
|
"readDetails": "Đọc chi tiết",
|
15
15
|
"title": "Nhật ký cập nhật",
|
@@ -809,9 +809,18 @@
|
|
809
809
|
"hunyuan-functioncall": {
|
810
810
|
"description": "Mô hình FunctionCall với cấu trúc MOE mới nhất của Hunyuan, được huấn luyện trên dữ liệu FunctionCall chất lượng cao, với cửa sổ ngữ cảnh đạt 32K, dẫn đầu trong nhiều chỉ số đánh giá."
|
811
811
|
},
|
812
|
+
"hunyuan-large": {
|
813
|
+
"description": "Mô hình Hunyuan-large có tổng số tham số khoảng 389B, số tham số kích hoạt khoảng 52B, là mô hình MoE mã nguồn mở có quy mô tham số lớn nhất và hiệu quả nhất trong ngành hiện nay."
|
814
|
+
},
|
815
|
+
"hunyuan-large-longcontext": {
|
816
|
+
"description": "Chuyên xử lý các nhiệm vụ văn bản dài như tóm tắt tài liệu và hỏi đáp tài liệu, đồng thời cũng có khả năng xử lý các nhiệm vụ tạo văn bản chung. Thể hiện xuất sắc trong phân tích và tạo nội dung văn bản dài, có thể đáp ứng hiệu quả các yêu cầu xử lý nội dung dài phức tạp và chi tiết."
|
817
|
+
},
|
812
818
|
"hunyuan-lite": {
|
813
819
|
"description": "Nâng cấp lên cấu trúc MOE, với cửa sổ ngữ cảnh 256k, dẫn đầu nhiều mô hình mã nguồn mở trong các bộ đánh giá NLP, mã, toán học, ngành nghề, v.v."
|
814
820
|
},
|
821
|
+
"hunyuan-lite-vision": {
|
822
|
+
"description": "Mô hình đa phương thức mới nhất 7B của Hunyuan, cửa sổ ngữ cảnh 32K, hỗ trợ đối thoại đa phương thức trong các tình huống tiếng Trung và tiếng Anh, nhận diện đối tượng hình ảnh, hiểu biết tài liệu và bảng biểu, toán học đa phương thức, v.v., với các chỉ số đánh giá vượt trội hơn các mô hình cạnh tranh 7B ở nhiều khía cạnh."
|
823
|
+
},
|
815
824
|
"hunyuan-pro": {
|
816
825
|
"description": "Mô hình văn bản dài MOE-32K với quy mô hàng triệu tham số. Đạt được mức độ dẫn đầu tuyệt đối trên nhiều benchmark, có khả năng xử lý các lệnh phức tạp và suy diễn, có khả năng toán học phức tạp, hỗ trợ functioncall, được tối ưu hóa cho các lĩnh vực dịch thuật đa ngôn ngữ, tài chính, pháp lý và y tế."
|
817
826
|
},
|
@@ -824,9 +833,24 @@
|
|
824
833
|
"hunyuan-standard-256K": {
|
825
834
|
"description": "Sử dụng chiến lược định tuyến tốt hơn, đồng thời giảm thiểu vấn đề cân bằng tải và đồng nhất chuyên gia. Về mặt văn bản dài, chỉ số tìm kiếm đạt 99.9%. MOE-256K đã có bước đột phá về độ dài và hiệu quả, mở rộng đáng kể độ dài đầu vào có thể."
|
826
835
|
},
|
836
|
+
"hunyuan-standard-vision": {
|
837
|
+
"description": "Mô hình đa phương thức mới nhất của Hunyuan, hỗ trợ trả lời đa ngôn ngữ, khả năng tiếng Trung và tiếng Anh cân bằng."
|
838
|
+
},
|
827
839
|
"hunyuan-turbo": {
|
828
840
|
"description": "Phiên bản xem trước của thế hệ mới mô hình ngôn ngữ lớn Hunyuan, sử dụng cấu trúc mô hình chuyên gia hỗn hợp (MoE) hoàn toàn mới, so với hunyuan-pro, hiệu suất suy diễn nhanh hơn và hiệu quả mạnh mẽ hơn."
|
829
841
|
},
|
842
|
+
"hunyuan-turbo-20241120": {
|
843
|
+
"description": "Phiên bản cố định hunyuan-turbo ngày 20 tháng 11 năm 2024, là một phiên bản nằm giữa hunyuan-turbo và hunyuan-turbo-latest."
|
844
|
+
},
|
845
|
+
"hunyuan-turbo-20241223": {
|
846
|
+
"description": "Phiên bản này tối ưu hóa: quy mô chỉ thị dữ liệu, nâng cao đáng kể khả năng tổng quát của mô hình; nâng cao đáng kể khả năng toán học, lập trình, và suy luận logic; tối ưu hóa khả năng hiểu biết văn bản và từ ngữ; tối ưu hóa chất lượng tạo nội dung văn bản."
|
847
|
+
},
|
848
|
+
"hunyuan-turbo-latest": {
|
849
|
+
"description": "Tối ưu hóa trải nghiệm chung, bao gồm hiểu biết NLP, sáng tạo văn bản, trò chuyện, hỏi đáp kiến thức, dịch thuật, và các lĩnh vực khác; nâng cao tính nhân văn, tối ưu hóa trí tuệ cảm xúc của mô hình; cải thiện khả năng làm rõ khi ý định không rõ ràng; nâng cao khả năng xử lý các vấn đề phân tích từ ngữ; nâng cao chất lượng và khả năng tương tác trong sáng tạo; cải thiện trải nghiệm đa vòng."
|
850
|
+
},
|
851
|
+
"hunyuan-turbo-vision": {
|
852
|
+
"description": "Mô hình ngôn ngữ hình ảnh thế hệ mới của Hunyuan, sử dụng cấu trúc mô hình chuyên gia hỗn hợp (MoE) hoàn toàn mới, nâng cao toàn diện khả năng nhận diện cơ bản, sáng tạo nội dung, hỏi đáp kiến thức, và phân tích suy luận so với mô hình thế hệ trước."
|
853
|
+
},
|
830
854
|
"hunyuan-vision": {
|
831
855
|
"description": "Mô hình đa phương thức mới nhất của Hunyuan, hỗ trợ đầu vào hình ảnh + văn bản để tạo ra nội dung văn bản."
|
832
856
|
},
|
@@ -1193,6 +1217,9 @@
|
|
1193
1217
|
"pro-128k": {
|
1194
1218
|
"description": "Spark Pro 128K được cấu hình với khả năng xử lý ngữ cảnh cực lớn, có thể xử lý tới 128K thông tin ngữ cảnh, đặc biệt phù hợp cho việc phân tích toàn bộ và xử lý mối liên hệ logic lâu dài trong nội dung văn bản dài, có thể cung cấp logic mạch lạc và hỗ trợ trích dẫn đa dạng trong giao tiếp văn bản phức tạp."
|
1195
1219
|
},
|
1220
|
+
"qvq-72b-preview": {
|
1221
|
+
"description": "Mô hình QVQ là mô hình nghiên cứu thử nghiệm do đội ngũ Qwen phát triển, tập trung vào việc nâng cao khả năng suy luận hình ảnh, đặc biệt trong lĩnh vực suy luận toán học."
|
1222
|
+
},
|
1196
1223
|
"qwen-coder-plus-latest": {
|
1197
1224
|
"description": "Mô hình mã Qwen."
|
1198
1225
|
},
|
@@ -809,9 +809,18 @@
|
|
809
809
|
"hunyuan-functioncall": {
|
810
810
|
"description": "混元最新 MOE 架构 FunctionCall 模型,经过高质量的 FunctionCall 数据训练,上下文窗口达 32K,在多个维度的评测指标上处于领先。"
|
811
811
|
},
|
812
|
+
"hunyuan-large": {
|
813
|
+
"description": "Hunyuan-large 模型总参数量约 389B,激活参数量约 52B,是当前业界参数规模最大、效果最好的 Transformer 架构的开源 MoE 模型。"
|
814
|
+
},
|
815
|
+
"hunyuan-large-longcontext": {
|
816
|
+
"description": "擅长处理长文任务如文档摘要和文档问答等,同时也具备处理通用文本生成任务的能力。在长文本的分析和生成上表现优异,能有效应对复杂和详尽的长文内容处理需求。"
|
817
|
+
},
|
812
818
|
"hunyuan-lite": {
|
813
819
|
"description": "升级为 MOE 结构,上下文窗口为 256k ,在 NLP,代码,数学,行业等多项评测集上领先众多开源模型。"
|
814
820
|
},
|
821
|
+
"hunyuan-lite-vision": {
|
822
|
+
"description": "混元最新7B多模态模型,上下文窗口32K,支持中英文场景的多模态对话、图像物体识别、文档表格理解、多模态数学等,在多个维度上评测指标优于7B竞品模型。"
|
823
|
+
},
|
815
824
|
"hunyuan-pro": {
|
816
825
|
"description": "万亿级参数规模 MOE-32K 长文模型。在各种 benchmark 上达到绝对领先的水平,复杂指令和推理,具备复杂数学能力,支持 functioncall,在多语言翻译、金融法律医疗等领域应用重点优化。"
|
817
826
|
},
|
@@ -824,8 +833,23 @@
|
|
824
833
|
"hunyuan-standard-256K": {
|
825
834
|
"description": "采用更优的路由策略,同时缓解了负载均衡和专家趋同的问题。长文方面,大海捞针指标达到99.9%。MOE-256K 在长度和效果上进一步突破,极大的扩展了可输入长度。"
|
826
835
|
},
|
836
|
+
"hunyuan-standard-vision": {
|
837
|
+
"description": "混元最新多模态模型,支持多语种作答,中英文能力均衡。"
|
838
|
+
},
|
827
839
|
"hunyuan-turbo": {
|
828
|
-
"description": "
|
840
|
+
"description": "本版本优化:数据指令scaling,大幅提升模型通用泛化能力;大幅提升数学、代码、逻辑推理能力;优化文本理解字词理解相关能力;优化文本创作内容生成质量"
|
841
|
+
},
|
842
|
+
"hunyuan-turbo-20241120": {
|
843
|
+
"description": "hunyuan-turbo 2024 年 11 月 20 日固定版本,介于 hunyuan-turbo 和 hunyuan-turbo-latest 之间的一个版本。"
|
844
|
+
},
|
845
|
+
"hunyuan-turbo-20241223": {
|
846
|
+
"description": "本版本优化:数据指令scaling,大幅提升模型通用泛化能力;大幅提升数学、代码、逻辑推理能力;优化文本理解字词理解相关能力;优化文本创作内容生成质量"
|
847
|
+
},
|
848
|
+
"hunyuan-turbo-latest": {
|
849
|
+
"description": "通用体验优化,包括NLP理解、文本创作、闲聊、知识问答、翻译、领域等;提升拟人性,优化模型情商;提升意图模糊时模型主动澄清能力;提升字词解析类问题的处理能力;提升创作的质量和可互动性;提升多轮体验。"
|
850
|
+
},
|
851
|
+
"hunyuan-turbo-vision": {
|
852
|
+
"description": "混元新一代视觉语言旗舰大模型,采用全新的混合专家模型(MoE)结构,在图文理解相关的基础识别、内容创作、知识问答、分析推理等能力上相比前一代模型全面提升。"
|
829
853
|
},
|
830
854
|
"hunyuan-vision": {
|
831
855
|
"description": "混元最新多模态模型,支持图片+文本输入生成文本内容。"
|
@@ -1193,6 +1217,9 @@
|
|
1193
1217
|
"pro-128k": {
|
1194
1218
|
"description": "Spark Pro 128K 配置了特大上下文处理能力,能够处理多达128K的上下文信息,特别适合需通篇分析和长期逻辑关联处理的长文内容,可在复杂文本沟通中提供流畅一致的逻辑与多样的引用支持。"
|
1195
1219
|
},
|
1220
|
+
"qvq-72b-preview": {
|
1221
|
+
"description": "QVQ模型是由 Qwen 团队开发的实验性研究模型,专注于提升视觉推理能力,尤其在数学推理领域。"
|
1222
|
+
},
|
1196
1223
|
"qwen-coder-plus-latest": {
|
1197
1224
|
"description": "通义千问代码模型。"
|
1198
1225
|
},
|