@lobehub/chat 1.139.0 → 1.139.2
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.github/ISSUE_TEMPLATE/1_bug_report.yml +63 -19
- package/CHANGELOG.md +58 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/models.json +12 -0
- package/locales/ar/welcome.json +0 -17
- package/locales/bg-BG/models.json +12 -0
- package/locales/bg-BG/welcome.json +0 -17
- package/locales/de-DE/models.json +12 -0
- package/locales/de-DE/welcome.json +0 -17
- package/locales/en-US/models.json +12 -0
- package/locales/en-US/welcome.json +0 -17
- package/locales/es-ES/models.json +12 -0
- package/locales/es-ES/welcome.json +0 -17
- package/locales/fa-IR/models.json +12 -0
- package/locales/fa-IR/welcome.json +0 -17
- package/locales/fr-FR/models.json +12 -0
- package/locales/fr-FR/welcome.json +0 -17
- package/locales/it-IT/models.json +12 -0
- package/locales/it-IT/welcome.json +0 -17
- package/locales/ja-JP/models.json +12 -0
- package/locales/ja-JP/welcome.json +0 -17
- package/locales/ko-KR/chat.json +1 -1
- package/locales/ko-KR/models.json +12 -0
- package/locales/ko-KR/welcome.json +0 -17
- package/locales/nl-NL/models.json +12 -0
- package/locales/nl-NL/welcome.json +0 -17
- package/locales/pl-PL/models.json +12 -0
- package/locales/pl-PL/welcome.json +0 -17
- package/locales/pt-BR/models.json +12 -0
- package/locales/pt-BR/welcome.json +0 -17
- package/locales/ru-RU/models.json +12 -0
- package/locales/ru-RU/welcome.json +0 -17
- package/locales/tr-TR/models.json +12 -0
- package/locales/tr-TR/welcome.json +0 -17
- package/locales/vi-VN/models.json +12 -0
- package/locales/vi-VN/welcome.json +0 -17
- package/locales/zh-CN/models.json +12 -0
- package/locales/zh-CN/welcome.json +0 -17
- package/locales/zh-TW/models.json +12 -0
- package/locales/zh-TW/welcome.json +0 -17
- package/next.config.ts +1 -0
- package/package.json +4 -2
- package/packages/model-runtime/package.json +1 -0
- package/packages/obervability-otel/package.json +2 -2
- package/src/app/[variants]/(main)/_layout/Desktop/SideBar/index.tsx +11 -7
- package/src/layout/GlobalProvider/StoreInitialization.tsx +4 -1
- package/src/libs/swr/index.ts +13 -0
- package/src/libs/trpc/client/lambda.ts +13 -3
- package/src/locales/default/welcome.ts +0 -17
- package/src/store/agent/slices/chat/action.ts +4 -2
- package/src/store/aiInfra/slices/aiProvider/action.ts +5 -3
- package/src/store/chat/slices/message/action.ts +0 -4
|
@@ -340,23 +340,6 @@
|
|
|
340
340
|
"title": "Cercle d'écriture"
|
|
341
341
|
}
|
|
342
342
|
},
|
|
343
|
-
"qa": {
|
|
344
|
-
"q01": "Qu'est-ce que LobeHub ?",
|
|
345
|
-
"q02": "Qu'est-ce que {{appName}} ?",
|
|
346
|
-
"q03": "{{appName}} a-t-il un support communautaire ?",
|
|
347
|
-
"q04": "Quelles fonctionnalités {{appName}} prend-il en charge ?",
|
|
348
|
-
"q05": "Comment déployer et utiliser {{appName}} ?",
|
|
349
|
-
"q06": "Quel est le prix de {{appName}} ?",
|
|
350
|
-
"q07": "{{appName}} est-il gratuit ?",
|
|
351
|
-
"q08": "Y a-t-il une version cloud ?",
|
|
352
|
-
"q09": "Prend-il en charge les modèles de langue locaux ?",
|
|
353
|
-
"q10": "Prend-il en charge la reconnaissance et la génération d'images ?",
|
|
354
|
-
"q11": "Prend-il en charge la synthèse vocale et la reconnaissance vocale ?",
|
|
355
|
-
"q12": "Prend-il en charge un système de plugins ?",
|
|
356
|
-
"q13": "Y a-t-il un marché pour obtenir des GPTs ?",
|
|
357
|
-
"q14": "Prend-il en charge plusieurs fournisseurs de services d'IA ?",
|
|
358
|
-
"q15": "Que dois-je faire si je rencontre des problèmes lors de l'utilisation ?"
|
|
359
|
-
},
|
|
360
343
|
"questions": {
|
|
361
344
|
"moreBtn": "En savoir plus",
|
|
362
345
|
"title": "Essayez de demander :"
|
|
@@ -311,6 +311,12 @@
|
|
|
311
311
|
"Qwen/QwQ-32B-Preview": {
|
|
312
312
|
"description": "QwQ-32B-Preview è l'ultimo modello di ricerca sperimentale di Qwen, focalizzato sul miglioramento delle capacità di ragionamento dell'IA. Esplorando meccanismi complessi come la mescolanza linguistica e il ragionamento ricorsivo, i principali vantaggi includono potenti capacità di analisi del ragionamento, abilità matematiche e di programmazione. Tuttavia, ci sono anche problemi di cambio linguistico, cicli di ragionamento, considerazioni di sicurezza e differenze in altre capacità."
|
|
313
313
|
},
|
|
314
|
+
"Qwen/Qwen-Image": {
|
|
315
|
+
"description": "Qwen-Image è un modello di base per la generazione di immagini sviluppato dal team Tongyi Qianwen di Alibaba, con 20 miliardi di parametri. Il modello ha compiuto notevoli progressi nella resa complessa del testo e nell'editing preciso delle immagini, eccellendo in particolare nella generazione di immagini contenenti testi in cinese e inglese ad alta fedeltà. Qwen-Image è in grado di gestire layout su più righe e testi a livello di paragrafo, mantenendo coerenza tipografica e armonia contestuale durante la generazione delle immagini. Oltre alle sue eccellenti capacità di resa testuale, il modello supporta un'ampia gamma di stili artistici, dalle fotografie realistiche all'estetica anime, adattandosi con flessibilità a diverse esigenze creative. Inoltre, possiede potenti capacità di editing e comprensione delle immagini, supportando operazioni avanzate come trasferimento di stile, aggiunta o rimozione di oggetti, miglioramento dei dettagli, editing del testo e persino manipolazione della postura umana. L'obiettivo è quello di diventare un modello di base completo per la creazione e l'elaborazione visiva intelligente, integrando linguaggio, layout e immagine."
|
|
316
|
+
},
|
|
317
|
+
"Qwen/Qwen-Image-Edit-2509": {
|
|
318
|
+
"description": "Qwen-Image-Edit-2509 è l'ultima versione per l'editing di immagini del modello Qwen-Image, rilasciata dal team Tongyi Qianwen di Alibaba. Basato sul modello Qwen-Image da 20 miliardi di parametri, è stato ulteriormente addestrato per estendere le sue eccezionali capacità di resa testuale al campo dell'editing delle immagini, consentendo modifiche precise del testo all'interno delle immagini. Qwen-Image-Edit adotta un'architettura innovativa che invia l'immagine in input sia a Qwen2.5-VL (per il controllo semantico visivo) sia al VAE Encoder (per il controllo dell'aspetto visivo), ottenendo così una doppia capacità di editing semantico e visivo. Questo significa che il modello supporta non solo modifiche locali dell'aspetto, come aggiunta, rimozione o modifica di elementi, ma anche editing semantico avanzato che richiede coerenza concettuale, come la creazione IP o il trasferimento di stile. Il modello ha dimostrato prestazioni all'avanguardia (SOTA) in numerosi benchmark pubblici, rendendolo una potente base per l'editing di immagini."
|
|
319
|
+
},
|
|
314
320
|
"Qwen/Qwen2-72B-Instruct": {
|
|
315
321
|
"description": "Qwen2 è un modello di linguaggio universale avanzato, supportando vari tipi di istruzioni."
|
|
316
322
|
},
|
|
@@ -392,6 +398,12 @@
|
|
|
392
398
|
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
|
|
393
399
|
"description": "Qwen3-Next-80B-A3B-Thinking è un modello di base di nuova generazione rilasciato dal team Tongyi Qianwen di Alibaba, progettato specificamente per compiti di ragionamento complesso. Basato sull'innovativa architettura Qwen3-Next, che integra un meccanismo di attenzione ibrida (Gated DeltaNet e Gated Attention) e una struttura di esperti misti ad alta sparsità (MoE), mira a massimizzare l'efficienza di addestramento e inferenza. Come modello sparso con un totale di 80 miliardi di parametri, attiva solo circa 3 miliardi di parametri durante l'inferenza, riducendo notevolmente i costi computazionali. Nelle attività con contesti lunghi oltre 32K token, il throughput supera di oltre 10 volte quello del modello Qwen3-32B. Questa versione “Thinking” è ottimizzata per eseguire compiti multi-step complessi come dimostrazioni matematiche, sintesi di codice, analisi logica e pianificazione, e produce di default il processo di ragionamento in forma strutturata di “catena di pensiero”. In termini di prestazioni, supera non solo modelli più costosi come Qwen3-32B-Thinking, ma anche Gemini-2.5-Flash-Thinking in diversi benchmark."
|
|
394
400
|
},
|
|
401
|
+
"Qwen/Qwen3-VL-8B-Instruct": {
|
|
402
|
+
"description": "Qwen3-VL-8B-Instruct è un modello linguistico-visivo della serie Qwen3, sviluppato a partire da Qwen3-8B-Instruct e addestrato su un ampio corpus di dati immagine-testo. È specializzato nella comprensione visiva generale, nel dialogo centrato sulla visione e nel riconoscimento multilingue del testo all'interno delle immagini. È adatto a scenari come domande e risposte visive, descrizione di immagini, esecuzione di istruzioni multimodali e utilizzo di strumenti."
|
|
403
|
+
},
|
|
404
|
+
"Qwen/Qwen3-VL-8B-Thinking": {
|
|
405
|
+
"description": "Qwen3-VL-8B-Thinking è la versione di ragionamento visivo della serie Qwen3, ottimizzata per compiti complessi di ragionamento multi-step. Per impostazione predefinita, genera una catena di pensiero (thinking chain) prima di rispondere, al fine di migliorare l'accuratezza del ragionamento. È ideale per scenari che richiedono ragionamento approfondito, come domande e risposte visive complesse o analisi dettagliate del contenuto di un'immagine."
|
|
406
|
+
},
|
|
395
407
|
"Qwen2-72B-Instruct": {
|
|
396
408
|
"description": "Qwen2 è l'ultima serie del modello Qwen, supporta un contesto di 128k, e rispetto ai modelli open source attualmente migliori, Qwen2-72B supera significativamente i modelli leader attuali in comprensione del linguaggio naturale, conoscenza, codice, matematica e capacità multilingue."
|
|
397
409
|
},
|
|
@@ -340,23 +340,6 @@
|
|
|
340
340
|
"title": "Cerchia di scrittura"
|
|
341
341
|
}
|
|
342
342
|
},
|
|
343
|
-
"qa": {
|
|
344
|
-
"q01": "Che cos'è LobeHub?",
|
|
345
|
-
"q02": "Che cos'è {{appName}}?",
|
|
346
|
-
"q03": "{{appName}} ha supporto della comunità?",
|
|
347
|
-
"q04": "Quali funzionalità supporta {{appName}}?",
|
|
348
|
-
"q05": "Come si installa e utilizza {{appName}}?",
|
|
349
|
-
"q06": "Qual è il prezzo di {{appName}}?",
|
|
350
|
-
"q07": "{{appName}} è gratuito?",
|
|
351
|
-
"q08": "Esiste una versione cloud?",
|
|
352
|
-
"q09": "Supporta modelli di linguaggio locali?",
|
|
353
|
-
"q10": "Supporta il riconoscimento e la generazione di immagini?",
|
|
354
|
-
"q11": "Supporta la sintesi vocale e il riconoscimento vocale?",
|
|
355
|
-
"q12": "Supporta un sistema di plugin?",
|
|
356
|
-
"q13": "C'è un mercato per ottenere GPT?",
|
|
357
|
-
"q14": "Supporta diversi fornitori di servizi AI?",
|
|
358
|
-
"q15": "Cosa devo fare se riscontro problemi durante l'uso?"
|
|
359
|
-
},
|
|
360
343
|
"questions": {
|
|
361
344
|
"moreBtn": "Scopri di più",
|
|
362
345
|
"title": "Prova a chiedere:"
|
|
@@ -311,6 +311,12 @@
|
|
|
311
311
|
"Qwen/QwQ-32B-Preview": {
|
|
312
312
|
"description": "QwQ-32B-PreviewはQwenの最新の実験的研究モデルで、AIの推論能力を向上させることに特化しています。言語の混合、再帰的推論などの複雑なメカニズムを探求することで、主な利点は強力な推論分析能力、数学およびプログラミング能力です。同時に、言語切り替えの問題、推論のループ、安全性の考慮、その他の能力の違いも存在します。"
|
|
313
313
|
},
|
|
314
|
+
"Qwen/Qwen-Image": {
|
|
315
|
+
"description": "Qwen-Image は、アリババの通義千問チームによって開発された画像生成の基盤モデルで、200億のパラメータを備えています。このモデルは、複雑なテキストレンダリングや精密な画像編集において顕著な進歩を遂げており、特に高精度な中国語および英語の文字を含む画像の生成に優れています。Qwen-Image は、複数行のレイアウトや段落レベルのテキストにも対応し、画像生成時におけるレイアウトの一貫性と文脈の調和を保つことができます。卓越したテキストレンダリング能力に加え、リアルな写真からアニメ風の美学まで幅広いアートスタイルをサポートし、多様な創作ニーズに柔軟に対応可能です。また、スタイル変換、オブジェクトの追加・削除、ディテールの強化、テキスト編集、人体のポーズ操作などの高度な操作にも対応する強力な画像編集・理解能力を備えており、言語・レイアウト・画像を統合した包括的なインテリジェント視覚創作・処理の基盤モデルを目指しています。"
|
|
316
|
+
},
|
|
317
|
+
"Qwen/Qwen-Image-Edit-2509": {
|
|
318
|
+
"description": "Qwen-Image-Edit-2509 は、アリババの通義千問チームによって開発された Qwen-Image の最新画像編集バージョンです。本モデルは、200億パラメータの Qwen-Image を基に高度なトレーニングを施し、その独自のテキストレンダリング能力を画像編集分野へと拡張することに成功しました。特に、画像内の文字に対する精密な編集が可能です。Qwen-Image-Edit は革新的なアーキテクチャを採用しており、入力画像を Qwen2.5-VL(視覚的意味制御用)と VAE Encoder(視覚的外観制御用)に同時に入力することで、意味と外観の両面における編集能力を実現しています。これにより、要素の追加・削除・変更といった局所的な外観編集だけでなく、IP創作やスタイル変換など、意味の一貫性を保つ高度な視覚的意味編集にも対応可能です。複数の公開ベンチマークにおいて最先端(SOTA)の性能を示しており、強力な画像編集基盤モデルとして位置づけられています。"
|
|
319
|
+
},
|
|
314
320
|
"Qwen/Qwen2-72B-Instruct": {
|
|
315
321
|
"description": "Qwen2は、先進的な汎用言語モデルであり、さまざまな指示タイプをサポートします。"
|
|
316
322
|
},
|
|
@@ -392,6 +398,12 @@
|
|
|
392
398
|
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
|
|
393
399
|
"description": "Qwen3-Next-80B-A3B-Thinkingは、アリババのTongyi Qianwenチームによってリリースされた、複雑な推論タスク向けに設計された次世代基盤モデルです。革新的なQwen3-Nextアーキテクチャに基づき、ハイブリッド注意機構(Gated DeltaNetとGated Attention)と高スパース性混合エキスパート(MoE)構造を融合し、極限のトレーニングおよび推論効率を実現しています。総パラメータ数800億のスパースモデルとして、推論時には約30億パラメータのみを活性化し、計算コストを大幅に削減しています。32Kトークンを超える長文コンテキストタスクの処理においては、Qwen3-32Bモデルと比較してスループットが10倍以上向上しています。この「Thinking」バージョンは、数学的証明、コード合成、論理分析、計画などの高難度多段階タスクの実行に最適化されており、推論過程を構造化された「思考チェーン」形式で出力することをデフォルトとしています。性能面では、Qwen3-32B-Thinkingなどのコストの高いモデルを凌駕し、複数のベンチマークでGemini-2.5-Flash-Thinkingを上回る結果を示しています。"
|
|
394
400
|
},
|
|
401
|
+
"Qwen/Qwen3-VL-8B-Instruct": {
|
|
402
|
+
"description": "Qwen3-VL-8B-Instruct は、Qwen3 シリーズの視覚言語モデルであり、Qwen3-8B-Instruct を基に開発され、大量の画像と言語データでトレーニングされています。一般的な視覚理解、視覚中心の対話、画像内の多言語テキスト認識に優れており、視覚質問応答、画像説明、多モーダル指示の実行やツール呼び出しといったシナリオに適しています。"
|
|
403
|
+
},
|
|
404
|
+
"Qwen/Qwen3-VL-8B-Thinking": {
|
|
405
|
+
"description": "Qwen3-VL-8B-Thinking は、Qwen3 シリーズの視覚的思考モデルであり、複雑なマルチステップ推論タスクに最適化されています。回答の前に段階的な思考プロセス(thinking chain)を生成することで、推論の正確性を高める設計となっています。深い推論が求められる視覚質問応答や、画像内容の精査と詳細な分析が必要なシナリオに適しています。"
|
|
406
|
+
},
|
|
395
407
|
"Qwen2-72B-Instruct": {
|
|
396
408
|
"description": "Qwen2はQwenモデルの最新シリーズで、128kのコンテキストをサポートしています。現在の最適なオープンソースモデルと比較して、Qwen2-72Bは自然言語理解、知識、コード、数学、そして多言語などの能力において、現在のリーディングモデルを大幅に上回っています。"
|
|
397
409
|
},
|
|
@@ -340,23 +340,6 @@
|
|
|
340
340
|
"title": "ライティングチーム"
|
|
341
341
|
}
|
|
342
342
|
},
|
|
343
|
-
"qa": {
|
|
344
|
-
"q01": "LobeHub とは何ですか?",
|
|
345
|
-
"q02": "{{appName}} とは何ですか?",
|
|
346
|
-
"q03": "{{appName}} にはコミュニティサポートがありますか?",
|
|
347
|
-
"q04": "{{appName}} はどのような機能をサポートしていますか?",
|
|
348
|
-
"q05": "{{appName}} はどのように展開して使用しますか?",
|
|
349
|
-
"q06": "{{appName}} の価格はどのようになっていますか?",
|
|
350
|
-
"q07": "{{appName}} は無料ですか?",
|
|
351
|
-
"q08": "クラウドサービス版はありますか?",
|
|
352
|
-
"q09": "ローカル言語モデルはサポートされていますか?",
|
|
353
|
-
"q10": "画像認識と生成はサポートされていますか?",
|
|
354
|
-
"q11": "音声合成と音声認識はサポートされていますか?",
|
|
355
|
-
"q12": "プラグインシステムはサポートされていますか?",
|
|
356
|
-
"q13": "GPTを取得するための独自のマーケットプレイスはありますか?",
|
|
357
|
-
"q14": "複数のAIサービスプロバイダーをサポートしていますか?",
|
|
358
|
-
"q15": "使用中に問題が発生した場合はどうすればよいですか?"
|
|
359
|
-
},
|
|
360
343
|
"questions": {
|
|
361
344
|
"moreBtn": "さらに詳しく",
|
|
362
345
|
"title": "試しに聞いてみましょう:"
|
package/locales/ko-KR/chat.json
CHANGED
|
@@ -4,7 +4,7 @@
|
|
|
4
4
|
},
|
|
5
5
|
"active": "활성",
|
|
6
6
|
"agentDefaultMessage": "안녕하세요, 저는 **{{name}}**입니다. 지금 바로 저와 대화를 시작하시거나 [도우미 설정]({{url}})으로 가셔서 제 정보를 완성하실 수 있습니다.",
|
|
7
|
-
"agentDefaultMessageWithSystemRole": "안녕하세요, 저는 **{{name}}**입니다.
|
|
7
|
+
"agentDefaultMessageWithSystemRole": "안녕하세요, 저는 **{{name}}**입니다. 대화를 시작해 봅시다!",
|
|
8
8
|
"agentDefaultMessageWithoutEdit": "안녕하세요, 저는 **{{name}}**입니다. 대화를 시작해보세요!",
|
|
9
9
|
"agents": "도우미",
|
|
10
10
|
"artifact": {
|
|
@@ -311,6 +311,12 @@
|
|
|
311
311
|
"Qwen/QwQ-32B-Preview": {
|
|
312
312
|
"description": "QwQ-32B-Preview는 Qwen의 최신 실험적 연구 모델로, AI 추론 능력을 향상시키는 데 중점을 두고 있습니다. 언어 혼합, 재귀 추론 등 복잡한 메커니즘을 탐구하며, 주요 장점으로는 강력한 추론 분석 능력, 수학 및 프로그래밍 능력이 포함됩니다. 동시에 언어 전환 문제, 추론 루프, 안전성 고려 및 기타 능력 차이와 같은 문제도 존재합니다."
|
|
313
313
|
},
|
|
314
|
+
"Qwen/Qwen-Image": {
|
|
315
|
+
"description": "Qwen-Image는 알리바바 통의천문(Qwen) 팀이 개발한 이미지 생성 기반 모델로, 200억 개의 파라미터를 보유하고 있습니다. 이 모델은 복잡한 텍스트 렌더링과 정밀한 이미지 편집에서 뛰어난 성능을 보이며, 특히 고품질의 중·한문 텍스트가 포함된 이미지를 생성하는 데 강점을 가지고 있습니다. Qwen-Image는 다단 레이아웃과 문단 수준의 텍스트도 처리할 수 있으며, 이미지 생성 시 일관된 레이아웃과 자연스러운 문맥을 유지합니다. 탁월한 텍스트 렌더링 능력 외에도, 사실적인 사진부터 애니메이션 미학에 이르기까지 다양한 예술 스타일을 지원하여 창작 요구에 유연하게 대응할 수 있습니다. 또한 스타일 전환, 객체 추가 및 제거, 디테일 향상, 텍스트 편집, 인체 자세 제어 등 고급 이미지 편집 및 이해 기능도 갖추고 있어, 언어·레이아웃·이미지를 통합한 종합적인 지능형 비주얼 창작 및 처리 기반 모델을 지향합니다."
|
|
316
|
+
},
|
|
317
|
+
"Qwen/Qwen-Image-Edit-2509": {
|
|
318
|
+
"description": "Qwen-Image-Edit-2509는 알리바바 통의천문(Qwen) 팀이 개발한 Qwen-Image의 최신 이미지 편집 버전입니다. 이 모델은 200억 파라미터의 Qwen-Image를 기반으로 심화 학습되었으며, 고유한 텍스트 렌더링 능력을 이미지 편집 영역으로 확장하여 이미지 내 텍스트를 정밀하게 편집할 수 있습니다. Qwen-Image-Edit는 혁신적인 아키텍처를 채택하여 입력 이미지를 Qwen2.5-VL(시각적 의미 제어용)과 VAE 인코더(시각적 외형 제어용)에 동시에 입력함으로써 의미와 외형을 모두 편집할 수 있는 이중 편집 능력을 제공합니다. 이는 요소의 추가, 삭제, 수정 등 국소적인 외형 편집뿐만 아니라, IP 창작이나 스타일 전환처럼 의미 일관성을 유지해야 하는 고차원 시각 의미 편집도 가능하다는 것을 의미합니다. 본 모델은 여러 공개 벤치마크에서 최고 수준(SOTA)의 성능을 입증하며, 강력한 이미지 편집 기반 모델로 자리매김하고 있습니다."
|
|
319
|
+
},
|
|
314
320
|
"Qwen/Qwen2-72B-Instruct": {
|
|
315
321
|
"description": "Qwen2는 다양한 지시 유형을 지원하는 고급 범용 언어 모델입니다."
|
|
316
322
|
},
|
|
@@ -392,6 +398,12 @@
|
|
|
392
398
|
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
|
|
393
399
|
"description": "Qwen3-Next-80B-A3B-Thinking은 알리바바 통의천문 팀이 발표한 복잡한 추론 작업에 특화된 차세대 기본 모델입니다. 혁신적인 Qwen3-Next 아키텍처를 기반으로 하며, 혼합 주의 메커니즘(Gated DeltaNet 및 Gated Attention)과 고희소성 혼합 전문가(MoE) 구조를 융합하여 극대화된 학습 및 추론 효율성을 실현합니다. 총 800억 개의 파라미터를 가진 희소 모델로, 추론 시 약 30억 개의 파라미터만 활성화하여 계산 비용을 크게 줄였으며, 32K 토큰 이상의 긴 문맥 작업 처리 시 Qwen3-32B 모델보다 처리량이 10배 이상 높습니다. 이 'Thinking' 버전은 수학 증명, 코드 합성, 논리 분석 및 계획 등 고난도 다단계 작업 수행에 최적화되어 있으며, 기본적으로 구조화된 '사고 체인' 형태로 추론 과정을 출력합니다. 성능 면에서는 Qwen3-32B-Thinking 등 비용이 더 높은 모델을 능가하며, 여러 벤치마크 테스트에서 Gemini-2.5-Flash-Thinking보다 우수한 성능을 보입니다."
|
|
394
400
|
},
|
|
401
|
+
"Qwen/Qwen3-VL-8B-Instruct": {
|
|
402
|
+
"description": "Qwen3-VL-8B-Instruct는 Qwen3 시리즈의 비전-언어 모델로, Qwen3-8B-Instruct를 기반으로 다량의 이미지-텍스트 데이터로 학습되었습니다. 일반적인 시각 이해, 시각 중심의 대화, 이미지 내 다국어 텍스트 인식에 능하며, 시각 질의응답, 이미지 설명, 멀티모달 명령 수행 및 도구 호출 등의 활용 시나리오에 적합합니다."
|
|
403
|
+
},
|
|
404
|
+
"Qwen/Qwen3-VL-8B-Thinking": {
|
|
405
|
+
"description": "Qwen3-VL-8B-Thinking은 Qwen3 시리즈의 시각적 사고 특화 버전으로, 복잡한 다단계 추론 작업에 최적화되어 있습니다. 기본적으로 응답 전에 단계별 사고 과정(thinking chain)을 생성하여 추론 정확도를 높입니다. 심층 추론이 필요한 시각 질의응답, 이미지 내용을 검토하고 상세 분석을 제공하는 상황에 적합합니다."
|
|
406
|
+
},
|
|
395
407
|
"Qwen2-72B-Instruct": {
|
|
396
408
|
"description": "Qwen2는 Qwen 모델의 최신 시리즈로, 128k 컨텍스트를 지원합니다. 현재 최상의 오픈 소스 모델과 비교할 때, Qwen2-72B는 자연어 이해, 지식, 코드, 수학 및 다국어 등 여러 능력에서 현재 선도하는 모델을 현저히 초월합니다."
|
|
397
409
|
},
|
|
@@ -340,23 +340,6 @@
|
|
|
340
340
|
"title": "글쓰기 그룹"
|
|
341
341
|
}
|
|
342
342
|
},
|
|
343
|
-
"qa": {
|
|
344
|
-
"q01": "LobeHub란 무엇인가요?",
|
|
345
|
-
"q02": "{{appName}}란 무엇인가요?",
|
|
346
|
-
"q03": "{{appName}}는 커뮤니티 지원이 있나요?",
|
|
347
|
-
"q04": "{{appName}}는 어떤 기능을 지원하나요?",
|
|
348
|
-
"q05": "{{appName}}는 어떻게 배포하고 사용하나요?",
|
|
349
|
-
"q06": "{{appName}}의 가격은 어떻게 되나요?",
|
|
350
|
-
"q07": "{{appName}}는 무료인가요?",
|
|
351
|
-
"q08": "클라우드 서비스 버전이 있나요?",
|
|
352
|
-
"q09": "로컬 언어 모델을 지원하나요?",
|
|
353
|
-
"q10": "이미지 인식 및 생성 기능을 지원하나요?",
|
|
354
|
-
"q11": "음성 합성 및 음성 인식을 지원하나요?",
|
|
355
|
-
"q12": "플러그인 시스템을 지원하나요?",
|
|
356
|
-
"q13": "GPT를 얻기 위한 자체 마켓이 있나요?",
|
|
357
|
-
"q14": "여러 AI 서비스 제공업체를 지원하나요?",
|
|
358
|
-
"q15": "사용 중 문제가 발생하면 어떻게 해야 하나요?"
|
|
359
|
-
},
|
|
360
343
|
"questions": {
|
|
361
344
|
"moreBtn": "더 알아보기",
|
|
362
345
|
"title": "다음과 같이 질문해 보세요:"
|
|
@@ -311,6 +311,12 @@
|
|
|
311
311
|
"Qwen/QwQ-32B-Preview": {
|
|
312
312
|
"description": "QwQ-32B-Preview is het nieuwste experimentele onderzoeksmodel van Qwen, gericht op het verbeteren van AI-redeneringscapaciteiten. Door het verkennen van complexe mechanismen zoals taalmixing en recursieve redenering, zijn de belangrijkste voordelen onder andere krachtige redeneringsanalyses, wiskundige en programmeervaardigheden. Tegelijkertijd zijn er ook problemen met taalwisseling, redeneringscycli, veiligheidskwesties en verschillen in andere capaciteiten."
|
|
313
313
|
},
|
|
314
|
+
"Qwen/Qwen-Image": {
|
|
315
|
+
"description": "Qwen-Image is een basisbeeldgeneratiemodel uitgebracht door het Tongyi Qianwen-team van Alibaba, met 20 miljard parameters. Het model heeft aanzienlijke vooruitgang geboekt op het gebied van complexe tekstrendering en nauwkeurige beeldbewerking, en blinkt met name uit in het genereren van afbeeldingen met hoogwaardig Chinees en Engels tekstmateriaal. Qwen-Image kan niet alleen omgaan met meerregelige lay-outs en tekst op alinea-niveau, maar behoudt ook de samenhang van de opmaak en de contextuele harmonie tijdens het genereren van beelden. Naast zijn uitstekende tekstrenderingscapaciteiten ondersteunt het model een breed scala aan artistieke stijlen, van realistische fotografie tot anime-esthetiek, en past het zich flexibel aan verschillende creatieve behoeften aan. Bovendien beschikt het over krachtige mogelijkheden voor beeldbewerking en -begrip, waaronder stijltransfer, objecttoevoeging of -verwijdering, detailverbetering, tekstaanpassing en zelfs manipulatie van lichaamshoudingen. Het is ontworpen als een allesomvattend intelligent visueel creatie- en verwerkingsmodel dat taal, lay-out en beeld integreert."
|
|
316
|
+
},
|
|
317
|
+
"Qwen/Qwen-Image-Edit-2509": {
|
|
318
|
+
"description": "Qwen-Image-Edit-2509 is de nieuwste versie van het beeldbewerkingsmodel Qwen-Image, uitgebracht door het Tongyi Qianwen-team van Alibaba. Dit model is verder getraind op basis van het Qwen-Image-model met 20 miljard parameters, en breidt zijn unieke tekstrenderingscapaciteiten succesvol uit naar het domein van beeldbewerking, waardoor nauwkeurige bewerking van tekst in afbeeldingen mogelijk wordt. Qwen-Image-Edit maakt gebruik van een innovatieve architectuur waarbij de invoerafbeelding gelijktijdig wordt verwerkt door Qwen2.5-VL (voor visuele semantische controle) en een VAE-encoder (voor visuele uiterlijkcontrole), wat resulteert in gecombineerde semantische en visuele bewerkingsmogelijkheden. Dit betekent dat het model niet alleen lokale bewerkingen zoals het toevoegen, verwijderen of aanpassen van elementen ondersteunt, maar ook geavanceerde visuele semantische bewerkingen zoals IP-creatie en stijltransfer waarbij semantische consistentie behouden blijft. Het model heeft toonaangevende (SOTA) prestaties laten zien op meerdere openbare benchmarks, en is daarmee een krachtig basisbeeldbewerkingsmodel."
|
|
319
|
+
},
|
|
314
320
|
"Qwen/Qwen2-72B-Instruct": {
|
|
315
321
|
"description": "Qwen2 is een geavanceerd algemeen taalmodel dat verschillende soorten instructies ondersteunt."
|
|
316
322
|
},
|
|
@@ -392,6 +398,12 @@
|
|
|
392
398
|
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
|
|
393
399
|
"description": "Qwen3-Next-80B-A3B-Thinking is een volgende generatie basis model uitgebracht door het Tongyi Qianwen-team van Alibaba, speciaal ontworpen voor complexe redeneertaken. Het is gebaseerd op de innovatieve Qwen3-Next architectuur, die een hybride aandachtmechanisme (Gated DeltaNet en Gated Attention) en een hoog-sparsity Mixture of Experts (MoE) structuur combineert, met als doel ultieme trainings- en inferentie-efficiëntie te bereiken. Als een sparsity model met in totaal 80 miljard parameters, activeert het tijdens inferentie slechts ongeveer 3 miljard parameters, wat de rekenkosten aanzienlijk verlaagt. Bij het verwerken van lange contexttaken van meer dan 32K tokens is de doorvoer meer dan 10 keer hoger dan die van het Qwen3-32B model. Deze \"Thinking\" versie is geoptimaliseerd voor het uitvoeren van wiskundige bewijzen, code synthese, logische analyse en planning, en geeft standaard de redeneerprocessen gestructureerd weer in de vorm van een \"denk-keten\". Qua prestaties overtreft het niet alleen modellen met hogere kosten zoals Qwen3-32B-Thinking, maar presteert het ook beter dan Gemini-2.5-Flash-Thinking in meerdere benchmarktests."
|
|
394
400
|
},
|
|
401
|
+
"Qwen/Qwen3-VL-8B-Instruct": {
|
|
402
|
+
"description": "Qwen3-VL-8B-Instruct is een visueel-taalkundig model uit de Qwen3-serie, ontwikkeld op basis van Qwen3-8B-Instruct en getraind op grote hoeveelheden beeld- en tekstdata. Het is bedreven in algemene visuele interpretatie, visueel-centrische dialogen en meertalige tekstherkenning in afbeeldingen. Het is geschikt voor toepassingen zoals visuele vraag-en-antwoord, beeldbeschrijving, multimodale instructievolging en toolaansturing."
|
|
403
|
+
},
|
|
404
|
+
"Qwen/Qwen3-VL-8B-Thinking": {
|
|
405
|
+
"description": "Qwen3-VL-8B-Thinking is de visuele redeneerversie van de Qwen3-serie, geoptimaliseerd voor complexe meerstaps redeneertaken. Het genereert standaard een stapsgewijze denkvolgorde (thinking chain) vóór het geven van een antwoord om de nauwkeurigheid van de redenering te verbeteren. Het is geschikt voor scenario's die diepgaande visuele analyse vereisen, zoals visuele vraag-en-antwoord en het beoordelen van beeldinhoud met gedetailleerde uitleg."
|
|
406
|
+
},
|
|
395
407
|
"Qwen2-72B-Instruct": {
|
|
396
408
|
"description": "Qwen2 is de nieuwste serie van het Qwen-model, dat 128k context ondersteunt. In vergelijking met de huidige beste open-source modellen, overtreft Qwen2-72B op het gebied van natuurlijke taalbegrip, kennis, code, wiskunde en meertaligheid aanzienlijk de huidige toonaangevende modellen."
|
|
397
409
|
},
|
|
@@ -340,23 +340,6 @@
|
|
|
340
340
|
"title": "Schrijfkring"
|
|
341
341
|
}
|
|
342
342
|
},
|
|
343
|
-
"qa": {
|
|
344
|
-
"q01": "Wat is LobeHub?",
|
|
345
|
-
"q02": "Wat is {{appName}}?",
|
|
346
|
-
"q03": "Heeft {{appName}} ondersteuning van de gemeenschap?",
|
|
347
|
-
"q04": "Welke functies ondersteunt {{appName}}?",
|
|
348
|
-
"q05": "Hoe wordt {{appName}} geïmplementeerd en gebruikt?",
|
|
349
|
-
"q06": "Wat zijn de prijzen van {{appName}}?",
|
|
350
|
-
"q07": "Is {{appName}} gratis?",
|
|
351
|
-
"q08": "Is er een cloudversie beschikbaar?",
|
|
352
|
-
"q09": "Ondersteunt het lokale taalmodellen?",
|
|
353
|
-
"q10": "Ondersteunt het beeldherkenning en -generatie?",
|
|
354
|
-
"q11": "Ondersteunt het spraaksynthese en spraakherkenning?",
|
|
355
|
-
"q12": "Ondersteunt het een plug-insysteem?",
|
|
356
|
-
"q13": "Is er een eigen markt om GPT's te verkrijgen?",
|
|
357
|
-
"q14": "Ondersteunt het meerdere AI-dienstverleners?",
|
|
358
|
-
"q15": "Wat moet ik doen als ik problemen ondervind tijdens het gebruik?"
|
|
359
|
-
},
|
|
360
343
|
"questions": {
|
|
361
344
|
"moreBtn": "Meer informatie",
|
|
362
345
|
"title": "Probeer te vragen:"
|
|
@@ -311,6 +311,12 @@
|
|
|
311
311
|
"Qwen/QwQ-32B-Preview": {
|
|
312
312
|
"description": "QwQ-32B-Preview to najnowszy eksperymentalny model badawczy Qwen, skoncentrowany na zwiększeniu zdolności wnioskowania AI. Poprzez eksplorację złożonych mechanizmów, takich jak mieszanie języków i wnioskowanie rekurencyjne, główne zalety obejmują silne zdolności analizy wnioskowania, matematyki i programowania. Jednocześnie występują problemy z przełączaniem języków, cyklami wnioskowania, kwestiami bezpieczeństwa oraz różnicami w innych zdolnościach."
|
|
313
313
|
},
|
|
314
|
+
"Qwen/Qwen-Image": {
|
|
315
|
+
"description": "Qwen-Image to podstawowy model generowania obrazów opracowany przez zespół Tongyi Qianwen z Alibaba, zawierający 20 miliardów parametrów. Model ten osiągnął znaczące postępy w złożonym renderowaniu tekstu oraz precyzyjnej edycji obrazów, szczególnie wyróżniając się w generowaniu obrazów zawierających teksty w języku chińskim i angielskim o wysokiej wierności. Qwen-Image potrafi nie tylko obsługiwać układy wielowierszowe i teksty na poziomie akapitów, ale także zachowuje spójność typograficzną i kontekstową podczas generowania obrazów. Oprócz doskonałych możliwości renderowania tekstu, model obsługuje szeroką gamę stylów artystycznych – od realistycznych fotografii po estetykę anime – elastycznie dostosowując się do różnych potrzeb twórczych. Ponadto posiada zaawansowane możliwości edycji i rozumienia obrazów, wspierając takie operacje jak transfer stylu, dodawanie i usuwanie obiektów, wzmacnianie detali, edycję tekstu, a nawet manipulację postawą ciała, dążąc do bycia kompleksowym, inteligentnym modelem bazowym do tworzenia i przetwarzania wizualnego, łączącym język, układ i obraz."
|
|
316
|
+
},
|
|
317
|
+
"Qwen/Qwen-Image-Edit-2509": {
|
|
318
|
+
"description": "Qwen-Image-Edit-2509 to najnowsza wersja edytora obrazów Qwen-Image, opracowana przez zespół Tongyi Qianwen z Alibaba. Model ten został głęboko wytrenowany na bazie 20-miliardowego modelu Qwen-Image, skutecznie rozszerzając jego unikalne możliwości renderowania tekstu na obszar edycji obrazów, umożliwiając precyzyjną edycję tekstu w obrazach. Qwen-Image-Edit wykorzystuje innowacyjną architekturę, w której obraz wejściowy trafia jednocześnie do Qwen2.5-VL (do kontroli semantyki wizualnej) oraz do VAE Encoder (do kontroli wyglądu wizualnego), co zapewnia podwójną zdolność edycji – zarówno semantyczną, jak i wizualną. Oznacza to, że model obsługuje nie tylko lokalne zmiany wyglądu, takie jak dodawanie, usuwanie czy modyfikacja elementów, ale także zaawansowaną edycję semantyczną, wymagającą spójności znaczeniowej – jak np. tworzenie IP, transfer stylu itp. Model osiąga najwyższe wyniki (SOTA) w wielu publicznych benchmarkach, czyniąc go potężnym podstawowym modelem do edycji obrazów."
|
|
319
|
+
},
|
|
314
320
|
"Qwen/Qwen2-72B-Instruct": {
|
|
315
321
|
"description": "Qwen2 to zaawansowany uniwersalny model językowy, wspierający różne typy poleceń."
|
|
316
322
|
},
|
|
@@ -392,6 +398,12 @@
|
|
|
392
398
|
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
|
|
393
399
|
"description": "Qwen3-Next-80B-A3B-Thinking to kolejna generacja modelu bazowego wydanego przez zespół Tongyi Qianwen z Alibaba, specjalnie zaprojektowana do złożonych zadań wnioskowania. Opiera się na innowacyjnej architekturze Qwen3-Next, która łączy hybrydowy mechanizm uwagi (Gated DeltaNet i Gated Attention) oraz wysoko rzadką strukturę ekspertów mieszanych (MoE), dążąc do maksymalnej efektywności treningu i inferencji. Jako model rzadki z 80 miliardami parametrów, podczas inferencji aktywuje jedynie około 3 miliardów parametrów, co znacznie obniża koszty obliczeniowe. Przy zadaniach z bardzo długim kontekstem przekraczającym 32 tysiące tokenów, przepustowość jest ponad 10 razy wyższa niż w modelu Qwen3-32B. Wersja „Thinking” jest zoptymalizowana do wykonywania złożonych, wieloetapowych zadań takich jak dowody matematyczne, synteza kodu, analiza logiczna i planowanie, domyślnie generując proces wnioskowania w ustrukturyzowanej formie łańcucha myślenia. Pod względem wydajności przewyższa modele o wyższych kosztach, takie jak Qwen3-32B-Thinking, a także w wielu benchmarkach jest lepszy od Gemini-2.5-Flash-Thinking."
|
|
394
400
|
},
|
|
401
|
+
"Qwen/Qwen3-VL-8B-Instruct": {
|
|
402
|
+
"description": "Qwen3-VL-8B-Instruct to model językowo-wizualny z serii Qwen3, opracowany na bazie Qwen3-8B-Instruct i wytrenowany na dużej ilości danych tekstowo-obrazowych. Wyróżnia się w ogólnym rozumieniu wizualnym, dialogach skoncentrowanych na obrazie oraz rozpoznawaniu tekstu w wielu językach w obrazach. Nadaje się do zastosowań takich jak pytania i odpowiedzi wizualne, opisy obrazów, podążanie za multimodalnymi instrukcjami oraz wywoływanie narzędzi."
|
|
403
|
+
},
|
|
404
|
+
"Qwen/Qwen3-VL-8B-Thinking": {
|
|
405
|
+
"description": "Qwen3-VL-8B-Thinking to wersja modelu Qwen3 skoncentrowana na rozumowaniu wizualnym, zoptymalizowana pod kątem złożonych zadań wymagających wieloetapowego wnioskowania. Domyślnie generuje łańcuch myślenia (thinking chain) przed udzieleniem odpowiedzi, aby zwiększyć dokładność rozumowania. Idealnie nadaje się do zastosowań wymagających głębokiej analizy, takich jak pytania i odpowiedzi wizualne czy przegląd treści obrazów z dokładną analizą."
|
|
406
|
+
},
|
|
395
407
|
"Qwen2-72B-Instruct": {
|
|
396
408
|
"description": "Qwen2 to najnowsza seria modeli Qwen, obsługująca kontekst 128k. W porównaniu do obecnie najlepszych modeli open source, Qwen2-72B znacznie przewyższa w zakresie rozumienia języka naturalnego, wiedzy, kodowania, matematyki i wielu języków."
|
|
397
409
|
},
|
|
@@ -340,23 +340,6 @@
|
|
|
340
340
|
"title": "Krąg pisarski"
|
|
341
341
|
}
|
|
342
342
|
},
|
|
343
|
-
"qa": {
|
|
344
|
-
"q01": "Czym jest LobeHub?",
|
|
345
|
-
"q02": "Czym jest {{appName}}?",
|
|
346
|
-
"q03": "Czy {{appName}} ma wsparcie społeczności?",
|
|
347
|
-
"q04": "Jakie funkcje wspiera {{appName}}?",
|
|
348
|
-
"q05": "Jak wdrożyć i używać {{appName}}?",
|
|
349
|
-
"q06": "Jakie są ceny {{appName}}?",
|
|
350
|
-
"q07": "Czy {{appName}} jest darmowy?",
|
|
351
|
-
"q08": "Czy dostępna jest wersja w chmurze?",
|
|
352
|
-
"q09": "Czy wspiera lokalne modele językowe?",
|
|
353
|
-
"q10": "Czy wspiera rozpoznawanie i generowanie obrazów?",
|
|
354
|
-
"q11": "Czy wspiera syntezę mowy i rozpoznawanie mowy?",
|
|
355
|
-
"q12": "Czy wspiera system wtyczek?",
|
|
356
|
-
"q13": "Czy ma własny rynek do pozyskiwania GPT-ów?",
|
|
357
|
-
"q14": "Czy wspiera wielu dostawców usług AI?",
|
|
358
|
-
"q15": "Co powinienem zrobić, jeśli napotkam problemy podczas korzystania?"
|
|
359
|
-
},
|
|
360
343
|
"questions": {
|
|
361
344
|
"moreBtn": "Dowiedz się więcej",
|
|
362
345
|
"title": "Spróbuj zapytać:"
|
|
@@ -311,6 +311,12 @@
|
|
|
311
311
|
"Qwen/QwQ-32B-Preview": {
|
|
312
312
|
"description": "QwQ-32B-Preview é o mais recente modelo de pesquisa experimental da Qwen, focado em melhorar a capacidade de raciocínio da IA. Ao explorar mecanismos complexos como mistura de linguagem e raciocínio recursivo, suas principais vantagens incluem forte capacidade de análise de raciocínio, habilidades matemáticas e de programação. Ao mesmo tempo, existem questões de troca de linguagem, ciclos de raciocínio, considerações de segurança e diferenças em outras capacidades."
|
|
313
313
|
},
|
|
314
|
+
"Qwen/Qwen-Image": {
|
|
315
|
+
"description": "Qwen-Image é um modelo base de geração de imagens desenvolvido pela equipe Tongyi Qianwen da Alibaba, com 20 bilhões de parâmetros. O modelo apresenta avanços significativos na renderização de texto complexa e na edição precisa de imagens, sendo especialmente eficaz na geração de imagens com textos em chinês e inglês de alta fidelidade. O Qwen-Image é capaz de lidar com layouts de múltiplas linhas e textos em nível de parágrafo, mantendo a coerência tipográfica e a harmonia contextual durante a geração de imagens. Além de sua notável capacidade de renderização de texto, o modelo suporta uma ampla gama de estilos artísticos — desde fotografias realistas até estéticas de anime — adaptando-se com flexibilidade a diversas necessidades criativas. Ele também possui poderosas capacidades de edição e compreensão de imagens, incluindo transferência de estilo, adição e remoção de objetos, aprimoramento de detalhes, edição de texto e até manipulação de poses humanas, com o objetivo de se tornar um modelo base abrangente para criação e processamento visual inteligente que integra linguagem, layout e imagem."
|
|
316
|
+
},
|
|
317
|
+
"Qwen/Qwen-Image-Edit-2509": {
|
|
318
|
+
"description": "Qwen-Image-Edit-2509 é a versão mais recente de edição de imagens do Qwen-Image, lançada pela equipe Tongyi Qianwen da Alibaba. Este modelo foi treinado com base no Qwen-Image de 20B parâmetros, expandindo com sucesso sua capacidade única de renderização de texto para o campo da edição de imagens, permitindo edições precisas de textos contidos nas imagens. O Qwen-Image-Edit adota uma arquitetura inovadora que envia a imagem de entrada simultaneamente para o Qwen2.5-VL (para controle semântico visual) e para o VAE Encoder (para controle da aparência visual), oferecendo assim capacidades de edição tanto semânticas quanto visuais. Isso significa que ele não apenas suporta edições locais de aparência, como adição, remoção ou modificação de elementos, mas também edições semânticas visuais avançadas que exigem consistência de significado, como criação de IPs e transferência de estilo. O modelo demonstrou desempenho de ponta (SOTA) em diversos benchmarks públicos, tornando-se uma poderosa base para edição de imagens."
|
|
319
|
+
},
|
|
314
320
|
"Qwen/Qwen2-72B-Instruct": {
|
|
315
321
|
"description": "Qwen2 é um modelo de linguagem universal avançado, suportando diversos tipos de instruções."
|
|
316
322
|
},
|
|
@@ -392,6 +398,12 @@
|
|
|
392
398
|
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
|
|
393
399
|
"description": "Qwen3-Next-80B-A3B-Thinking é o modelo base de próxima geração lançado pela equipe Tongyi Qianwen da Alibaba, projetado para tarefas complexas de raciocínio. Baseado na inovadora arquitetura Qwen3-Next, que integra mecanismos híbridos de atenção (Gated DeltaNet e Gated Attention) e uma estrutura de especialistas mistos altamente esparsos (MoE), busca máxima eficiência em treinamento e inferência. Como um modelo esparso com 80 bilhões de parâmetros totais, ativa apenas cerca de 3 bilhões durante a inferência, reduzindo significativamente o custo computacional. Em tarefas de contexto longo com mais de 32 mil tokens, sua taxa de inferência é mais de 10 vezes superior ao modelo Qwen3-32B. Esta versão “Thinking” é otimizada para executar tarefas complexas de múltiplas etapas, como provas matemáticas, síntese de código, análise lógica e planejamento, e por padrão produz o processo de raciocínio em forma estruturada de “cadeia de pensamento”. Em desempenho, supera modelos mais custosos como o Qwen3-32B-Thinking e também apresenta melhor desempenho que o Gemini-2.5-Flash-Thinking em vários benchmarks."
|
|
394
400
|
},
|
|
401
|
+
"Qwen/Qwen3-VL-8B-Instruct": {
|
|
402
|
+
"description": "Qwen3-VL-8B-Instruct é um modelo de linguagem visual da série Qwen3, desenvolvido com base no Qwen3-8B-Instruct e treinado com grandes volumes de dados multimodais. Ele é especializado em compreensão visual geral, diálogos centrados em imagens e reconhecimento multilíngue de texto em imagens. É ideal para tarefas como perguntas e respostas visuais, descrição de imagens, seguimento de instruções multimodais e chamadas de ferramentas."
|
|
403
|
+
},
|
|
404
|
+
"Qwen/Qwen3-VL-8B-Thinking": {
|
|
405
|
+
"description": "Qwen3-VL-8B-Thinking é a versão de raciocínio visual da série Qwen3, otimizada para tarefas complexas de raciocínio em múltiplas etapas. Por padrão, o modelo gera uma cadeia de pensamento antes de responder, a fim de melhorar a precisão do raciocínio. É adequado para cenários que exigem raciocínio visual profundo, como perguntas e respostas visuais complexas, revisão de conteúdo de imagens e análises detalhadas."
|
|
406
|
+
},
|
|
395
407
|
"Qwen2-72B-Instruct": {
|
|
396
408
|
"description": "Qwen2 é a mais recente série do modelo Qwen, suportando 128k de contexto. Em comparação com os melhores modelos de código aberto atuais, o Qwen2-72B supera significativamente os modelos líderes em várias capacidades, incluindo compreensão de linguagem natural, conhecimento, código, matemática e multilinguismo."
|
|
397
409
|
},
|
|
@@ -340,23 +340,6 @@
|
|
|
340
340
|
"title": "Círculo de Escrita"
|
|
341
341
|
}
|
|
342
342
|
},
|
|
343
|
-
"qa": {
|
|
344
|
-
"q01": "O que é o LobeHub?",
|
|
345
|
-
"q02": "O que é {{appName}}?",
|
|
346
|
-
"q03": "{{appName}} tem suporte da comunidade?",
|
|
347
|
-
"q04": "Quais funcionalidades {{appName}} suporta?",
|
|
348
|
-
"q05": "Como implantar e usar {{appName}}?",
|
|
349
|
-
"q06": "Como é a precificação do {{appName}}?",
|
|
350
|
-
"q07": "{{appName}} é gratuito?",
|
|
351
|
-
"q08": "Há uma versão em nuvem disponível?",
|
|
352
|
-
"q09": "Suporta modelos de linguagem locais?",
|
|
353
|
-
"q10": "Suporta reconhecimento e geração de imagens?",
|
|
354
|
-
"q11": "Suporta síntese de voz e reconhecimento de voz?",
|
|
355
|
-
"q12": "Suporta sistema de plugins?",
|
|
356
|
-
"q13": "Há um mercado próprio para obter GPTs?",
|
|
357
|
-
"q14": "Suporta vários provedores de serviços de IA?",
|
|
358
|
-
"q15": "O que devo fazer se encontrar problemas ao usar?"
|
|
359
|
-
},
|
|
360
343
|
"questions": {
|
|
361
344
|
"moreBtn": "Saiba mais",
|
|
362
345
|
"title": "Tente perguntar:"
|
|
@@ -311,6 +311,12 @@
|
|
|
311
311
|
"Qwen/QwQ-32B-Preview": {
|
|
312
312
|
"description": "QwQ-32B-Preview — это последняя экспериментальная исследовательская модель Qwen, сосредоточенная на повышении возможностей вывода ИИ. Исследуя сложные механизмы, такие как смешение языков и рекурсивные выводы, основные преимущества включают мощные аналитические способности, математические и программные навыки. В то же время существуют проблемы с переключением языков, циклом вывода, соображениями безопасности и различиями в других способностях."
|
|
313
313
|
},
|
|
314
|
+
"Qwen/Qwen-Image": {
|
|
315
|
+
"description": "Qwen-Image — это базовая модель генерации изображений, разработанная командой Tongyi Qianwen компании Alibaba, содержащая 20 миллиардов параметров. Модель достигла значительных успехов в сложной текстовой визуализации и точном редактировании изображений, особенно хорошо справляется с генерацией изображений с высококачественным текстом на китайском и английском языках. Qwen-Image способна обрабатывать многострочные макеты и текст на уровне абзацев, сохраняя при этом согласованность верстки и контекстную гармонию при генерации изображений. Помимо выдающихся возможностей визуализации текста, модель поддерживает широкий спектр художественных стилей — от фотореализма до аниме-эстетики, гибко адаптируясь к различным творческим задачам. Кроме того, она обладает мощными возможностями редактирования и понимания изображений, поддерживает перенос стиля, добавление и удаление объектов, улучшение деталей, редактирование текста и даже управление позами человека, стремясь стать универсальной интеллектуальной моделью для визуального творчества и обработки, объединяющей язык, макет и изображение."
|
|
316
|
+
},
|
|
317
|
+
"Qwen/Qwen-Image-Edit-2509": {
|
|
318
|
+
"description": "Qwen-Image-Edit-2509 — это последняя версия модели редактирования изображений Qwen-Image, выпущенная командой Tongyi Qianwen компании Alibaba. Эта модель была глубоко обучена на основе 20-миллиардной модели Qwen-Image, успешно расширив её уникальные возможности текстовой визуализации в область редактирования изображений, обеспечивая точное редактирование текста на изображениях. Qwen-Image-Edit использует инновационную архитектуру, в которой входное изображение одновременно подаётся в Qwen2.5-VL (для управления визуальной семантикой) и VAE Encoder (для управления визуальным внешним видом), что обеспечивает двойную возможность редактирования как по смыслу, так и по внешнему виду. Это означает, что модель поддерживает не только локальное редактирование внешнего вида, такое как добавление, удаление или изменение элементов, но и высокоуровневое семантическое редактирование, требующее сохранения смысловой целостности, например, для IP-контента или переноса стиля. Модель демонстрирует передовые (SOTA) результаты на множестве открытых бенчмарков, делая её мощной базовой моделью для редактирования изображений."
|
|
319
|
+
},
|
|
314
320
|
"Qwen/Qwen2-72B-Instruct": {
|
|
315
321
|
"description": "Qwen2 — это передовая универсальная языковая модель, поддерживающая множество типов команд."
|
|
316
322
|
},
|
|
@@ -392,6 +398,12 @@
|
|
|
392
398
|
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
|
|
393
399
|
"description": "Qwen3-Next-80B-A3B-Thinking — это следующего поколения базовая модель, выпущенная командой Alibaba Tongyi Qianwen, специально разработанная для сложных задач рассуждения. Она основана на инновационной архитектуре Qwen3-Next, которая объединяет гибридный механизм внимания (Gated DeltaNet и Gated Attention) и высокоразреженную структуру смешанных экспертов (MoE), направленную на максимальную эффективность обучения и вывода. Как разреженная модель с общим числом параметров 80 миллиардов, при выводе активируется около 3 миллиардов параметров, что значительно снижает вычислительные затраты. При обработке задач с длинным контекстом более 32K токенов пропускная способность вывода превышает модель Qwen3-32B более чем в 10 раз. Эта версия «Thinking» оптимизирована для выполнения сложных многошаговых задач, таких как математические доказательства, синтез кода, логический анализ и планирование, и по умолчанию выводит процесс рассуждения в структурированной форме «цепочки мышления». По производительности она не только превосходит более дорогие модели, такие как Qwen3-32B-Thinking, но и опережает Gemini-2.5-Flash-Thinking в нескольких бенчмарках."
|
|
394
400
|
},
|
|
401
|
+
"Qwen/Qwen3-VL-8B-Instruct": {
|
|
402
|
+
"description": "Qwen3-VL-8B-Instruct — это модель визуально-языкового понимания из серии Qwen3, разработанная на основе Qwen3-8B-Instruct и обученная на большом объёме данных, содержащих изображения и тексты. Она хорошо справляется с задачами общего визуального понимания, визуально-ориентированного диалога и распознавания многоязычного текста на изображениях. Подходит для сценариев визуального вопросно-ответного взаимодействия, описания изображений, следования мультимодальным инструкциям и вызова инструментов."
|
|
403
|
+
},
|
|
404
|
+
"Qwen/Qwen3-VL-8B-Thinking": {
|
|
405
|
+
"description": "Qwen3-VL-8B-Thinking — это версия визуального мышления из серии Qwen3, оптимизированная для сложных многошаговых задач рассуждения. По умолчанию она генерирует цепочку размышлений (thinking chain) перед ответом, чтобы повысить точность вывода. Подходит для сценариев, требующих глубокого анализа, таких как визуальные вопросы и ответы, а также детальный обзор и анализ содержимого изображений."
|
|
406
|
+
},
|
|
395
407
|
"Qwen2-72B-Instruct": {
|
|
396
408
|
"description": "Qwen2 — это последняя серия моделей Qwen, поддерживающая контекст до 128k. По сравнению с текущими лучшими открытыми моделями, Qwen2-72B значительно превосходит ведущие модели по многим аспектам, включая понимание естественного языка, знания, код, математику и многоязычность."
|
|
397
409
|
},
|
|
@@ -340,23 +340,6 @@
|
|
|
340
340
|
"title": "Круг писателей"
|
|
341
341
|
}
|
|
342
342
|
},
|
|
343
|
-
"qa": {
|
|
344
|
-
"q01": "Что такое LobeHub?",
|
|
345
|
-
"q02": "Что такое {{appName}}?",
|
|
346
|
-
"q03": "Есть ли у {{appName}} поддержка сообщества?",
|
|
347
|
-
"q04": "Какие функции поддерживает {{appName}}?",
|
|
348
|
-
"q05": "Как развернуть и использовать {{appName}}?",
|
|
349
|
-
"q06": "Какова цена {{appName}}?",
|
|
350
|
-
"q07": "Является ли {{appName}} бесплатным?",
|
|
351
|
-
"q08": "Существует ли облачная версия?",
|
|
352
|
-
"q09": "Поддерживает ли {{appName}} локальные языковые модели?",
|
|
353
|
-
"q10": "Поддерживает ли {{appName}} распознавание и генерацию изображений?",
|
|
354
|
-
"q11": "Поддерживает ли {{appName}} синтез речи и распознавание речи?",
|
|
355
|
-
"q12": "Поддерживает ли {{appName}} систему плагинов?",
|
|
356
|
-
"q13": "Есть ли у {{appName}} собственный рынок для получения GPT?",
|
|
357
|
-
"q14": "Поддерживает ли {{appName}} несколько поставщиков AI услуг?",
|
|
358
|
-
"q15": "Что делать, если я столкнулся с проблемой при использовании?"
|
|
359
|
-
},
|
|
360
343
|
"questions": {
|
|
361
344
|
"moreBtn": "Узнать больше",
|
|
362
345
|
"title": "Попробуйте спросить:"
|
|
@@ -311,6 +311,12 @@
|
|
|
311
311
|
"Qwen/QwQ-32B-Preview": {
|
|
312
312
|
"description": "QwQ-32B-Preview, Qwen'in en son deneysel araştırma modelidir ve AI akıl yürütme yeteneklerini artırmaya odaklanmaktadır. Dil karışımı, özyinelemeli akıl yürütme gibi karmaşık mekanizmaları keşfederek, güçlü akıl yürütme analizi, matematik ve programlama yetenekleri gibi ana avantajlar sunmaktadır. Bununla birlikte, dil geçiş sorunları, akıl yürütme döngüleri, güvenlik endişeleri ve diğer yetenek farklılıkları gibi zorluklar da bulunmaktadır."
|
|
313
313
|
},
|
|
314
|
+
"Qwen/Qwen-Image": {
|
|
315
|
+
"description": "Qwen-Image, Alibaba Tongyi Qianwen ekibi tarafından geliştirilen bir görsel üretim temel modelidir ve 20 milyar parametreye sahiptir. Bu model, karmaşık metin işleme ve hassas görsel düzenleme konularında önemli ilerlemeler kaydetmiştir; özellikle yüksek doğrulukta Çince ve İngilizce metin içeren görseller üretme konusunda uzmandır. Qwen-Image, çok satırlı düzenler ve paragraf düzeyindeki metinleri işleyebilmenin yanı sıra, görsel üretim sırasında tutarlı bir mizanpaj ve bağlamsal uyum sağlayabilir. Üstün metin işleme yeteneklerinin ötesinde, model gerçekçi fotoğraflardan anime estetiğine kadar geniş bir sanatsal tarz yelpazesini destekler ve çeşitli yaratıcı ihtiyaçlara esnek şekilde uyum sağlar. Ayrıca, stil transferi, nesne ekleme/çıkarma, detay iyileştirme, metin düzenleme ve insan pozu kontrolü gibi gelişmiş işlemleri destekleyen güçlü bir görsel düzenleme ve anlama yeteneğine sahiptir. Qwen-Image, dil, düzen ve görseli bir araya getiren kapsamlı bir akıllı görsel yaratım ve işleme temel modeli olmayı hedeflemektedir."
|
|
316
|
+
},
|
|
317
|
+
"Qwen/Qwen-Image-Edit-2509": {
|
|
318
|
+
"description": "Qwen-Image-Edit-2509, Alibaba Tongyi Qianwen ekibi tarafından geliştirilen Qwen-Image modelinin en son görsel düzenleme versiyonudur. 20 milyar parametreli Qwen-Image modeli temel alınarak derinlemesine eğitilmiş olan bu model, özgün metin işleme yeteneklerini görsel düzenleme alanına başarıyla taşımış ve görsellerdeki metinlerin hassas şekilde düzenlenmesini mümkün kılmıştır. Qwen-Image-Edit, yenilikçi bir mimari kullanarak giriş görselini hem görsel anlamsal kontrol için Qwen2.5-VL’ye hem de görsel görünüm kontrolü için VAE Encoder’a iletir; böylece hem anlamsal hem de görsel düzenleme yeteneklerini bir arada sunar. Bu, yalnızca öğe ekleme, silme veya değiştirme gibi yerel görünüm düzenlemelerini değil, aynı zamanda IP yaratımı ve stil transferi gibi anlamsal tutarlılık gerektiren ileri düzey görsel anlamsal düzenlemeleri de desteklediği anlamına gelir. Model, birçok açık kaynaklı kıyaslama testinde en üst düzey (SOTA) performans sergileyerek güçlü bir görsel düzenleme temel modeli haline gelmiştir."
|
|
319
|
+
},
|
|
314
320
|
"Qwen/Qwen2-72B-Instruct": {
|
|
315
321
|
"description": "Qwen2, çok çeşitli talimat türlerini destekleyen gelişmiş bir genel dil modelidir."
|
|
316
322
|
},
|
|
@@ -392,6 +398,12 @@
|
|
|
392
398
|
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
|
|
393
399
|
"description": "Qwen3-Next-80B-A3B-Thinking, Alibaba Tongyi Qianwen ekibi tarafından karmaşık çıkarım görevleri için tasarlanmış yeni nesil temel modeldir. Yenilikçi Qwen3-Next mimarisi üzerine kurulmuş olup, hibrit dikkat mekanizması (Gated DeltaNet ve Gated Attention) ve yüksek seyrekli hibrit uzman (MoE) yapısını birleştirerek en üst düzey eğitim ve çıkarım verimliliğini hedefler. 80 milyar toplam parametreye sahip seyrek bir model olarak, çıkarım sırasında yalnızca yaklaşık 3 milyar parametreyi aktive ederek hesaplama maliyetlerini önemli ölçüde düşürür ve 32K token’dan uzun bağlam görevlerinde çıkarım verimliliği Qwen3-32B modeline kıyasla 10 kat daha fazladır. Bu “Thinking” versiyonu, matematiksel ispatlar, kod sentezi, mantıksal analiz ve planlama gibi zorlu çok adımlı görevler için optimize edilmiştir ve çıkarım sürecini varsayılan olarak yapılandırılmış “düşünce zinciri” biçiminde sunar. Performans açısından, yalnızca daha maliyetli modeller olan Qwen3-32B-Thinking’i değil, aynı zamanda Gemini-2.5-Flash-Thinking’i de birçok kıyaslama testinde geride bırakır."
|
|
394
400
|
},
|
|
401
|
+
"Qwen/Qwen3-VL-8B-Instruct": {
|
|
402
|
+
"description": "Qwen3-VL-8B-Instruct, Qwen3 serisinin bir görsel-dil modelidir. Qwen3-8B-Instruct temel alınarak geliştirilmiş ve büyük miktarda görsel-metin verisiyle eğitilmiştir. Genel görsel anlama, görsel odaklı diyaloglar ve görsellerde çok dilli metin tanıma konularında uzmandır. Görsel soru-cevap, görsel betimleme, çok modlu komut takibi ve araç çağırma gibi senaryolarda kullanılabilir."
|
|
403
|
+
},
|
|
404
|
+
"Qwen/Qwen3-VL-8B-Thinking": {
|
|
405
|
+
"description": "Qwen3-VL-8B-Thinking, Qwen3 serisinin görsel düşünme versiyonudur ve karmaşık çok adımlı akıl yürütme görevleri için optimize edilmiştir. Varsayılan olarak, yanıt vermeden önce adım adım düşünme zinciri (thinking chain) oluşturarak akıl yürütme doğruluğunu artırır. Derinlemesine akıl yürütme gerektiren görsel soru-cevap, görsel içerik inceleme ve ayrıntılı analiz sunma gibi senaryolar için uygundur."
|
|
406
|
+
},
|
|
395
407
|
"Qwen2-72B-Instruct": {
|
|
396
408
|
"description": "Qwen2, Qwen modelinin en yeni serisidir ve 128k bağlamı destekler. Mevcut en iyi açık kaynak modellerle karşılaştırıldığında, Qwen2-72B doğal dil anlama, bilgi, kod, matematik ve çok dilli yetenekler açısından mevcut lider modelleri önemli ölçüde aşmaktadır."
|
|
397
409
|
},
|
|
@@ -340,23 +340,6 @@
|
|
|
340
340
|
"title": "Yazım Çemberi"
|
|
341
341
|
}
|
|
342
342
|
},
|
|
343
|
-
"qa": {
|
|
344
|
-
"q01": "LobeHub nedir?",
|
|
345
|
-
"q02": "{{appName}} nedir?",
|
|
346
|
-
"q03": "{{appName}}'in topluluk desteği var mı?",
|
|
347
|
-
"q04": "{{appName}} hangi özellikleri destekliyor?",
|
|
348
|
-
"q05": "{{appName}} nasıl dağıtılır ve kullanılır?",
|
|
349
|
-
"q06": "{{appName}}'in fiyatlandırması nasıldır?",
|
|
350
|
-
"q07": "{{appName}} ücretsiz mi?",
|
|
351
|
-
"q08": "Bulut hizmeti versiyonu var mı?",
|
|
352
|
-
"q09": "Yerel dil modellerini destekliyor mu?",
|
|
353
|
-
"q10": "Görüntü tanıma ve oluşturma destekleniyor mu?",
|
|
354
|
-
"q11": "Ses sentezi ve ses tanıma destekleniyor mu?",
|
|
355
|
-
"q12": "Eklenti sistemi destekleniyor mu?",
|
|
356
|
-
"q13": "GPT'leri almak için kendi pazarımız var mı?",
|
|
357
|
-
"q14": "Birden fazla AI hizmet sağlayıcısını destekliyor mu?",
|
|
358
|
-
"q15": "Kullanım sırasında sorun yaşarsam ne yapmalıyım?"
|
|
359
|
-
},
|
|
360
343
|
"questions": {
|
|
361
344
|
"moreBtn": "Daha Fazla Bilgi",
|
|
362
345
|
"title": "Şunu sormayı deneyin:"
|
|
@@ -311,6 +311,12 @@
|
|
|
311
311
|
"Qwen/QwQ-32B-Preview": {
|
|
312
312
|
"description": "QwQ-32B-Preview là mô hình nghiên cứu thử nghiệm mới nhất của Qwen, tập trung vào việc nâng cao khả năng suy luận của AI. Thông qua việc khám phá các cơ chế phức tạp như trộn ngôn ngữ và suy luận đệ quy, những lợi thế chính bao gồm khả năng phân tích suy luận mạnh mẽ, khả năng toán học và lập trình. Tuy nhiên, cũng có những vấn đề về chuyển đổi ngôn ngữ, vòng lặp suy luận, các vấn đề an toàn và sự khác biệt về các khả năng khác."
|
|
313
313
|
},
|
|
314
|
+
"Qwen/Qwen-Image": {
|
|
315
|
+
"description": "Qwen-Image là mô hình nền tạo ảnh do đội ngũ Tongyi Qianwen của Alibaba phát triển, với 20 tỷ tham số. Mô hình này đạt được những tiến bộ đáng kể trong việc hiển thị văn bản phức tạp và chỉnh sửa hình ảnh chính xác, đặc biệt xuất sắc trong việc tạo ra hình ảnh chứa văn bản tiếng Trung và tiếng Anh với độ trung thực cao. Qwen-Image không chỉ xử lý tốt bố cục nhiều dòng và văn bản cấp đoạn, mà còn duy trì sự nhất quán trong bố cục và hài hòa về ngữ cảnh khi tạo ảnh. Bên cạnh khả năng hiển thị văn bản vượt trội, mô hình còn hỗ trợ nhiều phong cách nghệ thuật, từ ảnh hiện thực đến thẩm mỹ anime, linh hoạt đáp ứng các nhu cầu sáng tạo khác nhau. Đồng thời, nó cũng sở hữu khả năng chỉnh sửa và hiểu hình ảnh mạnh mẽ, hỗ trợ các thao tác nâng cao như chuyển đổi phong cách, thêm hoặc xóa đối tượng, tăng cường chi tiết, chỉnh sửa văn bản và điều khiển tư thế cơ thể người, hướng tới việc trở thành một mô hình nền thông minh toàn diện cho sáng tạo và xử lý hình ảnh tích hợp ngôn ngữ, bố cục và thị giác."
|
|
316
|
+
},
|
|
317
|
+
"Qwen/Qwen-Image-Edit-2509": {
|
|
318
|
+
"description": "Qwen-Image-Edit-2509 là phiên bản chỉnh sửa hình ảnh mới nhất của Qwen-Image, được phát hành bởi đội ngũ Tongyi Qianwen của Alibaba. Mô hình này được huấn luyện chuyên sâu dựa trên Qwen-Image với 20 tỷ tham số, mở rộng thành công khả năng hiển thị văn bản độc đáo sang lĩnh vực chỉnh sửa hình ảnh, cho phép chỉnh sửa chính xác văn bản trong ảnh. Ngoài ra, Qwen-Image-Edit áp dụng kiến trúc sáng tạo, đưa hình ảnh đầu vào đồng thời vào Qwen2.5-VL (để kiểm soát ngữ nghĩa thị giác) và VAE Encoder (để kiểm soát diện mạo thị giác), từ đó đạt được khả năng chỉnh sửa kép về ngữ nghĩa và diện mạo. Điều này có nghĩa là mô hình không chỉ hỗ trợ chỉnh sửa cục bộ như thêm, xóa hoặc thay đổi các yếu tố, mà còn hỗ trợ chỉnh sửa ngữ nghĩa thị giác nâng cao như sáng tạo IP, chuyển đổi phong cách mà vẫn giữ được tính nhất quán về ngữ nghĩa. Mô hình đã thể hiện hiệu suất hàng đầu (SOTA) trên nhiều bộ đánh giá công khai, trở thành một mô hình nền chỉnh sửa hình ảnh mạnh mẽ."
|
|
319
|
+
},
|
|
314
320
|
"Qwen/Qwen2-72B-Instruct": {
|
|
315
321
|
"description": "Qwen2 là mô hình ngôn ngữ tổng quát tiên tiến, hỗ trợ nhiều loại chỉ dẫn."
|
|
316
322
|
},
|
|
@@ -392,6 +398,12 @@
|
|
|
392
398
|
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
|
|
393
399
|
"description": "Qwen3-Next-80B-A3B-Thinking là mô hình nền tảng thế hệ tiếp theo do đội ngũ Alibaba Tongyi Qianwen phát hành, được thiết kế chuyên biệt cho các tác vụ suy luận phức tạp. Nó dựa trên kiến trúc sáng tạo Qwen3-Next, kết hợp cơ chế chú ý hỗn hợp (Gated DeltaNet và Gated Attention) và cấu trúc chuyên gia hỗn hợp có độ thưa cao (MoE), nhằm đạt hiệu quả tối ưu trong huấn luyện và suy luận. Là mô hình thưa với tổng số 80 tỷ tham số, nó chỉ kích hoạt khoảng 3 tỷ tham số trong quá trình suy luận, giảm đáng kể chi phí tính toán, và khi xử lý các tác vụ ngữ cảnh dài trên 32K token, thông lượng cao hơn mô hình Qwen3-32B hơn 10 lần. Phiên bản “Thinking” này được tối ưu để thực hiện các tác vụ đa bước khó như chứng minh toán học, tổng hợp mã, phân tích logic và lập kế hoạch, và mặc định xuất ra quá trình suy luận dưới dạng chuỗi suy nghĩ có cấu trúc. Về hiệu năng, nó không chỉ vượt trội so với các mô hình có chi phí cao hơn như Qwen3-32B-Thinking mà còn vượt qua Gemini-2.5-Flash-Thinking trong nhiều bài kiểm tra chuẩn."
|
|
394
400
|
},
|
|
401
|
+
"Qwen/Qwen3-VL-8B-Instruct": {
|
|
402
|
+
"description": "Qwen3-VL-8B-Instruct là mô hình ngôn ngữ thị giác thuộc dòng Qwen3, được phát triển dựa trên Qwen3-8B-Instruct và huấn luyện trên lượng lớn dữ liệu hình ảnh và văn bản. Mô hình này có thế mạnh trong hiểu thị giác tổng quát, đối thoại xoay quanh hình ảnh và nhận diện văn bản đa ngôn ngữ trong ảnh. Phù hợp với các tình huống như hỏi đáp thị giác, mô tả hình ảnh, tuân theo chỉ dẫn đa phương thức và gọi công cụ."
|
|
403
|
+
},
|
|
404
|
+
"Qwen/Qwen3-VL-8B-Thinking": {
|
|
405
|
+
"description": "Qwen3-VL-8B-Thinking là phiên bản tư duy thị giác thuộc dòng Qwen3, được tối ưu hóa cho các nhiệm vụ suy luận đa bước phức tạp. Mặc định mô hình sẽ tạo ra chuỗi suy nghĩ (thinking chain) trước khi trả lời nhằm nâng cao độ chính xác trong suy luận. Phù hợp với các tình huống yêu cầu suy luận sâu như hỏi đáp thị giác, đánh giá nội dung hình ảnh và đưa ra phân tích chi tiết."
|
|
406
|
+
},
|
|
395
407
|
"Qwen2-72B-Instruct": {
|
|
396
408
|
"description": "Qwen2 là dòng mô hình mới nhất của Qwen, hỗ trợ ngữ cảnh 128k, so với các mô hình mã nguồn mở tốt nhất hiện tại, Qwen2-72B vượt trội hơn hẳn trong nhiều khả năng như hiểu ngôn ngữ tự nhiên, kiến thức, mã, toán học và đa ngôn ngữ."
|
|
397
409
|
},
|
|
@@ -340,23 +340,6 @@
|
|
|
340
340
|
"title": "Cộng đồng viết"
|
|
341
341
|
}
|
|
342
342
|
},
|
|
343
|
-
"qa": {
|
|
344
|
-
"q01": "LobeHub là gì?",
|
|
345
|
-
"q02": "{{appName}} là gì?",
|
|
346
|
-
"q03": "{{appName}} có hỗ trợ cộng đồng không?",
|
|
347
|
-
"q04": "{{appName}} hỗ trợ những tính năng nào?",
|
|
348
|
-
"q05": "{{appName}} được triển khai và sử dụng như thế nào?",
|
|
349
|
-
"q06": "Giá cả của {{appName}} như thế nào?",
|
|
350
|
-
"q07": "{{appName}} có miễn phí không?",
|
|
351
|
-
"q08": "Có phiên bản dịch vụ đám mây không?",
|
|
352
|
-
"q09": "Có hỗ trợ mô hình ngôn ngữ địa phương không?",
|
|
353
|
-
"q10": "Có hỗ trợ nhận diện và tạo hình ảnh không?",
|
|
354
|
-
"q11": "Có hỗ trợ tổng hợp giọng nói và nhận diện giọng nói không?",
|
|
355
|
-
"q12": "Có hỗ trợ hệ thống plugin không?",
|
|
356
|
-
"q13": "Có thị trường riêng để lấy GPTs không?",
|
|
357
|
-
"q14": "Có hỗ trợ nhiều nhà cung cấp dịch vụ AI không?",
|
|
358
|
-
"q15": "Tôi nên làm gì nếu gặp vấn đề khi sử dụng?"
|
|
359
|
-
},
|
|
360
343
|
"questions": {
|
|
361
344
|
"moreBtn": "Tìm hiểu thêm",
|
|
362
345
|
"title": "Hãy thử hỏi:"
|
|
@@ -311,6 +311,12 @@
|
|
|
311
311
|
"Qwen/QwQ-32B-Preview": {
|
|
312
312
|
"description": "Qwen QwQ 是由 Qwen 团队开发的实验研究模型,专注于提升AI推理能力。"
|
|
313
313
|
},
|
|
314
|
+
"Qwen/Qwen-Image": {
|
|
315
|
+
"description": "Qwen-Image 是由阿里巴巴通义千问团队发布的图像生成基础模型,拥有 200 亿参数。该模型在复杂的文本渲染和精确的图像编辑方面取得了显著进展,尤其擅长生成包含高保真度中英文文字的图像。Qwen-Image 不仅能够处理多行布局和段落级文本,还能在生成图像时保持排版的连贯性和上下文的和谐。除了卓越的文本渲染能力,该模型还支持广泛的艺术风格,从写实照片到动漫美学,能够灵活适应各种创作需求。同时,它也具备强大的图像编辑和理解能力,支持风格迁移、物体增删、细节增强、文本编辑乃至人体姿态操控等高级操作,旨在成为一个集语言、布局和图像于一体的综合性智能视觉创作与处理基础模型"
|
|
316
|
+
},
|
|
317
|
+
"Qwen/Qwen-Image-Edit-2509": {
|
|
318
|
+
"description": "Qwen-Image-Edit-2509 是由阿里巴巴通义千问团队发布的 Qwen-Image 的图像编辑最新版本。该模型基于 20B 参数的 Qwen-Image 模型进行深入训练,将其独特的文本渲染能力成功扩展至图像编辑领域,实现了对图片中文字的精准编辑。此外,Qwen-Image-Edit 采用了一种创新的架构,将输入图像同时送入 Qwen2.5-VL(用于视觉语义控制)和 VAE Encoder(用于视觉外观控制),从而兼具语义与外观的双重编辑能力。这意味着它不仅支持元素的添加、删除或修改等局部外观编辑,还支持如 IP 创作、风格迁移等需要保持语义一致性的高阶视觉语义编辑。模型在多个公开基准测试中展现了顶尖(SOTA)的性能,使其成为一个强大的图像编辑基础模型"
|
|
319
|
+
},
|
|
314
320
|
"Qwen/Qwen2-72B-Instruct": {
|
|
315
321
|
"description": "Qwen 2 Instruct (72B) 为企业级应用提供精准的指令理解和响应。"
|
|
316
322
|
},
|
|
@@ -392,6 +398,12 @@
|
|
|
392
398
|
"Qwen/Qwen3-Next-80B-A3B-Thinking": {
|
|
393
399
|
"description": "Qwen3-Next-80B-A3B-Thinking 是由阿里巴巴通义千问团队发布的、专为复杂推理任务设计的下一代基础模型。它基于创新的 Qwen3-Next 架构,该架构融合了混合注意力机制(Gated DeltaNet 与 Gated Attention)和高稀疏度混合专家(MoE)结构,旨在实现极致的训练与推理效率。作为一个总参数达 800 亿的稀疏模型,它在推理时仅激活约 30 亿参数,大幅降低了计算成本,在处理超过 32K tokens 的长上下文任务时,吞吐量比 Qwen3-32B 模型高出 10 倍以上。此“Thinking”版本专为执行数学证明、代码综合、逻辑分析和规划等高难度多步任务而优化,并默认以结构化的“思维链”形式输出推理过程。在性能上,它不仅超越了 Qwen3-32B-Thinking 等成本更高的模型,还在多个基准测试中优于 Gemini-2.5-Flash-Thinking。"
|
|
394
400
|
},
|
|
401
|
+
"Qwen/Qwen3-VL-8B-Instruct": {
|
|
402
|
+
"description": "Qwen3-VL-8B-Instruct 是 Qwen3 系列的视觉语言模型,基于 Qwen3-8B-Instruct 开发并在大量图文数据上训练,擅长通用视觉理解、以视觉为中心的对话以及图像中的多语言文本识别。适用于视觉问答、图像描述、多模态指令跟随与工具调用场景。"
|
|
403
|
+
},
|
|
404
|
+
"Qwen/Qwen3-VL-8B-Thinking": {
|
|
405
|
+
"description": "Qwen3-VL-8B-Thinking 是 Qwen3 系列的视觉思考版本,针对复杂多步推理任务优化,默认在回答前生成逐步思考(thinking chain)以提高推理准确性。适合需要深度推理的视觉问答、审阅图像内容并给出详细分析的场景。"
|
|
406
|
+
},
|
|
395
407
|
"Qwen2-72B-Instruct": {
|
|
396
408
|
"description": "Qwen2 是 Qwen 模型的最新系列,支持 128k 上下文,对比当前最优的开源模型,Qwen2-72B 在自然语言理解、知识、代码、数学及多语言等多项能力上均显著超越当前领先的模型。"
|
|
397
409
|
},
|