@lobehub/chat 1.136.12 → 1.136.13
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.github/workflows/claude-translator.yml +13 -1
- package/CHANGELOG.md +34 -0
- package/changelog/v1.json +12 -0
- package/locales/ar/modelProvider.json +12 -0
- package/locales/ar/models.json +39 -24
- package/locales/bg-BG/modelProvider.json +12 -0
- package/locales/bg-BG/models.json +39 -24
- package/locales/de-DE/modelProvider.json +12 -0
- package/locales/de-DE/models.json +39 -24
- package/locales/en-US/modelProvider.json +12 -0
- package/locales/en-US/models.json +39 -24
- package/locales/es-ES/modelProvider.json +12 -0
- package/locales/es-ES/models.json +39 -24
- package/locales/fa-IR/modelProvider.json +12 -0
- package/locales/fa-IR/models.json +39 -24
- package/locales/fr-FR/modelProvider.json +12 -0
- package/locales/fr-FR/models.json +39 -24
- package/locales/it-IT/modelProvider.json +12 -0
- package/locales/it-IT/models.json +39 -24
- package/locales/ja-JP/modelProvider.json +12 -0
- package/locales/ja-JP/models.json +39 -24
- package/locales/ko-KR/modelProvider.json +12 -0
- package/locales/ko-KR/models.json +39 -24
- package/locales/nl-NL/modelProvider.json +12 -0
- package/locales/nl-NL/models.json +39 -24
- package/locales/pl-PL/modelProvider.json +12 -0
- package/locales/pl-PL/models.json +39 -24
- package/locales/pt-BR/modelProvider.json +12 -0
- package/locales/pt-BR/models.json +39 -24
- package/locales/ru-RU/modelProvider.json +12 -0
- package/locales/ru-RU/models.json +39 -24
- package/locales/tr-TR/modelProvider.json +12 -0
- package/locales/tr-TR/models.json +39 -24
- package/locales/vi-VN/modelProvider.json +12 -0
- package/locales/vi-VN/models.json +39 -24
- package/locales/zh-CN/modelProvider.json +12 -0
- package/locales/zh-CN/models.json +39 -24
- package/locales/zh-TW/modelProvider.json +12 -0
- package/locales/zh-TW/models.json +39 -24
- package/package.json +3 -3
- package/packages/const/src/settings/index.ts +1 -0
- package/packages/database/package.json +7 -5
- package/packages/electron-client-ipc/src/events/index.ts +2 -2
- package/packages/electron-client-ipc/src/events/{localFile.ts → localSystem.ts} +25 -6
- package/packages/electron-client-ipc/src/types/index.ts +1 -1
- package/packages/electron-client-ipc/src/types/{localFile.ts → localSystem.ts} +89 -4
- package/packages/file-loaders/package.json +1 -2
- package/packages/file-loaders/src/loadFile.ts +4 -1
- package/packages/file-loaders/src/loaders/doc/__snapshots__/index.test.ts.snap +46 -0
- package/packages/file-loaders/src/loaders/doc/index.test.ts +38 -0
- package/packages/file-loaders/src/loaders/doc/index.ts +57 -0
- package/packages/file-loaders/src/loaders/docx/index.ts +36 -45
- package/packages/file-loaders/src/loaders/index.ts +2 -0
- package/packages/file-loaders/src/types/word-extractor.d.ts +9 -0
- package/packages/file-loaders/src/types.ts +1 -1
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.test.ts +267 -38
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +45 -0
- package/packages/model-runtime/src/providerTestUtils.ts +0 -5
- package/packages/model-runtime/src/providers/anthropic/generateObject.test.ts +57 -44
- package/packages/model-runtime/src/providers/anthropic/generateObject.ts +28 -20
- package/packages/model-runtime/src/providers/deepseek/index.ts +5 -0
- package/packages/model-runtime/src/providers/openai/index.test.ts +0 -5
- package/packages/model-runtime/src/providers/openrouter/index.test.ts +3 -3
- package/packages/model-runtime/src/providers/openrouter/index.ts +32 -20
- package/packages/model-runtime/src/providers/openrouter/type.ts +25 -24
- package/packages/model-runtime/src/providers/zhipu/index.test.ts +0 -1
- package/packages/model-runtime/src/types/structureOutput.ts +13 -1
- package/packages/model-runtime/src/utils/handleOpenAIError.test.ts +0 -5
- package/packages/model-runtime/src/utils/handleOpenAIError.ts +2 -2
- package/packages/types/src/aiChat.ts +13 -1
- package/packages/types/src/index.ts +1 -0
- package/src/features/ChatInput/InputEditor/index.tsx +39 -26
- package/src/features/Conversation/Messages/Assistant/Tool/Render/LoadingPlaceholder/index.tsx +1 -1
- package/src/server/routers/lambda/agent.ts +2 -3
- package/src/server/routers/lambda/aiChat.ts +33 -1
- package/src/server/routers/lambda/chunk.ts +2 -2
- package/src/services/electron/file.ts +1 -2
- package/src/services/electron/localFileService.ts +40 -0
- package/src/tools/local-system/Placeholder/ListFiles.tsx +23 -0
- package/src/tools/local-system/Placeholder/ReadLocalFile.tsx +9 -0
- package/src/tools/local-system/Placeholder/SearchFiles.tsx +55 -0
- package/src/tools/local-system/Placeholder/index.tsx +25 -0
- package/src/tools/placeholders.ts +3 -0
|
@@ -704,6 +704,9 @@
|
|
|
704
704
|
"azure-DeepSeek-R1-0528": {
|
|
705
705
|
"description": "Distribuito e fornito da Microsoft; il modello DeepSeek R1 ha subito un aggiornamento minore, la versione attuale è DeepSeek-R1-0528. Nell'ultimo aggiornamento, DeepSeek R1 ha migliorato significativamente la profondità di inferenza e la capacità di deduzione aumentando le risorse computazionali e introducendo meccanismi di ottimizzazione algoritmica nella fase post-allenamento. Questo modello eccelle in vari benchmark come matematica, programmazione e logica generale, con prestazioni complessive vicine a modelli leader come O3 e Gemini 2.5 Pro."
|
|
706
706
|
},
|
|
707
|
+
"baichuan-m2-32b": {
|
|
708
|
+
"description": "Baichuan M2 32B è un modello esperto ibrido sviluppato da Baichuan Intelligence, dotato di potenti capacità di ragionamento."
|
|
709
|
+
},
|
|
707
710
|
"baichuan/baichuan2-13b-chat": {
|
|
708
711
|
"description": "Baichuan-13B è un modello di linguaggio open source sviluppato da Baichuan Intelligence, con 13 miliardi di parametri, che ha ottenuto i migliori risultati nella sua categoria in benchmark autorevoli sia in cinese che in inglese."
|
|
709
712
|
},
|
|
@@ -728,12 +731,6 @@
|
|
|
728
731
|
"charglm-4": {
|
|
729
732
|
"description": "CharGLM-4 è progettato per il gioco di ruolo e la compagnia emotiva, supportando una memoria multi-turno ultra-lunga e dialoghi personalizzati, con ampie applicazioni."
|
|
730
733
|
},
|
|
731
|
-
"chatglm3": {
|
|
732
|
-
"description": "ChatGLM3 è un modello a sorgente chiusa sviluppato da Zhipu AI e dal laboratorio KEG di Tsinghua. Dopo un pre-addestramento su una vasta quantità di identificatori cinesi e inglesi e un addestramento allineato alle preferenze umane, rispetto alla prima generazione di modelli, ha ottenuto miglioramenti del 16%, 36% e 280% rispettivamente in MMLU, C-Eval e GSM8K, e ha raggiunto il vertice della classifica C-Eval per compiti in cinese. È adatto a scenari che richiedono un alto livello di conoscenza, capacità di ragionamento e creatività, come la stesura di testi pubblicitari, la scrittura di romanzi, la composizione di testi informativi e la generazione di codice."
|
|
733
|
-
},
|
|
734
|
-
"chatglm3-6b-base": {
|
|
735
|
-
"description": "ChatGLM3-6b-base è il modello di base open source più recente della serie ChatGLM, sviluppato da Zhipu con una dimensione di 6 miliardi di parametri."
|
|
736
|
-
},
|
|
737
734
|
"chatgpt-4o-latest": {
|
|
738
735
|
"description": "ChatGPT-4o è un modello dinamico, aggiornato in tempo reale per mantenere la versione più recente. Combina una potente comprensione e generazione del linguaggio, adatta a scenari di applicazione su larga scala, inclusi servizi clienti, educazione e supporto tecnico."
|
|
739
736
|
},
|
|
@@ -938,6 +935,9 @@
|
|
|
938
935
|
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
939
936
|
"description": "DeepSeek-V3.1-Terminus è una versione aggiornata del modello V3.1 rilasciata da DeepSeek, concepita come un modello linguistico di grandi dimensioni con agenti ibridi. Questo aggiornamento mantiene le capacità originali del modello, concentrandosi sulla risoluzione dei problemi segnalati dagli utenti e sul miglioramento della stabilità. Migliora significativamente la coerenza linguistica, riducendo l'uso misto di cinese e inglese e la presenza di caratteri anomali. Il modello integra la “Modalità di pensiero” (Thinking Mode) e la “Modalità non di pensiero” (Non-thinking Mode), permettendo agli utenti di passare agevolmente tra le modalità tramite template di chat per adattarsi a diversi compiti. Come ottimizzazione importante, V3.1-Terminus potenzia le prestazioni degli agenti di codice (Code Agent) e di ricerca (Search Agent), rendendoli più affidabili nell'invocazione di strumenti e nell'esecuzione di compiti complessi multi-step."
|
|
940
937
|
},
|
|
938
|
+
"deepseek-ai/DeepSeek-V3.2-Exp": {
|
|
939
|
+
"description": "Il modello DeepSeek V3.2 Exp adotta un'architettura di ragionamento ibrida, supportando sia la modalità riflessiva che quella non riflessiva."
|
|
940
|
+
},
|
|
941
941
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
|
942
942
|
"description": "DeepSeek 67B è un modello avanzato addestrato per dialoghi ad alta complessità."
|
|
943
943
|
},
|
|
@@ -1031,6 +1031,9 @@
|
|
|
1031
1031
|
"deepseek-v3.1": {
|
|
1032
1032
|
"description": "DeepSeek-V3.1 è il nuovo modello di ragionamento ibrido lanciato da DeepSeek, che supporta due modalità di ragionamento: con pensiero e senza pensiero, con un'efficienza di pensiero superiore rispetto a DeepSeek-R1-0528. Ottimizzato tramite post-addestramento, l'uso degli strumenti Agent e le prestazioni nelle attività degli agenti sono notevolmente migliorate. Supporta una finestra contestuale di 128k e una lunghezza massima di output di 64k token."
|
|
1033
1033
|
},
|
|
1034
|
+
"deepseek-v3.1-terminus": {
|
|
1035
|
+
"description": "DeepSeek-V3.1-Terminus è una versione ottimizzata per dispositivi terminali del modello linguistico di grandi dimensioni sviluppato da DeepSeek."
|
|
1036
|
+
},
|
|
1034
1037
|
"deepseek-v3.1:671b": {
|
|
1035
1038
|
"description": "DeepSeek V3.1: modello di inferenza di nuova generazione che migliora le capacità di ragionamento complesso e di pensiero a catena, adatto a compiti che richiedono analisi approfondite."
|
|
1036
1039
|
},
|
|
@@ -1193,6 +1196,12 @@
|
|
|
1193
1196
|
"ernie-4.0-turbo-8k-preview": {
|
|
1194
1197
|
"description": "Il modello di linguaggio di grandi dimensioni di punta sviluppato internamente da Baidu, con prestazioni complessive eccezionali, ampiamente applicabile a scenari di compiti complessi in vari campi; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte. Rispetto a ERNIE 4.0, offre prestazioni migliori."
|
|
1195
1198
|
},
|
|
1199
|
+
"ernie-4.5-21b-a3b": {
|
|
1200
|
+
"description": "ERNIE 4.5 21B A3B è un modello esperto ibrido sviluppato da Wenxin di Baidu, con eccellenti capacità di ragionamento e supporto multilingue."
|
|
1201
|
+
},
|
|
1202
|
+
"ernie-4.5-300b-a47b": {
|
|
1203
|
+
"description": "ERNIE 4.5 300B A47B è un modello esperto ibrido su larga scala sviluppato da Wenxin di Baidu, con prestazioni eccezionali nel ragionamento."
|
|
1204
|
+
},
|
|
1196
1205
|
"ernie-4.5-8k-preview": {
|
|
1197
1206
|
"description": "Il modello di grandi dimensioni Wenxin 4.5 è una nuova generazione di modello di base multimodale sviluppato autonomamente da Baidu, realizzato attraverso la modellazione congiunta di più modalità per ottenere un'ottimizzazione collaborativa, con eccellenti capacità di comprensione multimodale; presenta capacità linguistiche più avanzate, con miglioramenti significativi nella comprensione, generazione, logica e memoria, riducendo le illusioni e migliorando il ragionamento logico e le capacità di codifica."
|
|
1198
1207
|
},
|
|
@@ -1449,7 +1458,7 @@
|
|
|
1449
1458
|
"description": "GLM-4-0520 è l'ultima versione del modello, progettata per compiti altamente complessi e diversificati, con prestazioni eccezionali."
|
|
1450
1459
|
},
|
|
1451
1460
|
"glm-4-9b-chat": {
|
|
1452
|
-
"description": "GLM-4-9B-Chat
|
|
1461
|
+
"description": "GLM-4-9B-Chat offre prestazioni elevate in semantica, matematica, ragionamento, programmazione e conoscenza. Supporta anche la navigazione web, l'esecuzione di codice, l'invocazione di strumenti personalizzati e il ragionamento su testi lunghi. Supporta 26 lingue, tra cui giapponese, coreano e tedesco."
|
|
1453
1462
|
},
|
|
1454
1463
|
"glm-4-air": {
|
|
1455
1464
|
"description": "GLM-4-Air è una versione economica, con prestazioni simili a GLM-4, che offre velocità elevate a un prezzo accessibile."
|
|
@@ -1749,7 +1758,10 @@
|
|
|
1749
1758
|
"description": "Una versione più economica di GPT Image 1, con supporto nativo per input testuali e visivi e generazione di output in formato immagine."
|
|
1750
1759
|
},
|
|
1751
1760
|
"gpt-oss-120b": {
|
|
1752
|
-
"description": "GPT-OSS-120B
|
|
1761
|
+
"description": "È necessaria una richiesta per accedere a questo modello. GPT-OSS-120B è un modello linguistico open source su larga scala sviluppato da OpenAI, con potenti capacità di generazione testuale."
|
|
1762
|
+
},
|
|
1763
|
+
"gpt-oss-20b": {
|
|
1764
|
+
"description": "È necessaria una richiesta per accedere a questo modello. GPT-OSS-20B è un modello linguistico open source di medie dimensioni sviluppato da OpenAI, con capacità di generazione testuale efficienti."
|
|
1753
1765
|
},
|
|
1754
1766
|
"gpt-oss:120b": {
|
|
1755
1767
|
"description": "GPT-OSS 120B è un modello linguistico open source di grandi dimensioni rilasciato da OpenAI, che utilizza la tecnologia di quantizzazione MXFP4, rappresentando un modello di punta. Richiede un ambiente con più GPU o una workstation ad alte prestazioni per l'esecuzione, offrendo prestazioni eccellenti in ragionamenti complessi, generazione di codice e gestione multilingue, supportando chiamate di funzione avanzate e integrazione di strumenti."
|
|
@@ -1967,6 +1979,9 @@
|
|
|
1967
1979
|
"kimi-k2-0905-preview": {
|
|
1968
1980
|
"description": "Il modello kimi-k2-0905-preview ha una lunghezza di contesto di 256k, con capacità di Agentic Coding più forti, una migliore estetica e praticità del codice frontend, e una migliore comprensione del contesto."
|
|
1969
1981
|
},
|
|
1982
|
+
"kimi-k2-instruct": {
|
|
1983
|
+
"description": "Kimi K2 Instruct è un modello linguistico di grandi dimensioni sviluppato da Moonshot AI, con capacità avanzate di gestione di contesti molto estesi."
|
|
1984
|
+
},
|
|
1970
1985
|
"kimi-k2-turbo-preview": {
|
|
1971
1986
|
"description": "kimi-k2 è un modello di base con architettura MoE che offre potenti capacità di programmazione e di agent, con 1T di parametri totali e 32B di parametri attivi. Nei benchmark delle principali categorie — ragionamento su conoscenze generali, programmazione, matematica e agent — il modello K2 supera gli altri modelli open source più diffusi."
|
|
1972
1987
|
},
|
|
@@ -1988,9 +2003,6 @@
|
|
|
1988
2003
|
"lite": {
|
|
1989
2004
|
"description": "Spark Lite è un modello di linguaggio di grandi dimensioni leggero, con latenza estremamente bassa e capacità di elaborazione efficiente, completamente gratuito e aperto, supporta funzionalità di ricerca online in tempo reale. La sua caratteristica di risposta rapida lo rende eccellente per applicazioni di inferenza su dispositivi a bassa potenza e per il fine-tuning dei modelli, offrendo agli utenti un'ottima efficienza dei costi e un'esperienza intelligente, soprattutto nei contesti di domande e risposte, generazione di contenuti e ricerca."
|
|
1990
2005
|
},
|
|
1991
|
-
"llama-2-7b-chat": {
|
|
1992
|
-
"description": "Llama2 è una serie di modelli linguistici di grandi dimensioni (LLM) sviluppati e resi open source da Meta. Questa serie comprende modelli generativi di testo pre-addestrati e finetunati, con dimensioni che variano da 7 miliardi a 70 miliardi di parametri. Sul piano architettonico, Llama2 è un modello linguistico autoregressivo che utilizza un'architettura di trasformatore ottimizzata. Le versioni aggiornate utilizzano il fine-tuning supervisionato (SFT) e l'apprendimento per rinforzo con feedback umano (RLHF) per allineare le preferenze di utilità e sicurezza umane. Llama2 supera Llama in diverse basi di dati accademiche, fornendo ispirazione per la progettazione e lo sviluppo di molti altri modelli."
|
|
1993
|
-
},
|
|
1994
2006
|
"llama-3.1-70b-versatile": {
|
|
1995
2007
|
"description": "Llama 3.1 70B offre capacità di ragionamento AI più potenti, adatto per applicazioni complesse, supporta un'elaborazione computazionale elevata garantendo efficienza e precisione."
|
|
1996
2008
|
},
|
|
@@ -2018,9 +2030,6 @@
|
|
|
2018
2030
|
"llama-3.3-70b": {
|
|
2019
2031
|
"description": "Llama 3.3 70B: un modello Llama di medie-grandi dimensioni che bilancia capacità di ragionamento e throughput."
|
|
2020
2032
|
},
|
|
2021
|
-
"llama-3.3-70b-instruct": {
|
|
2022
|
-
"description": "Llama 3.3 è il modello di linguaggio open source multilingue più avanzato della serie Llama, che offre prestazioni paragonabili a un modello da 405B a un costo estremamente ridotto. Basato su una struttura Transformer, migliora l'utilità e la sicurezza attraverso il fine-tuning supervisionato (SFT) e l'apprendimento per rinforzo con feedback umano (RLHF). La sua versione ottimizzata per le istruzioni è progettata per dialoghi multilingue e supera molti modelli di chat open source e chiusi in vari benchmark di settore. La data di scadenza delle conoscenze è dicembre 2023."
|
|
2023
|
-
},
|
|
2024
2033
|
"llama-3.3-70b-versatile": {
|
|
2025
2034
|
"description": "Meta Llama 3.3 è un modello linguistico di grandi dimensioni multilingue (LLM) da 70B (input/output testuale) con pre-addestramento e aggiustamento delle istruzioni. Il modello di testo puro di Llama 3.3 è ottimizzato per casi d'uso di dialogo multilingue e supera molti modelli di chat open-source e chiusi nei benchmark di settore comuni."
|
|
2026
2035
|
},
|
|
@@ -2082,7 +2091,7 @@
|
|
|
2082
2091
|
"description": "Spark Max 32K è dotato di una grande capacità di elaborazione del contesto, con una comprensione del contesto e capacità di ragionamento logico superiori, supporta input testuali fino a 32K token, adatto per la lettura di documenti lunghi, domande e risposte su conoscenze private e altri scenari."
|
|
2083
2092
|
},
|
|
2084
2093
|
"megrez-3b-instruct": {
|
|
2085
|
-
"description": "Megrez
|
|
2094
|
+
"description": "Megrez 3B Instruct è un modello efficiente a basso numero di parametri sviluppato da Wuwen Xinqiong."
|
|
2086
2095
|
},
|
|
2087
2096
|
"meta-llama-3-70b-instruct": {
|
|
2088
2097
|
"description": "Un potente modello con 70 miliardi di parametri che eccelle nel ragionamento, nella codifica e nelle ampie applicazioni linguistiche."
|
|
@@ -2639,6 +2648,12 @@
|
|
|
2639
2648
|
"pro-128k": {
|
|
2640
2649
|
"description": "Spark Pro 128K è dotato di una capacità di elaborazione del contesto eccezionale, in grado di gestire fino a 128K di informazioni contestuali, particolarmente adatto per l'analisi completa e la gestione di associazioni logiche a lungo termine in contenuti lunghi, fornendo una logica fluida e coerente e un supporto variegato per le citazioni in comunicazioni testuali complesse."
|
|
2641
2650
|
},
|
|
2651
|
+
"pro-deepseek-r1": {
|
|
2652
|
+
"description": "Modello dedicato ai servizi aziendali, con supporto per servizi concorrenti."
|
|
2653
|
+
},
|
|
2654
|
+
"pro-deepseek-v3": {
|
|
2655
|
+
"description": "Modello dedicato ai servizi aziendali, con supporto per servizi concorrenti."
|
|
2656
|
+
},
|
|
2642
2657
|
"qvq-72b-preview": {
|
|
2643
2658
|
"description": "Il modello QVQ è un modello di ricerca sperimentale sviluppato dal team Qwen, focalizzato sul miglioramento delle capacità di ragionamento visivo, in particolare nel campo del ragionamento matematico."
|
|
2644
2659
|
},
|
|
@@ -2774,12 +2789,6 @@
|
|
|
2774
2789
|
"qwen2": {
|
|
2775
2790
|
"description": "Qwen2 è la nuova generazione di modelli di linguaggio su larga scala di Alibaba, supporta prestazioni eccellenti per esigenze applicative diversificate."
|
|
2776
2791
|
},
|
|
2777
|
-
"qwen2-72b-instruct": {
|
|
2778
|
-
"description": "Qwen2 è la nuova serie di modelli linguistici di grande dimensione sviluppata dal team Qwen. Si basa sull'architettura Transformer e utilizza funzioni di attivazione SwiGLU, bias QKV dell'attenzione, attenzione a query di gruppo, una combinazione di attenzione a finestra scorrevole e attenzione completa. Inoltre, il team Qwen ha migliorato il tokenizzatore per adattarlo a diverse lingue naturali e codici."
|
|
2779
|
-
},
|
|
2780
|
-
"qwen2-7b-instruct": {
|
|
2781
|
-
"description": "Qwen2 è la nuova serie di modelli linguistici di grandi dimensioni presentata dal team Qwen. Si basa sull'architettura Transformer e utilizza funzioni di attivazione SwiGLU, bias QKV dell'attenzione (attention QKV bias), attenzione a query di gruppo (group query attention), una combinazione di attenzione a finestra scorrevole (sliding window attention) e attenzione completa. Inoltre, il team Qwen ha migliorato il tokenizzatore per adattarlo a diverse lingue naturali e codici."
|
|
2782
|
-
},
|
|
2783
2792
|
"qwen2.5": {
|
|
2784
2793
|
"description": "Qwen2.5 è la nuova generazione di modelli linguistici su larga scala di Alibaba, che supporta esigenze applicative diversificate con prestazioni eccellenti."
|
|
2785
2794
|
},
|
|
@@ -2918,6 +2927,12 @@
|
|
|
2918
2927
|
"qwen3-next-80b-a3b-thinking": {
|
|
2919
2928
|
"description": "Modello open source di nuova generazione basato su Qwen3 in modalità riflessiva, con migliorata capacità di seguire le istruzioni rispetto alla versione precedente (Tongyi Qianwen 3-235B-A22B-Thinking-2507) e risposte di sintesi più concise."
|
|
2920
2929
|
},
|
|
2930
|
+
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
+
"description": "Qwen3 VL 235B A22B Instruct è un modello multimodale sviluppato da Tongyi Qianwen, che supporta la comprensione visiva e il ragionamento."
|
|
2932
|
+
},
|
|
2933
|
+
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
+
"description": "Qwen3 VL 235B A22B Thinking è un modello di ragionamento multimodale sviluppato da Tongyi Qianwen, che supporta la comprensione visiva e il ragionamento."
|
|
2935
|
+
},
|
|
2921
2936
|
"qwen3-vl-plus": {
|
|
2922
2937
|
"description": "Tongyi Qianwen VL è un modello di generazione testuale con capacità di comprensione visiva (immagini). Non solo può eseguire OCR (riconoscimento del testo nelle immagini), ma anche riassumere e ragionare ulteriormente, ad esempio estraendo attributi da foto di prodotti o risolvendo problemi basati su immagini di esercizi."
|
|
2923
2938
|
},
|
|
@@ -3035,6 +3050,9 @@
|
|
|
3035
3050
|
"step-r1-v-mini": {
|
|
3036
3051
|
"description": "Questo modello è un grande modello di inferenza con potenti capacità di comprensione delle immagini, in grado di gestire informazioni visive e testuali, producendo contenuti testuali dopo un profondo ragionamento. Questo modello si distingue nel campo del ragionamento visivo, mostrando anche capacità di ragionamento matematico, codice e testo di primo livello. La lunghezza del contesto è di 100k."
|
|
3037
3052
|
},
|
|
3053
|
+
"step3": {
|
|
3054
|
+
"description": "Step3 è un modello multimodale sviluppato da StepStar, con potenti capacità di comprensione visiva."
|
|
3055
|
+
},
|
|
3038
3056
|
"stepfun-ai/step3": {
|
|
3039
3057
|
"description": "Step3 è un modello di inferenza multimodale all'avanguardia rilasciato da StepFun (阶跃星辰). È costruito su un'architettura Mixture of Experts (MoE) con 321 miliardi di parametri totali e 38 miliardi di parametri di attivazione. Il modello adotta un design end-to-end, pensato per minimizzare i costi di decodifica e al contempo offrire prestazioni di primo livello nel ragionamento visivo-linguistico. Grazie al design sinergico che combina Multi-Matrix Factorized Attention (MFA) e il disaccoppiamento attenzione-FFN (AFD), Step3 mantiene un'elevata efficienza sia sui più potenti acceleratori flagship sia su quelli di fascia bassa. Durante la fase di pre-addestramento, Step3 ha elaborato oltre 20T di token testuali e 4T di token misti immagine-testo, coprendo più di dieci lingue. Il modello ha raggiunto livelli leader tra i modelli open source in numerosi benchmark, inclusi matematica, codice e scenari multimodali."
|
|
3040
3058
|
},
|
|
@@ -3158,9 +3176,6 @@
|
|
|
3158
3176
|
"xai/grok-4": {
|
|
3159
3177
|
"description": "Il modello di punta più recente e migliore di xAI, che offre prestazioni senza pari in linguaggio naturale, matematica e ragionamento — il perfetto tuttofare."
|
|
3160
3178
|
},
|
|
3161
|
-
"yi-1.5-34b-chat": {
|
|
3162
|
-
"description": "Yi-1.5 è una versione aggiornata di Yi. Utilizza un corpus di alta qualità di 500B token per il pre-addestramento continuo di Yi e viene finetunato su 3M campioni di micro-tuning diversificati."
|
|
3163
|
-
},
|
|
3164
3179
|
"yi-large": {
|
|
3165
3180
|
"description": "Un nuovo modello con centinaia di miliardi di parametri, offre capacità eccezionali di risposta e generazione di testi."
|
|
3166
3181
|
},
|
|
@@ -284,11 +284,19 @@
|
|
|
284
284
|
"placeholder": "モデルIDを入力してください。例:gpt-4o または claude-3.5-sonnet",
|
|
285
285
|
"title": "モデル ID"
|
|
286
286
|
},
|
|
287
|
+
"imageOutput": {
|
|
288
|
+
"extra": "この設定はモデルによる画像生成機能のみを有効にします。実際の効果はモデル自体に完全に依存するため、このモデルが画像生成機能を備えているかどうかをご自身でご確認ください。",
|
|
289
|
+
"title": "画像生成対応"
|
|
290
|
+
},
|
|
287
291
|
"modalTitle": "カスタムモデル設定",
|
|
288
292
|
"reasoning": {
|
|
289
293
|
"extra": "この設定は、モデルの深い思考能力を有効にするだけです。具体的な効果はモデル自体に依存しますので、このモデルが利用可能な深い思考能力を持っているかどうかはご自身でテストしてください。",
|
|
290
294
|
"title": "深い思考をサポート"
|
|
291
295
|
},
|
|
296
|
+
"search": {
|
|
297
|
+
"extra": "この設定はモデル内蔵の検索エンジンによるオンライン検索機能のみを有効にします。内蔵検索エンジンの対応可否はモデル自体に依存するため、このモデルの検索機能が利用可能かどうかをご自身でご確認ください。",
|
|
298
|
+
"title": "オンライン検索対応"
|
|
299
|
+
},
|
|
292
300
|
"tokens": {
|
|
293
301
|
"extra": "モデルがサポートする最大トークン数を設定する",
|
|
294
302
|
"title": "最大コンテキストウィンドウ",
|
|
@@ -309,6 +317,10 @@
|
|
|
309
317
|
"placeholder": "モデルタイプを選択してください",
|
|
310
318
|
"title": "モデルタイプ"
|
|
311
319
|
},
|
|
320
|
+
"video": {
|
|
321
|
+
"extra": "この設定はアプリ内のビデオ認識機能のみを有効にします。認識の可否はモデル自体に依存するため、このモデルのビデオ認識機能が利用可能かどうかをご自身でご確認ください。",
|
|
322
|
+
"title": "ビデオ認識対応"
|
|
323
|
+
},
|
|
312
324
|
"vision": {
|
|
313
325
|
"extra": "この設定はアプリ内の画像アップロード設定のみを有効にします。認識のサポートはモデル自体に依存しますので、そのモデルの視覚認識機能の可用性を自分でテストしてください",
|
|
314
326
|
"title": "視覚認識をサポート"
|
|
@@ -704,6 +704,9 @@
|
|
|
704
704
|
"azure-DeepSeek-R1-0528": {
|
|
705
705
|
"description": "Microsoftによって展開されています。DeepSeek R1モデルはマイナーバージョンアップが行われ、現在のバージョンはDeepSeek-R1-0528です。最新のアップデートでは、計算リソースの増強と後訓練段階のアルゴリズム最適化メカニズムの導入により、推論の深さと推断能力が大幅に向上しました。このモデルは数学、プログラミング、一般的な論理など複数のベンチマークテストで優れた性能を示し、全体的なパフォーマンスはO3やGemini 2.5 Proなどの先進モデルに近づいています。"
|
|
706
706
|
},
|
|
707
|
+
"baichuan-m2-32b": {
|
|
708
|
+
"description": "Baichuan M2 32B は Baichuan Intelligence によって開発された混合エキスパートモデルで、優れた推論能力を備えています。"
|
|
709
|
+
},
|
|
707
710
|
"baichuan/baichuan2-13b-chat": {
|
|
708
711
|
"description": "Baichuan-13Bは百川智能が開発した130億パラメータを持つオープンソースの商用大規模言語モデルで、権威ある中国語と英語のベンチマークで同サイズの中で最良の結果を達成しています。"
|
|
709
712
|
},
|
|
@@ -728,12 +731,6 @@
|
|
|
728
731
|
"charglm-4": {
|
|
729
732
|
"description": "CharGLM-4はキャラクター演技と感情的な伴侶のために設計されており、超長期の多回記憶と個別化された対話をサポートし、幅広い応用があります。"
|
|
730
733
|
},
|
|
731
|
-
"chatglm3": {
|
|
732
|
-
"description": "ChatGLM3は、智譜AIと清華KEGラボが公開したクローズドソースモデルで、大量の中国語と英語の識別子の事前学習と人間の好みの調整学習を経ています。1世代目のモデルと比較して、MMLU、C-Eval、GSM8Kでそれぞれ16%、36%、280%の向上を達成し、中国語タスクランキングC-Evalで1位を獲得しました。知識量、推論能力、創造性が求められる場面、例えば広告文の作成、小説の執筆、知識系の執筆、コードの生成などに適しています。"
|
|
733
|
-
},
|
|
734
|
-
"chatglm3-6b-base": {
|
|
735
|
-
"description": "ChatGLM3-6b-base は、智譜が開発した ChatGLM シリーズの最新世代の 60 億パラメータのオープンソースの基本モデルです。"
|
|
736
|
-
},
|
|
737
734
|
"chatgpt-4o-latest": {
|
|
738
735
|
"description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、常に最新のバージョンを維持します。強力な言語理解と生成能力を組み合わせており、顧客サービス、教育、技術サポートなどの大規模なアプリケーションシナリオに適しています。"
|
|
739
736
|
},
|
|
@@ -938,6 +935,9 @@
|
|
|
938
935
|
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
939
936
|
"description": "DeepSeek-V3.1-Terminus は深度求索(DeepSeek)による V3.1 モデルのアップデート版で、ハイブリッドエージェント大規模言語モデルとして位置付けられています。今回のアップデートはモデルの既存能力を維持しつつ、ユーザーからのフィードバックに基づく問題修正と安定性の向上に注力しています。言語の一貫性が大幅に改善され、中英混用や異常文字の出現が減少しました。モデルは「思考モード」(Thinking Mode)と「非思考モード」(Non-thinking Mode)を統合しており、ユーザーはチャットテンプレートを通じて柔軟に切り替え、異なるタスクに対応可能です。重要な最適化として、V3.1-Terminus はコードエージェント(Code Agent)と検索エージェント(Search Agent)の性能を強化し、ツール呼び出しや多段階の複雑なタスク実行においてより信頼性が高まりました。"
|
|
940
937
|
},
|
|
938
|
+
"deepseek-ai/DeepSeek-V3.2-Exp": {
|
|
939
|
+
"description": "DeepSeek V3.2 Exp モデルは、思考モードと非思考モードの両方をサポートするハイブリッド推論アーキテクチャモデルです。"
|
|
940
|
+
},
|
|
941
941
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
|
942
942
|
"description": "DeepSeek 67Bは、高い複雑性の対話のために訓練された先進的なモデルです。"
|
|
943
943
|
},
|
|
@@ -1031,6 +1031,9 @@
|
|
|
1031
1031
|
"deepseek-v3.1": {
|
|
1032
1032
|
"description": "DeepSeek-V3.1 は DeepSeek が新たにリリースしたハイブリッド推論モデルで、思考モードと非思考モードの2つの推論モードをサポートし、DeepSeek-R1-0528 よりも思考効率が向上しています。ポストトレーニングによる最適化により、エージェントツールの使用とインテリジェントタスクのパフォーマンスが大幅に向上しました。128k のコンテキストウィンドウをサポートし、最大64kトークンの出力長に対応しています。"
|
|
1033
1033
|
},
|
|
1034
|
+
"deepseek-v3.1-terminus": {
|
|
1035
|
+
"description": "DeepSeek-V3.1-Terminus は DeepSeek によって開発されたエッジデバイス向けに最適化された大規模言語モデルです。"
|
|
1036
|
+
},
|
|
1034
1037
|
"deepseek-v3.1:671b": {
|
|
1035
1038
|
"description": "DeepSeek V3.1:次世代推論モデルで、複雑な推論と連鎖的思考能力を向上させ、深い分析を必要とするタスクに適しています。"
|
|
1036
1039
|
},
|
|
@@ -1193,6 +1196,12 @@
|
|
|
1193
1196
|
"ernie-4.0-turbo-8k-preview": {
|
|
1194
1197
|
"description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、総合的なパフォーマンスが優れており、さまざまな分野の複雑なタスクシーンに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。ERNIE 4.0に比べてパフォーマンスがさらに優れています。"
|
|
1195
1198
|
},
|
|
1199
|
+
"ernie-4.5-21b-a3b": {
|
|
1200
|
+
"description": "ERNIE 4.5 21B A3B は Baidu の文心によって開発された混合エキスパートモデルで、優れた推論能力と多言語対応力を備えています。"
|
|
1201
|
+
},
|
|
1202
|
+
"ernie-4.5-300b-a47b": {
|
|
1203
|
+
"description": "ERNIE 4.5 300B A47B は Baidu の文心によって開発された超大規模混合エキスパートモデルで、卓越した推論能力を誇ります。"
|
|
1204
|
+
},
|
|
1196
1205
|
"ernie-4.5-8k-preview": {
|
|
1197
1206
|
"description": "文心大モデル4.5は、百度が独自に開発した次世代のネイティブマルチモーダル基盤大モデルで、複数のモーダルを共同でモデル化することで協調最適化を実現し、優れたマルチモーダル理解能力を持っています。言語能力がさらに向上し、理解、生成、論理、記憶能力が全面的に向上し、幻覚の排除、論理推論、コード能力が顕著に向上しています。"
|
|
1198
1207
|
},
|
|
@@ -1449,7 +1458,7 @@
|
|
|
1449
1458
|
"description": "GLM-4-0520は最新のモデルバージョンで、高度に複雑で多様なタスクのために設計され、優れたパフォーマンスを発揮します。"
|
|
1450
1459
|
},
|
|
1451
1460
|
"glm-4-9b-chat": {
|
|
1452
|
-
"description": "GLM-4-9B-Chat
|
|
1461
|
+
"description": "GLM-4-9B-Chat は意味理解、数学、推論、コード、知識など多方面で高い性能を発揮します。ウェブ閲覧、コード実行、カスタムツールの呼び出し、長文推論にも対応。日本語、韓国語、ドイツ語を含む26言語をサポート。"
|
|
1453
1462
|
},
|
|
1454
1463
|
"glm-4-air": {
|
|
1455
1464
|
"description": "GLM-4-Airはコストパフォーマンスが高いバージョンで、GLM-4に近い性能を提供し、高速かつ手頃な価格です。"
|
|
@@ -1749,7 +1758,10 @@
|
|
|
1749
1758
|
"description": "コストを抑えた GPT Image 1 のバージョンで、テキストと画像の入力をネイティブにサポートし、画像出力を生成します。"
|
|
1750
1759
|
},
|
|
1751
1760
|
"gpt-oss-120b": {
|
|
1752
|
-
"description": "GPT-OSS-120B
|
|
1761
|
+
"description": "このモデルの利用には申請が必要です。GPT-OSS-120B は OpenAI によって開発されたオープンソースの大規模言語モデルで、強力なテキスト生成能力を備えています。"
|
|
1762
|
+
},
|
|
1763
|
+
"gpt-oss-20b": {
|
|
1764
|
+
"description": "このモデルの利用には申請が必要です。GPT-OSS-20B は OpenAI によって開発されたオープンソースの中規模言語モデルで、効率的なテキスト生成能力を持ちます。"
|
|
1753
1765
|
},
|
|
1754
1766
|
"gpt-oss:120b": {
|
|
1755
1767
|
"description": "GPT-OSS 120B は OpenAI が公開した大型のオープンソース言語モデルで、MXFP4 量子化技術を採用したフラッグシップモデルです。複数GPUや高性能ワークステーション環境での動作が必要で、複雑な推論、コード生成、多言語処理において卓越した性能を発揮し、高度な関数呼び出しやツール統合をサポートしています。"
|
|
@@ -1967,6 +1979,9 @@
|
|
|
1967
1979
|
"kimi-k2-0905-preview": {
|
|
1968
1980
|
"description": "kimi-k2-0905-previewモデルは256kのコンテキスト長を持ち、より強力なエージェントコーディング能力、より優れたフロントエンドコードの美観と実用性、そしてより良いコンテキスト理解能力を備えています。"
|
|
1969
1981
|
},
|
|
1982
|
+
"kimi-k2-instruct": {
|
|
1983
|
+
"description": "Kimi K2 Instruct は Moonshot AI によって開発された大規模言語モデルで、超長文の文脈処理能力を備えています。"
|
|
1984
|
+
},
|
|
1970
1985
|
"kimi-k2-turbo-preview": {
|
|
1971
1986
|
"description": "kimi-k2 は高度なコード処理能力とエージェント機能を備えた MoE(Mixture of Experts)アーキテクチャの基盤モデルで、総パラメータ数は1T、アクティブパラメータは32Bです。一般的な知識推論、プログラミング、数学、エージェントなどの主要カテゴリにおけるベンチマークで、K2モデルは他の主要なオープンソースモデルを上回る性能を示しています。"
|
|
1972
1987
|
},
|
|
@@ -1988,9 +2003,6 @@
|
|
|
1988
2003
|
"lite": {
|
|
1989
2004
|
"description": "Spark Liteは軽量な大規模言語モデルで、非常に低い遅延と高い処理能力を備えています。完全に無料でオープンであり、リアルタイムのオンライン検索機能をサポートしています。その迅速な応答特性により、低算力デバイスでの推論アプリケーションやモデルの微調整において優れたパフォーマンスを発揮し、特に知識問答、コンテンツ生成、検索シーンにおいて優れたコストパフォーマンスとインテリジェントな体験を提供します。"
|
|
1990
2005
|
},
|
|
1991
|
-
"llama-2-7b-chat": {
|
|
1992
|
-
"description": "Llama2は、Metaによって開発され、オープンソースの大型言語モデル(LLM)シリーズで、70億から700億パラメータの異なるスケールの生成テキストモデルです。アーキテクチャの面では、LLama2は最適化されたトランスフォーマーアーキテクチャを使用した自己回帰型言語モデルです。調整されたバージョンは、監視付き微調整(SFT)と人間のフィードバックを伴う強化学習(RLHF)を使用して、人間の有用性と安全性の好みに合わせています。Llama2は、Llamaシリーズに比べて多くの学術データセットで優れたパフォーマンスを示し、多くの他のモデルに設計と開発のアイデアを提供しています。"
|
|
1993
|
-
},
|
|
1994
2006
|
"llama-3.1-70b-versatile": {
|
|
1995
2007
|
"description": "Llama 3.1 70Bは、より強力なAI推論能力を提供し、複雑なアプリケーションに適しており、非常に多くの計算処理をサポートし、高効率と精度を保証します。"
|
|
1996
2008
|
},
|
|
@@ -2018,9 +2030,6 @@
|
|
|
2018
2030
|
"llama-3.3-70b": {
|
|
2019
2031
|
"description": "Llama 3.3 70B:中〜大規模の Llama モデルで、推論能力とスループットのバランスに優れています。"
|
|
2020
2032
|
},
|
|
2021
|
-
"llama-3.3-70b-instruct": {
|
|
2022
|
-
"description": "Llama 3.3は、Llamaシリーズの最先端の多言語オープンソース大規模言語モデルで、非常に低コストで405Bモデルに匹敵する性能を体験できます。Transformer構造に基づき、監視付き微調整(SFT)と人間のフィードバックによる強化学習(RLHF)を通じて有用性と安全性を向上させています。その指示調整バージョンは多言語対話に最適化されており、複数の業界ベンチマークで多くのオープンソースおよびクローズドチャットモデルを上回る性能を発揮します。知識のカットオフ日は2023年12月です。"
|
|
2023
|
-
},
|
|
2024
2033
|
"llama-3.3-70b-versatile": {
|
|
2025
2034
|
"description": "Meta Llama 3.3は、70B(テキスト入力/テキスト出力)の事前学習と指示調整による生成モデルを持つ多言語大規模言語モデル(LLM)です。Llama 3.3の指示調整済みのプレーンテキストモデルは、多言語の対話ユースケースに最適化されており、一般的な業界ベンチマークで多くの利用可能なオープンソースおよびクローズドチャットモデルを上回っています。"
|
|
2026
2035
|
},
|
|
@@ -2082,7 +2091,7 @@
|
|
|
2082
2091
|
"description": "Spark Max 32Kは大規模なコンテキスト処理能力を備え、より強力なコンテキスト理解と論理推論能力を持ち、32Kトークンのテキスト入力をサポートします。長文書の読解やプライベートな知識問答などのシーンに適しています。"
|
|
2083
2092
|
},
|
|
2084
2093
|
"megrez-3b-instruct": {
|
|
2085
|
-
"description": "Megrez
|
|
2094
|
+
"description": "Megrez 3B Instruct は WuWenXinQiong によって開発された小規模パラメータの高効率モデルです。"
|
|
2086
2095
|
},
|
|
2087
2096
|
"meta-llama-3-70b-instruct": {
|
|
2088
2097
|
"description": "推論、コーディング、広範な言語アプリケーションに優れた70億パラメータの強力なモデルです。"
|
|
@@ -2639,6 +2648,12 @@
|
|
|
2639
2648
|
"pro-128k": {
|
|
2640
2649
|
"description": "Spark Pro 128Kは特大のコンテキスト処理能力を備え、最大128Kのコンテキスト情報を処理できます。特に、全体を通じての分析や長期的な論理的関連性の処理が必要な長文コンテンツに適しており、複雑なテキストコミュニケーションにおいて滑らかで一貫した論理と多様な引用サポートを提供します。"
|
|
2641
2650
|
},
|
|
2651
|
+
"pro-deepseek-r1": {
|
|
2652
|
+
"description": "企業向け専用サービスモデルで、同時接続サービスを含みます。"
|
|
2653
|
+
},
|
|
2654
|
+
"pro-deepseek-v3": {
|
|
2655
|
+
"description": "企業向け専用サービスモデルで、同時接続サービスを含みます。"
|
|
2656
|
+
},
|
|
2642
2657
|
"qvq-72b-preview": {
|
|
2643
2658
|
"description": "QVQモデルはQwenチームによって開発された実験的研究モデルで、視覚推論能力の向上に特化しており、特に数学推論の分野で優れた性能を発揮。"
|
|
2644
2659
|
},
|
|
@@ -2774,12 +2789,6 @@
|
|
|
2774
2789
|
"qwen2": {
|
|
2775
2790
|
"description": "Qwen2は、Alibabaの新世代大規模言語モデルであり、優れた性能で多様なアプリケーションニーズをサポートします。"
|
|
2776
2791
|
},
|
|
2777
|
-
"qwen2-72b-instruct": {
|
|
2778
|
-
"description": "Qwen2は、Qwenチームが発表した次世代の大型言語モデルシリーズです。これは、Transformerアーキテクチャに基づいており、SwiGLU活性化関数、注意QKVバイアス、グループクエリ注意、スライディングウィンドウ注意と全注意の混合などの技術を採用しています。さらに、Qwenチームは、さまざまな自然言語とコードに適応するトークナイザーを改善しました。"
|
|
2779
|
-
},
|
|
2780
|
-
"qwen2-7b-instruct": {
|
|
2781
|
-
"description": "Qwen2は、Qwenチームが発表した次世代の大型言語モデルシリーズです。これは、Transformerアーキテクチャに基づいており、SwiGLU活性化関数、注意QKVバイアス、グループクエリ注意、スライディングウィンドウ注意と全注意の混合などの技術を採用しています。さらに、Qwenチームは、さまざまな自然言語とコードに適応するトークナイザーを改善しました。"
|
|
2782
|
-
},
|
|
2783
2792
|
"qwen2.5": {
|
|
2784
2793
|
"description": "Qwen2.5はAlibabaの次世代大規模言語モデルで、優れた性能を持ち、多様なアプリケーションのニーズをサポートします。"
|
|
2785
2794
|
},
|
|
@@ -2918,6 +2927,12 @@
|
|
|
2918
2927
|
"qwen3-next-80b-a3b-thinking": {
|
|
2919
2928
|
"description": "Qwen3に基づく次世代の思考モードのオープンソースモデルで、前バージョン(通義千問3-235B-A22B-Thinking-2507)と比べて指示遵守能力が向上し、モデルの要約応答がより簡潔になっています。"
|
|
2920
2929
|
},
|
|
2930
|
+
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
+
"description": "Qwen3 VL 235B A22B Instruct は Tongyi Qianwen によって開発されたマルチモーダルモデルで、視覚理解と推論をサポートします。"
|
|
2932
|
+
},
|
|
2933
|
+
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
+
"description": "Qwen3 VL 235B A22B Thinking は Tongyi Qianwen によって開発されたマルチモーダル推論モデルで、視覚理解と推論をサポートします。"
|
|
2935
|
+
},
|
|
2921
2936
|
"qwen3-vl-plus": {
|
|
2922
2937
|
"description": "Tongyi Qianwen VLは視覚(画像)理解能力を備えたテキスト生成モデルで、OCR(画像文字認識)だけでなく、商品写真から属性を抽出したり、問題図から解答を導くなどの要約や推論も可能です。"
|
|
2923
2938
|
},
|
|
@@ -3035,6 +3050,9 @@
|
|
|
3035
3050
|
"step-r1-v-mini": {
|
|
3036
3051
|
"description": "このモデルは強力な画像理解能力を持つ推論大モデルで、画像とテキスト情報を処理し、深い思考の後にテキストを生成します。このモデルは視覚推論分野で優れたパフォーマンスを発揮し、数学、コード、テキスト推論能力も第一級です。コンテキスト長は100kです。"
|
|
3037
3052
|
},
|
|
3053
|
+
"step3": {
|
|
3054
|
+
"description": "Step3 は JIEYUEXINGCHEN によって開発されたマルチモーダルモデルで、優れた視覚理解能力を備えています。"
|
|
3055
|
+
},
|
|
3038
3056
|
"stepfun-ai/step3": {
|
|
3039
3057
|
"description": "Step3 は階跃星辰(StepFun)が公開した最先端のマルチモーダル推論モデルで、総パラメータ数321B、活性化パラメータ38Bを持つエキスパートミックス(MoE)アーキテクチャに基づいて構築されています。本モデルはエンドツーエンド設計を採用し、デコードコストの最小化を図りながら視覚言語推論においてトップクラスの性能を提供します。多行列分解注意(MFA)と注意-FFNのデカップリング(AFD)という協調設計により、Step3 はフラッグシップ級からローエンドのアクセラレータまで一貫して高い効率を維持します。事前学習段階では、Step3 は20Tを超えるテキストトークンと4Tの画像・テキスト混合トークンを処理し、十数言語をカバーしました。このモデルは数学、コード、多モーダルなど複数のベンチマークにおいてオープンソースモデルの中でトップレベルの成績を達成しています。"
|
|
3040
3058
|
},
|
|
@@ -3158,9 +3176,6 @@
|
|
|
3158
3176
|
"xai/grok-4": {
|
|
3159
3177
|
"description": "xAI の最新かつ最高のフラッグシップモデルで、自然言語、数学、推論において比類なき性能を提供し、完璧なオールラウンダーです。"
|
|
3160
3178
|
},
|
|
3161
|
-
"yi-1.5-34b-chat": {
|
|
3162
|
-
"description": "Yi-1.5は、Yiのアップグレード版です。500Bトークンの高品質なコーパスを使用してYiの事前学習を継続し、3Mの多様なファインチューニングサンプルでファインチューニングを行います。"
|
|
3163
|
-
},
|
|
3164
3179
|
"yi-large": {
|
|
3165
3180
|
"description": "新しい千億パラメータモデルであり、超強力な質問応答およびテキスト生成能力を提供します。"
|
|
3166
3181
|
},
|
|
@@ -284,11 +284,19 @@
|
|
|
284
284
|
"placeholder": "예: gpt-4o 또는 claude-3.5-sonnet 등 모델 ID를 입력해 주세요",
|
|
285
285
|
"title": "모델 ID"
|
|
286
286
|
},
|
|
287
|
+
"imageOutput": {
|
|
288
|
+
"extra": "이 설정은 모델의 이미지 생성 기능만 활성화하며, 실제 효과는 전적으로 모델 자체에 따라 달라집니다. 해당 모델이 이미지 생성 기능을 사용할 수 있는지 직접 테스트해 주세요.",
|
|
289
|
+
"title": "이미지 생성 지원"
|
|
290
|
+
},
|
|
287
291
|
"modalTitle": "사용자 정의 모델 설정",
|
|
288
292
|
"reasoning": {
|
|
289
293
|
"extra": "이 설정은 모델의 심층 사고 기능만 활성화합니다. 실제 효과는 모델에 따라 다르므로 직접 테스트해 주세요",
|
|
290
294
|
"title": "심층 사고 지원"
|
|
291
295
|
},
|
|
296
|
+
"search": {
|
|
297
|
+
"extra": "이 설정은 모델 내장 검색 엔진의 인터넷 검색 기능만 활성화하며, 내장 검색 엔진 지원 여부는 모델 자체에 따라 달라집니다. 해당 모델의 내장 검색 엔진 기능이 사용 가능한지 직접 테스트해 주세요.",
|
|
298
|
+
"title": "인터넷 검색 지원"
|
|
299
|
+
},
|
|
292
300
|
"tokens": {
|
|
293
301
|
"extra": "모델이 지원하는 최대 토큰 수를 설정합니다",
|
|
294
302
|
"title": "최대 컨텍스트 길이",
|
|
@@ -309,6 +317,10 @@
|
|
|
309
317
|
"placeholder": "모델 유형을 선택해 주세요",
|
|
310
318
|
"title": "모델 유형"
|
|
311
319
|
},
|
|
320
|
+
"video": {
|
|
321
|
+
"extra": "이 설정은 애플리케이션 내의 비디오 인식 설정만 활성화하며, 인식 가능 여부는 전적으로 모델 자체에 따라 달라집니다. 해당 모델의 비디오 인식 기능이 사용 가능한지 직접 테스트해 주세요.",
|
|
322
|
+
"title": "비디오 인식 지원"
|
|
323
|
+
},
|
|
312
324
|
"vision": {
|
|
313
325
|
"extra": "이 설정은 애플리케이션 내 이미지 업로드 기능만 활성화합니다. 실제 인식 가능 여부는 모델에 따라 다르므로 직접 테스트해 주세요",
|
|
314
326
|
"title": "시각 인식 지원"
|
|
@@ -704,6 +704,9 @@
|
|
|
704
704
|
"azure-DeepSeek-R1-0528": {
|
|
705
705
|
"description": "마이크로소프트에서 배포 및 제공; DeepSeek R1 모델은 소규모 버전 업그레이드를 거쳤으며, 현재 버전은 DeepSeek-R1-0528입니다. 최신 업데이트에서 DeepSeek R1은 계산 자원 증대와 후학습 단계의 알고리즘 최적화 메커니즘 도입을 통해 추론 깊이와 추론 능력을 크게 향상시켰습니다. 이 모델은 수학, 프로그래밍, 일반 논리 등 여러 벤치마크 테스트에서 뛰어난 성능을 보이며, 전체 성능은 O3 및 Gemini 2.5 Pro와 같은 선도 모델에 근접합니다."
|
|
706
706
|
},
|
|
707
|
+
"baichuan-m2-32b": {
|
|
708
|
+
"description": "Baichuan M2 32B는 Baichuan Intelligence에서 출시한 하이브리드 전문가 모델로, 강력한 추론 능력을 갖추고 있습니다."
|
|
709
|
+
},
|
|
707
710
|
"baichuan/baichuan2-13b-chat": {
|
|
708
711
|
"description": "Baichuan-13B는 백천 인공지능이 개발한 130억 개의 매개변수를 가진 오픈 소스 상용 대형 언어 모델로, 권위 있는 중국어 및 영어 벤치마크에서 동일한 크기에서 최고의 성과를 달성했습니다."
|
|
709
712
|
},
|
|
@@ -728,12 +731,6 @@
|
|
|
728
731
|
"charglm-4": {
|
|
729
732
|
"description": "CharGLM-4는 역할 놀이 및 감정 동반을 위해 설계되었으며, 초장기 다중 회상 및 개인화된 대화를 지원하여 광범위하게 활용됩니다."
|
|
730
733
|
},
|
|
731
|
-
"chatglm3": {
|
|
732
|
-
"description": "ChatGLM3는 지품 AI와 청화 KEG 연구실에서 발표한 폐원 모델로, 대량의 중영 식별자 사전 학습과 인간 선호도 맞춤 학습을 거쳤습니다. 1세대 모델에 비해 MMLU, C-Eval, GSM8K에서 각각 16%, 36%, 280%의 향상을 이루었으며, 중국어 작업 차트 C-Eval에서 1위를 차지했습니다. 이 모델은 지식량, 추론 능력, 창의력이 요구되는 상황, 예를 들어 광고 문안, 소설 작성, 지식 기반 작문, 코드 생성 등에 적합합니다."
|
|
733
|
-
},
|
|
734
|
-
"chatglm3-6b-base": {
|
|
735
|
-
"description": "ChatGLM3-6b-base는 지푸에서 개발한 ChatGLM 시리즈의 최신 세대 60억 개 매개변수 규모의 오픈소스 기반 모델입니다."
|
|
736
|
-
},
|
|
737
734
|
"chatgpt-4o-latest": {
|
|
738
735
|
"description": "ChatGPT-4o는 동적 모델로, 최신 버전을 유지하기 위해 실시간으로 업데이트됩니다. 강력한 언어 이해 및 생성 능력을 결합하여 고객 서비스, 교육 및 기술 지원을 포함한 대규모 응용 프로그램에 적합합니다."
|
|
739
736
|
},
|
|
@@ -938,6 +935,9 @@
|
|
|
938
935
|
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
939
936
|
"description": "DeepSeek-V3.1-Terminus는 DeepSeek에서 발표한 V3.1 모델의 업데이트 버전으로, 하이브리드 에이전트 대형 언어 모델로 자리매김하고 있습니다. 이번 업데이트는 모델의 기존 능력을 유지하면서 사용자 피드백 문제를 수정하고 안정성을 향상시키는 데 중점을 두었습니다. 언어 일관성이 크게 개선되어 중영 혼용 및 이상 문자 발생이 줄어들었습니다. 모델은 '사고 모드'(Thinking Mode)와 '비사고 모드'(Non-thinking Mode)를 통합하여 사용자가 채팅 템플릿을 통해 다양한 작업에 유연하게 전환할 수 있습니다. 중요한 최적화로서 V3.1-Terminus는 코드 에이전트(Code Agent)와 검색 에이전트(Search Agent)의 성능을 강화하여 도구 호출 및 다단계 복잡 작업 수행에서 더욱 신뢰할 수 있게 되었습니다."
|
|
940
937
|
},
|
|
938
|
+
"deepseek-ai/DeepSeek-V3.2-Exp": {
|
|
939
|
+
"description": "DeepSeek V3.2 Exp 모델은 하이브리드 추론 아키텍처를 기반으로 하며, 사고 모드와 비사고 모드를 모두 지원합니다."
|
|
940
|
+
},
|
|
941
941
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
|
942
942
|
"description": "DeepSeek 67B는 고복잡성 대화를 위해 훈련된 고급 모델입니다."
|
|
943
943
|
},
|
|
@@ -1031,6 +1031,9 @@
|
|
|
1031
1031
|
"deepseek-v3.1": {
|
|
1032
1032
|
"description": "DeepSeek-V3.1은 DeepSeek에서 새롭게 출시한 하이브리드 추론 모델로, 사고 모드와 비사고 모드 두 가지 추론 방식을 지원하며 DeepSeek-R1-0528보다 사고 효율이 더 뛰어납니다. 사후 학습 최적화를 거쳐 에이전트 도구 사용과 지능형 작업 성능이 크게 향상되었습니다. 128k 컨텍스트 윈도우를 지원하며, 출력 길이는 최대 64k 토큰까지 가능합니다."
|
|
1033
1033
|
},
|
|
1034
|
+
"deepseek-v3.1-terminus": {
|
|
1035
|
+
"description": "DeepSeek-V3.1-Terminus는 DeepSeek에서 출시한 종단 최적화 대형 언어 모델로, 단말기 환경에 최적화되어 있습니다."
|
|
1036
|
+
},
|
|
1034
1037
|
"deepseek-v3.1:671b": {
|
|
1035
1038
|
"description": "DeepSeek V3.1: 차세대 추론 모델로, 복잡한 추론 및 연쇄 사고 능력을 향상시켜 심층 분석이 필요한 작업에 적합합니다."
|
|
1036
1039
|
},
|
|
@@ -1193,6 +1196,12 @@
|
|
|
1193
1196
|
"ernie-4.0-turbo-8k-preview": {
|
|
1194
1197
|
"description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, 종합적인 성능이 뛰어나며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 바이두 검색 플러그인과 자동으로 연결되어 질문 답변 정보의 시의성을 보장합니다. ERNIE 4.0에 비해 성능이 더 우수합니다."
|
|
1195
1198
|
},
|
|
1199
|
+
"ernie-4.5-21b-a3b": {
|
|
1200
|
+
"description": "ERNIE 4.5 21B A3B는 바이두 원신에서 출시한 하이브리드 전문가 모델로, 강력한 추론 능력과 다국어 처리 능력을 갖추고 있습니다."
|
|
1201
|
+
},
|
|
1202
|
+
"ernie-4.5-300b-a47b": {
|
|
1203
|
+
"description": "ERNIE 4.5 300B A47B는 바이두 원신에서 출시한 초대규모 하이브리드 전문가 모델로, 탁월한 추론 능력을 자랑합니다."
|
|
1204
|
+
},
|
|
1196
1205
|
"ernie-4.5-8k-preview": {
|
|
1197
1206
|
"description": "문심 대모델 4.5는 바이두가 독자적으로 개발한 차세대 원주율 다중 모달 기본 대모델로, 여러 모달의 공동 모델링을 통해 협동 최적화를 실현하며, 다중 모달 이해 능력이 뛰어납니다. 언어 능력이 더욱 향상되어 이해, 생성, 논리, 기억 능력이 전반적으로 향상되었으며, 환각 제거, 논리 추론, 코드 능력이 현저히 향상되었습니다."
|
|
1198
1207
|
},
|
|
@@ -1449,7 +1458,7 @@
|
|
|
1449
1458
|
"description": "GLM-4-0520은 최신 모델 버전으로, 매우 복잡하고 다양한 작업을 위해 설계되어 뛰어난 성능을 발휘합니다."
|
|
1450
1459
|
},
|
|
1451
1460
|
"glm-4-9b-chat": {
|
|
1452
|
-
"description": "GLM-4-9B-Chat은
|
|
1461
|
+
"description": "GLM-4-9B-Chat은 의미 이해, 수학, 추론, 코드 작성 및 지식 등 다양한 분야에서 높은 성능을 보입니다. 웹 브라우징, 코드 실행, 사용자 정의 도구 호출 및 장문 추론 기능을 지원하며, 일본어, 한국어, 독일어를 포함한 26개 언어를 지원합니다."
|
|
1453
1462
|
},
|
|
1454
1463
|
"glm-4-air": {
|
|
1455
1464
|
"description": "GLM-4-Air는 가성비가 높은 버전으로, GLM-4에 가까운 성능을 제공하며 빠른 속도와 저렴한 가격을 자랑합니다."
|
|
@@ -1749,7 +1758,10 @@
|
|
|
1749
1758
|
"description": "비용 효율적인 GPT Image 1 버전으로, 텍스트와 이미지 입력을 자연스럽게 지원하며 이미지 출력을 생성합니다."
|
|
1750
1759
|
},
|
|
1751
1760
|
"gpt-oss-120b": {
|
|
1752
|
-
"description": "GPT-OSS-120B
|
|
1761
|
+
"description": "이 모델은 사용 신청이 필요합니다. GPT-OSS-120B는 OpenAI에서 출시한 오픈소스 대규모 언어 모델로, 강력한 텍스트 생성 능력을 갖추고 있습니다."
|
|
1762
|
+
},
|
|
1763
|
+
"gpt-oss-20b": {
|
|
1764
|
+
"description": "이 모델은 사용 신청이 필요합니다. GPT-OSS-20B는 OpenAI에서 출시한 오픈소스 중형 언어 모델로, 효율적인 텍스트 생성 능력을 제공합니다."
|
|
1753
1765
|
},
|
|
1754
1766
|
"gpt-oss:120b": {
|
|
1755
1767
|
"description": "GPT-OSS 120B는 OpenAI에서 발표한 대형 오픈 소스 언어 모델로, MXFP4 양자화 기술을 적용한 플래그십 모델입니다. 다중 GPU 또는 고성능 워크스테이션 환경에서 실행해야 하며, 복잡한 추론, 코드 생성 및 다국어 처리에서 탁월한 성능을 발휘하고 고급 함수 호출과 도구 통합을 지원합니다."
|
|
@@ -1967,6 +1979,9 @@
|
|
|
1967
1979
|
"kimi-k2-0905-preview": {
|
|
1968
1980
|
"description": "kimi-k2-0905-preview 모델은 256k 문맥 길이를 가지며, 더욱 강력한 에이전틱 코딩(Agentic Coding) 능력, 뛰어난 프론트엔드 코드의 미적 감각과 실용성, 그리고 향상된 문맥 이해 능력을 갖추고 있습니다."
|
|
1969
1981
|
},
|
|
1982
|
+
"kimi-k2-instruct": {
|
|
1983
|
+
"description": "Kimi K2 Instruct는 Moonshot AI에서 출시한 대형 언어 모델로, 매우 긴 문맥 처리 능력을 갖추고 있습니다."
|
|
1984
|
+
},
|
|
1970
1985
|
"kimi-k2-turbo-preview": {
|
|
1971
1986
|
"description": "kimi-k2는 강력한 코드 처리 및 에이전트(Agent) 기능을 갖춘 MoE(혼합 전문가) 아키텍처 기반 모델로, 총 파라미터 수는 1T(1조), 활성화 파라미터는 32B(320억)입니다. 일반 지식 추론, 프로그래밍, 수학, 에이전트 등 주요 분야의 벤치마크 성능 테스트에서 K2 모델은 다른 주요 오픈 소스 모델들을 능가합니다."
|
|
1972
1987
|
},
|
|
@@ -1988,9 +2003,6 @@
|
|
|
1988
2003
|
"lite": {
|
|
1989
2004
|
"description": "Spark Lite는 경량 대형 언어 모델로, 매우 낮은 지연 시간과 효율적인 처리 능력을 갖추고 있으며, 완전히 무료로 제공되고 실시간 온라인 검색 기능을 지원합니다. 빠른 응답 특성 덕분에 저전력 장치에서의 추론 응용 및 모델 미세 조정에서 뛰어난 성능을 발휘하며, 사용자에게 뛰어난 비용 효율성과 스마트한 경험을 제공합니다. 특히 지식 질문 응답, 콘텐츠 생성 및 검색 시나리오에서 두각을 나타냅니다."
|
|
1990
2005
|
},
|
|
1991
|
-
"llama-2-7b-chat": {
|
|
1992
|
-
"description": "Llama2는 Meta에서 개발하고 오픈소스로 공개한 대형 언어 모델(LLM) 시리즈로, 70억에서 700억 개의 매개변수를 가진 다양한 규모의 사전 학습 및 미세 조정된 생성형 텍스트 모델입니다. 구조적으로 Llama2는 최적화된 트랜스포머 아키텍처를 사용하는 자동 회귀 언어 모델입니다. 조정된 버전은 감독된 미세 조정(SFT)과 인간 피드백을 활용한 강화 학습(RLHF)을 사용하여 인간의 유용성과 안전성 선호도에 맞춥니다. Llama2는 Llama 시리즈보다 다양한 학술 데이터셋에서 더욱 뛰어난 성능을 보여주며, 많은 다른 모델의 설계와 개발에 영감을 주고 있습니다."
|
|
1993
|
-
},
|
|
1994
2006
|
"llama-3.1-70b-versatile": {
|
|
1995
2007
|
"description": "Llama 3.1 70B는 더 강력한 AI 추론 능력을 제공하며, 복잡한 응용 프로그램에 적합하고, 많은 계산 처리를 지원하며 효율성과 정확성을 보장합니다."
|
|
1996
2008
|
},
|
|
@@ -2018,9 +2030,6 @@
|
|
|
2018
2030
|
"llama-3.3-70b": {
|
|
2019
2031
|
"description": "Llama 3.3 70B: 중대형 Llama 모델로, 추론 능력과 처리량의 균형을 갖추고 있습니다."
|
|
2020
2032
|
},
|
|
2021
|
-
"llama-3.3-70b-instruct": {
|
|
2022
|
-
"description": "Llama 3.3은 Llama 시리즈에서 가장 진보된 다국어 오픈 소스 대형 언어 모델로, 매우 낮은 비용으로 405B 모델의 성능을 경험할 수 있습니다. Transformer 구조를 기반으로 하며, 감독 미세 조정(SFT)과 인간 피드백 강화 학습(RLHF)을 통해 유용성과 안전성을 향상시켰습니다. 이 지시 조정 버전은 다국어 대화를 위해 최적화되어 있으며, 여러 산업 벤치마크에서 많은 오픈 소스 및 폐쇄형 채팅 모델보다 우수한 성능을 보입니다. 지식 마감일은 2023년 12월입니다."
|
|
2023
|
-
},
|
|
2024
2033
|
"llama-3.3-70b-versatile": {
|
|
2025
2034
|
"description": "Meta Llama 3.3 다국어 대형 언어 모델(LLM)은 70B(텍스트 입력/텍스트 출력)에서 사전 학습 및 지침 조정 생성 모델입니다. Llama 3.3의 지침 조정 순수 텍스트 모델은 다국어 대화 사용 사례에 최적화되어 있으며, 많은 오픈 소스 및 폐쇄형 채팅 모델보다 일반 산업 기준에서 우수한 성능을 보입니다."
|
|
2026
2035
|
},
|
|
@@ -2082,7 +2091,7 @@
|
|
|
2082
2091
|
"description": "Spark Max 32K는 큰 컨텍스트 처리 능력을 갖추고 있으며, 더 강력한 컨텍스트 이해 및 논리 추론 능력을 지원합니다. 32K 토큰의 텍스트 입력을 지원하며, 긴 문서 읽기, 개인 지식 질문 응답 등 다양한 시나리오에 적합합니다."
|
|
2083
2092
|
},
|
|
2084
2093
|
"megrez-3b-instruct": {
|
|
2085
|
-
"description": "Megrez
|
|
2094
|
+
"description": "Megrez 3B Instruct는 Wuwen Xinqiong에서 출시한 소형 파라미터 고효율 모델입니다."
|
|
2086
2095
|
},
|
|
2087
2096
|
"meta-llama-3-70b-instruct": {
|
|
2088
2097
|
"description": "추론, 코딩 및 광범위한 언어 응용 프로그램에서 뛰어난 성능을 발휘하는 강력한 70억 매개변수 모델입니다."
|
|
@@ -2639,6 +2648,12 @@
|
|
|
2639
2648
|
"pro-128k": {
|
|
2640
2649
|
"description": "Spark Pro 128K는 매우 큰 컨텍스트 처리 능력을 갖추고 있으며, 최대 128K의 컨텍스트 정보를 처리할 수 있습니다. 특히 전체 분석 및 장기 논리 연관 처리가 필요한 긴 문서 콘텐츠에 적합하며, 복잡한 텍스트 커뮤니케이션에서 매끄럽고 일관된 논리와 다양한 인용 지원을 제공합니다."
|
|
2641
2650
|
},
|
|
2651
|
+
"pro-deepseek-r1": {
|
|
2652
|
+
"description": "기업 전용 서비스 모델로, 동시 처리 서비스를 포함합니다."
|
|
2653
|
+
},
|
|
2654
|
+
"pro-deepseek-v3": {
|
|
2655
|
+
"description": "기업 전용 서비스 모델로, 동시 처리 서비스를 포함합니다."
|
|
2656
|
+
},
|
|
2642
2657
|
"qvq-72b-preview": {
|
|
2643
2658
|
"description": "QVQ 모델은 Qwen 팀이 개발한 실험적 연구 모델로, 시각적 추론 능력 향상에 중점을 두고 있으며, 특히 수학적 추론 분야에서 두드러진 성과를 보입니다."
|
|
2644
2659
|
},
|
|
@@ -2774,12 +2789,6 @@
|
|
|
2774
2789
|
"qwen2": {
|
|
2775
2790
|
"description": "Qwen2는 Alibaba의 차세대 대규모 언어 모델로, 뛰어난 성능으로 다양한 응용 요구를 지원합니다."
|
|
2776
2791
|
},
|
|
2777
|
-
"qwen2-72b-instruct": {
|
|
2778
|
-
"description": "Qwen2는 Qwen 팀이 출시한 새로운 대형 언어 모델 시리즈입니다. 이 모델은 Transformer 아키텍처를 기반으로 하며, SwiGLU 활성화 함수, 주의 QKV 편향(attention QKV bias), 그룹 쿼리 주의(group query attention), 슬라이딩 윈도우 주의와 전체 주의의 혼합(mixture of sliding window attention and full attention) 등의 기술을 채택하고 있습니다. 또한, Qwen 팀은 다양한 자연어와 코드에 적합한 토크나이저를 개선했습니다."
|
|
2779
|
-
},
|
|
2780
|
-
"qwen2-7b-instruct": {
|
|
2781
|
-
"description": "Qwen2는 Qwen 팀이 출시한 새로운 대형 언어 모델 시리즈입니다. 이 모델은 Transformer 아키텍처를 기반으로 하며, SwiGLU 활성화 함수, 주의 QKV 편향(attention QKV bias), 그룹 쿼리 주의(group query attention), 슬라이딩 윈도우 주의와 전체 주의의 혼합(mixture of sliding window attention and full attention) 등의 기술을 채택하고 있습니다. 또한, Qwen 팀은 다양한 자연어와 코드에 적합한 토크나이저를 개선했습니다."
|
|
2782
|
-
},
|
|
2783
2792
|
"qwen2.5": {
|
|
2784
2793
|
"description": "Qwen2.5는 Alibaba의 차세대 대규모 언어 모델로, 뛰어난 성능으로 다양한 응용 요구를 지원합니다."
|
|
2785
2794
|
},
|
|
@@ -2918,6 +2927,12 @@
|
|
|
2918
2927
|
"qwen3-next-80b-a3b-thinking": {
|
|
2919
2928
|
"description": "Qwen3 기반의 차세대 사고 모드 오픈 소스 모델로, 이전 버전(통의천문3-235B-A22B-Thinking-2507)과 비교하여 명령 준수 능력이 향상되었고, 모델의 요약 응답이 더욱 간결해졌습니다."
|
|
2920
2929
|
},
|
|
2930
|
+
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
+
"description": "Qwen3 VL 235B A22B Instruct는 Tongyi Qianwen에서 출시한 멀티모달 모델로, 시각적 이해와 추론을 지원합니다."
|
|
2932
|
+
},
|
|
2933
|
+
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
+
"description": "Qwen3 VL 235B A22B Thinking은 Tongyi Qianwen에서 출시한 멀티모달 추론 모델로, 시각적 이해와 추론을 지원합니다."
|
|
2935
|
+
},
|
|
2921
2936
|
"qwen3-vl-plus": {
|
|
2922
2937
|
"description": "통의천문 VL은 시각(이미지) 이해 능력을 갖춘 텍스트 생성 모델로, OCR(이미지 내 문자 인식)뿐만 아니라 상품 사진에서 속성 추출, 문제 그림을 통한 문제 해결 등 요약 및 추론 작업도 수행할 수 있습니다."
|
|
2923
2938
|
},
|
|
@@ -3035,6 +3050,9 @@
|
|
|
3035
3050
|
"step-r1-v-mini": {
|
|
3036
3051
|
"description": "이 모델은 강력한 이미지 이해 능력을 갖춘 추론 대모델로, 이미지와 텍스트 정보를 처리하며, 깊은 사고 후 텍스트를 생성합니다. 이 모델은 시각적 추론 분야에서 두드러진 성능을 보이며, 1차 대열의 수학, 코드, 텍스트 추론 능력을 갖추고 있습니다. 문맥 길이는 100k입니다."
|
|
3037
3052
|
},
|
|
3053
|
+
"step3": {
|
|
3054
|
+
"description": "Step3는 Jieyue Xingchen에서 출시한 멀티모달 모델로, 강력한 시각 이해 능력을 갖추고 있습니다."
|
|
3055
|
+
},
|
|
3038
3056
|
"stepfun-ai/step3": {
|
|
3039
3057
|
"description": "Step3은 StepFun(중국명: 阶跃星辰)이 발표한 최첨단 멀티모달 추론 모델로, 총 321B의 파라미터와 38B의 활성화 파라미터를 가진 전문가 혼합(MoE) 아키텍처를 기반으로 합니다. 이 모델은 엔드투엔드 설계를 채택해 디코딩 비용을 최소화하는 동시에 시각-언어 추론에서 최상급 성능을 제공합니다. 다중 행렬 분해 어텐션(MFA)과 어텐션-FFN 디커플링(AFD)의 결합 설계를 통해 Step3은 플래그십급 및 저사양 가속기 모두에서 탁월한 효율을 유지합니다. 사전학습 단계에서 Step3은 20조개 이상의 텍스트 토큰(20T)과 4조개 이상의 이미지-텍스트 혼합 토큰(4T)을 처리했으며, 10여 개 언어를 포괄합니다. 이 모델은 수학, 코드 및 멀티모달을 포함한 여러 벤치마크에서 오픈소스 모델 중 선도적인 수준의 성능을 달성했습니다."
|
|
3040
3058
|
},
|
|
@@ -3158,9 +3176,6 @@
|
|
|
3158
3176
|
"xai/grok-4": {
|
|
3159
3177
|
"description": "xAI의 최신이자 최고의 플래그십 모델로, 자연어, 수학 및 추론에서 비할 데 없는 성능을 제공하는 완벽한 만능 선수입니다."
|
|
3160
3178
|
},
|
|
3161
|
-
"yi-1.5-34b-chat": {
|
|
3162
|
-
"description": "Yi-1.5는 Yi의 업그레이드 버전입니다. 500B 토큰의 고품질 데이터셋을 사용하여 Yi를 추가로 사전 학습시키고, 3M개의 다양한 미세 조정 샘플을 사용하여 미세 조정되었습니다."
|
|
3163
|
-
},
|
|
3164
3179
|
"yi-large": {
|
|
3165
3180
|
"description": "새로운 1000억 매개변수 모델로, 강력한 질문 응답 및 텍스트 생성 능력을 제공합니다."
|
|
3166
3181
|
},
|