@lobehub/lobehub 2.0.0-next.202 → 2.0.0-next.204
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/apps/desktop/src/main/controllers/SystemCtr.ts +0 -6
- package/apps/desktop/src/main/controllers/__tests__/SystemCtr.test.ts +1 -13
- package/apps/desktop/src/main/core/App.ts +19 -1
- package/apps/desktop/src/main/core/__tests__/App.test.ts +1 -1
- package/apps/desktop/src/main/core/browser/Browser.ts +5 -12
- package/apps/desktop/src/main/core/browser/__tests__/Browser.test.ts +10 -16
- package/apps/desktop/src/main/core/ui/TrayManager.ts +1 -1
- package/apps/desktop/src/main/core/ui/__tests__/TrayManager.test.ts +3 -3
- package/changelog/v1.json +18 -0
- package/locales/ar/models.json +48 -7
- package/locales/ar/providers.json +0 -1
- package/locales/bg-BG/models.json +5 -7
- package/locales/bg-BG/providers.json +0 -1
- package/locales/de-DE/models.json +47 -6
- package/locales/de-DE/providers.json +0 -1
- package/locales/en-US/models.json +10 -10
- package/locales/en-US/providers.json +0 -1
- package/locales/es-ES/models.json +36 -10
- package/locales/es-ES/providers.json +0 -1
- package/locales/fa-IR/models.json +5 -7
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fr-FR/models.json +36 -7
- package/locales/fr-FR/providers.json +0 -1
- package/locales/it-IT/models.json +5 -7
- package/locales/it-IT/providers.json +0 -1
- package/locales/ja-JP/models.json +49 -10
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ko-KR/models.json +48 -7
- package/locales/ko-KR/providers.json +0 -1
- package/locales/nl-NL/models.json +4 -4
- package/locales/nl-NL/providers.json +0 -1
- package/locales/pl-PL/models.json +30 -5
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pt-BR/models.json +51 -6
- package/locales/pt-BR/providers.json +0 -1
- package/locales/ru-RU/models.json +5 -7
- package/locales/ru-RU/providers.json +0 -1
- package/locales/tr-TR/models.json +5 -7
- package/locales/tr-TR/providers.json +0 -1
- package/locales/vi-VN/models.json +5 -7
- package/locales/vi-VN/providers.json +0 -1
- package/locales/zh-CN/models.json +61 -6
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-TW/models.json +32 -7
- package/locales/zh-TW/providers.json +0 -1
- package/package.json +1 -1
- package/packages/model-bank/package.json +1 -0
- package/packages/model-bank/src/aiModels/index.ts +3 -0
- package/packages/model-bank/src/aiModels/xiaomimimo.ts +24 -0
- package/packages/model-bank/src/const/modelProvider.ts +1 -0
- package/packages/model-bank/src/modelProviders/index.ts +3 -0
- package/packages/model-bank/src/modelProviders/xiaomimimo.ts +22 -0
- package/packages/model-runtime/src/index.ts +1 -0
- package/packages/model-runtime/src/providers/xiaomimimo/index.test.ts +147 -0
- package/packages/model-runtime/src/providers/xiaomimimo/index.ts +48 -0
- package/packages/model-runtime/src/runtimeMap.ts +2 -0
- package/packages/model-runtime/src/utils/modelParse.ts +6 -0
- package/src/envs/llm.ts +6 -0
- package/src/features/ElectronTitlebar/hooks/useWatchThemeUpdate.ts +7 -2
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o è un modello dinamico aggiornato in tempo reale, che combina comprensione e generazione avanzate per casi d'uso su larga scala come assistenza clienti, istruzione e supporto tecnico.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic,
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic. Rispetto a Claude 3 Haiku, migliora in tutte le competenze e supera il precedente modello di punta Claude 3 Opus in numerosi benchmark di intelligenza.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fornisce risposte rapide per attività leggere.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato. È in grado di fornire risposte quasi istantanee o ragionamenti dettagliati passo dopo passo visibili all’utente. Sonnet eccelle in particolare nella programmazione, data science, visione artificiale e compiti per agenti.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet è il modello più recente e avanzato di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee con prestazioni rapide e accurate.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bilancia intelligenza e velocità per carichi di lavoro aziendali, offrendo alta utilità a costi inferiori e distribuzione affidabile su larga scala.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con una velocità fulminea e capacità di
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con una velocità fulminea e capacità di ragionamento estese.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking è una variante avanzata in grado di mostrare il proprio processo di ragionamento.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 è il modello più recente e potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi,
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza eccezionale e prestazioni scalabili, ideale per compiti complessi che richiedono risposte e ragionamenti di altissima qualità.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking può produrre risposte quasi istantanee o riflessioni estese passo dopo passo con processo visibile.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 è
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 è in grado di fornire risposte quasi istantanee o ragionamenti articolati passo dopo passo con un processo visibile.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente di Anthropic fino ad oggi.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 è un potente assistente di codifica AI che supporta Q&A multilingue e completamento del codice per aumentare la produttività degli sviluppatori.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B è un modello multilingue di generazione di codice che supporta completamento e generazione di codice, interprete di codice, ricerca web, chiamata di funzioni e Q&A a livello di repository, coprendo un'ampia gamma di scenari di sviluppo software. È un modello di codice di alto livello con meno di 10B parametri.",
|
|
@@ -355,7 +355,6 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e catena di pensiero per compiti di analisi approfondita.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e catena di pensiero per compiti di analisi approfondita.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 è un modello visione-linguaggio MoE basato su DeepSeekMoE-27B con attivazione sparsa, che raggiunge prestazioni elevate con solo 4,5B di parametri attivi. Eccelle in QA visivo, OCR, comprensione di documenti/tabelle/grafici e grounding visivo.",
|
|
358
|
-
"deepseek-chat.description": "DeepSeek V3.2 bilancia ragionamento e lunghezza dell'output per attività quotidiane di domande e risposte e agenti. Nei benchmark pubblici raggiunge livelli paragonabili a GPT-5 ed è il primo modello open-source a integrare il pensiero nell'uso degli strumenti, migliorando le valutazioni degli agenti.",
|
|
359
358
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B è un modello linguistico per il codice addestrato su 2 trilioni di token (87% codice, 13% testo in cinese/inglese). Introduce una finestra di contesto da 16K e compiti di completamento nel mezzo, offrendo completamento di codice a livello di progetto e riempimento di frammenti.",
|
|
360
359
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
|
|
361
360
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
|
|
@@ -378,7 +377,6 @@
|
|
|
378
377
|
"deepseek-r1-fast-online.description": "Versione completa veloce di DeepSeek R1 con ricerca web in tempo reale, che combina capacità su scala 671B e risposte rapide.",
|
|
379
378
|
"deepseek-r1-online.description": "Versione completa di DeepSeek R1 con 671B parametri e ricerca web in tempo reale, che offre comprensione e generazione potenziate.",
|
|
380
379
|
"deepseek-r1.description": "DeepSeek-R1 utilizza dati cold-start prima dell'RL e ottiene prestazioni comparabili a OpenAI-o1 in matematica, programmazione e ragionamento.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking è un modello di ragionamento profondo che genera una catena di pensieri prima dell'output per una maggiore accuratezza, con risultati competitivi ai vertici e capacità di ragionamento comparabili a Gemini-3.0-Pro.",
|
|
382
380
|
"deepseek-v2.description": "DeepSeek V2 è un modello MoE efficiente per un'elaborazione conveniente.",
|
|
383
381
|
"deepseek-v2:236b.description": "DeepSeek V2 236B è il modello di DeepSeek focalizzato sul codice, con eccellenti capacità di generazione di codice.",
|
|
384
382
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 è un modello MoE con 671 miliardi di parametri, con punti di forza eccezionali nella programmazione, nella comprensione del contesto e nella gestione di testi lunghi.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Un'organizzazione open-source focalizzata sulla ricerca e gli strumenti per modelli di grandi dimensioni, che offre una piattaforma efficiente e facile da usare per rendere accessibili modelli e algoritmi all'avanguardia.",
|
|
30
30
|
"jina.description": "Fondata nel 2020, Jina AI è un'azienda leader nell'AI per la ricerca. Il suo stack include modelli vettoriali, reranker e piccoli modelli linguistici per costruire app di ricerca generativa e multimodale affidabili e di alta qualità.",
|
|
31
31
|
"lmstudio.description": "LM Studio è un'app desktop per sviluppare e sperimentare con LLM direttamente sul tuo computer.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud utilizza le API ufficiali per accedere ai modelli di intelligenza artificiale e misura l'utilizzo tramite Crediti legati ai token del modello.",
|
|
33
32
|
"minimax.description": "Fondata nel 2021, MiniMax sviluppa AI generali con modelli fondamentali multimodali, inclusi modelli testuali MoE da trilioni di parametri, modelli vocali e visivi, oltre ad app come Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral offre modelli avanzati generali, specializzati e di ricerca per ragionamento complesso, compiti multilingue e generazione di codice, con supporto per chiamate di funzione per integrazioni personalizzate.",
|
|
35
34
|
"modelscope.description": "ModelScope è la piattaforma di modelli-as-a-service di Alibaba Cloud, che offre un'ampia gamma di modelli AI e servizi di inferenza.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、顧客サポート、教育、技術支援などの大規模ユースケースにおいて、優れた理解力と生成能力を兼ね備えています。",
|
|
272
272
|
"claude-2.0.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
|
|
273
273
|
"claude-2.1.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku は、Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku は、Anthropic による次世代モデルの中で最速のモデルです。Claude 3 Haiku と比較してあらゆるスキルが向上しており、従来の最大モデルである Claude 3 Opus を多くの知能ベンチマークで上回ります。",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haikuは、軽量タスク向けに高速な応答を提供します。",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet は、Anthropic による最も知的なモデルであり、市場初のハイブリッド推論モデルです。瞬時の応答から、ユーザーが確認できる段階的な推論まで対応可能です。特にコーディング、データサイエンス、画像認識、エージェントタスクに優れています。",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnetは、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haikuは、Anthropicの最速かつ最小のモデルで、即時応答と高速かつ正確な性能を実現するよう設計されています。",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opusは、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnetは、知性と速度のバランスを取り、エンタープライズ向けのワークロードにおいて高い実用性とコスト効率、信頼性のある大規模展開を実現します。",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 は、Anthropic
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 は、Anthropic による最速かつ最も高性能な Haiku モデルであり、驚異的なスピードと高度な推論能力を備えています。",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinkingは、推論プロセスを可視化できる高度なバリアントです。",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1は、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 は、Anthropic
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 は、Anthropic による最も強力なモデルであり、極めて複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、卓越した知性とスケーラブルな性能を兼ね備え、最高品質の応答と推論が求められる複雑なタスクに最適です。",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinkingは、即時応答または段階的な思考プロセスを可視化しながら出力できます。",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 は、瞬時の応答や、可視化された段階的な思考プロセスによる推論を生成できます。",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5は、Anthropic史上最も知的なモデルです。",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4は、開発者の生産性を向上させる多言語対応のAIコーディングアシスタントで、Q&Aやコード補完をサポートします。",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9Bは、多言語コード生成モデルで、コード補完、生成、インタープリタ、Web検索、関数呼び出し、リポジトリレベルのQ&Aなど、幅広いソフトウェア開発シナリオに対応します。10B未満のパラメータで最高クラスのコードモデルです。",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 は DeepSeekMoE-27B をベースにした MoE 視覚言語モデルで、スパースアクティベーションにより、4.5B のアクティブパラメータで高性能を実現しています。視覚 QA、OCR、文書・表・チャート理解、視覚的グラウンディングに優れています。",
|
|
358
|
-
"deepseek-chat.description": "DeepSeek
|
|
358
|
+
"deepseek-chat.description": "一般的な対話能力と強力なコーディング能力を兼ね備えた新しいオープンソースモデルです。チャットモデルの自然な対話と、コーディングモデルの高いプログラミング能力を維持しつつ、ユーザーの好みにより適合するよう改善されています。DeepSeek-V2.5 は、文章生成や指示の理解・実行能力も向上しています。",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B は 2T トークン(コード 87%、中英テキスト 13%)で学習されたコード言語モデルです。16K のコンテキストウィンドウと Fill-in-the-Middle タスクを導入し、プロジェクトレベルのコード補完とスニペット補完を提供します。",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 高速フルバージョンは、リアルタイムのウェブ検索を搭載し、671Bスケールの能力と高速応答を両立します。",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 フルバージョンは、671Bパラメータとリアルタイムのウェブ検索を備え、より強力な理解と生成を提供します。",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1は、強化学習前にコールドスタートデータを使用し、数学、コーディング、推論においてOpenAI-o1と同等の性能を発揮します。",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 の思考モードは、最終的な回答の前に思考の過程(Chain-of-Thought)を出力することで、精度を高めます。",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2は、コスト効率の高い処理を実現する効率的なMoEモデルです。",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236Bは、コード生成に特化したDeepSeekのモデルで、強力なコード生成能力を持ちます。",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324は、671BパラメータのMoEモデルで、プログラミングや技術的能力、文脈理解、長文処理において優れた性能を発揮します。",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K は、シンプルなQA、分類、低コスト推論に適した超軽量モデルです。",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K は、複雑な推論やマルチターン対話に対応する32Kコンテキストの高速思考モデルです。",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview は、評価とテスト用の思考モデルのプレビューバージョンです。",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 は、ByteDance Seed による画像生成モデルで、テキストおよび画像入力に対応し、高品質かつ制御性の高い画像生成を実現します。テキストプロンプトから画像を生成します。",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 モデルは画像編集に特化しており、テキストと画像の入力をサポートします。",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] は、テキストと参照画像を入力として受け取り、局所的な編集や複雑なグローバルシーン変換を可能にします。",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] は、よりリアルで自然な画像を生成する美的バイアスを持つ画像生成モデルです。",
|
|
@@ -479,8 +479,8 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "強力なネイティブマルチモーダル画像生成モデルです。",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "Google による高品質な画像生成モデルです。",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana は、Google の最新かつ最速で最も効率的なネイティブマルチモーダルモデルで、会話を通じた画像生成と編集を可能にします。",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "Qwen
|
|
483
|
-
"fal-ai/qwen-image.description": "Qwen
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Qwen チームによるプロフェッショナルな画像編集モデルで、意味や外観の編集、中文・英文テキストの精密な編集、スタイル変換や物体の回転など高品質な編集が可能です。",
|
|
483
|
+
"fal-ai/qwen-image.description": "Qwen チームによる強力な画像生成モデルで、中国語テキストの描画に優れ、多様なビジュアルスタイルに対応します。",
|
|
484
484
|
"flux-1-schnell.description": "Black Forest Labs による 120 億パラメータのテキストから画像への変換モデルで、潜在敵対的拡散蒸留を使用して 1~4 ステップで高品質な画像を生成します。Apache-2.0 ライセンスの下で個人、研究、商用利用が可能です。",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] は、非商用利用向けのオープンウェイト蒸留モデルで、プロ品質に近い画像と指示追従性を維持しつつ、同サイズの標準モデルよりも効率的に動作します。",
|
|
486
486
|
"flux-kontext-max.description": "テキストと画像を組み合わせて、精密かつ一貫性のある結果を生成する最先端のコンテキスト画像生成・編集モデルです。",
|
|
@@ -491,6 +491,45 @@
|
|
|
491
491
|
"flux-pro.description": "比類なき画像品質と多様な出力を誇る、最上級の商用画像生成モデルです。",
|
|
492
492
|
"flux-schnell.description": "FLUX.1 [schnell] は、最も高度なオープンソースの少ステップ画像生成モデルで、Midjourney v6.0 や DALL-E 3 (HD) などの強力な非蒸留モデルをも凌駕します。事前学習の多様性を保持するように微調整されており、視覚品質、指示追従性、サイズ・アスペクト比の変化、フォント処理、出力の多様性が大幅に向上しています。",
|
|
493
493
|
"flux.1-schnell.description": "FLUX.1-schnell は、迅速なマルチスタイル出力に対応する高性能画像生成モデルです。",
|
|
494
|
+
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001(チューニング版)は、複雑なタスクに対して安定した調整可能な性能を提供します。",
|
|
495
|
+
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002(チューニング版)は、複雑なタスクに対して強力なマルチモーダル対応を提供します。",
|
|
496
|
+
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro は、Google による高性能 AI モデルで、幅広いタスクに対応可能なスケーラビリティを備えています。",
|
|
497
|
+
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 は、幅広い用途に対応する効率的なマルチモーダルモデルです。",
|
|
498
|
+
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 は、広範な展開を目的とした効率的なマルチモーダルモデルです。",
|
|
499
|
+
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 は、テキストおよびマルチモーダルのユースケースにおいて顕著な進歩を示す最新の実験モデルです。",
|
|
500
|
+
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B は、広範な展開を目的とした効率的なマルチモーダルモデルです。",
|
|
501
|
+
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B は、幅広い用途に対応する効率的なマルチモーダルモデルです。",
|
|
502
|
+
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 は、複雑なタスクに対する最適化されたマルチモーダル処理を提供します。",
|
|
503
|
+
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash は、Google による最新のマルチモーダル AI モデルで、テキスト、画像、動画入力に対応し、タスク全体の効率的なスケーリングを実現します。",
|
|
504
|
+
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 は、複雑なタスクに対応するスケーラブルなマルチモーダル AI ソリューションです。",
|
|
505
|
+
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 は、特に数学、長文コンテキスト、視覚タスクにおいて高品質な出力を提供する最新の本番対応モデルです。",
|
|
506
|
+
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 は、アプリ開発における柔軟性を高めた強力なマルチモーダル処理を提供します。",
|
|
507
|
+
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 は、より効率的なマルチモーダル処理のための最新の最適化を適用しています。",
|
|
508
|
+
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro は最大 200 万トークンに対応し、複雑なタスクに最適な中規模マルチモーダルモデルです。",
|
|
509
|
+
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash は、卓越したスピード、ネイティブツールの使用、マルチモーダル生成、100 万トークンのコンテキストウィンドウなど、次世代の機能を提供します。",
|
|
510
|
+
"gemini-2.0-flash-exp-image-generation.description": "Gemini 2.0 Flash の実験モデルで、画像生成に対応しています。",
|
|
511
|
+
"gemini-2.0-flash-exp.description": "コスト効率と低遅延に最適化された Gemini 2.0 Flash のバリアントです。",
|
|
512
|
+
"gemini-2.0-flash-lite-001.description": "コスト効率と低遅延に最適化された Gemini 2.0 Flash のバリアントです。",
|
|
513
|
+
"gemini-2.0-flash-lite.description": "コスト効率と低遅延に最適化された Gemini 2.0 Flash のバリアントです。",
|
|
514
|
+
"gemini-2.0-flash.description": "Gemini 2.0 Flash は、卓越したスピード、ネイティブツールの使用、マルチモーダル生成、100 万トークンのコンテキストウィンドウなど、次世代の機能を提供します。",
|
|
515
|
+
"gemini-2.5-flash-image-preview.description": "Nano Banana は、Google による最新かつ最速で最も効率的なネイティブマルチモーダルモデルで、会話形式の画像生成と編集を可能にします。",
|
|
516
|
+
"gemini-2.5-flash-image-preview:image.description": "Nano Banana は、Google による最新かつ最速で最も効率的なネイティブマルチモーダルモデルで、会話形式の画像生成と編集を可能にします。",
|
|
517
|
+
"gemini-2.5-flash-image.description": "Nano Banana は、Google による最新かつ最速で最も効率的なネイティブマルチモーダルモデルで、会話形式の画像生成と編集を可能にします。",
|
|
518
|
+
"gemini-2.5-flash-image:image.description": "Nano Banana は、Google による最新かつ最速で最も効率的なネイティブマルチモーダルモデルで、会話形式の画像生成と編集を可能にします。",
|
|
519
|
+
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview は、Google による最小かつ最高のコストパフォーマンスを誇るモデルで、大規模な利用に適しています。",
|
|
520
|
+
"gemini-2.5-flash-lite-preview-09-2025.description": "Gemini 2.5 Flash-Lite のプレビューリリース(2025年9月25日)",
|
|
521
|
+
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite は、Google による最小かつ最高のコストパフォーマンスを誇るモデルで、大規模な利用に適しています。",
|
|
522
|
+
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview は、Google によるフル機能を備えた最高のコストパフォーマンスモデルです。",
|
|
523
|
+
"gemini-2.5-flash-preview-09-2025.description": "Gemini 2.5 Flash のプレビューリリース(2025年9月25日)",
|
|
524
|
+
"gemini-2.5-flash.description": "Gemini 2.5 Flash は、Google によるフル機能を備えた最高のコストパフォーマンスモデルです。",
|
|
525
|
+
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview は、Google による最も高度な推論モデルで、コード、数学、STEM 問題に対する推論や、大規模なデータセット、コードベース、文書の長文解析に対応します。",
|
|
526
|
+
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview は、Google による最も高度な推論モデルで、コード、数学、STEM 問題に対する推論や、大規模なデータセット、コードベース、文書の長文解析に対応します。",
|
|
527
|
+
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview は、Google による最も高度な推論モデルで、コード、数学、STEM 問題に対する推論や、大規模なデータセット、コードベース、文書の長文解析に対応します。",
|
|
528
|
+
"gemini-2.5-pro.description": "Gemini 2.5 Pro は、Google による最も高度な推論モデルで、コード、数学、STEM 問題に対する推論や、大規模なデータセット、コードベース、文書の長文解析に対応します。",
|
|
529
|
+
"gemini-3-flash-preview.description": "Gemini 3 Flash は、スピードを重視して設計された最もインテリジェントなモデルで、最先端の知能と優れた検索接地を融合しています。",
|
|
530
|
+
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)は、Google による画像生成モデルで、マルチモーダル対話にも対応しています。",
|
|
531
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)は、Google による画像生成モデルで、マルチモーダル対話にも対応しています。",
|
|
532
|
+
"gemini-3-pro-preview.description": "Gemini 3 Pro は、Google による最も強力なエージェントおよびバイブコーディングモデルで、最先端の推論に加え、より豊かなビジュアルと深いインタラクションを提供します。",
|
|
494
533
|
"gemini-flash-latest.description": "Gemini Flash の最新リリース",
|
|
495
534
|
"gemini-flash-lite-latest.description": "Gemini Flash-Lite の最新リリース",
|
|
496
535
|
"gemini-pro-latest.description": "Gemini Pro の最新リリース",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "InternLMは、大規模モデルの研究とツール開発に特化したオープンソース組織で、最先端のモデルとアルゴリズムを誰でも使いやすく提供します。",
|
|
30
30
|
"jina.description": "Jina AIは2020年に設立された検索AIのリーディングカンパニーで、ベクトルモデル、リランカー、小型言語モデルを含む検索スタックにより、高品質な生成・マルチモーダル検索アプリを構築できます。",
|
|
31
31
|
"lmstudio.description": "LM Studioは、ローカルPC上でLLMの開発と実験ができるデスクトップアプリです。",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud は、公式 API を使用して AI モデルにアクセスし、モデルのトークンに基づいたクレジットで使用量を計測します。",
|
|
33
32
|
"minimax.description": "MiniMaxは2021年に設立され、マルチモーダル基盤モデルを用いた汎用AIを開発しています。兆単位パラメータのMoEテキストモデル、音声モデル、ビジョンモデル、Hailuo AIなどのアプリを提供します。",
|
|
34
33
|
"mistral.description": "Mistralは、複雑な推論、多言語タスク、コード生成に対応した高度な汎用・専門・研究モデルを提供し、関数呼び出しによるカスタム統合も可能です。",
|
|
35
34
|
"modelscope.description": "ModelScopeは、Alibaba Cloudが提供するモデル・アズ・ア・サービス(MaaS)プラットフォームで、幅広いAIモデルと推論サービスを提供します。",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 고객 지원, 교육, 기술 지원과 같은 대규모 활용 사례를 위한 강력한 이해 및 생성 능력을 결합합니다.",
|
|
272
272
|
"claude-2.0.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
|
|
273
273
|
"claude-2.1.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른 모델입니다. Claude 3 Haiku에 비해 전반적인 능력이 향상되었으며, 많은 지능 벤치마크에서 이전의 최고 모델인 Claude 3 Opus를 능가합니다.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku는 가벼운 작업에 빠른 응답을 제공하는 모델입니다.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet은 Anthropic의 가장 지능적인 모델이자 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답은 물론, 사용자가 확인할 수 있는 단계별 추론도 제공합니다. Sonnet은 특히 코딩, 데이터 과학, 비전, 에이전트 작업에 강점을 보입니다.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 빠르고 정확한 성능으로 즉각적인 응답을 위해 설계되었습니다.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet은 엔터프라이즈 워크로드를 위한 지능과 속도의 균형을 제공하며, 낮은 비용으로 높은 효용성과 안정적인 대규모 배포를 지원합니다.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 확장된 추론 능력을 갖추고 있습니다.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking은 자신의 추론 과정을 드러낼 수 있는 고급 변형 모델입니다.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 탁월한 성능, 지능, 유창성, 이해력을
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 탁월한 성능, 지능, 유창성, 이해력을 자랑합니다.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5는 Anthropic의 플래그십 모델로, 탁월한 지능과 확장 가능한 성능을 결합하여 최고 품질의 응답과 추론이 필요한 복잡한 작업에 이상적입니다.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking은 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 사고를 생성할 수 있습니다.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 추론을 생성할 수 있습니다.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 Anthropic이 지금까지 개발한 가장 지능적인 모델입니다.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4는 다국어 Q&A 및 코드 자동 완성을 지원하여 개발자의 생산성을 높이는 강력한 AI 코딩 도우미입니다.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B는 코드 자동 완성 및 생성, 코드 인터프리터, 웹 검색, 함수 호출, 저장소 수준의 코드 Q&A를 지원하는 다국어 코드 생성 모델로, 다양한 소프트웨어 개발 시나리오를 포괄합니다. 10B 미만 파라미터 중 최고 수준의 코드 모델입니다.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1은 복잡한 추론과 사고의 흐름(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1은 복잡한 추론과 사고의 흐름(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2는 DeepSeekMoE-27B 기반의 MoE 비전-언어 모델로, 희소 활성화를 통해 4.5B 활성 파라미터만으로도 뛰어난 성능을 발휘합니다. 시각적 질의응답, OCR, 문서/표/차트 이해, 시각적 정렬에 탁월합니다.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "일반 대화 능력과 코딩 능력을 결합한 새로운 오픈소스 모델입니다. 대화형 모델의 일반적인 대화 능력과 코더 모델의 강력한 코딩 능력을 유지하면서 선호도 정렬이 향상되었습니다. DeepSeek-V2.5는 글쓰기와 지시 따르기 능력도 개선되었습니다.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B는 2T 토큰(코드 87%, 중/영문 텍스트 13%)으로 학습된 코드 언어 모델입니다. 16K 문맥 창과 중간 채우기(fit-in-the-middle) 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 보완을 지원합니다.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2는 오픈소스 MoE 코드 모델로, GPT-4 Turbo에 필적하는 뛰어난 코딩 성능을 자랑합니다.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2는 오픈소스 MoE 코드 모델로, GPT-4 Turbo에 필적하는 뛰어난 코딩 성능을 자랑합니다.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1의 빠른 전체 버전으로, 실시간 웹 검색을 지원하며 671B 규모의 성능과 빠른 응답을 결합합니다.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 전체 버전은 671B 파라미터와 실시간 웹 검색을 지원하여 더 강력한 이해 및 생성 능력을 제공합니다.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1은 강화 학습 이전에 콜드 스타트 데이터를 사용하며, 수학, 코딩, 추론 작업에서 OpenAI-o1과 유사한 성능을 보입니다.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 추론 모드는 최종 답변 전에 사고 과정을 출력하여 정확도를 높입니다.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2는 비용 효율적인 처리를 위한 고효율 MoE 모델입니다.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B는 코드 생성에 강점을 가진 DeepSeek의 코드 특화 모델입니다.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324는 671B 파라미터의 MoE 모델로, 프로그래밍 및 기술적 역량, 문맥 이해, 장문 처리에서 뛰어난 성능을 보입니다.",
|
|
@@ -471,6 +471,47 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K는 간단한 QA, 분류, 저비용 추론을 위한 초경량 모델입니다.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K는 복잡한 추론 및 다중 턴 대화를 위한 32K 컨텍스트의 고속 사고 모델입니다.",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview는 평가 및 테스트를 위한 사고 모델 프리뷰입니다.",
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0은 ByteDance Seed에서 개발한 이미지 생성 모델로, 텍스트와 이미지 입력을 지원하며 고품질의 이미지 생성과 높은 제어력을 제공합니다. 텍스트 프롬프트로부터 이미지를 생성합니다.",
|
|
475
|
+
"fal-ai/flux-kontext/dev.description": "FLUX.1 모델은 이미지 편집에 중점을 두며, 텍스트와 이미지 입력을 지원합니다.",
|
|
476
|
+
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro]는 텍스트와 참조 이미지를 입력으로 받아, 국소 편집과 복잡한 장면 변환을 정밀하게 수행할 수 있습니다.",
|
|
477
|
+
"fal-ai/flux/krea.description": "Flux Krea [dev]는 보다 사실적이고 자연스러운 이미지 스타일에 중점을 둔 이미지 생성 모델입니다.",
|
|
478
|
+
"fal-ai/flux/schnell.description": "FLUX.1 [schnell]은 빠르고 고품질의 출력을 위해 설계된 120억 파라미터 이미지 생성 모델입니다.",
|
|
479
|
+
"fal-ai/hunyuan-image/v3.description": "강력한 네이티브 멀티모달 이미지 생성 모델입니다.",
|
|
480
|
+
"fal-ai/imagen4/preview.description": "Google에서 개발한 고품질 이미지 생성 모델입니다.",
|
|
481
|
+
"fal-ai/nano-banana.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Qwen 팀에서 개발한 전문 이미지 편집 모델로, 의미 및 외형 편집을 지원하며, 중국어 및 영어 텍스트를 정밀하게 편집하고 스타일 전환, 객체 회전 등 고품질 편집을 수행할 수 있습니다.",
|
|
483
|
+
"fal-ai/qwen-image.description": "Qwen 팀에서 개발한 강력한 이미지 생성 모델로, 중국어 텍스트 렌더링과 다양한 시각 스타일에서 뛰어난 성능을 보입니다.",
|
|
484
|
+
"flux-1-schnell.description": "Black Forest Labs에서 개발한 120억 파라미터 텍스트-이미지 모델로, 잠재 적대 확산 증류를 사용하여 1~4단계 내에 고품질 이미지를 생성합니다. 상용 모델과 경쟁하며, Apache-2.0 라이선스로 개인, 연구, 상업적 사용이 가능합니다.",
|
|
485
|
+
"flux-dev.description": "FLUX.1 [dev]는 비상업적 사용을 위한 오픈 가중치 증류 모델로, 전문가 수준의 이미지 품질과 지시 따르기를 유지하면서도 더 효율적으로 작동합니다.",
|
|
486
|
+
"flux-kontext-max.description": "최첨단 문맥 기반 이미지 생성 및 편집 모델로, 텍스트와 이미지를 결합하여 정밀하고 일관된 결과를 생성합니다.",
|
|
487
|
+
"flux-kontext-pro.description": "최첨단 문맥 기반 이미지 생성 및 편집 모델로, 텍스트와 이미지를 결합하여 정밀하고 일관된 결과를 생성합니다.",
|
|
488
|
+
"flux-merged.description": "FLUX.1-merged는 \"DEV\"의 심층 기능과 \"Schnell\"의 고속 장점을 결합하여 성능 한계를 확장하고 활용 범위를 넓혔습니다.",
|
|
489
|
+
"flux-pro-1.1-ultra.description": "4MP 해상도의 초고해상도 이미지 생성 모델로, 10초 내에 선명한 이미지를 생성합니다.",
|
|
490
|
+
"flux-pro-1.1.description": "우수한 이미지 품질과 정밀한 프롬프트 반응을 제공하는 업그레이드된 전문가급 이미지 생성 모델입니다.",
|
|
491
|
+
"flux-pro.description": "최고 수준의 상업용 이미지 생성 모델로, 탁월한 이미지 품질과 다양한 출력을 제공합니다.",
|
|
492
|
+
"flux-schnell.description": "FLUX.1 [schnell]은 가장 진보된 오픈소스 소수 단계 모델로, Midjourney v6.0 및 DALL-E 3 (HD)와 같은 강력한 비증류 모델을 능가합니다. 사전 학습의 다양성을 유지하도록 정밀하게 조정되어 시각 품질, 지시 따르기, 크기/비율 다양성, 글꼴 처리, 출력 다양성이 크게 향상되었습니다.",
|
|
493
|
+
"flux.1-schnell.description": "FLUX.1-schnell은 빠른 다중 스타일 출력을 위한 고성능 이미지 생성 모델입니다.",
|
|
494
|
+
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (튜닝)은 복잡한 작업을 위한 안정적이고 조정 가능한 성능을 제공합니다.",
|
|
495
|
+
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (튜닝)은 복잡한 작업을 위한 강력한 멀티모달 지원을 제공합니다.",
|
|
496
|
+
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro는 Google의 고성능 AI 모델로, 다양한 작업 확장에 적합하도록 설계되었습니다.",
|
|
497
|
+
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001은 광범위한 애플리케이션 확장을 위한 효율적인 멀티모달 모델입니다.",
|
|
498
|
+
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002는 대규모 배포를 위해 설계된 효율적인 멀티모달 모델입니다.",
|
|
499
|
+
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924는 텍스트 및 멀티모달 사용 사례 전반에서 눈에 띄는 향상을 보이는 최신 실험 모델입니다.",
|
|
500
|
+
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B는 대규모 배포를 위해 설계된 효율적인 멀티모달 모델입니다.",
|
|
501
|
+
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B는 광범위한 애플리케이션 확장을 위한 효율적인 멀티모달 모델입니다.",
|
|
502
|
+
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827은 복잡한 작업을 위한 최적화된 멀티모달 처리를 제공합니다.",
|
|
503
|
+
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash는 Google의 최신 멀티모달 AI 모델로, 빠른 처리 속도와 텍스트, 이미지, 비디오 입력을 지원하여 다양한 작업에 효율적으로 확장할 수 있습니다.",
|
|
504
|
+
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001은 복잡한 작업을 위한 확장 가능한 멀티모달 AI 솔루션입니다.",
|
|
505
|
+
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002는 수학, 장문 문맥, 비전 작업에서 특히 뛰어난 품질을 제공하는 최신 생산 준비 모델입니다.",
|
|
506
|
+
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801은 앱 개발을 위한 더 큰 유연성을 갖춘 강력한 멀티모달 처리를 제공합니다.",
|
|
507
|
+
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827은 보다 효율적인 멀티모달 처리를 위해 최신 최적화를 적용했습니다.",
|
|
508
|
+
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro는 최대 200만 토큰을 지원하는 중간 규모의 멀티모달 모델로, 복잡한 작업에 이상적입니다.",
|
|
509
|
+
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash는 차세대 기능을 제공하며, 뛰어난 속도, 네이티브 도구 사용, 멀티모달 생성, 100만 토큰 문맥 창을 지원합니다.",
|
|
510
|
+
"gemini-2.0-flash-exp-image-generation.description": "이미지 생성을 지원하는 Gemini 2.0 Flash 실험 모델입니다.",
|
|
511
|
+
"gemini-2.0-flash-exp.description": "비용 효율성과 낮은 지연 시간에 최적화된 Gemini 2.0 Flash 변형입니다.",
|
|
512
|
+
"gemini-2.0-flash-lite-001.description": "비용 효율성과 낮은 지연 시간에 최적화된 Gemini 2.0 Flash 변형입니다.",
|
|
513
|
+
"gemini-2.0-flash-lite.description": "비용 효율성과 낮은 지연 시간에 최적화된 Gemini 2.0 Flash 변형입니다.",
|
|
514
|
+
"gemini-2.0-flash.description": "Gemini 2.0 Flash는 차세대 기능을 제공하며, 뛰어난 속도, 네이티브 도구 사용, 멀티모달 생성, 100만 토큰 문맥 창을 지원합니다.",
|
|
474
515
|
"gemini-flash-latest.description": "Gemini Flash 최신 버전",
|
|
475
516
|
"gemini-flash-lite-latest.description": "Gemini Flash-Lite 최신 버전",
|
|
476
517
|
"gemini-pro-latest.description": "Gemini Pro 최신 버전",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "InternLM은 대규모 모델 연구 및 도구 개발에 집중하는 오픈소스 조직으로, 최신 모델과 알고리즘을 누구나 쉽게 사용할 수 있도록 효율적인 플랫폼을 제공합니다.",
|
|
30
30
|
"jina.description": "2020년에 설립된 Jina AI는 선도적인 검색 AI 기업으로, 벡터 모델, 재정렬기, 소형 언어 모델을 포함한 검색 스택을 통해 신뢰성 높고 고품질의 생성형 및 멀티모달 검색 앱을 구축합니다.",
|
|
31
31
|
"lmstudio.description": "LM Studio는 데스크탑에서 LLM을 개발하고 실험할 수 있는 애플리케이션입니다.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud는 공식 API를 사용하여 AI 모델에 접근하며, 모델 토큰에 연동된 크레딧을 통해 사용량을 측정합니다.",
|
|
33
32
|
"minimax.description": "2021년에 설립된 MiniMax는 텍스트, 음성, 비전 등 멀티모달 기반의 범용 AI를 개발하며, 조 단위 파라미터의 MoE 텍스트 모델과 Hailuo AI와 같은 앱을 제공합니다.",
|
|
34
33
|
"mistral.description": "Mistral은 복잡한 추론, 다국어 작업, 코드 생성에 적합한 고급 범용, 특화, 연구용 모델을 제공하며, 사용자 정의 통합을 위한 함수 호출 기능도 지원합니다.",
|
|
35
34
|
"modelscope.description": "ModelScope는 Alibaba Cloud의 모델 서비스 플랫폼으로, 다양한 AI 모델과 추론 서비스를 제공합니다.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt en sterke begrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic. In vergelijking met Claude 3 Haiku biedt het verbeterde vaardigheden en overtreft het het vorige topmodel Claude 3 Opus op veel intelligentietests.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku levert snelle reacties voor lichte taken.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze redeneringen tonen die zichtbaar zijn voor gebruikers. Sonnet blinkt uit in programmeren, datawetenschap, visuele taken en agenttoepassingen.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met hoge bruikbaarheid tegen lagere kosten en betrouwbare grootschalige inzet.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle prestaties en uitgebreide redeneercapaciteiten.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
|
|
284
284
|
"claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze denkprocessen tonen met een zichtbaar verloop.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 is een krachtige AI-codeassistent die meertalige Q&A en codeaanvulling ondersteunt om de productiviteit van ontwikkelaars te verhogen.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat codeaanvulling en -generatie, code-interpreter, webzoekopdrachten, functieaanroepen en Q&A op repo-niveau ondersteunt. Het dekt een breed scala aan softwareontwikkelingsscenario’s en is een topmodel onder de 10 miljard parameters.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Een open-source organisatie gericht op grootschalig modelonderzoek en tooling, met een efficiënt en gebruiksvriendelijk platform dat geavanceerde modellen en algoritmen toegankelijk maakt.",
|
|
30
30
|
"jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.",
|
|
31
31
|
"lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLM’s op je eigen computer.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud gebruikt officiële API's om toegang te krijgen tot AI-modellen en meet het gebruik met Credits die gekoppeld zijn aan modeltokens.",
|
|
33
32
|
"minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral biedt geavanceerde algemene, gespecialiseerde en onderzoeksmodellen voor complexe redenering, meertalige taken en codegeneratie, met functie-aanroepen voor aangepaste integraties.",
|
|
35
34
|
"modelscope.description": "ModelScope is het model-as-a-service platform van Alibaba Cloud, met een breed scala aan AI-modellen en inferentiediensten.",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym, łączący silne rozumienie i generowanie treści w zastosowaniach na dużą skalę, takich jak obsługa klienta, edukacja i wsparcie techniczne.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic. W porównaniu do Claude 3 Haiku oferuje lepsze umiejętności i przewyższa wcześniejszy największy model Claude 3 Opus w wielu testach inteligencji.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku zapewnia szybkie odpowiedzi w lekkich zadaniach.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet to najbardziej inteligentny model Anthropic i pierwszy na rynku model hybrydowego rozumowania. Może generować niemal natychmiastowe odpowiedzi lub rozbudowane, krok po kroku rozumowanie widoczne dla użytkownika. Sonnet wyróżnia się szczególnie w programowaniu, analizie danych, przetwarzaniu obrazu i zadaniach agentowych.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model firmy Anthropic, zaprojektowany do natychmiastowych odpowiedzi z szybką i dokładną wydajnością.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus to najpotężniejszy model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet łączy inteligencję i szybkość dla obciążeń korporacyjnych, oferując wysoką użyteczność przy niższych kosztach i niezawodnym wdrażaniu na dużą skalę.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najinteligentniejszy model Haiku od Anthropic, oferujący błyskawiczne działanie i zaawansowane rozumowanie.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking to zaawansowany wariant, który może ujawniać swój proces rozumowania.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący wyjątkową inteligencję z wydajnością na dużą skalę, idealny do złożonych zadań wymagających najwyższej jakości odpowiedzi i rozumowania.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking może generować natychmiastowe odpowiedzi lub rozszerzone rozumowanie krok po kroku z widocznym procesem.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 potrafi generować niemal natychmiastowe odpowiedzi lub rozbudowane rozumowanie krok po kroku z widocznym procesem.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to najbardziej inteligentny model firmy Anthropic do tej pory.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 to potężny asystent programistyczny AI, obsługujący wielojęzyczne pytania i uzupełnianie kodu w celu zwiększenia produktywności programistów.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B to wielojęzyczny model generowania kodu obsługujący uzupełnianie i generowanie kodu, interpretację kodu, wyszukiwanie w sieci, wywoływanie funkcji i pytania na poziomie repozytorium. Obejmuje szeroki zakres scenariuszy programistycznych i jest jednym z najlepszych modeli kodu poniżej 10B parametrów.",
|
|
@@ -335,6 +335,31 @@
|
|
|
335
335
|
"computer-use-preview.description": "computer-use-preview to specjalistyczny model dla narzędzia „użycie komputera”, wytrenowany do rozumienia i wykonywania zadań związanych z komputerem.",
|
|
336
336
|
"dall-e-2.description": "Druga generacja modelu DALL·E z bardziej realistycznym i dokładnym generowaniem obrazów oraz 4× wyższą rozdzielczością niż pierwsza generacja.",
|
|
337
337
|
"dall-e-3.description": "Najnowszy model DALL·E, wydany w listopadzie 2023, oferuje bardziej realistyczne i dokładne generowanie obrazów z lepszymi szczegółami.",
|
|
338
|
+
"databricks/dbrx-instruct.description": "DBRX Instruct zapewnia niezawodne przetwarzanie instrukcji w różnych branżach.",
|
|
339
|
+
"deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR to model językowo-wizualny od DeepSeek AI skoncentrowany na OCR i „optycznej kompresji kontekstowej”. Eksploruje kompresję kontekstu z obrazów, efektywnie przetwarza dokumenty i konwertuje je na ustrukturyzowany tekst (np. Markdown). Dokładnie rozpoznaje tekst na obrazach, idealny do cyfryzacji dokumentów, ekstrakcji tekstu i przetwarzania strukturalnego.",
|
|
340
|
+
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B destyluje łańcuch rozumowania z DeepSeek-R1-0528 do Qwen3 8B Base. Osiąga SOTA wśród modeli open-source, przewyższając Qwen3 8B o 10% w AIME 2024 i dorównując wydajności Qwen3-235B-thinking. Wyróżnia się w rozumowaniu matematycznym, programowaniu i testach logiki. Dzieli architekturę Qwen3-8B, ale używa tokenizera DeepSeek-R1-0528.",
|
|
341
|
+
"deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 wykorzystuje dodatkową moc obliczeniową i optymalizacje algorytmiczne po treningu, aby pogłębić rozumowanie. Osiąga wysokie wyniki w testach matematycznych, programistycznych i logicznych, zbliżając się do liderów takich jak o3 i Gemini 2.5 Pro.",
|
|
342
|
+
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "Modele destylowane DeepSeek-R1 wykorzystują RL i dane cold-start do poprawy rozumowania i ustanawiają nowe rekordy w testach wielozadaniowych modeli open-source.",
|
|
343
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "Modele destylowane DeepSeek-R1 wykorzystują RL i dane cold-start do poprawy rozumowania i ustanawiają nowe rekordy w testach wielozadaniowych modeli open-source.",
|
|
344
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "Modele destylowane DeepSeek-R1 wykorzystują RL i dane cold-start do poprawy rozumowania i ustanawiają nowe rekordy w testach wielozadaniowych modeli open-source.",
|
|
345
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B to model destylowany z Qwen2.5-32B i dostrojony na 800 tys. starannie dobranych próbkach DeepSeek-R1. Wyróżnia się w matematyce, programowaniu i rozumowaniu, osiągając wysokie wyniki w AIME 2024, MATH-500 (94,3% trafności) i GPQA Diamond.",
|
|
346
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B to model destylowany z Qwen2.5-Math-7B i dostrojony na 800 tys. starannie dobranych próbkach DeepSeek-R1. Osiąga wysokie wyniki: 92,8% w MATH-500, 55,5% w AIME 2024 i ocenę 1189 w CodeForces dla modelu 7B.",
|
|
347
|
+
"deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 poprawia rozumowanie dzięki RL i danym cold-start, ustanawiając nowe rekordy w testach wielozadaniowych modeli open-source i przewyższając OpenAI-o1-mini.",
|
|
348
|
+
"deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 to ulepszona wersja DeepSeek-V2-Chat i DeepSeek-Coder-V2-Instruct, łącząca ogólne i programistyczne zdolności. Poprawia pisanie i wykonywanie instrukcji, lepiej dopasowując się do preferencji użytkownika, i osiąga znaczące wyniki w AlpacaEval 2.0, ArenaHard, AlignBench i MT-Bench.",
|
|
349
|
+
"deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus to zaktualizowany model V3.1 pełniący rolę hybrydowego agenta LLM. Naprawia zgłoszone przez użytkowników problemy, poprawia stabilność, spójność językową i redukuje mieszane znaki chińskie/angielskie oraz anomalie. Integruje tryby myślenia i nie-myślenia z szablonami czatu dla elastycznego przełączania. Ulepsza także działanie Code Agent i Search Agent, zapewniając bardziej niezawodne korzystanie z narzędzi i realizację zadań wieloetapowych.",
|
|
350
|
+
"deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 wykorzystuje hybrydową architekturę rozumowania i obsługuje zarówno tryby myślenia, jak i nie-myślenia.",
|
|
351
|
+
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp to eksperymentalna wersja V3.2, stanowiąca pomost do nowej architektury. Dodaje DeepSeek Sparse Attention (DSA) do V3.1-Terminus, poprawiając efektywność treningu i wnioskowania w długim kontekście, z optymalizacjami dla użycia narzędzi, rozumienia długich dokumentów i rozumowania wieloetapowego. Idealny do eksploracji wyższej efektywności rozumowania przy dużych budżetach kontekstowych.",
|
|
352
|
+
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 to model MoE z 671 miliardami parametrów, wykorzystujący MLA i DeepSeekMoE z bezstratnym równoważeniem obciążenia dla efektywnego treningu i wnioskowania. Wytrenowany na 14,8T wysokiej jakości tokenach z SFT i RL, przewyższa inne modele open-source i zbliża się do czołowych modeli zamkniętych.",
|
|
353
|
+
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) to innowacyjny model oferujący głębokie zrozumienie języka i interakcję.",
|
|
354
|
+
"deepseek-ai/deepseek-r1.description": "Nowoczesny, wydajny LLM o wysokich zdolnościach w rozumowaniu, matematyce i programowaniu.",
|
|
355
|
+
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
|
|
356
|
+
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
|
|
357
|
+
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 to model językowo-wizualny MoE oparty na DeepSeekMoE-27B z rzadką aktywacją, osiągający wysoką wydajność przy zaledwie 4,5B aktywnych parametrów. Wyróżnia się w zadaniach QA wizualnych, OCR, rozumieniu dokumentów/tabel/wykresów i ugruntowaniu wizualnym.",
|
|
358
|
+
"deepseek-chat.description": "Nowy model open-source łączący ogólne zdolności językowe i programistyczne. Zachowuje ogólny dialog modelu czatu i silne programowanie modelu kodera, z lepszym dopasowaniem do preferencji. DeepSeek-V2.5 poprawia również pisanie i wykonywanie instrukcji.",
|
|
359
|
+
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B to model języka kodu wytrenowany na 2T tokenach (87% kod, 13% tekst chiński/angielski). Wprowadza okno kontekstu 16K i zadania uzupełniania w środku, oferując uzupełnianie kodu na poziomie projektu i wypełnianie fragmentów.",
|
|
360
|
+
"deepseek-coder-v2.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
|
|
361
|
+
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
|
|
362
|
+
"deepseek-ocr.description": "DeepSeek-OCR to model językowo-wizualny od DeepSeek AI skoncentrowany na OCR i „optycznej kompresji kontekstowej”. Eksploruje kompresję informacji kontekstowych z obrazów, efektywnie przetwarza dokumenty i konwertuje je do ustrukturyzowanych formatów tekstowych, takich jak Markdown. Dokładnie rozpoznaje tekst na obrazach, idealny do cyfryzacji dokumentów, ekstrakcji tekstu i przetwarzania strukturalnego.",
|
|
338
363
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
|
|
339
364
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
|
|
340
365
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Organizacja open-source skupiona na badaniach nad dużymi modelami i narzędziach, oferująca wydajną i łatwą w użyciu platformę udostępniającą najnowsze modele i algorytmy.",
|
|
30
30
|
"jina.description": "Założona w 2020 roku, Jina AI to wiodąca firma zajmująca się wyszukiwaniem AI. Jej stos wyszukiwania obejmuje modele wektorowe, rerankery i małe modele językowe do tworzenia niezawodnych, wysokiej jakości aplikacji generatywnych i multimodalnych.",
|
|
31
31
|
"lmstudio.description": "LM Studio to aplikacja desktopowa do tworzenia i testowania LLM-ów na własnym komputerze.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud korzysta z oficjalnych interfejsów API do uzyskiwania dostępu do modeli AI i mierzy zużycie za pomocą Kredytów powiązanych z tokenami modeli.",
|
|
33
32
|
"minimax.description": "Założona w 2021 roku, MiniMax tworzy AI ogólnego przeznaczenia z multimodalnymi modelami bazowymi, w tym tekstowymi modelami MoE z bilionami parametrów, modelami mowy i wizji oraz aplikacjami takimi jak Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral oferuje zaawansowane modele ogólne, specjalistyczne i badawcze do złożonego rozumowania, zadań wielojęzycznych i generowania kodu, z obsługą wywołań funkcji do niestandardowych integracji.",
|
|
35
34
|
"modelscope.description": "ModelScope to platforma model-as-a-service Alibaba Cloud, oferująca szeroki wybór modeli AI i usług inferencyjnych.",
|