@lobehub/chat 1.20.8 → 1.21.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (97) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/locales/ar/error.json +1 -0
  3. package/locales/ar/modelProvider.json +20 -0
  4. package/locales/ar/models.json +73 -4
  5. package/locales/ar/providers.json +6 -0
  6. package/locales/bg-BG/error.json +1 -0
  7. package/locales/bg-BG/modelProvider.json +20 -0
  8. package/locales/bg-BG/models.json +73 -4
  9. package/locales/bg-BG/providers.json +6 -0
  10. package/locales/de-DE/error.json +1 -0
  11. package/locales/de-DE/modelProvider.json +20 -0
  12. package/locales/de-DE/models.json +73 -4
  13. package/locales/de-DE/providers.json +6 -0
  14. package/locales/en-US/error.json +1 -0
  15. package/locales/en-US/modelProvider.json +20 -0
  16. package/locales/en-US/models.json +73 -4
  17. package/locales/en-US/providers.json +6 -0
  18. package/locales/es-ES/error.json +1 -0
  19. package/locales/es-ES/modelProvider.json +20 -0
  20. package/locales/es-ES/models.json +73 -4
  21. package/locales/es-ES/providers.json +6 -0
  22. package/locales/fr-FR/error.json +1 -0
  23. package/locales/fr-FR/modelProvider.json +20 -0
  24. package/locales/fr-FR/models.json +73 -4
  25. package/locales/fr-FR/providers.json +6 -0
  26. package/locales/it-IT/error.json +1 -0
  27. package/locales/it-IT/modelProvider.json +20 -0
  28. package/locales/it-IT/models.json +73 -4
  29. package/locales/it-IT/providers.json +6 -0
  30. package/locales/ja-JP/error.json +1 -0
  31. package/locales/ja-JP/modelProvider.json +20 -0
  32. package/locales/ja-JP/models.json +73 -4
  33. package/locales/ja-JP/providers.json +6 -0
  34. package/locales/ko-KR/error.json +1 -0
  35. package/locales/ko-KR/modelProvider.json +20 -0
  36. package/locales/ko-KR/models.json +73 -4
  37. package/locales/ko-KR/providers.json +6 -0
  38. package/locales/nl-NL/error.json +1 -0
  39. package/locales/nl-NL/modelProvider.json +20 -0
  40. package/locales/nl-NL/models.json +73 -4
  41. package/locales/nl-NL/providers.json +6 -0
  42. package/locales/pl-PL/error.json +1 -0
  43. package/locales/pl-PL/modelProvider.json +20 -0
  44. package/locales/pl-PL/models.json +73 -4
  45. package/locales/pl-PL/providers.json +6 -0
  46. package/locales/pt-BR/error.json +1 -0
  47. package/locales/pt-BR/modelProvider.json +20 -0
  48. package/locales/pt-BR/models.json +73 -4
  49. package/locales/pt-BR/providers.json +6 -0
  50. package/locales/ru-RU/error.json +1 -0
  51. package/locales/ru-RU/modelProvider.json +20 -0
  52. package/locales/ru-RU/models.json +73 -4
  53. package/locales/ru-RU/providers.json +6 -0
  54. package/locales/tr-TR/error.json +1 -0
  55. package/locales/tr-TR/modelProvider.json +20 -0
  56. package/locales/tr-TR/models.json +73 -4
  57. package/locales/tr-TR/providers.json +6 -0
  58. package/locales/vi-VN/error.json +1 -0
  59. package/locales/vi-VN/modelProvider.json +20 -0
  60. package/locales/vi-VN/models.json +73 -4
  61. package/locales/vi-VN/providers.json +6 -0
  62. package/locales/zh-CN/error.json +1 -0
  63. package/locales/zh-CN/modelProvider.json +20 -0
  64. package/locales/zh-CN/models.json +76 -7
  65. package/locales/zh-CN/providers.json +6 -0
  66. package/locales/zh-TW/error.json +1 -0
  67. package/locales/zh-TW/modelProvider.json +20 -0
  68. package/locales/zh-TW/models.json +73 -4
  69. package/locales/zh-TW/providers.json +6 -0
  70. package/package.json +3 -2
  71. package/src/app/(main)/settings/llm/ProviderList/Wenxin/index.tsx +46 -0
  72. package/src/app/(main)/settings/llm/ProviderList/providers.tsx +4 -1
  73. package/src/app/api/chat/agentRuntime.test.ts +21 -0
  74. package/src/app/api/chat/wenxin/route.test.ts +27 -0
  75. package/src/app/api/chat/wenxin/route.ts +30 -0
  76. package/src/app/api/errorResponse.ts +4 -0
  77. package/src/config/llm.ts +8 -0
  78. package/src/config/modelProviders/index.ts +4 -0
  79. package/src/config/modelProviders/wenxin.ts +159 -0
  80. package/src/const/auth.ts +4 -0
  81. package/src/const/settings/llm.ts +5 -0
  82. package/src/features/Conversation/Error/APIKeyForm/Wenxin.tsx +49 -0
  83. package/src/features/Conversation/Error/APIKeyForm/index.tsx +3 -0
  84. package/src/features/Conversation/Error/index.tsx +1 -0
  85. package/src/libs/agent-runtime/AgentRuntime.test.ts +1 -0
  86. package/src/libs/agent-runtime/error.ts +1 -0
  87. package/src/libs/agent-runtime/types/type.ts +1 -0
  88. package/src/libs/agent-runtime/utils/streams/wenxin.test.ts +149 -0
  89. package/src/libs/agent-runtime/utils/streams/wenxin.ts +46 -0
  90. package/src/libs/agent-runtime/wenxin/index.ts +106 -0
  91. package/src/libs/agent-runtime/wenxin/type.ts +84 -0
  92. package/src/locales/default/error.ts +2 -0
  93. package/src/locales/default/modelProvider.ts +20 -0
  94. package/src/server/globalConfig/index.ts +4 -1
  95. package/src/services/_auth.ts +14 -0
  96. package/src/store/user/slices/modelList/selectors/keyVaults.ts +2 -0
  97. package/src/types/user/settings/keyVaults.ts +6 -0
@@ -32,6 +32,39 @@
32
32
  "Baichuan4": {
33
33
  "description": "Il modello ha la migliore capacità in Cina, superando i modelli mainstream esteri in compiti cinesi come enciclopedie, testi lunghi e creazione di contenuti. Ha anche capacità multimodali leader nel settore, con prestazioni eccellenti in vari benchmark di valutazione."
34
34
  },
35
+ "ERNIE-3.5-128K": {
36
+ "description": "Modello di linguaggio di grande scala di punta sviluppato da Baidu, che copre un'enorme quantità di dati in cinese e inglese, con potenti capacità generali, in grado di soddisfare la maggior parte delle esigenze di domande e risposte, generazione creativa e scenari di applicazione dei plugin; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
37
+ },
38
+ "ERNIE-3.5-8K": {
39
+ "description": "Modello di linguaggio di grande scala di punta sviluppato da Baidu, che copre un'enorme quantità di dati in cinese e inglese, con potenti capacità generali, in grado di soddisfare la maggior parte delle esigenze di domande e risposte, generazione creativa e scenari di applicazione dei plugin; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
40
+ },
41
+ "ERNIE-3.5-8K-Preview": {
42
+ "description": "Modello di linguaggio di grande scala di punta sviluppato da Baidu, che copre un'enorme quantità di dati in cinese e inglese, con potenti capacità generali, in grado di soddisfare la maggior parte delle esigenze di domande e risposte, generazione creativa e scenari di applicazione dei plugin; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
43
+ },
44
+ "ERNIE-4.0-8K-Latest": {
45
+ "description": "Modello di linguaggio di grande scala ultra avanzato sviluppato da Baidu, che rispetto a ERNIE 3.5 ha subito un aggiornamento completo delle capacità del modello, ampiamente applicabile a scenari di compiti complessi in vari settori; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
46
+ },
47
+ "ERNIE-4.0-8K-Preview": {
48
+ "description": "Modello di linguaggio di grande scala ultra avanzato sviluppato da Baidu, che rispetto a ERNIE 3.5 ha subito un aggiornamento completo delle capacità del modello, ampiamente applicabile a scenari di compiti complessi in vari settori; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
49
+ },
50
+ "ERNIE-4.0-Turbo-8K": {
51
+ "description": "Modello di linguaggio di grande scala ultra avanzato sviluppato da Baidu, con prestazioni complessive eccezionali, ampiamente applicabile a scenari di compiti complessi in vari settori; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte. Rispetto a ERNIE 4.0, offre prestazioni superiori."
52
+ },
53
+ "ERNIE-4.0-Turbo-8K-Preview": {
54
+ "description": "Modello di linguaggio di grande scala ultra avanzato sviluppato da Baidu, con prestazioni complessive eccezionali, ampiamente applicabile a scenari di compiti complessi in vari settori; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte. Rispetto a ERNIE 4.0, offre prestazioni superiori."
55
+ },
56
+ "ERNIE-Character-8K": {
57
+ "description": "Modello di linguaggio verticale sviluppato da Baidu, adatto per applicazioni come NPC nei giochi, dialoghi di assistenza clienti, e interpretazione di ruoli nei dialoghi, con uno stile di personaggio più distintivo e coerente, capacità di seguire le istruzioni più forte e prestazioni di inferenza superiori."
58
+ },
59
+ "ERNIE-Lite-Pro-128K": {
60
+ "description": "Modello di linguaggio leggero sviluppato da Baidu, che combina prestazioni eccellenti del modello con prestazioni di inferenza, con risultati migliori rispetto a ERNIE Lite, adatto per l'uso in schede di accelerazione AI a bassa potenza."
61
+ },
62
+ "ERNIE-Speed-128K": {
63
+ "description": "Modello di linguaggio ad alte prestazioni sviluppato da Baidu, lanciato nel 2024, con capacità generali eccellenti, adatto come modello di base per il fine-tuning, per gestire meglio le problematiche di scenari specifici, mantenendo al contempo prestazioni di inferenza eccezionali."
64
+ },
65
+ "ERNIE-Speed-Pro-128K": {
66
+ "description": "Modello di linguaggio ad alte prestazioni sviluppato da Baidu, lanciato nel 2024, con capacità generali eccellenti, risultati migliori rispetto a ERNIE Speed, adatto come modello di base per il fine-tuning, per gestire meglio le problematiche di scenari specifici, mantenendo al contempo prestazioni di inferenza eccezionali."
67
+ },
35
68
  "Gryphe/MythoMax-L2-13b": {
36
69
  "description": "MythoMax-L2 (13B) è un modello innovativo, adatto per applicazioni in più settori e compiti complessi."
37
70
  },
@@ -401,6 +434,9 @@
401
434
  "glm-4-flash": {
402
435
  "description": "GLM-4-Flash è l'ideale per compiti semplici, con la massima velocità e il prezzo più conveniente."
403
436
  },
437
+ "glm-4-flashx": {
438
+ "description": "GLM-4-FlashX è una versione potenziata di Flash, con una velocità di inferenza super veloce."
439
+ },
404
440
  "glm-4-long": {
405
441
  "description": "GLM-4-Long supporta input di testo ultra-lunghi, adatto per compiti di memoria e gestione di documenti su larga scala."
406
442
  },
@@ -413,11 +449,11 @@
413
449
  "glm-4v-plus": {
414
450
  "description": "GLM-4V-Plus ha la capacità di comprendere contenuti video e più immagini, adatto per compiti multimodali."
415
451
  },
416
- "google/gemini-flash-1.5-exp": {
417
- "description": "Gemini 1.5 Flash 0827 offre capacità di elaborazione multimodale ottimizzate, adatte a vari scenari di compiti complessi."
452
+ "google/gemini-flash-1.5": {
453
+ "description": "Gemini 1.5 Flash offre capacità di elaborazione multimodale ottimizzate, adatte a vari scenari di compiti complessi."
418
454
  },
419
- "google/gemini-pro-1.5-exp": {
420
- "description": "Gemini 1.5 Pro 0827 combina le più recenti tecnologie di ottimizzazione, offrendo capacità di elaborazione dei dati multimodali più efficienti."
455
+ "google/gemini-pro-1.5": {
456
+ "description": "Gemini 1.5 Pro combina le più recenti tecnologie di ottimizzazione, offrendo una capacità di elaborazione dei dati multimodali più efficiente."
421
457
  },
422
458
  "google/gemma-2-27b-it": {
423
459
  "description": "Gemma 2 continua il concetto di design leggero ed efficiente."
@@ -491,6 +527,33 @@
491
527
  "gryphe/mythomax-l2-13b": {
492
528
  "description": "MythoMax l2 13B è un modello linguistico che combina creatività e intelligenza, unendo diversi modelli di punta."
493
529
  },
530
+ "hunyuan-code": {
531
+ "description": "Ultimo modello di generazione di codice di Hunyuan, addestrato su un modello di base con 200B di dati di codice di alta qualità, con sei mesi di addestramento su dati SFT di alta qualità, la lunghezza della finestra di contesto è aumentata a 8K, e si posiziona tra i primi in cinque indicatori di valutazione automatica della generazione di codice; nelle valutazioni di alta qualità su dieci aspetti di codice in cinque lingue, le prestazioni sono nella prima fascia."
532
+ },
533
+ "hunyuan-functioncall": {
534
+ "description": "Ultimo modello FunctionCall con architettura MOE di Hunyuan, addestrato su dati di alta qualità per le chiamate di funzione, con una finestra di contesto di 32K, è in testa in vari indicatori di valutazione."
535
+ },
536
+ "hunyuan-lite": {
537
+ "description": "Aggiornato a una struttura MOE, con una finestra di contesto di 256k, è in testa a molti modelli open source in vari set di valutazione su NLP, codice, matematica e settori."
538
+ },
539
+ "hunyuan-pro": {
540
+ "description": "Modello di testo lungo MOE-32K con un miliardo di parametri. Raggiunge livelli di eccellenza in vari benchmark, con capacità di istruzioni complesse e ragionamento, supporta le chiamate di funzione, ottimizzato per traduzione multilingue, finanza, diritto e medicina."
541
+ },
542
+ "hunyuan-role": {
543
+ "description": "Ultimo modello di ruolo di Hunyuan, un modello di ruolo fine-tuned ufficialmente rilasciato da Hunyuan, addestrato su un dataset di scenari di ruolo, con migliori prestazioni di base in scenari di ruolo."
544
+ },
545
+ "hunyuan-standard": {
546
+ "description": "Utilizza una strategia di routing migliore, alleviando i problemi di bilanciamento del carico e convergenza degli esperti. Per i testi lunghi, l'indice di recupero è del 99,9%. MOE-32K offre un buon rapporto qualità-prezzo, bilanciando efficacia e costo, e gestisce l'input di testi lunghi."
547
+ },
548
+ "hunyuan-standard-256K": {
549
+ "description": "Utilizza una strategia di routing migliore, alleviando i problemi di bilanciamento del carico e convergenza degli esperti. Per i testi lunghi, l'indice di recupero è del 99,9%. MOE-256K supera ulteriormente in lunghezza ed efficacia, ampliando notevolmente la lunghezza massima di input."
550
+ },
551
+ "hunyuan-turbo": {
552
+ "description": "Anteprima della nuova generazione di modelli di linguaggio di Hunyuan, utilizza una nuova struttura di modello ibrido di esperti (MoE), con una maggiore efficienza di inferenza e prestazioni superiori rispetto a hunyuan-pro."
553
+ },
554
+ "hunyuan-vision": {
555
+ "description": "Ultimo modello multimodale di Hunyuan, supporta l'input di immagini e testo per generare contenuti testuali."
556
+ },
494
557
  "internlm/internlm2_5-20b-chat": {
495
558
  "description": "Il modello open source innovativo InternLM2.5, con un gran numero di parametri, migliora l'intelligenza del dialogo."
496
559
  },
@@ -634,6 +697,12 @@
634
697
  "meta-llama/llama-3.1-8b-instruct:free": {
635
698
  "description": "LLaMA 3.1 offre supporto multilingue ed è uno dei modelli generativi leader nel settore."
636
699
  },
700
+ "meta-llama/llama-3.2-11b-vision-instruct": {
701
+ "description": "LLaMA 3.2 è progettato per gestire compiti che combinano dati visivi e testuali. Si distingue in compiti come la descrizione delle immagini e il question answering visivo, colmando il divario tra generazione del linguaggio e ragionamento visivo."
702
+ },
703
+ "meta-llama/llama-3.2-90b-vision-instruct": {
704
+ "description": "LLaMA 3.2 è progettato per gestire compiti che combinano dati visivi e testuali. Si distingue in compiti come la descrizione delle immagini e il question answering visivo, colmando il divario tra generazione del linguaggio e ragionamento visivo."
705
+ },
637
706
  "meta.llama3-1-405b-instruct-v1:0": {
638
707
  "description": "Meta Llama 3.1 405B Instruct è il modello più grande e potente della serie Llama 3.1 Instruct, un modello avanzato per la generazione di dati e il ragionamento conversazionale, utilizzabile anche come base per un pre-addestramento o un fine-tuning specializzato in determinati settori. I modelli di linguaggio di grandi dimensioni (LLMs) multilingue forniti da Llama 3.1 sono un insieme di modelli generativi pre-addestrati e ottimizzati per le istruzioni, che includono dimensioni di 8B, 70B e 405B (input/output di testo). I modelli di testo ottimizzati per le istruzioni di Llama 3.1 (8B, 70B, 405B) sono stati progettati per casi d'uso conversazionali multilingue e hanno superato molti modelli di chat open source disponibili in benchmark di settore comuni. Llama 3.1 è progettato per usi commerciali e di ricerca in diverse lingue. I modelli di testo ottimizzati per le istruzioni sono adatti a chat simili a assistenti, mentre i modelli pre-addestrati possono adattarsi a vari compiti di generazione di linguaggio naturale. I modelli Llama 3.1 supportano anche l'uso della loro output per migliorare altri modelli, inclusa la generazione di dati sintetici e il raffinamento. Llama 3.1 è un modello di linguaggio autoregressivo basato su un'architettura di trasformatore ottimizzata. Le versioni ottimizzate utilizzano il fine-tuning supervisionato (SFT) e l'apprendimento per rinforzo con feedback umano (RLHF) per allinearsi alle preferenze umane in termini di utilità e sicurezza."
639
708
  },
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "Il motore di inferenza LPU di Groq ha mostrato prestazioni eccezionali nei recenti benchmark indipendenti sui modelli di linguaggio di grandi dimensioni (LLM), ridefinendo gli standard delle soluzioni AI con la sua incredibile velocità ed efficienza. Groq rappresenta una velocità di inferenza istantanea, mostrando buone prestazioni nelle implementazioni basate su cloud."
32
32
  },
33
+ "hunyuan": {
34
+ "description": "Un modello di linguaggio sviluppato da Tencent, dotato di potenti capacità di creazione in cinese, abilità di ragionamento logico in contesti complessi e capacità affidabili di esecuzione dei compiti."
35
+ },
33
36
  "minimax": {
34
37
  "description": "MiniMax è un'azienda di tecnologia dell'intelligenza artificiale generale fondata nel 2021, dedicata alla co-creazione di intelligenza con gli utenti. MiniMax ha sviluppato modelli generali di diverse modalità, tra cui un modello di testo MoE con trilioni di parametri, un modello vocale e un modello visivo. Ha anche lanciato applicazioni come Conch AI."
35
38
  },
@@ -75,6 +78,9 @@
75
78
  "upstage": {
76
79
  "description": "Upstage si concentra sullo sviluppo di modelli AI per varie esigenze commerciali, inclusi Solar LLM e document AI, con l'obiettivo di realizzare un'intelligenza artificiale generale artificiale (AGI) per il lavoro. Crea semplici agenti di dialogo tramite Chat API e supporta chiamate funzionali, traduzioni, embedding e applicazioni specifiche del settore."
77
80
  },
81
+ "wenxin": {
82
+ "description": "Piattaforma di sviluppo e servizi per modelli di grandi dimensioni e applicazioni AI native, a livello aziendale, che offre la catena di strumenti completa e facile da usare per lo sviluppo di modelli di intelligenza artificiale generativa e per l'intero processo di sviluppo delle applicazioni."
83
+ },
78
84
  "zeroone": {
79
85
  "description": "01.AI si concentra sulla tecnologia AI dell'era 2.0, promuovendo attivamente l'innovazione e l'applicazione di \"uomo + intelligenza artificiale\", utilizzando modelli potenti e tecnologie AI avanzate per migliorare la produttività umana e realizzare l'abilitazione tecnologica."
80
86
  },
@@ -81,6 +81,7 @@
81
81
  "PluginServerError": "プラグインサーバーのリクエストエラーが発生しました。以下のエラーメッセージを参考に、プラグインのマニフェストファイル、設定、サーバー実装を確認してください",
82
82
  "PluginSettingsInvalid": "このプラグインを使用するには、正しい設定が必要です。設定が正しいかどうか確認してください",
83
83
  "ProviderBizError": "リクエスト {{provider}} サービスでエラーが発生しました。以下の情報を確認して再試行してください。",
84
+ "QuotaLimitReached": "申し訳ありませんが、現在のトークン使用量またはリクエスト回数がこのキーのクォータ上限に達しました。キーのクォータを増やすか、後でもう一度お試しください。",
84
85
  "StreamChunkError": "ストリーミングリクエストのメッセージブロック解析エラーです。現在のAPIインターフェースが標準仕様に準拠しているか確認するか、APIプロバイダーにお問い合わせください。",
85
86
  "SubscriptionPlanLimit": "ご契約のクォータが使い切られましたので、この機能を使用することはできません。より高いプランにアップグレードするか、リソースパッケージを購入して継続してください。",
86
87
  "UnknownChatFetchError": "申し訳ありませんが、未知のリクエストエラーが発生しました。以下の情報をもとに確認するか、再試行してください。"
@@ -112,6 +112,26 @@
112
112
  "title": "Download specified Ollama model"
113
113
  }
114
114
  },
115
+ "wenxin": {
116
+ "accessKey": {
117
+ "desc": "百度千帆プラットフォームのAccess Keyを入力してください",
118
+ "placeholder": "Qianfan Access Key",
119
+ "title": "Access Key"
120
+ },
121
+ "checker": {
122
+ "desc": "AccessKey / SecretAccessが正しく入力されているかテストします"
123
+ },
124
+ "secretKey": {
125
+ "desc": "百度千帆プラットフォームのSecret Keyを入力してください",
126
+ "placeholder": "Qianfan Secret Key",
127
+ "title": "Secret Key"
128
+ },
129
+ "unlock": {
130
+ "customRegion": "カスタムサービス地域",
131
+ "description": "AccessKey / SecretKeyを入力することでセッションを開始できます。アプリはあなたの認証設定を記録しません",
132
+ "title": "カスタム文心一言認証情報を使用"
133
+ }
134
+ },
115
135
  "zeroone": {
116
136
  "title": "01.AI 零一万物"
117
137
  },
@@ -32,6 +32,39 @@
32
32
  "Baichuan4": {
33
33
  "description": "モデル能力は国内でトップであり、知識百科、長文、生成創作などの中国語タスクで海外の主流モデルを超えています。また、業界をリードするマルチモーダル能力を備え、複数の権威ある評価基準で優れたパフォーマンスを示しています。"
34
34
  },
35
+ "ERNIE-3.5-128K": {
36
+ "description": "百度が独自に開発したフラッグシップの大規模言語モデルで、膨大な中英語のコーパスをカバーし、強力な汎用能力を持っています。ほとんどの対話型質問応答、創作生成、プラグインアプリケーションの要件を満たすことができます。また、百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。"
37
+ },
38
+ "ERNIE-3.5-8K": {
39
+ "description": "百度が独自に開発したフラッグシップの大規模言語モデルで、膨大な中英語のコーパスをカバーし、強力な汎用能力を持っています。ほとんどの対話型質問応答、創作生成、プラグインアプリケーションの要件を満たすことができます。また、百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。"
40
+ },
41
+ "ERNIE-3.5-8K-Preview": {
42
+ "description": "百度が独自に開発したフラッグシップの大規模言語モデルで、膨大な中英語のコーパスをカバーし、強力な汎用能力を持っています。ほとんどの対話型質問応答、創作生成、プラグインアプリケーションの要件を満たすことができます。また、百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。"
43
+ },
44
+ "ERNIE-4.0-8K-Latest": {
45
+ "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、ERNIE 3.5に比べてモデル能力が全面的にアップグレードされ、さまざまな分野の複雑なタスクシナリオに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。"
46
+ },
47
+ "ERNIE-4.0-8K-Preview": {
48
+ "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、ERNIE 3.5に比べてモデル能力が全面的にアップグレードされ、さまざまな分野の複雑なタスクシナリオに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。"
49
+ },
50
+ "ERNIE-4.0-Turbo-8K": {
51
+ "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、総合的なパフォーマンスが優れており、さまざまな分野の複雑なタスクシナリオに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。ERNIE 4.0に比べてパフォーマンスがさらに優れています。"
52
+ },
53
+ "ERNIE-4.0-Turbo-8K-Preview": {
54
+ "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、総合的なパフォーマンスが優れており、さまざまな分野の複雑なタスクシナリオに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。ERNIE 4.0に比べてパフォーマンスがさらに優れています。"
55
+ },
56
+ "ERNIE-Character-8K": {
57
+ "description": "百度が独自に開発した垂直シナリオ向けの大規模言語モデルで、ゲームのNPC、カスタマーサービスの対話、対話型キャラクターの役割演技などのアプリケーションシナリオに適しており、キャラクターのスタイルがより鮮明で一貫性があり、指示に従う能力が強化され、推論性能が向上しています。"
58
+ },
59
+ "ERNIE-Lite-Pro-128K": {
60
+ "description": "百度が独自に開発した軽量大規模言語モデルで、優れたモデル効果と推論性能を兼ね備え、ERNIE Liteよりも効果が優れており、低計算能力のAIアクセラレータカードでの推論使用に適しています。"
61
+ },
62
+ "ERNIE-Speed-128K": {
63
+ "description": "百度が2024年に最新リリースした独自開発の高性能大規模言語モデルで、汎用能力が優れており、基盤モデルとして微調整に適しており、特定のシナリオの問題をより良く処理し、優れた推論性能を持っています。"
64
+ },
65
+ "ERNIE-Speed-Pro-128K": {
66
+ "description": "百度が2024年に最新リリースした独自開発の高性能大規模言語モデルで、汎用能力が優れており、ERNIE Speedよりも効果が優れており、基盤モデルとして微調整に適しており、特定のシナリオの問題をより良く処理し、優れた推論性能を持っています。"
67
+ },
35
68
  "Gryphe/MythoMax-L2-13b": {
36
69
  "description": "MythoMax-L2 (13B)は、革新的なモデルであり、多分野のアプリケーションや複雑なタスクに適しています。"
37
70
  },
@@ -401,6 +434,9 @@
401
434
  "glm-4-flash": {
402
435
  "description": "GLM-4-Flashはシンプルなタスクを処理するのに理想的な選択肢で、最も速く、最も手頃な価格です。"
403
436
  },
437
+ "glm-4-flashx": {
438
+ "description": "GLM-4-FlashXはFlashの強化版で、超高速の推論速度を誇ります。"
439
+ },
404
440
  "glm-4-long": {
405
441
  "description": "GLM-4-Longは超長文入力をサポートし、記憶型タスクや大規模文書処理に適しています。"
406
442
  },
@@ -413,11 +449,11 @@
413
449
  "glm-4v-plus": {
414
450
  "description": "GLM-4V-Plusは動画コンテンツや複数の画像を理解する能力を持ち、マルチモーダルタスクに適しています。"
415
451
  },
416
- "google/gemini-flash-1.5-exp": {
417
- "description": "Gemini 1.5 Flash 0827は、最適化されたマルチモーダル処理能力を提供し、さまざまな複雑なタスクシーンに適用可能です。"
452
+ "google/gemini-flash-1.5": {
453
+ "description": "Gemini 1.5 Flashは、最適化されたマルチモーダル処理能力を提供し、さまざまな複雑なタスクシナリオに適しています。"
418
454
  },
419
- "google/gemini-pro-1.5-exp": {
420
- "description": "Gemini 1.5 Pro 0827は、最新の最適化技術を組み合わせて、より効率的なマルチモーダルデータ処理能力を提供します。"
455
+ "google/gemini-pro-1.5": {
456
+ "description": "Gemini 1.5 Proは、最新の最適化技術を組み合わせて、より効率的なマルチモーダルデータ処理能力を実現します。"
421
457
  },
422
458
  "google/gemma-2-27b-it": {
423
459
  "description": "Gemma 2は、軽量化と高効率のデザイン理念を継承しています。"
@@ -491,6 +527,33 @@
491
527
  "gryphe/mythomax-l2-13b": {
492
528
  "description": "MythoMax l2 13Bは複数のトップモデルを統合した創造性と知性を兼ね備えた言語モデルです。"
493
529
  },
530
+ "hunyuan-code": {
531
+ "description": "混元の最新のコード生成モデルで、200Bの高品質コードデータで基盤モデルを増強し、半年間の高品質SFTデータトレーニングを経て、コンテキストウィンドウの長さが8Kに増加しました。5つの主要言語のコード生成自動評価指標で上位に位置し、5つの言語における10項目の総合コードタスクの人工高品質評価で、パフォーマンスは第一梯隊にあります。"
532
+ },
533
+ "hunyuan-functioncall": {
534
+ "description": "混元の最新のMOEアーキテクチャFunctionCallモデルで、高品質のFunctionCallデータトレーニングを経て、コンテキストウィンドウは32Kに達し、複数の次元の評価指標でリーダーシップを発揮しています。"
535
+ },
536
+ "hunyuan-lite": {
537
+ "description": "MOE構造にアップグレードされ、コンテキストウィンドウは256kで、NLP、コード、数学、業界などの多くの評価セットで多くのオープンソースモデルをリードしています。"
538
+ },
539
+ "hunyuan-pro": {
540
+ "description": "万億規模のパラメータを持つMOE-32K長文モデルです。さまざまなベンチマークで絶対的なリーダーシップを達成し、複雑な指示や推論、複雑な数学能力を備え、functioncallをサポートし、多言語翻訳、金融、法律、医療などの分野で重点的に最適化されています。"
541
+ },
542
+ "hunyuan-role": {
543
+ "description": "混元の最新のロールプレイングモデルで、混元公式の精緻なトレーニングによって開発されたロールプレイングモデルで、混元モデルとロールプレイングシナリオデータセットを組み合わせて増強され、ロールプレイングシナリオにおいてより良い基本的な効果を持っています。"
544
+ },
545
+ "hunyuan-standard": {
546
+ "description": "より優れたルーティング戦略を採用し、負荷分散と専門家の収束の問題を緩和しました。長文に関しては、大海捞針指標が99.9%に達しています。MOE-32Kはコストパフォーマンスが相対的に高く、効果と価格のバランスを取りながら、長文入力の処理を実現します。"
547
+ },
548
+ "hunyuan-standard-256K": {
549
+ "description": "より優れたルーティング戦略を採用し、負荷分散と専門家の収束の問題を緩和しました。長文に関しては、大海捞針指標が99.9%に達しています。MOE-256Kは長さと効果の面でさらに突破し、入力可能な長さを大幅に拡張しました。"
550
+ },
551
+ "hunyuan-turbo": {
552
+ "description": "混元の新世代大規模言語モデルのプレビュー版で、全く新しい混合専門家モデル(MoE)構造を採用し、hunyuan-proに比べて推論効率が向上し、パフォーマンスも強化されています。"
553
+ },
554
+ "hunyuan-vision": {
555
+ "description": "混元の最新のマルチモーダルモデルで、画像とテキストの入力をサポートし、テキストコンテンツを生成します。"
556
+ },
494
557
  "internlm/internlm2_5-20b-chat": {
495
558
  "description": "革新的なオープンソースモデルInternLM2.5は、大規模なパラメータを通じて対話のインテリジェンスを向上させました。"
496
559
  },
@@ -634,6 +697,12 @@
634
697
  "meta-llama/llama-3.1-8b-instruct:free": {
635
698
  "description": "LLaMA 3.1は多言語サポートを提供し、業界をリードする生成モデルの一つです。"
636
699
  },
700
+ "meta-llama/llama-3.2-11b-vision-instruct": {
701
+ "description": "LLaMA 3.2は、視覚とテキストデータを組み合わせたタスクを処理することを目的としています。画像の説明や視覚的な質問応答などのタスクで優れたパフォーマンスを発揮し、言語生成と視覚推論の間のギャップを超えています。"
702
+ },
703
+ "meta-llama/llama-3.2-90b-vision-instruct": {
704
+ "description": "LLaMA 3.2は、視覚とテキストデータを組み合わせたタスクを処理することを目的としています。画像の説明や視覚的な質問応答などのタスクで優れたパフォーマンスを発揮し、言語生成と視覚推論の間のギャップを超えています。"
705
+ },
637
706
  "meta.llama3-1-405b-instruct-v1:0": {
638
707
  "description": "Meta Llama 3.1 405B Instructは、Llama 3.1 Instructモデルの中で最大かつ最も強力なモデルであり、高度に進化した対話推論および合成データ生成モデルです。また、特定の分野での専門的な継続的な事前トレーニングや微調整の基盤としても使用できます。Llama 3.1が提供する多言語大規模言語モデル(LLMs)は、8B、70B、405Bのサイズ(テキスト入力/出力)を含む、事前トレーニングされた指示調整された生成モデルのセットです。Llama 3.1の指示調整されたテキストモデル(8B、70B、405B)は、多言語対話のユースケースに最適化されており、一般的な業界ベンチマークテストで多くの利用可能なオープンソースチャットモデルを上回っています。Llama 3.1は、さまざまな言語の商業および研究用途に使用されることを目的としています。指示調整されたテキストモデルは、アシスタントのようなチャットに適しており、事前トレーニングモデルはさまざまな自然言語生成タスクに適応できます。Llama 3.1モデルは、他のモデルを改善するためにその出力を利用することもサポートしており、合成データ生成や洗練にも対応しています。Llama 3.1は、最適化されたトランスフォーマーアーキテクチャを使用した自己回帰型言語モデルです。調整されたバージョンは、監視付き微調整(SFT)と人間のフィードバックを伴う強化学習(RLHF)を使用して、人間の助けや安全性に対する好みに適合させています。"
639
708
  },
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "GroqのLPU推論エンジンは、最新の独立した大規模言語モデル(LLM)ベンチマークテストで卓越したパフォーマンスを示し、その驚異的な速度と効率でAIソリューションの基準を再定義しています。Groqは、即時推論速度の代表であり、クラウドベースの展開で良好なパフォーマンスを発揮しています。"
32
32
  },
33
+ "hunyuan": {
34
+ "description": "テンセントが開発した大規模言語モデルであり、強力な中国語の創作能力、複雑な文脈における論理的推論能力、そして信頼性の高いタスク実行能力を備えています。"
35
+ },
33
36
  "minimax": {
34
37
  "description": "MiniMaxは2021年に設立された汎用人工知能テクノロジー企業であり、ユーザーと共に知能を共創することに取り組んでいます。MiniMaxは、さまざまなモードの汎用大モデルを独自に開発しており、トリリオンパラメータのMoEテキスト大モデル、音声大モデル、画像大モデルを含んでいます。また、海螺AIなどのアプリケーションも展開しています。"
35
38
  },
@@ -75,6 +78,9 @@
75
78
  "upstage": {
76
79
  "description": "Upstageは、さまざまなビジネスニーズに応じたAIモデルの開発に特化しており、Solar LLMや文書AIを含み、人造一般知能(AGI)の実現を目指しています。Chat APIを通じてシンプルな対話エージェントを作成し、機能呼び出し、翻訳、埋め込み、特定分野のアプリケーションをサポートします。"
77
80
  },
81
+ "wenxin": {
82
+ "description": "企業向けのワンストップ大規模モデルとAIネイティブアプリケーションの開発およびサービスプラットフォームで、最も包括的で使いやすい生成的人工知能モデルの開発とアプリケーション開発の全プロセスツールチェーンを提供します。"
83
+ },
78
84
  "zeroone": {
79
85
  "description": "01.AIは、AI 2.0時代の人工知能技術に特化し、「人+人工知能」の革新と応用を推進し、超強力なモデルと先進的なAI技術を用いて人類の生産性を向上させ、技術の力を実現します。"
80
86
  },
@@ -81,6 +81,7 @@
81
81
  "PluginServerError": "플러그인 서버 요청이 오류로 반환되었습니다. 플러그인 설명 파일, 플러그인 구성 또는 서버 구현을 확인해주세요.",
82
82
  "PluginSettingsInvalid": "플러그인을 사용하려면 올바른 구성이 필요합니다. 구성이 올바른지 확인해주세요.",
83
83
  "ProviderBizError": "요청한 {{provider}} 서비스에서 오류가 발생했습니다. 아래 정보를 확인하고 다시 시도해주세요.",
84
+ "QuotaLimitReached": "죄송합니다. 현재 토큰 사용량 또는 요청 횟수가 해당 키의 할당량 한도에 도달했습니다. 해당 키의 할당량을 늘리거나 나중에 다시 시도해 주십시오.",
84
85
  "StreamChunkError": "스트리밍 요청의 메시지 블록 구문 분석 오류입니다. 현재 API 인터페이스가 표준 규격에 부합하는지 확인하거나 API 공급자에게 문의하십시오.",
85
86
  "SubscriptionPlanLimit": "구독 한도를 모두 사용했으므로이 기능을 사용할 수 없습니다. 더 높은 요금제로 업그레이드하거나 리소스 패키지를 구매하여 계속 사용하십시오.",
86
87
  "UnknownChatFetchError": "죄송합니다. 알 수 없는 요청 오류가 발생했습니다. 아래 정보를 참고하여 문제를 해결하거나 다시 시도해 주세요."
@@ -112,6 +112,26 @@
112
112
  "title": "Download specified Ollama model"
113
113
  }
114
114
  },
115
+ "wenxin": {
116
+ "accessKey": {
117
+ "desc": "바이두 천범 플랫폼의 Access Key를 입력하세요",
118
+ "placeholder": "Qianfan Access Key",
119
+ "title": "Access Key"
120
+ },
121
+ "checker": {
122
+ "desc": "AccessKey / SecretAccess가 올바르게 입력되었는지 테스트합니다"
123
+ },
124
+ "secretKey": {
125
+ "desc": "바이두 천범 플랫폼의 Secret Key를 입력하세요",
126
+ "placeholder": "Qianfan Secret Key",
127
+ "title": "Secret Key"
128
+ },
129
+ "unlock": {
130
+ "customRegion": "사용자 정의 서비스 지역",
131
+ "description": "당신의 AccessKey / SecretKey를 입력하면 대화를 시작할 수 있습니다. 애플리케이션은 당신의 인증 구성을 기록하지 않습니다",
132
+ "title": "사용자 정의 문신 일언 인증 정보 사용"
133
+ }
134
+ },
115
135
  "zeroone": {
116
136
  "title": "01.AI Zero One All Things"
117
137
  },
@@ -32,6 +32,39 @@
32
32
  "Baichuan4": {
33
33
  "description": "모델 능력 국내 1위로, 지식 백과, 긴 텍스트, 생성 창작 등 중국어 작업에서 해외 주류 모델을 초월합니다. 또한 업계 선도적인 다중 모달 능력을 갖추고 있으며, 여러 권위 있는 평가 기준에서 우수한 성과를 보입니다."
34
34
  },
35
+ "ERNIE-3.5-128K": {
36
+ "description": "바이두가 자체 개발한 플래그십 대규모 언어 모델로, 방대한 중문 및 영문 코퍼스를 포함하고 있으며, 강력한 일반 능력을 갖추고 있어 대부분의 대화형 질문 응답, 창작 생성, 플러그인 응용 시나리오 요구를 충족할 수 있습니다. 또한 바이두 검색 플러그인과의 자동 연동을 지원하여 질문 응답 정보의 시의성을 보장합니다."
37
+ },
38
+ "ERNIE-3.5-8K": {
39
+ "description": "바이두가 자체 개발한 플래그십 대규모 언어 모델로, 방대한 중문 및 영문 코퍼스를 포함하고 있으며, 강력한 일반 능력을 갖추고 있어 대부분의 대화형 질문 응답, 창작 생성, 플러그인 응용 시나리오 요구를 충족할 수 있습니다. 또한 바이두 검색 플러그인과의 자동 연동을 지원하여 질문 응답 정보의 시의성을 보장합니다."
40
+ },
41
+ "ERNIE-3.5-8K-Preview": {
42
+ "description": "바이두가 자체 개발한 플래그십 대규모 언어 모델로, 방대한 중문 및 영문 코퍼스를 포함하고 있으며, 강력한 일반 능력을 갖추고 있어 대부분의 대화형 질문 응답, 창작 생성, 플러그인 응용 시나리오 요구를 충족할 수 있습니다. 또한 바이두 검색 플러그인과의 자동 연동을 지원하여 질문 응답 정보의 시의성을 보장합니다."
43
+ },
44
+ "ERNIE-4.0-8K-Latest": {
45
+ "description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, ERNIE 3.5에 비해 모델 능력이 전면적으로 업그레이드되었으며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 자동으로 바이두 검색 플러그인과 연결되어 질문 응답 정보의 시의성을 보장합니다."
46
+ },
47
+ "ERNIE-4.0-8K-Preview": {
48
+ "description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, ERNIE 3.5에 비해 모델 능력이 전면적으로 업그레이드되었으며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 자동으로 바이두 검색 플러그인과 연결되어 질문 응답 정보의 시의성을 보장합니다."
49
+ },
50
+ "ERNIE-4.0-Turbo-8K": {
51
+ "description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, 종합적인 성능이 뛰어나며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 자동으로 바이두 검색 플러그인과 연결되어 질문 응답 정보의 시의성을 보장합니다. ERNIE 4.0에 비해 성능이 더욱 우수합니다."
52
+ },
53
+ "ERNIE-4.0-Turbo-8K-Preview": {
54
+ "description": "바이두가 자체 개발한 플래그십 초대규모 언어 모델로, 종합적인 성능이 뛰어나며, 다양한 분야의 복잡한 작업 시나리오에 널리 적용됩니다. 자동으로 바이두 검색 플러그인과 연결되어 질문 응답 정보의 시의성을 보장합니다. ERNIE 4.0에 비해 성능이 더욱 우수합니다."
55
+ },
56
+ "ERNIE-Character-8K": {
57
+ "description": "바이두가 자체 개발한 수직 장면 대언어 모델로, 게임 NPC, 고객 서비스 대화, 대화 역할 수행 등 다양한 응용 시나리오에 적합하며, 캐릭터 스타일이 더욱 뚜렷하고 일관되며, 지시 준수 능력이 더 강하고, 추론 성능이 우수합니다."
58
+ },
59
+ "ERNIE-Lite-Pro-128K": {
60
+ "description": "바이두가 자체 개발한 경량 대언어 모델로, 우수한 모델 효과와 추론 성능을 겸비하고 있으며, ERNIE Lite보다 더 나은 성능을 보여 저전력 AI 가속 카드에서의 추론 사용에 적합합니다."
61
+ },
62
+ "ERNIE-Speed-128K": {
63
+ "description": "바이두가 2024년에 최신 발표한 자체 개발 고성능 대언어 모델로, 일반 능력이 뛰어나며, 특정 시나리오 문제를 더 잘 처리하기 위해 기본 모델로 조정하는 데 적합하며, 뛰어난 추론 성능을 갖추고 있습니다."
64
+ },
65
+ "ERNIE-Speed-Pro-128K": {
66
+ "description": "바이두가 2024년에 최신 발표한 자체 개발 고성능 대언어 모델로, 일반 능력이 뛰어나며, ERNIE Speed보다 더 나은 성능을 보여 특정 시나리오 문제를 더 잘 처리하기 위해 기본 모델로 조정하는 데 적합하며, 뛰어난 추론 성능을 갖추고 있습니다."
67
+ },
35
68
  "Gryphe/MythoMax-L2-13b": {
36
69
  "description": "MythoMax-L2 (13B)는 혁신적인 모델로, 다양한 분야의 응용과 복잡한 작업에 적합합니다."
37
70
  },
@@ -401,6 +434,9 @@
401
434
  "glm-4-flash": {
402
435
  "description": "GLM-4-Flash는 간단한 작업을 처리하는 데 이상적인 선택으로, 가장 빠른 속도와 가장 저렴한 가격을 자랑합니다."
403
436
  },
437
+ "glm-4-flashx": {
438
+ "description": "GLM-4-FlashX는 Flash의 향상된 버전으로, 초고속 추론 속도를 자랑합니다."
439
+ },
404
440
  "glm-4-long": {
405
441
  "description": "GLM-4-Long는 초장 텍스트 입력을 지원하여 기억형 작업 및 대규모 문서 처리에 적합합니다."
406
442
  },
@@ -413,11 +449,11 @@
413
449
  "glm-4v-plus": {
414
450
  "description": "GLM-4V-Plus는 비디오 콘텐츠 및 다수의 이미지에 대한 이해 능력을 갖추고 있어 다중 모드 작업에 적합합니다."
415
451
  },
416
- "google/gemini-flash-1.5-exp": {
417
- "description": "Gemini 1.5 Flash 0827은 최적화된 다중 모달 처리 능력을 제공하며, 다양한 복잡한 작업 시나리오에 적합합니다."
452
+ "google/gemini-flash-1.5": {
453
+ "description": "Gemini 1.5 Flash 최적화된 다중 모달 처리 능력을 제공하며, 다양한 복잡한 작업 시나리오에 적합합니다."
418
454
  },
419
- "google/gemini-pro-1.5-exp": {
420
- "description": "Gemini 1.5 Pro 0827은 최신 최적화 기술을 결합하여 더 효율적인 다중 모달 데이터 처리 능력을 제공합니다."
455
+ "google/gemini-pro-1.5": {
456
+ "description": "Gemini 1.5 Pro 최신 최적화 기술을 결합하여 더 효율적인 다중 모달 데이터 처리 능력을 제공합니다."
421
457
  },
422
458
  "google/gemma-2-27b-it": {
423
459
  "description": "Gemma 2는 경량화와 효율적인 설계를 이어갑니다."
@@ -491,6 +527,33 @@
491
527
  "gryphe/mythomax-l2-13b": {
492
528
  "description": "MythoMax l2 13B는 여러 최상위 모델을 통합한 창의성과 지능이 결합된 언어 모델입니다."
493
529
  },
530
+ "hunyuan-code": {
531
+ "description": "혼원 최신 코드 생성 모델로, 200B 고품질 코드 데이터로 증훈된 기초 모델을 기반으로 하며, 6개월간 고품질 SFT 데이터 훈련을 거쳤습니다. 컨텍스트 길이는 8K로 증가하였으며, 다섯 가지 언어의 코드 생성 자동 평가 지표에서 상위에 위치하고 있습니다. 다섯 가지 언어의 10개 항목에서 종합 코드 작업의 인공지능 고품질 평가에서 성능이 1위입니다."
532
+ },
533
+ "hunyuan-functioncall": {
534
+ "description": "혼원 최신 MOE 구조의 FunctionCall 모델로, 고품질 FunctionCall 데이터 훈련을 거쳤으며, 컨텍스트 윈도우는 32K에 도달하고 여러 차원의 평가 지표에서 선두에 있습니다."
535
+ },
536
+ "hunyuan-lite": {
537
+ "description": "MOE 구조로 업그레이드되었으며, 컨텍스트 윈도우는 256k로 설정되어 NLP, 코드, 수학, 산업 등 여러 평가 집합에서 많은 오픈 소스 모델을 선도하고 있습니다."
538
+ },
539
+ "hunyuan-pro": {
540
+ "description": "조 단위 매개변수 규모의 MOE-32K 긴 문서 모델입니다. 다양한 벤치마크에서 절대적인 선두 수준에 도달하며, 복잡한 지시 및 추론, 복잡한 수학 능력을 갖추고 있으며, functioncall을 지원하고 다국어 번역, 금융, 법률, 의료 등 분야에서 최적화된 응용을 제공합니다."
541
+ },
542
+ "hunyuan-role": {
543
+ "description": "혼원 최신 버전의 역할 수행 모델로, 혼원 공식적으로 세밀하게 조정된 훈련을 통해 출시된 역할 수행 모델입니다. 혼원 모델과 역할 수행 시나리오 데이터 세트를 결합하여 증훈하였으며, 역할 수행 시나리오에서 더 나은 기본 성능을 제공합니다."
544
+ },
545
+ "hunyuan-standard": {
546
+ "description": "더 나은 라우팅 전략을 채택하여 부하 균형 및 전문가 수렴 문제를 완화했습니다. 긴 문서의 경우, 대해잡기 지표가 99.9%에 도달했습니다. MOE-32K는 상대적으로 더 높은 가성비를 제공하며, 효과와 가격의 균형을 맞추면서 긴 텍스트 입력 처리를 가능하게 합니다."
547
+ },
548
+ "hunyuan-standard-256K": {
549
+ "description": "더 나은 라우팅 전략을 채택하여 부하 균형 및 전문가 수렴 문제를 완화했습니다. 긴 문서의 경우, 대해잡기 지표가 99.9%에 도달했습니다. MOE-256K는 길이와 효과에서 더욱 발전하여 입력 길이를 크게 확장했습니다."
550
+ },
551
+ "hunyuan-turbo": {
552
+ "description": "혼원 최신 세대 대형 언어 모델의 미리보기 버전으로, 새로운 혼합 전문가 모델(MoE) 구조를 채택하여 hunyuan-pro보다 추론 효율이 더 빠르고 성능이 더 뛰어납니다."
553
+ },
554
+ "hunyuan-vision": {
555
+ "description": "혼원 최신 다중 모달 모델로, 이미지와 텍스트 입력을 지원하여 텍스트 콘텐츠를 생성합니다."
556
+ },
494
557
  "internlm/internlm2_5-20b-chat": {
495
558
  "description": "혁신적인 오픈 소스 모델 InternLM2.5는 대규모 파라미터를 통해 대화의 지능을 향상시킵니다."
496
559
  },
@@ -634,6 +697,12 @@
634
697
  "meta-llama/llama-3.1-8b-instruct:free": {
635
698
  "description": "LLaMA 3.1은 다국어 지원을 제공하며, 업계 최고의 생성 모델 중 하나입니다."
636
699
  },
700
+ "meta-llama/llama-3.2-11b-vision-instruct": {
701
+ "description": "LLaMA 3.2는 시각 및 텍스트 데이터를 결합한 작업을 처리하기 위해 설계되었습니다. 이미지 설명 및 시각적 질문 응답과 같은 작업에서 뛰어난 성능을 보이며, 언어 생성과 시각적 추론 간의 간극을 넘습니다."
702
+ },
703
+ "meta-llama/llama-3.2-90b-vision-instruct": {
704
+ "description": "LLaMA 3.2는 시각 및 텍스트 데이터를 결합한 작업을 처리하기 위해 설계되었습니다. 이미지 설명 및 시각적 질문 응답과 같은 작업에서 뛰어난 성능을 보이며, 언어 생성과 시각적 추론 간의 간극을 넘습니다."
705
+ },
637
706
  "meta.llama3-1-405b-instruct-v1:0": {
638
707
  "description": "Meta Llama 3.1 405B Instruct는 Llama 3.1 Instruct 모델 중 가장 크고 강력한 모델로, 고도로 발전된 대화 추론 및 합성 데이터 생성 모델입니다. 특정 분야에서 전문적인 지속적 사전 훈련 또는 미세 조정의 기초로도 사용될 수 있습니다. Llama 3.1이 제공하는 다국어 대형 언어 모델(LLMs)은 8B, 70B 및 405B 크기의 사전 훈련된 지시 조정 생성 모델로 구성되어 있습니다(텍스트 입력/출력). Llama 3.1 지시 조정 텍스트 모델(8B, 70B, 405B)은 다국어 대화 사용 사례에 최적화되어 있으며, 일반 산업 벤치마크 테스트에서 많은 오픈 소스 채팅 모델을 초과했습니다. Llama 3.1은 다양한 언어의 상업적 및 연구 용도로 설계되었습니다. 지시 조정 텍스트 모델은 비서와 유사한 채팅에 적합하며, 사전 훈련 모델은 다양한 자연어 생성 작업에 적응할 수 있습니다. Llama 3.1 모델은 또한 모델의 출력을 활용하여 다른 모델을 개선하는 것을 지원하며, 합성 데이터 생성 및 정제에 사용될 수 있습니다. Llama 3.1은 최적화된 변압기 아키텍처를 사용한 자기 회귀 언어 모델입니다. 조정된 버전은 감독 미세 조정(SFT) 및 인간 피드백이 포함된 강화 학습(RLHF)을 사용하여 인간의 도움 및 안전성 선호에 부합하도록 설계되었습니다."
639
708
  },
@@ -30,6 +30,9 @@
30
30
  "groq": {
31
31
  "description": "Groq의 LPU 추론 엔진은 최신 독립 대형 언어 모델(LLM) 벤치마크 테스트에서 뛰어난 성능을 보이며, 놀라운 속도와 효율성으로 AI 솔루션의 기준을 재정의하고 있습니다. Groq는 즉각적인 추론 속도의 대표주자로, 클라우드 기반 배포에서 우수한 성능을 보여줍니다."
32
32
  },
33
+ "hunyuan": {
34
+ "description": "텐센트가 개발한 대형 언어 모델로, 강력한 한국어 창작 능력과 복잡한 맥락에서의 논리적 추론 능력, 그리고 신뢰할 수 있는 작업 수행 능력을 갖추고 있습니다."
35
+ },
33
36
  "minimax": {
34
37
  "description": "MiniMax는 2021년에 설립된 일반 인공지능 기술 회사로, 사용자와 함께 지능을 공동 창출하는 데 전념하고 있습니다. MiniMax는 다양한 모드의 일반 대형 모델을 독자적으로 개발하였으며, 여기에는 조 단위의 MoE 텍스트 대형 모델, 음성 대형 모델 및 이미지 대형 모델이 포함됩니다. 또한 해마 AI와 같은 응용 프로그램을 출시하였습니다."
35
38
  },
@@ -75,6 +78,9 @@
75
78
  "upstage": {
76
79
  "description": "Upstage는 Solar LLM 및 문서 AI를 포함하여 다양한 비즈니스 요구를 위한 AI 모델 개발에 집중하고 있으며, 인공지능 일반 지능(AGI)을 실현하는 것을 목표로 하고 있습니다. Chat API를 통해 간단한 대화 에이전트를 생성하고 기능 호출, 번역, 임베딩 및 특정 분야 응용 프로그램을 지원합니다."
77
80
  },
81
+ "wenxin": {
82
+ "description": "기업용 원스톱 대형 모델 및 AI 네이티브 애플리케이션 개발 및 서비스 플랫폼으로, 가장 포괄적이고 사용하기 쉬운 생성적 인공지능 모델 개발 및 애플리케이션 개발 전체 프로세스 도구 체인을 제공합니다."
83
+ },
78
84
  "zeroone": {
79
85
  "description": "01.AI는 AI 2.0 시대의 인공지능 기술에 집중하며, '인간 + 인공지능'의 혁신과 응용을 적극적으로 추진하고, 초강력 모델과 고급 AI 기술을 활용하여 인간의 생산성을 향상시키고 기술의 힘을 실현합니다."
80
86
  },
@@ -81,6 +81,7 @@
81
81
  "PluginServerError": "Fout bij serverrespons voor plug-in. Controleer de foutinformatie hieronder voor uw plug-inbeschrijvingsbestand, plug-inconfiguratie of serverimplementatie",
82
82
  "PluginSettingsInvalid": "Deze plug-in moet correct geconfigureerd zijn voordat deze kan worden gebruikt. Controleer of uw configuratie juist is",
83
83
  "ProviderBizError": "Er is een fout opgetreden bij het aanvragen van de {{provider}}-service. Controleer de volgende informatie of probeer het opnieuw.",
84
+ "QuotaLimitReached": "Het spijt ons, het huidige tokenverbruik of het aantal verzoeken heeft de quota-limiet van deze sleutel bereikt. Verhoog de quota van deze sleutel of probeer het later opnieuw.",
84
85
  "StreamChunkError": "Fout bij het parseren van het berichtblok van de streamingaanroep. Controleer of de huidige API-interface voldoet aan de standaardnormen, of neem contact op met uw API-leverancier voor advies.",
85
86
  "SubscriptionPlanLimit": "Uw abonnementslimiet is bereikt en u kunt deze functie niet gebruiken. Upgrade naar een hoger plan of koop een resourcepakket om door te gaan met gebruiken.",
86
87
  "UnknownChatFetchError": "Het spijt me, er is een onbekende verzoekfout opgetreden. Controleer de onderstaande informatie of probeer het opnieuw."
@@ -112,6 +112,26 @@
112
112
  "title": "Download specified Ollama model"
113
113
  }
114
114
  },
115
+ "wenxin": {
116
+ "accessKey": {
117
+ "desc": "Vul de Access Key van het Baidu Qianfan-platform in",
118
+ "placeholder": "Qianfan Access Key",
119
+ "title": "Access Key"
120
+ },
121
+ "checker": {
122
+ "desc": "Test of de AccessKey / SecretAccess correct is ingevuld"
123
+ },
124
+ "secretKey": {
125
+ "desc": "Vul de Secret Key van het Baidu Qianfan-platform in",
126
+ "placeholder": "Qianfan Secret Key",
127
+ "title": "Secret Key"
128
+ },
129
+ "unlock": {
130
+ "customRegion": "Aangepaste servicegebied",
131
+ "description": "Voer je AccessKey / SecretKey in om de sessie te starten. De applicatie zal je authenticatie-instellingen niet opslaan",
132
+ "title": "Gebruik aangepaste Wenxin Yiyan-authenticatie-informatie"
133
+ }
134
+ },
115
135
  "zeroone": {
116
136
  "title": "01.AI Nul Een Alles"
117
137
  },