@lobehub/chat 1.51.8 → 1.51.10

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (63) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/locales/ar/common.json +1 -1
  4. package/locales/ar/modelProvider.json +0 -20
  5. package/locales/ar/models.json +108 -3
  6. package/locales/bg-BG/common.json +1 -1
  7. package/locales/bg-BG/modelProvider.json +0 -20
  8. package/locales/bg-BG/models.json +108 -3
  9. package/locales/de-DE/common.json +1 -1
  10. package/locales/de-DE/modelProvider.json +0 -20
  11. package/locales/de-DE/models.json +108 -3
  12. package/locales/en-US/common.json +1 -1
  13. package/locales/en-US/modelProvider.json +0 -20
  14. package/locales/en-US/models.json +108 -3
  15. package/locales/es-ES/common.json +1 -1
  16. package/locales/es-ES/modelProvider.json +0 -20
  17. package/locales/es-ES/models.json +108 -3
  18. package/locales/fa-IR/common.json +1 -1
  19. package/locales/fa-IR/modelProvider.json +0 -20
  20. package/locales/fa-IR/models.json +108 -3
  21. package/locales/fr-FR/common.json +1 -1
  22. package/locales/fr-FR/modelProvider.json +0 -20
  23. package/locales/fr-FR/models.json +108 -3
  24. package/locales/it-IT/common.json +1 -1
  25. package/locales/it-IT/modelProvider.json +0 -20
  26. package/locales/it-IT/models.json +108 -3
  27. package/locales/ja-JP/common.json +1 -1
  28. package/locales/ja-JP/modelProvider.json +0 -20
  29. package/locales/ja-JP/models.json +108 -3
  30. package/locales/ko-KR/common.json +1 -1
  31. package/locales/ko-KR/modelProvider.json +0 -20
  32. package/locales/ko-KR/models.json +108 -3
  33. package/locales/nl-NL/common.json +1 -1
  34. package/locales/nl-NL/modelProvider.json +0 -20
  35. package/locales/nl-NL/models.json +108 -3
  36. package/locales/pl-PL/common.json +1 -1
  37. package/locales/pl-PL/modelProvider.json +0 -20
  38. package/locales/pl-PL/models.json +108 -3
  39. package/locales/pt-BR/common.json +1 -1
  40. package/locales/pt-BR/modelProvider.json +0 -20
  41. package/locales/pt-BR/models.json +108 -3
  42. package/locales/ru-RU/common.json +1 -1
  43. package/locales/ru-RU/modelProvider.json +0 -20
  44. package/locales/ru-RU/models.json +108 -3
  45. package/locales/tr-TR/common.json +1 -1
  46. package/locales/tr-TR/modelProvider.json +0 -20
  47. package/locales/tr-TR/models.json +108 -3
  48. package/locales/vi-VN/common.json +1 -1
  49. package/locales/vi-VN/modelProvider.json +0 -20
  50. package/locales/vi-VN/models.json +108 -3
  51. package/locales/zh-CN/common.json +1 -1
  52. package/locales/zh-CN/modelProvider.json +0 -20
  53. package/locales/zh-CN/models.json +113 -8
  54. package/locales/zh-TW/common.json +1 -1
  55. package/locales/zh-TW/modelProvider.json +0 -20
  56. package/locales/zh-TW/models.json +108 -3
  57. package/package.json +1 -1
  58. package/src/app/[variants]/(main)/chat/_layout/Desktop/SessionPanel.tsx +2 -1
  59. package/src/app/[variants]/(main)/chat/_layout/Mobile.tsx +2 -1
  60. package/src/app/[variants]/(main)/chat/layout.ts +0 -2
  61. package/src/app/[variants]/(main)/settings/provider/(detail)/[id]/page.tsx +30 -28
  62. package/src/features/User/PlanTag.tsx +2 -2
  63. package/src/locales/default/common.ts +1 -1
@@ -23,6 +23,9 @@
23
23
  "360gpt2-pro": {
24
24
  "description": "360GPT2 Pro è un modello avanzato di elaborazione del linguaggio naturale lanciato da 360, con eccellenti capacità di generazione e comprensione del testo, in particolare nel campo della generazione e creazione, capace di gestire compiti complessi di conversione linguistica e interpretazione di ruoli."
25
25
  },
26
+ "360zhinao2-o1": {
27
+ "description": "360zhinao2-o1 utilizza la ricerca ad albero per costruire catene di pensiero e introduce un meccanismo di riflessione, addestrato tramite apprendimento rinforzato, dotando il modello della capacità di auto-riflessione e correzione degli errori."
28
+ },
26
29
  "4.0Ultra": {
27
30
  "description": "Spark4.0 Ultra è la versione più potente della serie di modelli Spark, migliorando la comprensione e la sintesi del contenuto testuale mentre aggiorna il collegamento alla ricerca online. È una soluzione completa per migliorare la produttività lavorativa e rispondere con precisione alle esigenze, rappresentando un prodotto intelligente all'avanguardia nel settore."
28
31
  },
@@ -44,6 +47,18 @@
44
47
  "Baichuan4-Turbo": {
45
48
  "description": "Il modello con le migliori capacità in patria, supera i modelli principali esteri in compiti cinesi come enciclopedie, testi lunghi e creazione di contenuti. Possiede anche capacità multimodali leader del settore, con prestazioni eccellenti in vari benchmark di valutazione."
46
49
  },
50
+ "DeepSeek-R1-Distill-Qwen-1.5B": {
51
+ "description": "Il modello di distillazione DeepSeek-R1 basato su Qwen2.5-Math-1.5B ottimizza le prestazioni di inferenza attraverso l'apprendimento rinforzato e dati di avvio a freddo, aggiornando il benchmark multi-task del modello open source."
52
+ },
53
+ "DeepSeek-R1-Distill-Qwen-14B": {
54
+ "description": "Il modello di distillazione DeepSeek-R1 basato su Qwen2.5-14B ottimizza le prestazioni di inferenza attraverso l'apprendimento rinforzato e dati di avvio a freddo, aggiornando il benchmark multi-task del modello open source."
55
+ },
56
+ "DeepSeek-R1-Distill-Qwen-32B": {
57
+ "description": "La serie DeepSeek-R1 ottimizza le prestazioni di inferenza attraverso l'apprendimento rinforzato e dati di avvio a freddo, aggiornando il benchmark multi-task del modello open source, superando il livello di OpenAI-o1-mini."
58
+ },
59
+ "DeepSeek-R1-Distill-Qwen-7B": {
60
+ "description": "Il modello di distillazione DeepSeek-R1 basato su Qwen2.5-Math-7B ottimizza le prestazioni di inferenza attraverso l'apprendimento rinforzato e dati di avvio a freddo, aggiornando il benchmark multi-task del modello open source."
61
+ },
47
62
  "Doubao-lite-128k": {
48
63
  "description": "Doubao-lite offre un'estrema velocità di risposta, un miglior rapporto qualità-prezzo e opzioni più flessibili per diversi scenari dei clienti. Supporta inferenze e fine-tuning con una finestra di contesto di 128k."
49
64
  },
@@ -77,9 +92,6 @@
77
92
  "ERNIE-4.0-8K-Preview": {
78
93
  "description": "Modello di linguaggio di grande scala ultra avanzato sviluppato da Baidu, che rispetto a ERNIE 3.5 ha subito un aggiornamento completo delle capacità del modello, ampiamente applicabile a scenari di compiti complessi in vari settori; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
79
94
  },
80
- "ERNIE-4.0-Turbo-128K": {
81
- "description": "Modello di linguaggio di grande scala di punta sviluppato da Baidu, con prestazioni eccellenti in vari scenari di compiti complessi; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte. Rispetto a ERNIE 4.0, offre prestazioni superiori."
82
- },
83
95
  "ERNIE-4.0-Turbo-8K-Latest": {
84
96
  "description": "Il modello linguistico ultra grande di Baidu, auto-sviluppato, offre eccellenti prestazioni generali, ampiamente utilizzabile in scenari complessi di vari settori; supporta l'integrazione automatica dei plugin di ricerca di Baidu, garantendo l'attualità delle informazioni nelle risposte. Rispetto a ERNIE 4.0, offre prestazioni superiori."
85
97
  },
@@ -176,6 +188,9 @@
176
188
  "Pro/meta-llama/Meta-Llama-3.1-8B-Instruct": {
177
189
  "description": "Meta Llama 3.1 è una famiglia di modelli linguistici di grandi dimensioni multilingue sviluppata da Meta, che include varianti pre-addestrate e con fine-tuning per istruzioni con dimensioni di 8B, 70B e 405B. Questo modello di fine-tuning per istruzioni da 8B è ottimizzato per scenari di dialogo multilingue e ha dimostrato prestazioni eccellenti in vari benchmark di settore. L'addestramento del modello ha utilizzato oltre 150 trilioni di token di dati pubblici e ha impiegato tecniche come il fine-tuning supervisionato e l'apprendimento per rinforzo basato su feedback umano per migliorare l'utilità e la sicurezza del modello. Llama 3.1 supporta la generazione di testi e di codice, con una data di scadenza delle conoscenze fissata a dicembre 2023."
178
190
  },
191
+ "QwQ-32B-Preview": {
192
+ "description": "QwQ-32B-Preview è un modello di elaborazione del linguaggio naturale innovativo, in grado di gestire in modo efficiente compiti complessi di generazione di dialoghi e comprensione del contesto."
193
+ },
179
194
  "Qwen/QVQ-72B-Preview": {
180
195
  "description": "QVQ-72B-Preview è un modello di ricerca sviluppato dal team Qwen, focalizzato sulle capacità di inferenza visiva, con vantaggi unici nella comprensione di scenari complessi e nella risoluzione di problemi matematici legati alla visione."
181
196
  },
@@ -527,6 +542,24 @@
527
542
  "deepseek-ai/DeepSeek-R1": {
528
543
  "description": "DeepSeek-R1 è un modello di inferenza guidato da apprendimento rinforzato (RL) che affronta i problemi di ripetitività e leggibilità nel modello. Prima dell'RL, DeepSeek-R1 ha introdotto dati di cold start, ottimizzando ulteriormente le prestazioni di inferenza. Si comporta in modo comparabile a OpenAI-o1 in compiti matematici, di codifica e di inferenza, e migliora l'efficacia complessiva attraverso metodi di addestramento accuratamente progettati."
529
544
  },
545
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
546
+ "description": "Il modello di distillazione DeepSeek-R1 ottimizza le prestazioni di inferenza attraverso l'apprendimento rinforzato e dati di avvio a freddo, aggiornando il benchmark multi-task del modello open source."
547
+ },
548
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-8B": {
549
+ "description": "DeepSeek-R1-Distill-Llama-8B è un modello di distillazione sviluppato sulla base di Llama-3.1-8B. Questo modello è stato messo a punto utilizzando campioni generati da DeepSeek-R1, mostrando eccellenti capacità di inferenza. Ha ottenuto buoni risultati in vari test di benchmark, raggiungendo un'accuratezza dell'89,1% in MATH-500, una percentuale di passaggio del 50,4% in AIME 2024 e un punteggio di 1205 su CodeForces, dimostrando forti capacità matematiche e di programmazione come modello di dimensioni 8B."
550
+ },
551
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
552
+ "description": "Il modello di distillazione DeepSeek-R1 ottimizza le prestazioni di inferenza attraverso l'apprendimento rinforzato e dati di avvio a freddo, aggiornando il benchmark multi-task del modello open source."
553
+ },
554
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
555
+ "description": "Il modello di distillazione DeepSeek-R1 ottimizza le prestazioni di inferenza attraverso l'apprendimento rinforzato e dati di avvio a freddo, aggiornando il benchmark multi-task del modello open source."
556
+ },
557
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
558
+ "description": "DeepSeek-R1-Distill-Qwen-32B è un modello ottenuto tramite distillazione della conoscenza basato su Qwen2.5-32B. Questo modello è stato messo a punto utilizzando 800.000 campioni selezionati generati da DeepSeek-R1, mostrando prestazioni eccezionali in vari campi come matematica, programmazione e ragionamento. Ha ottenuto risultati eccellenti in vari test di benchmark, raggiungendo un'accuratezza del 94,3% in MATH-500, dimostrando una forte capacità di ragionamento matematico."
559
+ },
560
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
561
+ "description": "DeepSeek-R1-Distill-Qwen-7B è un modello ottenuto tramite distillazione della conoscenza basato su Qwen2.5-Math-7B. Questo modello è stato messo a punto utilizzando 800.000 campioni selezionati generati da DeepSeek-R1, mostrando eccellenti capacità di inferenza. Ha ottenuto risultati eccezionali in vari test di benchmark, raggiungendo un'accuratezza del 92,8% in MATH-500, una percentuale di passaggio del 55,5% in AIME 2024 e un punteggio di 1189 su CodeForces, dimostrando forti capacità matematiche e di programmazione come modello di dimensioni 7B."
562
+ },
530
563
  "deepseek-ai/DeepSeek-V2.5": {
531
564
  "description": "DeepSeek V2.5 combina le eccellenti caratteristiche delle versioni precedenti, migliorando le capacità generali e di codifica."
532
565
  },
@@ -554,6 +587,9 @@
554
587
  "deepseek-r1": {
555
588
  "description": "DeepSeek-R1 è un modello di inferenza guidato da apprendimento rinforzato (RL) che affronta i problemi di ripetitività e leggibilità nel modello. Prima dell'RL, DeepSeek-R1 ha introdotto dati di cold start, ottimizzando ulteriormente le prestazioni di inferenza. Si comporta in modo comparabile a OpenAI-o1 in compiti matematici, di codifica e di inferenza, e migliora l'efficacia complessiva attraverso metodi di addestramento accuratamente progettati."
556
589
  },
590
+ "deepseek-r1-distill-llama-70b": {
591
+ "description": "DeepSeek R1 - il modello più grande e intelligente del pacchetto DeepSeek - è stato distillato nell'architettura Llama 70B. Basato su test di benchmark e valutazioni umane, questo modello è più intelligente del Llama 70B originale, mostrando prestazioni eccezionali in compiti che richiedono precisione matematica e fattuale."
592
+ },
557
593
  "deepseek-reasoner": {
558
594
  "description": "Modello di ragionamento lanciato da DeepSeek. Prima di fornire la risposta finale, il modello genera una catena di pensiero per migliorare l'accuratezza della risposta finale."
559
595
  },
@@ -563,12 +599,63 @@
563
599
  "deepseek-v2:236b": {
564
600
  "description": "DeepSeek V2 236B è il modello di codice progettato di DeepSeek, offre potenti capacità di generazione di codice."
565
601
  },
602
+ "deepseek-v3": {
603
+ "description": "DeepSeek-V3 è un modello MoE sviluppato internamente da Hangzhou DeepSeek Artificial Intelligence Technology Research Co., Ltd., con risultati eccezionali in molteplici valutazioni, posizionandosi al primo posto tra i modelli open source nelle classifiche principali. Rispetto al modello V2.5, la velocità di generazione è aumentata di 3 volte, offrendo un'esperienza utente più rapida e fluida."
604
+ },
566
605
  "deepseek/deepseek-chat": {
567
606
  "description": "Un nuovo modello open source che integra capacità generali e di codice, mantenendo non solo le capacità di dialogo generali del modello Chat originale e la potente capacità di elaborazione del codice del modello Coder, ma allineandosi anche meglio alle preferenze umane. Inoltre, DeepSeek-V2.5 ha ottenuto notevoli miglioramenti in vari aspetti, come compiti di scrittura e seguire istruzioni."
568
607
  },
569
608
  "emohaa": {
570
609
  "description": "Emohaa è un modello psicologico, con capacità di consulenza professionale, aiuta gli utenti a comprendere i problemi emotivi."
571
610
  },
611
+ "ernie-3.5-128k": {
612
+ "description": "Il modello di linguaggio di grandi dimensioni di punta sviluppato internamente da Baidu, coprendo un'enorme quantità di dati in cinese e inglese, con forti capacità generali, in grado di soddisfare la maggior parte delle esigenze di domande e risposte, generazione creativa e scenari di applicazione di plugin; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
613
+ },
614
+ "ernie-3.5-8k": {
615
+ "description": "Il modello di linguaggio di grandi dimensioni di punta sviluppato internamente da Baidu, coprendo un'enorme quantità di dati in cinese e inglese, con forti capacità generali, in grado di soddisfare la maggior parte delle esigenze di domande e risposte, generazione creativa e scenari di applicazione di plugin; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
616
+ },
617
+ "ernie-3.5-8k-preview": {
618
+ "description": "Il modello di linguaggio di grandi dimensioni di punta sviluppato internamente da Baidu, coprendo un'enorme quantità di dati in cinese e inglese, con forti capacità generali, in grado di soddisfare la maggior parte delle esigenze di domande e risposte, generazione creativa e scenari di applicazione di plugin; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
619
+ },
620
+ "ernie-4.0-8k-latest": {
621
+ "description": "Il modello di linguaggio di grandi dimensioni di punta sviluppato internamente da Baidu, con un aggiornamento completo delle capacità rispetto a ERNIE 3.5, ampiamente applicabile a scenari di compiti complessi in vari campi; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
622
+ },
623
+ "ernie-4.0-8k-preview": {
624
+ "description": "Il modello di linguaggio di grandi dimensioni di punta sviluppato internamente da Baidu, con un aggiornamento completo delle capacità rispetto a ERNIE 3.5, ampiamente applicabile a scenari di compiti complessi in vari campi; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte."
625
+ },
626
+ "ernie-4.0-turbo-128k": {
627
+ "description": "Il modello di linguaggio di grandi dimensioni di punta sviluppato internamente da Baidu, con prestazioni complessive eccezionali, ampiamente applicabile a scenari di compiti complessi in vari campi; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte. Rispetto a ERNIE 4.0, offre prestazioni migliori."
628
+ },
629
+ "ernie-4.0-turbo-8k-latest": {
630
+ "description": "Il modello di linguaggio di grandi dimensioni di punta sviluppato internamente da Baidu, con prestazioni complessive eccezionali, ampiamente applicabile a scenari di compiti complessi in vari campi; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte. Rispetto a ERNIE 4.0, offre prestazioni migliori."
631
+ },
632
+ "ernie-4.0-turbo-8k-preview": {
633
+ "description": "Il modello di linguaggio di grandi dimensioni di punta sviluppato internamente da Baidu, con prestazioni complessive eccezionali, ampiamente applicabile a scenari di compiti complessi in vari campi; supporta l'integrazione automatica con il plugin di ricerca di Baidu, garantendo l'aggiornamento delle informazioni nelle risposte. Rispetto a ERNIE 4.0, offre prestazioni migliori."
634
+ },
635
+ "ernie-char-8k": {
636
+ "description": "Un modello di linguaggio di grandi dimensioni sviluppato internamente da Baidu, adatto per scenari di applicazione come NPC nei giochi, dialoghi di assistenza clienti e interpretazione di ruoli nei dialoghi, con uno stile di personaggio più distintivo e coerente, capacità di seguire istruzioni più forti e prestazioni di inferenza migliori."
637
+ },
638
+ "ernie-char-fiction-8k": {
639
+ "description": "Un modello di linguaggio di grandi dimensioni sviluppato internamente da Baidu, adatto per scenari di applicazione come NPC nei giochi, dialoghi di assistenza clienti e interpretazione di ruoli nei dialoghi, con uno stile di personaggio più distintivo e coerente, capacità di seguire istruzioni più forti e prestazioni di inferenza migliori."
640
+ },
641
+ "ernie-lite-8k": {
642
+ "description": "ERNIE Lite è un modello di linguaggio di grandi dimensioni sviluppato internamente da Baidu, che bilancia prestazioni eccellenti del modello e prestazioni di inferenza, adatto per l'uso con schede di accelerazione AI a bassa potenza."
643
+ },
644
+ "ernie-lite-pro-128k": {
645
+ "description": "Un modello di linguaggio di grandi dimensioni leggero sviluppato internamente da Baidu, che bilancia prestazioni eccellenti del modello e prestazioni di inferenza, con risultati migliori rispetto a ERNIE Lite, adatto per l'uso con schede di accelerazione AI a bassa potenza."
646
+ },
647
+ "ernie-novel-8k": {
648
+ "description": "Un modello di linguaggio di grandi dimensioni sviluppato internamente da Baidu, con un evidente vantaggio nella capacità di continuare romanzi, utilizzabile anche in scenari come cortometraggi e film."
649
+ },
650
+ "ernie-speed-128k": {
651
+ "description": "Il modello di linguaggio di grandi dimensioni ad alte prestazioni sviluppato internamente da Baidu, rilasciato nel 2024, con capacità generali eccellenti, adatto come modello di base per la messa a punto, per affrontare meglio i problemi specifici, mantenendo eccellenti prestazioni di inferenza."
652
+ },
653
+ "ernie-speed-pro-128k": {
654
+ "description": "Il modello di linguaggio di grandi dimensioni ad alte prestazioni sviluppato internamente da Baidu, rilasciato nel 2024, con capacità generali eccellenti, con risultati migliori rispetto a ERNIE Speed, adatto come modello di base per la messa a punto, per affrontare meglio i problemi specifici, mantenendo eccellenti prestazioni di inferenza."
655
+ },
656
+ "ernie-tiny-8k": {
657
+ "description": "ERNIE Tiny è un modello di linguaggio di grandi dimensioni ad alte prestazioni sviluppato internamente da Baidu, con i costi di distribuzione e messa a punto più bassi della serie Wencin."
658
+ },
572
659
  "gemini-1.0-pro-001": {
573
660
  "description": "Gemini 1.0 Pro 001 (Tuning) offre prestazioni stabili e ottimizzabili, è la scelta ideale per soluzioni a compiti complessi."
574
661
  },
@@ -872,6 +959,9 @@
872
959
  "internlm2.5-latest": {
873
960
  "description": "La nostra ultima serie di modelli, con prestazioni di ragionamento eccezionali, supporta una lunghezza di contesto di 1M e offre una migliore capacità di seguire istruzioni e chiamare strumenti."
874
961
  },
962
+ "internlm3-latest": {
963
+ "description": "La nostra ultima serie di modelli, con prestazioni di inferenza eccezionali, è leader tra i modelli open source della stessa classe. Punta di default ai modelli della serie InternLM3 appena rilasciati."
964
+ },
875
965
  "learnlm-1.5-pro-experimental": {
876
966
  "description": "LearnLM è un modello linguistico sperimentale, specifico per compiti, addestrato per rispettare i principi della scienza dell'apprendimento, in grado di seguire istruzioni sistematiche in contesti di insegnamento e apprendimento, fungendo da tutor esperto."
877
967
  },
@@ -986,6 +1076,9 @@
986
1076
  "meta-llama/Llama-3.3-70B-Instruct": {
987
1077
  "description": "Llama 3.3 è il modello di linguaggio open source multilingue più avanzato della serie Llama, che offre prestazioni paragonabili a un modello da 405B a costi molto bassi. Basato su architettura Transformer, migliorato tramite fine-tuning supervisionato (SFT) e apprendimento rinforzato con feedback umano (RLHF) per aumentarne l'utilità e la sicurezza. La sua versione ottimizzata per le istruzioni è progettata per dialoghi multilingue, superando molti modelli di chat open source e chiusi in vari benchmark di settore. Data di scadenza delle conoscenze: dicembre 2023."
988
1078
  },
1079
+ "meta-llama/Llama-3.3-70B-Instruct-Turbo": {
1080
+ "description": "Il modello di linguaggio di grandi dimensioni multilingue Meta Llama 3.3 (LLM) è un modello generativo pre-addestrato e regolato per istruzioni da 70B (input/output di testo). Il modello di testo puro di Llama 3.3 regolato per istruzioni è ottimizzato per casi d'uso di dialogo multilingue e supera molti modelli di chat open source e chiusi disponibili su benchmark di settore comuni."
1081
+ },
989
1082
  "meta-llama/Llama-Vision-Free": {
990
1083
  "description": "LLaMA 3.2 è progettato per gestire compiti che combinano dati visivi e testuali. Eccelle in compiti come la descrizione di immagini e le domande visive, colmando il divario tra generazione del linguaggio e ragionamento visivo."
991
1084
  },
@@ -1256,6 +1349,9 @@
1256
1349
  "qwen-vl-max-latest": {
1257
1350
  "description": "Modello di linguaggio visivo Qwen di grande scala. Rispetto alla versione potenziata, migliora ulteriormente la capacità di ragionamento visivo e di aderenza alle istruzioni, offrendo un livello superiore di percezione visiva e cognizione."
1258
1351
  },
1352
+ "qwen-vl-ocr-latest": {
1353
+ "description": "Qwen OCR è un modello specializzato nell'estrazione di testo, focalizzato sulla capacità di estrazione di testo da immagini di documenti, tabelle, domande d'esame, scrittura a mano, ecc. È in grado di riconoscere vari testi, supportando attualmente le seguenti lingue: cinese, inglese, francese, giapponese, coreano, tedesco, russo, italiano, vietnamita, arabo."
1354
+ },
1259
1355
  "qwen-vl-plus-latest": {
1260
1356
  "description": "Versione potenziata del modello di linguaggio visivo Qwen. Migliora notevolmente la capacità di riconoscimento dei dettagli e di riconoscimento del testo, supportando risoluzioni superiori a un milione di pixel e immagini di qualsiasi rapporto di aspetto."
1261
1357
  },
@@ -1274,6 +1370,9 @@
1274
1370
  "qwen2.5-14b-instruct": {
1275
1371
  "description": "Modello da 14B di Tongyi Qwen 2.5, open source."
1276
1372
  },
1373
+ "qwen2.5-14b-instruct-1m": {
1374
+ "description": "Il modello da 72B di Qwen2.5 è open source."
1375
+ },
1277
1376
  "qwen2.5-32b-instruct": {
1278
1377
  "description": "Modello da 32B di Tongyi Qwen 2.5, open source."
1279
1378
  },
@@ -1301,6 +1400,12 @@
1301
1400
  "qwen2.5-math-7b-instruct": {
1302
1401
  "description": "Il modello Qwen-Math ha potenti capacità di risoluzione di problemi matematici."
1303
1402
  },
1403
+ "qwen2.5-vl-72b-instruct": {
1404
+ "description": "Miglioramento complessivo nella seguire istruzioni, matematica, risoluzione di problemi e codice, con capacità di riconoscimento universale migliorate, supporto per formati diversi per il posizionamento preciso degli elementi visivi, comprensione di file video lunghi (fino a 10 minuti) e localizzazione di eventi in tempo reale, capacità di comprendere sequenze temporali e velocità, supporto per il controllo di agenti OS o Mobile basato su capacità di analisi e localizzazione, forte capacità di estrazione di informazioni chiave e output in formato Json, questa versione è la 72B, la versione più potente della serie."
1405
+ },
1406
+ "qwen2.5-vl-7b-instruct": {
1407
+ "description": "Miglioramento complessivo nella seguire istruzioni, matematica, risoluzione di problemi e codice, con capacità di riconoscimento universale migliorate, supporto per formati diversi per il posizionamento preciso degli elementi visivi, comprensione di file video lunghi (fino a 10 minuti) e localizzazione di eventi in tempo reale, capacità di comprendere sequenze temporali e velocità, supporto per il controllo di agenti OS o Mobile basato su capacità di analisi e localizzazione, forte capacità di estrazione di informazioni chiave e output in formato Json, questa versione è la 72B, la versione più potente della serie."
1408
+ },
1304
1409
  "qwen2.5:0.5b": {
1305
1410
  "description": "Qwen2.5 è la nuova generazione di modelli linguistici su larga scala di Alibaba, che supporta esigenze applicative diversificate con prestazioni eccellenti."
1306
1411
  },
@@ -286,6 +286,7 @@
286
286
  "anonymousNickName": "匿名ユーザー",
287
287
  "billing": "請求管理",
288
288
  "cloud": "{{name}} を体験",
289
+ "community": "コミュニティ版",
289
290
  "data": "データストレージ",
290
291
  "defaultNickname": "コミュニティユーザー",
291
292
  "discord": "コミュニティサポート",
@@ -295,7 +296,6 @@
295
296
  "help": "ヘルプセンター",
296
297
  "moveGuide": "設定ボタンがこちらに移動しました",
297
298
  "plans": "サブスクリプションプラン",
298
- "preview": "プレビュー",
299
299
  "profile": "アカウント管理",
300
300
  "setting": "アプリ設定",
301
301
  "usages": "利用量統計"
@@ -294,26 +294,6 @@
294
294
  "tooltip": "サービスプロバイダーの基本設定を更新",
295
295
  "updateSuccess": "更新に成功しました"
296
296
  },
297
- "wenxin": {
298
- "accessKey": {
299
- "desc": "百度千帆プラットフォームのAccess Keyを入力してください",
300
- "placeholder": "Qianfan Access Key",
301
- "title": "Access Key"
302
- },
303
- "checker": {
304
- "desc": "AccessKey / SecretAccessが正しく入力されているかテストします"
305
- },
306
- "secretKey": {
307
- "desc": "百度千帆プラットフォームのSecret Keyを入力してください",
308
- "placeholder": "Qianfan Secret Key",
309
- "title": "Secret Key"
310
- },
311
- "unlock": {
312
- "customRegion": "カスタムサービス地域",
313
- "description": "AccessKey / SecretKeyを入力することでセッションを開始できます。アプリはあなたの認証設定を記録しません",
314
- "title": "カスタム文心一言認証情報を使用"
315
- }
316
- },
317
297
  "zeroone": {
318
298
  "title": "01.AI 零一万物"
319
299
  },
@@ -23,6 +23,9 @@
23
23
  "360gpt2-pro": {
24
24
  "description": "360GPT2 Proは360社が発表した高級自然言語処理モデルで、卓越したテキスト生成と理解能力を備え、特に生成と創作の分野で優れたパフォーマンスを発揮し、複雑な言語変換や役割演技タスクを処理できます。"
25
25
  },
26
+ "360zhinao2-o1": {
27
+ "description": "360zhinao2-o1は、木探索を使用して思考の連鎖を構築し、反省メカニズムを導入し、強化学習で訓練され、自己反省と誤り訂正の能力を備えています。"
28
+ },
26
29
  "4.0Ultra": {
27
30
  "description": "Spark4.0 Ultraは星火大モデルシリーズの中で最も強力なバージョンで、ネットワーク検索のリンクをアップグレードし、テキストコンテンツの理解と要約能力を向上させています。これは、オフィスの生産性を向上させ、要求に正確に応えるための全方位のソリューションであり、業界をリードするインテリジェントな製品です。"
28
31
  },
@@ -44,6 +47,18 @@
44
47
  "Baichuan4-Turbo": {
45
48
  "description": "モデル能力は国内で第一であり、知識百科、長文、生成創作などの中国語タスクで海外の主流モデルを超えています。また、業界をリードするマルチモーダル能力を持ち、多くの権威ある評価基準で優れたパフォーマンスを示しています。"
46
49
  },
50
+ "DeepSeek-R1-Distill-Qwen-1.5B": {
51
+ "description": "Qwen2.5-Math-1.5Bに基づくDeepSeek-R1蒸留モデルで、強化学習とコールドスタートデータを通じて推論性能を最適化し、オープンソースモデルがマルチタスクの基準を刷新しました。"
52
+ },
53
+ "DeepSeek-R1-Distill-Qwen-14B": {
54
+ "description": "Qwen2.5-14Bに基づくDeepSeek-R1蒸留モデルで、強化学習とコールドスタートデータを通じて推論性能を最適化し、オープンソースモデルがマルチタスクの基準を刷新しました。"
55
+ },
56
+ "DeepSeek-R1-Distill-Qwen-32B": {
57
+ "description": "DeepSeek-R1シリーズは、強化学習とコールドスタートデータを通じて推論性能を最適化し、オープンソースモデルがマルチタスクの基準を刷新し、OpenAI-o1-miniのレベルを超えました。"
58
+ },
59
+ "DeepSeek-R1-Distill-Qwen-7B": {
60
+ "description": "Qwen2.5-Math-7Bに基づくDeepSeek-R1蒸留モデルで、強化学習とコールドスタートデータを通じて推論性能を最適化し、オープンソースモデルがマルチタスクの基準を刷新しました。"
61
+ },
47
62
  "Doubao-lite-128k": {
48
63
  "description": "Doubao-liteは、極めて高速な応答速度と優れたコストパフォーマンスを備え、顧客のさまざまなシーンに柔軟な選択肢を提供します。128kコンテキストウィンドウの推論と微調整をサポートしています。"
49
64
  },
@@ -77,9 +92,6 @@
77
92
  "ERNIE-4.0-8K-Preview": {
78
93
  "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、ERNIE 3.5に比べてモデル能力が全面的にアップグレードされ、さまざまな分野の複雑なタスクシナリオに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。"
79
94
  },
80
- "ERNIE-4.0-Turbo-128K": {
81
- "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、総合的な効果が優れており、さまざまな分野の複雑なタスクシーンに広く適用可能です。百度検索プラグインとの自動接続をサポートし、問答情報のタイムリーさを保証します。ERNIE 4.0に比べて性能がさらに優れています。"
82
- },
83
95
  "ERNIE-4.0-Turbo-8K-Latest": {
84
96
  "description": "百度が自主開発したフラッグシップの超大規模な言語モデルで、総合的なパフォーマンスが優れており、各分野の複雑なタスクシナリオに広く適応します;百度検索プラグインとの自動連携をサポートし、質問応答情報のタイムリーさを保証します。ERNIE 4.0に比べてパフォーマンスが向上しています。"
85
97
  },
@@ -176,6 +188,9 @@
176
188
  "Pro/meta-llama/Meta-Llama-3.1-8B-Instruct": {
177
189
  "description": "Meta Llama 3.1はMetaが開発した多言語大規模言語モデルファミリーで、8B、70B、405Bの3つのパラメータ規模の事前訓練および指示微調整バリアントを含みます。この8B指示微調整モデルは多言語対話シーンに最適化されており、複数の業界ベンチマークテストで優れたパフォーマンスを示しています。モデルの訓練には150兆トークン以上の公開データが使用され、監視微調整や人間のフィードバック強化学習などの技術が採用され、モデルの有用性と安全性が向上しています。Llama 3.1はテキスト生成とコード生成をサポートし、知識のカットオフ日は2023年12月です。"
178
190
  },
191
+ "QwQ-32B-Preview": {
192
+ "description": "QwQ-32B-Previewは、複雑な対話生成と文脈理解タスクを効率的に処理できる革新的な自然言語処理モデルです。"
193
+ },
179
194
  "Qwen/QVQ-72B-Preview": {
180
195
  "description": "QVQ-72B-Previewは、Qwenチームによって開発された視覚推論能力に特化した研究モデルであり、複雑なシーン理解と視覚関連の数学問題を解決する上で独自の利点を持っています。"
181
196
  },
@@ -527,6 +542,24 @@
527
542
  "deepseek-ai/DeepSeek-R1": {
528
543
  "description": "DeepSeek-R1は、強化学習(RL)駆動の推論モデルであり、モデル内の繰り返しと可読性の問題を解決します。RLの前に、DeepSeek-R1はコールドスタートデータを導入し、推論性能をさらに最適化しました。数学、コード、推論タスクにおいてOpenAI-o1と同等のパフォーマンスを発揮し、精巧に設計されたトレーニング手法によって全体的な効果を向上させました。"
529
544
  },
545
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-70B": {
546
+ "description": "DeepSeek-R1蒸留モデルで、強化学習とコールドスタートデータを通じて推論性能を最適化し、オープンソースモデルがマルチタスクの基準を刷新しました。"
547
+ },
548
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-8B": {
549
+ "description": "DeepSeek-R1-Distill-Llama-8Bは、Llama-3.1-8Bに基づいて開発された蒸留モデルです。このモデルは、DeepSeek-R1が生成したサンプルを使用して微調整され、優れた推論能力を示しています。複数のベンチマークテストで良好なパフォーマンスを示し、特にMATH-500では89.1%の正確性を達成し、AIME 2024では50.4%の合格率を達成し、CodeForcesでは1205のスコアを獲得し、8B規模のモデルとして強力な数学とプログラミング能力を示しています。"
550
+ },
551
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
552
+ "description": "DeepSeek-R1蒸留モデルで、強化学習とコールドスタートデータを通じて推論性能を最適化し、オープンソースモデルがマルチタスクの基準を刷新しました。"
553
+ },
554
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B": {
555
+ "description": "DeepSeek-R1蒸留モデルで、強化学習とコールドスタートデータを通じて推論性能を最適化し、オープンソースモデルがマルチタスクの基準を刷新しました。"
556
+ },
557
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
558
+ "description": "DeepSeek-R1-Distill-Qwen-32Bは、Qwen2.5-32Bに基づいて知識蒸留によって得られたモデルです。このモデルは、DeepSeek-R1が生成した80万の選りすぐりのサンプルを使用して微調整され、数学、プログラミング、推論などの複数の分野で卓越した性能を示しています。AIME 2024、MATH-500、GPQA Diamondなどの複数のベンチマークテストで優れた成績を収めており、特にMATH-500では94.3%の正確性を達成し、強力な数学的推論能力を示しています。"
559
+ },
560
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
561
+ "description": "DeepSeek-R1-Distill-Qwen-7Bは、Qwen2.5-Math-7Bに基づいて知識蒸留によって得られたモデルです。このモデルは、DeepSeek-R1が生成した80万の選りすぐりのサンプルを使用して微調整され、優れた推論能力を示しています。複数のベンチマークテストで優れた成績を収めており、特にMATH-500では92.8%の正確性を達成し、AIME 2024では55.5%の合格率を達成し、CodeForcesでは1189のスコアを獲得し、7B規模のモデルとして強力な数学とプログラミング能力を示しています。"
562
+ },
530
563
  "deepseek-ai/DeepSeek-V2.5": {
531
564
  "description": "DeepSeek V2.5は以前のバージョンの優れた特徴を集約し、汎用性とコーディング能力を強化しました。"
532
565
  },
@@ -554,6 +587,9 @@
554
587
  "deepseek-r1": {
555
588
  "description": "DeepSeek-R1は、強化学習(RL)駆動の推論モデルであり、モデル内の繰り返しと可読性の問題を解決します。RLの前に、DeepSeek-R1はコールドスタートデータを導入し、推論性能をさらに最適化しました。数学、コード、推論タスクにおいてOpenAI-o1と同等のパフォーマンスを発揮し、精巧に設計されたトレーニング手法によって全体的な効果を向上させました。"
556
589
  },
590
+ "deepseek-r1-distill-llama-70b": {
591
+ "description": "DeepSeek R1——DeepSeekスイートの中でより大きく、より賢いモデル——がLlama 70Bアーキテクチャに蒸留されました。ベンチマークテストと人間評価に基づき、このモデルは元のLlama 70Bよりも賢く、特に数学と事実の正確性が求められるタスクで優れたパフォーマンスを示します。"
592
+ },
557
593
  "deepseek-reasoner": {
558
594
  "description": "DeepSeekが提供する推論モデルです。最終的な回答を出力する前に、モデルは思考の連鎖を出力し、最終的な答えの正確性を高めます。"
559
595
  },
@@ -563,12 +599,63 @@
563
599
  "deepseek-v2:236b": {
564
600
  "description": "DeepSeek V2 236Bは、DeepSeekの設計コードモデルであり、強力なコード生成能力を提供します。"
565
601
  },
602
+ "deepseek-v3": {
603
+ "description": "DeepSeek-V3は、杭州深度求索人工知能基礎技術研究有限公司が独自に開発したMoEモデルで、複数の評価で優れた成績を収め、主流のランキングでオープンソースモデルの首位に立っています。V3はV2.5モデルに比べて生成速度が3倍向上し、ユーザーにより迅速でスムーズな使用体験を提供します。"
604
+ },
566
605
  "deepseek/deepseek-chat": {
567
606
  "description": "汎用性とコード能力を融合させた新しいオープンソースモデルで、元のChatモデルの汎用対話能力とCoderモデルの強力なコード処理能力を保持しつつ、人間の好みにより良く整合しています。さらに、DeepSeek-V2.5は執筆タスク、指示の遵守などの多くの面で大幅な向上を実現しました。"
568
607
  },
569
608
  "emohaa": {
570
609
  "description": "Emohaaは心理モデルで、専門的な相談能力を持ち、ユーザーが感情問題を理解するのを助けます。"
571
610
  },
611
+ "ernie-3.5-128k": {
612
+ "description": "百度が独自に開発したフラッグシップの大規模言語モデルで、膨大な中英文コーパスをカバーし、強力な汎用能力を持ち、ほとんどの対話質問応答、創作生成、プラグインアプリケーションシーンの要求を満たすことができます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。"
613
+ },
614
+ "ernie-3.5-8k": {
615
+ "description": "百度が独自に開発したフラッグシップの大規模言語モデルで、膨大な中英文コーパスをカバーし、強力な汎用能力を持ち、ほとんどの対話質問応答、創作生成、プラグインアプリケーションシーンの要求を満たすことができます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。"
616
+ },
617
+ "ernie-3.5-8k-preview": {
618
+ "description": "百度が独自に開発したフラッグシップの大規模言語モデルで、膨大な中英文コーパスをカバーし、強力な汎用能力を持ち、ほとんどの対話質問応答、創作生成、プラグインアプリケーションシーンの要求を満たすことができます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。"
619
+ },
620
+ "ernie-4.0-8k-latest": {
621
+ "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、ERNIE 3.5に比べてモデル能力が全面的にアップグレードされ、さまざまな分野の複雑なタスクシーンに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。"
622
+ },
623
+ "ernie-4.0-8k-preview": {
624
+ "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、ERNIE 3.5に比べてモデル能力が全面的にアップグレードされ、さまざまな分野の複雑なタスクシーンに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。"
625
+ },
626
+ "ernie-4.0-turbo-128k": {
627
+ "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、総合的なパフォーマンスが優れており、さまざまな分野の複雑なタスクシーンに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。ERNIE 4.0に比べてパフォーマンスがさらに優れています。"
628
+ },
629
+ "ernie-4.0-turbo-8k-latest": {
630
+ "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、総合的なパフォーマンスが優れており、さまざまな分野の複雑なタスクシーンに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。ERNIE 4.0に比べてパフォーマンスがさらに優れています。"
631
+ },
632
+ "ernie-4.0-turbo-8k-preview": {
633
+ "description": "百度が独自に開発したフラッグシップの超大規模言語モデルで、総合的なパフォーマンスが優れており、さまざまな分野の複雑なタスクシーンに広く適用されます。百度検索プラグインとの自動接続をサポートし、質問応答情報のタイムリーさを保証します。ERNIE 4.0に比べてパフォーマンスがさらに優れています。"
634
+ },
635
+ "ernie-char-8k": {
636
+ "description": "百度が独自に開発した垂直シーン向けの大規模言語モデルで、ゲームのNPC、カスタマーサービスの対話、対話キャラクターの役割演技などのアプリケーションシーンに適しており、キャラクターのスタイルがより鮮明で一貫しており、指示に従う能力が強く、推論性能が優れています。"
637
+ },
638
+ "ernie-char-fiction-8k": {
639
+ "description": "百度が独自に開発した垂直シーン向けの大規模言語モデルで、ゲームのNPC、カスタマーサービスの対話、対話キャラクターの役割演技などのアプリケーションシーンに適しており、キャラクターのスタイルがより鮮明で一貫しており、指示に従う能力が強く、推論性能が優れています。"
640
+ },
641
+ "ernie-lite-8k": {
642
+ "description": "ERNIE Liteは、百度が独自に開発した軽量級の大規模言語モデルで、優れたモデル効果と推論性能を兼ね備え、低計算能力のAIアクセラレータカードでの推論使用に適しています。"
643
+ },
644
+ "ernie-lite-pro-128k": {
645
+ "description": "百度が独自に開発した軽量級の大規模言語モデルで、優れたモデル効果と推論性能を兼ね備え、ERNIE Liteよりも優れた効果を持ち、低計算能力のAIアクセラレータカードでの推論使用に適しています。"
646
+ },
647
+ "ernie-novel-8k": {
648
+ "description": "百度が独自に開発した汎用大規模言語モデルで、小説の続編作成能力に明らかな優位性があり、短編劇や映画などのシーンにも使用できます。"
649
+ },
650
+ "ernie-speed-128k": {
651
+ "description": "百度が2024年に最新リリースした自社開発の高性能大規模言語モデルで、汎用能力が優れており、基盤モデルとして微調整に適しており、特定のシーンの問題をより良く処理し、優れた推論性能を持っています。"
652
+ },
653
+ "ernie-speed-pro-128k": {
654
+ "description": "百度が2024年に最新リリースした自社開発の高性能大規模言語モデルで、汎用能力が優れており、ERNIE Speedよりも優れた効果を持ち、基盤モデルとして微調整に適しており、特定のシーンの問題をより良く処理し、優れた推論性能を持っています。"
655
+ },
656
+ "ernie-tiny-8k": {
657
+ "description": "ERNIE Tinyは、百度が独自に開発した超高性能の大規模言語モデルで、文心シリーズモデルの中でデプロイと微調整コストが最も低いです。"
658
+ },
572
659
  "gemini-1.0-pro-001": {
573
660
  "description": "Gemini 1.0 Pro 001(チューニング)は、安定した調整可能な性能を提供し、複雑なタスクのソリューションに理想的な選択肢です。"
574
661
  },
@@ -872,6 +959,9 @@
872
959
  "internlm2.5-latest": {
873
960
  "description": "私たちの最新のモデルシリーズで、卓越した推論性能を持ち、1Mのコンテキスト長をサポートし、より強力な指示追従とツール呼び出し能力を備えています。"
874
961
  },
962
+ "internlm3-latest": {
963
+ "description": "私たちの最新のモデルシリーズは、卓越した推論性能を持ち、同等のオープンソースモデルの中でリーダーシップを発揮しています。デフォルトで最新のInternLM3シリーズモデルを指します。"
964
+ },
875
965
  "learnlm-1.5-pro-experimental": {
876
966
  "description": "LearnLMは、学習科学の原則に従って訓練された実験的なタスク特化型言語モデルで、教育や学習のシーンでシステムの指示に従い、専門的なメンターとして機能します。"
877
967
  },
@@ -986,6 +1076,9 @@
986
1076
  "meta-llama/Llama-3.3-70B-Instruct": {
987
1077
  "description": "Llama 3.3はLlamaシリーズの最先端の多言語オープンソース大規模言語モデルで、非常に低コストで405Bモデルに匹敵する性能を体験できます。Transformer構造に基づき、監視付き微調整(SFT)と人間のフィードバック強化学習(RLHF)を通じて有用性と安全性を向上させています。その指示調整バージョンは多言語対話に最適化されており、複数の業界ベンチマークで多くのオープンソースおよびクローズドチャットモデルを上回る性能を発揮します。知識のカットオフ日は2023年12月です"
988
1078
  },
1079
+ "meta-llama/Llama-3.3-70B-Instruct-Turbo": {
1080
+ "description": "Meta Llama 3.3の多言語大規模言語モデル(LLM)は、70B(テキスト入力/テキスト出力)の事前訓練と指示調整生成モデルです。Llama 3.3の指示調整された純粋なテキストモデルは、多言語対話のユースケースに最適化されており、一般的な業界ベンチマークで多くの利用可能なオープンソースおよびクローズドチャットモデルを上回っています。"
1081
+ },
989
1082
  "meta-llama/Llama-Vision-Free": {
990
1083
  "description": "LLaMA 3.2は視覚データとテキストデータを組み合わせたタスクを処理することを目的としています。画像の説明や視覚的質問応答などのタスクで優れた性能を発揮し、言語生成と視覚推論の間のギャップを埋めます。"
991
1084
  },
@@ -1256,6 +1349,9 @@
1256
1349
  "qwen-vl-max-latest": {
1257
1350
  "description": "通義千問の超大規模視覚言語モデル。強化版に比べて、視覚推論能力と指示遵守能力をさらに向上させ、より高い視覚認識と認知レベルを提供します。"
1258
1351
  },
1352
+ "qwen-vl-ocr-latest": {
1353
+ "description": "通義千問OCRは、文書、表、試験問題、手書き文字などの画像から文字を抽出する専用モデルです。多様な文字を認識でき、現在サポートされている言語は中国語、英語、フランス語、日本語、韓国語、ドイツ語、ロシア語、イタリア語、ベトナム語、アラビア語です。"
1354
+ },
1259
1355
  "qwen-vl-plus-latest": {
1260
1356
  "description": "通義千問の大規模視覚言語モデルの強化版。詳細認識能力と文字認識能力を大幅に向上させ、100万ピクセル以上の解像度と任意のアスペクト比の画像をサポートします。"
1261
1357
  },
@@ -1274,6 +1370,9 @@
1274
1370
  "qwen2.5-14b-instruct": {
1275
1371
  "description": "通義千問2.5の対外オープンソースの14B規模のモデルです。"
1276
1372
  },
1373
+ "qwen2.5-14b-instruct-1m": {
1374
+ "description": "通義千問2.5が公開した72B規模のモデルです。"
1375
+ },
1277
1376
  "qwen2.5-32b-instruct": {
1278
1377
  "description": "通義千問2.5の対外オープンソースの32B規模のモデルです。"
1279
1378
  },
@@ -1301,6 +1400,12 @@
1301
1400
  "qwen2.5-math-7b-instruct": {
1302
1401
  "description": "Qwen-Mathモデルは、強力な数学の問題解決能力を持っています。"
1303
1402
  },
1403
+ "qwen2.5-vl-72b-instruct": {
1404
+ "description": "指示に従い、数学、問題解決、コード全体の向上、万物認識能力の向上を実現し、多様な形式で視覚要素を直接的に正確に特定し、長い動画ファイル(最大10分)を理解し、秒単位のイベント時刻を特定でき、時間の前後や速さを理解し、解析と特定能力に基づいてOSやモバイルのエージェントを操作し、重要な情報抽出能力とJson形式出力能力が強化されています。このバージョンは72Bバージョンで、本シリーズの中で最も強力なバージョンです。"
1405
+ },
1406
+ "qwen2.5-vl-7b-instruct": {
1407
+ "description": "指示に従い、数学、問題解決、コード全体の向上、万物認識能力の向上を実現し、多様な形式で視覚要素を直接的に正確に特定し、長い動画ファイル(最大10分)を理解し、秒単位のイベント時刻を特定でき、時間の前後や速さを理解し、解析と特定能力に基づいてOSやモバイルのエージェントを操作し、重要な情報抽出能力とJson形式出力能力が強化されています。このバージョンは72Bバージョンで、本シリーズの中で最も強力なバージョンです。"
1408
+ },
1304
1409
  "qwen2.5:0.5b": {
1305
1410
  "description": "Qwen2.5はAlibabaの次世代大規模言語モデルで、優れた性能を持ち、多様なアプリケーションのニーズをサポートします。"
1306
1411
  },
@@ -286,6 +286,7 @@
286
286
  "anonymousNickName": "익명 사용자",
287
287
  "billing": "결제 관리",
288
288
  "cloud": "체험 {{name}}",
289
+ "community": "커뮤니티 버전",
289
290
  "data": "데이터 저장",
290
291
  "defaultNickname": "커뮤니티 사용자",
291
292
  "discord": "커뮤니티 지원",
@@ -295,7 +296,6 @@
295
296
  "help": "도움말 센터",
296
297
  "moveGuide": "설정 버튼을 여기로 이동했습니다",
297
298
  "plans": "요금제",
298
- "preview": "미리보기",
299
299
  "profile": "계정 관리",
300
300
  "setting": "앱 설정",
301
301
  "usages": "사용량 통계"
@@ -294,26 +294,6 @@
294
294
  "tooltip": "서비스 제공자 기본 설정 업데이트",
295
295
  "updateSuccess": "업데이트 성공"
296
296
  },
297
- "wenxin": {
298
- "accessKey": {
299
- "desc": "바이두 천범 플랫폼의 Access Key를 입력하세요",
300
- "placeholder": "Qianfan Access Key",
301
- "title": "Access Key"
302
- },
303
- "checker": {
304
- "desc": "AccessKey / SecretAccess가 올바르게 입력되었는지 테스트합니다"
305
- },
306
- "secretKey": {
307
- "desc": "바이두 천범 플랫폼의 Secret Key를 입력하세요",
308
- "placeholder": "Qianfan Secret Key",
309
- "title": "Secret Key"
310
- },
311
- "unlock": {
312
- "customRegion": "사용자 정의 서비스 지역",
313
- "description": "당신의 AccessKey / SecretKey를 입력하면 대화를 시작할 수 있습니다. 애플리케이션은 당신의 인증 구성을 기록하지 않습니다",
314
- "title": "사용자 정의 문신 일언 인증 정보 사용"
315
- }
316
- },
317
297
  "zeroone": {
318
298
  "title": "01.AI Zero One All Things"
319
299
  },