@lobehub/chat 1.42.2 → 1.42.4

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (125) hide show
  1. package/CHANGELOG.md +42 -0
  2. package/README.ja-JP.md +6 -6
  3. package/README.md +6 -6
  4. package/README.zh-CN.md +7 -7
  5. package/changelog/v1.json +14 -0
  6. package/locales/ar/components.json +3 -0
  7. package/locales/ar/modelProvider.json +0 -16
  8. package/locales/ar/models.json +12 -0
  9. package/locales/ar/setting.json +1 -2
  10. package/locales/bg-BG/components.json +3 -0
  11. package/locales/bg-BG/modelProvider.json +0 -16
  12. package/locales/bg-BG/models.json +12 -0
  13. package/locales/bg-BG/setting.json +1 -2
  14. package/locales/de-DE/components.json +3 -0
  15. package/locales/de-DE/modelProvider.json +0 -16
  16. package/locales/de-DE/models.json +12 -0
  17. package/locales/de-DE/setting.json +1 -2
  18. package/locales/en-US/components.json +3 -0
  19. package/locales/en-US/modelProvider.json +0 -16
  20. package/locales/en-US/models.json +12 -0
  21. package/locales/en-US/setting.json +1 -2
  22. package/locales/es-ES/components.json +3 -0
  23. package/locales/es-ES/modelProvider.json +0 -16
  24. package/locales/es-ES/models.json +12 -0
  25. package/locales/es-ES/setting.json +1 -2
  26. package/locales/fa-IR/components.json +3 -0
  27. package/locales/fa-IR/modelProvider.json +0 -16
  28. package/locales/fa-IR/models.json +12 -0
  29. package/locales/fa-IR/setting.json +1 -2
  30. package/locales/fr-FR/components.json +3 -0
  31. package/locales/fr-FR/modelProvider.json +0 -16
  32. package/locales/fr-FR/models.json +12 -0
  33. package/locales/fr-FR/setting.json +1 -2
  34. package/locales/it-IT/components.json +3 -0
  35. package/locales/it-IT/modelProvider.json +0 -16
  36. package/locales/it-IT/models.json +12 -0
  37. package/locales/it-IT/setting.json +1 -2
  38. package/locales/ja-JP/components.json +3 -0
  39. package/locales/ja-JP/modelProvider.json +0 -16
  40. package/locales/ja-JP/models.json +12 -0
  41. package/locales/ja-JP/setting.json +1 -2
  42. package/locales/ko-KR/components.json +3 -0
  43. package/locales/ko-KR/modelProvider.json +0 -16
  44. package/locales/ko-KR/models.json +12 -0
  45. package/locales/ko-KR/setting.json +1 -2
  46. package/locales/nl-NL/components.json +3 -0
  47. package/locales/nl-NL/modelProvider.json +0 -16
  48. package/locales/nl-NL/models.json +12 -0
  49. package/locales/nl-NL/setting.json +1 -2
  50. package/locales/pl-PL/components.json +3 -0
  51. package/locales/pl-PL/modelProvider.json +0 -16
  52. package/locales/pl-PL/models.json +12 -0
  53. package/locales/pl-PL/setting.json +1 -2
  54. package/locales/pt-BR/components.json +3 -0
  55. package/locales/pt-BR/modelProvider.json +0 -16
  56. package/locales/pt-BR/models.json +12 -0
  57. package/locales/pt-BR/setting.json +1 -2
  58. package/locales/ru-RU/components.json +3 -0
  59. package/locales/ru-RU/modelProvider.json +0 -16
  60. package/locales/ru-RU/models.json +12 -0
  61. package/locales/ru-RU/setting.json +1 -2
  62. package/locales/tr-TR/components.json +3 -0
  63. package/locales/tr-TR/modelProvider.json +0 -16
  64. package/locales/tr-TR/models.json +12 -0
  65. package/locales/tr-TR/setting.json +1 -2
  66. package/locales/vi-VN/components.json +3 -0
  67. package/locales/vi-VN/modelProvider.json +0 -16
  68. package/locales/vi-VN/models.json +12 -0
  69. package/locales/vi-VN/setting.json +1 -2
  70. package/locales/zh-CN/common.json +1 -1
  71. package/locales/zh-CN/components.json +3 -0
  72. package/locales/zh-CN/modelProvider.json +0 -16
  73. package/locales/zh-CN/models.json +12 -0
  74. package/locales/zh-CN/providers.json +1 -1
  75. package/locales/zh-CN/setting.json +1 -2
  76. package/locales/zh-TW/components.json +3 -0
  77. package/locales/zh-TW/modelProvider.json +0 -16
  78. package/locales/zh-TW/models.json +12 -0
  79. package/locales/zh-TW/setting.json +1 -2
  80. package/package.json +3 -3
  81. package/src/app/(main)/settings/_layout/Desktop/SideBar.tsx +5 -1
  82. package/src/config/modelProviders/ai21.ts +4 -0
  83. package/src/config/modelProviders/ai360.ts +5 -0
  84. package/src/config/modelProviders/anthropic.ts +11 -0
  85. package/src/config/modelProviders/azure.ts +4 -0
  86. package/src/config/modelProviders/baichuan.ts +8 -0
  87. package/src/config/modelProviders/bedrock.ts +1 -0
  88. package/src/config/modelProviders/cloudflare.ts +5 -0
  89. package/src/config/modelProviders/deepseek.ts +4 -0
  90. package/src/config/modelProviders/fireworksai.ts +4 -0
  91. package/src/config/modelProviders/giteeai.ts +5 -0
  92. package/src/config/modelProviders/github.ts +6 -1
  93. package/src/config/modelProviders/google.ts +10 -0
  94. package/src/config/modelProviders/groq.ts +7 -0
  95. package/src/config/modelProviders/higress.ts +9 -0
  96. package/src/config/modelProviders/huggingface.ts +5 -0
  97. package/src/config/modelProviders/hunyuan.ts +5 -0
  98. package/src/config/modelProviders/internlm.ts +5 -0
  99. package/src/config/modelProviders/minimax.ts +7 -0
  100. package/src/config/modelProviders/mistral.ts +3 -0
  101. package/src/config/modelProviders/moonshot.ts +10 -0
  102. package/src/config/modelProviders/novita.ts +5 -0
  103. package/src/config/modelProviders/ollama.ts +6 -8
  104. package/src/config/modelProviders/openai.ts +5 -2
  105. package/src/config/modelProviders/openrouter.ts +5 -1
  106. package/src/config/modelProviders/perplexity.ts +6 -0
  107. package/src/config/modelProviders/qwen.ts +12 -0
  108. package/src/config/modelProviders/sensenova.ts +5 -0
  109. package/src/config/modelProviders/siliconcloud.ts +7 -0
  110. package/src/config/modelProviders/spark.ts +8 -0
  111. package/src/config/modelProviders/stepfun.ts +9 -0
  112. package/src/config/modelProviders/taichu.ts +4 -0
  113. package/src/config/modelProviders/togetherai.ts +4 -0
  114. package/src/config/modelProviders/upstage.ts +4 -0
  115. package/src/config/modelProviders/wenxin.ts +8 -0
  116. package/src/config/modelProviders/xai.ts +7 -0
  117. package/src/config/modelProviders/zeroone.ts +1 -0
  118. package/src/config/modelProviders/zhipu.ts +1 -0
  119. package/src/features/ModelSelect/index.tsx +6 -8
  120. package/src/features/ModelSwitchPanel/index.tsx +6 -8
  121. package/src/hooks/useEnabledChatModels.ts +9 -0
  122. package/src/store/user/slices/modelList/selectors/modelProvider.ts +13 -2
  123. package/src/types/aiModel.ts +15 -0
  124. package/src/types/aiProvider.ts +70 -16
  125. package/src/types/llm.ts +18 -3
@@ -602,6 +602,9 @@
602
602
  "gemini-2.0-flash-exp": {
603
603
  "description": "Gemini 2.0 Flash Exp یک مدل هوش مصنوعی چندمدلی آزمایشی از گوگل است که دارای ویژگی‌های نسل بعدی، سرعت فوق‌العاده، فراخوانی ابزارهای بومی و تولید چندمدلی است."
604
604
  },
605
+ "gemini-2.0-flash-thinking-exp-1219": {
606
+ "description": "Gemini 2.0 Flash Exp جدیدترین مدل هوش مصنوعی چندرسانه‌ای آزمایشی Google است که ویژگی‌های نسل بعدی، سرعت فوق‌العاده، فراخوانی ابزارهای بومی و تولید چندرسانه‌ای را داراست."
607
+ },
605
608
  "gemini-exp-1114": {
606
609
  "description": "Gemini Exp 1114 جدیدترین مدل AI چند وجهی تجربی Google است که دارای قابلیت پردازش سریع می‌باشد و از ورودی‌های متنی، تصویری و ویدیویی پشتیبانی می‌کند و برای گسترش مؤثر در چندین وظیفه مناسب است."
607
610
  },
@@ -1094,6 +1097,12 @@
1094
1097
  "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
1095
1098
  "description": "Llama 3.1 Nemotron 70B یک مدل زبانی بزرگ سفارشی شده توسط NVIDIA است که به منظور افزایش کمک به پاسخ‌های تولید شده توسط LLM برای پرسش‌های کاربران طراحی شده است. این مدل در آزمون‌های معیار مانند Arena Hard، AlpacaEval 2 LC و GPT-4-Turbo MT-Bench عملکرد عالی داشته و تا تاریخ 1 اکتبر 2024 در تمامی سه آزمون خودکار هم‌راستایی در رتبه اول قرار دارد. این مدل با استفاده از RLHF (به ویژه REINFORCE)، Llama-3.1-Nemotron-70B-Reward و HelpSteer2-Preference در مدل Llama-3.1-70B-Instruct آموزش دیده است."
1096
1099
  },
1100
+ "o1": {
1101
+ "description": "متمرکز بر استدلال پیشرفته و حل مسائل پیچیده، از جمله وظایف ریاضی و علمی. بسیار مناسب برای برنامه‌هایی که به درک عمیق زمینه و مدیریت جریان‌های کاری نیاز دارند."
1102
+ },
1103
+ "o1-2024-12-17": {
1104
+ "description": "o1 مدل استدلال جدید OpenAI است که ورودی‌های متنی و تصویری را پشتیبانی می‌کند و خروجی متنی تولید می‌کند و برای وظایف پیچیده‌ای که به دانش عمومی گسترده نیاز دارند، مناسب است. این مدل دارای 200K زمینه و تاریخ قطع دانش در اکتبر 2023 است."
1105
+ },
1097
1106
  "o1-mini": {
1098
1107
  "description": "کوچکتر و سریعتر از o1-preview، با ۸۰٪ هزینه کمتر، و عملکرد خوب در تولید کد و عملیات با زمینه‌های کوچک."
1099
1108
  },
@@ -1121,6 +1130,9 @@
1121
1130
  "openai/gpt-4o-mini": {
1122
1131
  "description": "GPT-4o mini جدیدترین مدل OpenAI است که پس از GPT-4 Omni عرضه شده و از ورودی‌های تصویری و متنی پشتیبانی می‌کند و خروجی متنی ارائه می‌دهد. به عنوان پیشرفته‌ترین مدل کوچک آن‌ها، این مدل بسیار ارزان‌تر از سایر مدل‌های پیشرفته اخیر است و بیش از ۶۰٪ ارزان‌تر از GPT-3.5 Turbo می‌باشد. این مدل هوشمندی پیشرفته را حفظ کرده و در عین حال از نظر اقتصادی بسیار مقرون به صرفه است. GPT-4o mini در آزمون MMLU امتیاز ۸۲٪ را کسب کرده و در حال حاضر در ترجیحات چت بالاتر از GPT-4 رتبه‌بندی شده است."
1123
1132
  },
1133
+ "openai/o1": {
1134
+ "description": "o1 مدل استدلال جدید OpenAI است که ورودی‌های متنی و تصویری را پشتیبانی می‌کند و خروجی متنی تولید می‌کند و برای وظایف پیچیده‌ای که به دانش عمومی گسترده نیاز دارند، مناسب است. این مدل دارای 200K زمینه و تاریخ قطع دانش در اکتبر 2023 است."
1135
+ },
1124
1136
  "openai/o1-mini": {
1125
1137
  "description": "o1-mini یک مدل استنتاج سریع و مقرون‌به‌صرفه است که برای برنامه‌نویسی، ریاضیات و کاربردهای علمی طراحی شده است. این مدل دارای ۱۲۸ هزار بایت زمینه و تاریخ قطع دانش تا اکتبر ۲۰۲۳ می‌باشد."
1126
1138
  },
@@ -84,8 +84,7 @@
84
84
  },
85
85
  "modalTitle": "پیکربندی مدل سفارشی",
86
86
  "tokens": {
87
- "title": "حداکثر تعداد توکن‌ها",
88
- "unlimited": "نامحدود"
87
+ "title": "حداکثر تعداد توکن‌ها"
89
88
  },
90
89
  "vision": {
91
90
  "extra": "این پیکربندی تنها قابلیت آپلود تصویر در برنامه را فعال می‌کند. پشتیبانی از تشخیص تصویر کاملاً به خود مدل بستگی دارد، لطفاً قابلیت تشخیص تصویر مدل را به صورت مستقل تست کنید",
@@ -68,6 +68,9 @@
68
68
  "GoBack": {
69
69
  "back": "Retour"
70
70
  },
71
+ "MaxTokenSlider": {
72
+ "unlimited": "Illimité"
73
+ },
71
74
  "ModelSelect": {
72
75
  "featureTag": {
73
76
  "custom": "Modèle personnalisé par défaut prenant en charge à la fois les appels de fonction et la reconnaissance visuelle. Veuillez vérifier la disponibilité de ces capacités en fonction de vos besoins réels.",
@@ -131,22 +131,6 @@
131
131
  "title": "Télécharger le modèle Ollama spécifié"
132
132
  }
133
133
  },
134
- "sensenova": {
135
- "sensenovaAccessKeyID": {
136
- "desc": "Entrez l'ID de clé d'accès SenseNova",
137
- "placeholder": "ID de clé d'accès SenseNova",
138
- "title": "ID de clé d'accès"
139
- },
140
- "sensenovaAccessKeySecret": {
141
- "desc": "Entrez le secret de clé d'accès SenseNova",
142
- "placeholder": "Secret de clé d'accès SenseNova",
143
- "title": "Secret de clé d'accès"
144
- },
145
- "unlock": {
146
- "description": "Entrez votre ID de clé d'accès / secret de clé d'accès pour commencer la session. L'application ne conservera pas vos configurations d'authentification",
147
- "title": "Utiliser des informations d'authentification SenseNova personnalisées"
148
- }
149
- },
150
134
  "wenxin": {
151
135
  "accessKey": {
152
136
  "desc": "Entrez la clé d'accès de la plateforme Qianfan de Baidu",
@@ -602,6 +602,9 @@
602
602
  "gemini-2.0-flash-exp": {
603
603
  "description": "Gemini 2.0 Flash Exp est le dernier modèle d'IA multimodal expérimental de Google, avec des caractéristiques de nouvelle génération, une vitesse exceptionnelle, des appels d'outils natifs et une génération multimodale."
604
604
  },
605
+ "gemini-2.0-flash-thinking-exp-1219": {
606
+ "description": "Gemini 2.0 Flash Exp est le dernier modèle d'IA multimodal expérimental de Google, doté de caractéristiques de nouvelle génération, d'une vitesse exceptionnelle, d'appels d'outils natifs et de génération multimodale."
607
+ },
605
608
  "gemini-exp-1114": {
606
609
  "description": "Gemini Exp 1114 est le dernier modèle d'IA multimodale expérimental de Google, offrant une capacité de traitement rapide, prenant en charge les entrées de texte, d'image et de vidéo, et permettant une extension efficace pour une variété de tâches."
607
610
  },
@@ -1094,6 +1097,12 @@
1094
1097
  "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
1095
1098
  "description": "Llama 3.1 Nemotron 70B est un modèle de langage à grande échelle personnalisé par NVIDIA, conçu pour améliorer l'aide fournie par les réponses générées par LLM aux requêtes des utilisateurs. Ce modèle a excellé dans des tests de référence tels que Arena Hard, AlpacaEval 2 LC et GPT-4-Turbo MT-Bench, se classant premier dans les trois tests d'alignement automatique au 1er octobre 2024. Le modèle utilise RLHF (en particulier REINFORCE), Llama-3.1-Nemotron-70B-Reward et HelpSteer2-Preference pour l'entraînement sur la base du modèle Llama-3.1-70B-Instruct."
1096
1099
  },
1100
+ "o1": {
1101
+ "description": "Axé sur le raisonnement avancé et la résolution de problèmes complexes, y compris les tâches mathématiques et scientifiques. Idéal pour les applications nécessitant une compréhension approfondie du contexte et des flux de travail d'agent."
1102
+ },
1103
+ "o1-2024-12-17": {
1104
+ "description": "o1 est le nouveau modèle de raisonnement d'OpenAI, prenant en charge les entrées multimodales et produisant du texte, adapté aux tâches complexes nécessitant des connaissances générales étendues. Ce modèle dispose d'un contexte de 200K et d'une date limite de connaissances en octobre 2023."
1105
+ },
1097
1106
  "o1-mini": {
1098
1107
  "description": "o1-mini est un modèle de raisonnement rapide et économique conçu pour les applications de programmation, de mathématiques et de sciences. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023."
1099
1108
  },
@@ -1121,6 +1130,9 @@
1121
1130
  "openai/gpt-4o-mini": {
1122
1131
  "description": "GPT-4o mini est le dernier modèle d'OpenAI lancé après GPT-4 Omni, prenant en charge les entrées d'images et de texte et produisant du texte en sortie. En tant que leur modèle compact le plus avancé, il est beaucoup moins cher que d'autres modèles de pointe récents et coûte plus de 60 % de moins que GPT-3.5 Turbo. Il maintient une intelligence de pointe tout en offrant un rapport qualité-prix significatif. GPT-4o mini a obtenu un score de 82 % au test MMLU et se classe actuellement au-dessus de GPT-4 en termes de préférences de chat."
1123
1132
  },
1133
+ "openai/o1": {
1134
+ "description": "o1 est le nouveau modèle de raisonnement d'OpenAI, prenant en charge les entrées multimodales et produisant du texte, adapté aux tâches complexes nécessitant des connaissances générales étendues. Ce modèle dispose d'un contexte de 200K et d'une date limite de connaissances en octobre 2023."
1135
+ },
1124
1136
  "openai/o1-mini": {
1125
1137
  "description": "o1-mini est un modèle de raisonnement rapide et économique conçu pour les applications de programmation, de mathématiques et de sciences. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023."
1126
1138
  },
@@ -84,8 +84,7 @@
84
84
  },
85
85
  "modalTitle": "Configuration du modèle personnalisé",
86
86
  "tokens": {
87
- "title": "Nombre maximal de jetons",
88
- "unlimited": "illimité"
87
+ "title": "Nombre maximal de jetons"
89
88
  },
90
89
  "vision": {
91
90
  "extra": "Cette configuration n'activera que la configuration de téléchargement d'images dans l'application. La prise en charge de la reconnaissance dépend entièrement du modèle lui-même, veuillez tester la disponibilité des capacités de reconnaissance visuelle de ce modèle.",
@@ -68,6 +68,9 @@
68
68
  "GoBack": {
69
69
  "back": "Indietro"
70
70
  },
71
+ "MaxTokenSlider": {
72
+ "unlimited": "Illimitato"
73
+ },
71
74
  "ModelSelect": {
72
75
  "featureTag": {
73
76
  "custom": "Modello personalizzato: di default supporta sia la chiamata di funzioni che il riconoscimento visivo. Verifica l'effettiva disponibilità di tali funzionalità.",
@@ -131,22 +131,6 @@
131
131
  "title": "Scarica il modello Ollama specificato"
132
132
  }
133
133
  },
134
- "sensenova": {
135
- "sensenovaAccessKeyID": {
136
- "desc": "Inserisci l'ID chiave di accesso SenseNova",
137
- "placeholder": "ID chiave di accesso SenseNova",
138
- "title": "ID chiave di accesso"
139
- },
140
- "sensenovaAccessKeySecret": {
141
- "desc": "Inserisci il segreto della chiave di accesso SenseNova",
142
- "placeholder": "Segreto della chiave di accesso SenseNova",
143
- "title": "Segreto della chiave di accesso"
144
- },
145
- "unlock": {
146
- "description": "Inserisci il tuo ID chiave di accesso / segreto della chiave di accesso per iniziare la sessione. L'app non registrerà la tua configurazione di autenticazione",
147
- "title": "Utilizza informazioni di autenticazione personalizzate di SenseNova"
148
- }
149
- },
150
134
  "wenxin": {
151
135
  "accessKey": {
152
136
  "desc": "Inserisci l'Access Key della piattaforma Qianfan di Baidu",
@@ -602,6 +602,9 @@
602
602
  "gemini-2.0-flash-exp": {
603
603
  "description": "Gemini 2.0 Flash Exp è il nuovo modello AI multimodale sperimentale di Google, dotato di funzionalità di nuova generazione, velocità straordinaria, chiamate di strumenti native e generazione multimodale."
604
604
  },
605
+ "gemini-2.0-flash-thinking-exp-1219": {
606
+ "description": "Gemini 2.0 Flash Exp è il più recente modello AI multimodale sperimentale di Google, dotato di funzionalità di nuova generazione, velocità eccezionale, chiamate a strumenti nativi e generazione multimodale."
607
+ },
605
608
  "gemini-exp-1114": {
606
609
  "description": "Gemini Exp 1114 è il modello AI multimodale sperimentale più recente di Google, dotato di capacità di elaborazione rapida, supporta input testuali, visivi e video, ed è adatto per un'ampia gamma di compiti con un'efficiente scalabilità."
607
610
  },
@@ -1094,6 +1097,12 @@
1094
1097
  "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
1095
1098
  "description": "Llama 3.1 Nemotron 70B è un modello linguistico di grandi dimensioni personalizzato da NVIDIA, progettato per migliorare l'utilità delle risposte generate dai LLM alle domande degli utenti. Questo modello ha ottenuto risultati eccellenti nei benchmark come Arena Hard, AlpacaEval 2 LC e GPT-4-Turbo MT-Bench, classificandosi al primo posto in tutti e tre i benchmark di allineamento automatico fino al 1 ottobre 2024. Il modello è stato addestrato utilizzando RLHF (in particolare REINFORCE), Llama-3.1-Nemotron-70B-Reward e HelpSteer2-Preference come suggerimenti, basandosi sul modello Llama-3.1-70B-Instruct."
1096
1099
  },
1100
+ "o1": {
1101
+ "description": "Focalizzato su inferenze avanzate e risoluzione di problemi complessi, inclusi compiti matematici e scientifici. È particolarmente adatto per applicazioni che richiedono una comprensione profonda del contesto e flussi di lavoro agenti."
1102
+ },
1103
+ "o1-2024-12-17": {
1104
+ "description": "o1 è il nuovo modello di inferenza di OpenAI, che supporta input testuali e visivi e produce output testuali, adatto a compiti complessi che richiedono una vasta conoscenza generale. Questo modello ha un contesto di 200K e una data di scadenza della conoscenza di ottobre 2023."
1105
+ },
1097
1106
  "o1-mini": {
1098
1107
  "description": "o1-mini è un modello di inferenza rapido ed economico progettato per applicazioni di programmazione, matematica e scienza. Questo modello ha un contesto di 128K e una data di cutoff della conoscenza di ottobre 2023."
1099
1108
  },
@@ -1121,6 +1130,9 @@
1121
1130
  "openai/gpt-4o-mini": {
1122
1131
  "description": "GPT-4o mini è il modello più recente di OpenAI, lanciato dopo GPT-4 Omni, che supporta input visivi e testuali e produce output testuali. Come il loro modello di piccole dimensioni più avanzato, è molto più economico rispetto ad altri modelli all'avanguardia recenti e costa oltre il 60% in meno rispetto a GPT-3.5 Turbo. Mantiene un'intelligenza all'avanguardia, offrendo un notevole rapporto qualità-prezzo. GPT-4o mini ha ottenuto un punteggio dell'82% nel test MMLU e attualmente è classificato più in alto di GPT-4 per preferenze di chat."
1123
1132
  },
1133
+ "openai/o1": {
1134
+ "description": "o1 è il nuovo modello di inferenza di OpenAI, che supporta input testuali e visivi e produce output testuali, adatto a compiti complessi che richiedono una vasta conoscenza generale. Questo modello ha un contesto di 200K e una data di scadenza della conoscenza di ottobre 2023."
1135
+ },
1124
1136
  "openai/o1-mini": {
1125
1137
  "description": "o1-mini è un modello di inferenza rapido ed economico progettato per applicazioni di programmazione, matematica e scienza. Questo modello ha un contesto di 128K e una data di cutoff della conoscenza di ottobre 2023."
1126
1138
  },
@@ -84,8 +84,7 @@
84
84
  },
85
85
  "modalTitle": "Configurazione del modello personalizzato",
86
86
  "tokens": {
87
- "title": "Numero massimo di token",
88
- "unlimited": "illimitato"
87
+ "title": "Numero massimo di token"
89
88
  },
90
89
  "vision": {
91
90
  "extra": "Questa configurazione attiverà solo la capacità di caricamento delle immagini nell'app, se il riconoscimento è supportato dipende interamente dal modello stesso, ti invitiamo a testare l'usabilità del riconoscimento visivo di questo modello.",
@@ -68,6 +68,9 @@
68
68
  "GoBack": {
69
69
  "back": "戻る"
70
70
  },
71
+ "MaxTokenSlider": {
72
+ "unlimited": "無制限"
73
+ },
71
74
  "ModelSelect": {
72
75
  "featureTag": {
73
76
  "custom": "カスタムモデル、デフォルトでは関数呼び出しとビジョン認識の両方をサポートしています。上記機能の有効性を確認してください。",
@@ -131,22 +131,6 @@
131
131
  "title": "指定されたOllamaモデルをダウンロード"
132
132
  }
133
133
  },
134
- "sensenova": {
135
- "sensenovaAccessKeyID": {
136
- "desc": "SenseNova アクセスキー ID を入力してください",
137
- "placeholder": "SenseNova アクセスキー ID",
138
- "title": "アクセスキー ID"
139
- },
140
- "sensenovaAccessKeySecret": {
141
- "desc": "SenseNova アクセスキーシークレットを入力してください",
142
- "placeholder": "SenseNova アクセスキーシークレット",
143
- "title": "アクセスキーシークレット"
144
- },
145
- "unlock": {
146
- "description": "あなたのアクセスキー ID / アクセスキーシークレットを入力すると、セッションが開始されます。アプリはあなたの認証設定を記録しません",
147
- "title": "カスタム SenseNova 認証情報を使用"
148
- }
149
- },
150
134
  "wenxin": {
151
135
  "accessKey": {
152
136
  "desc": "百度千帆プラットフォームのAccess Keyを入力してください",
@@ -602,6 +602,9 @@
602
602
  "gemini-2.0-flash-exp": {
603
603
  "description": "Gemini 2.0 Flash Exp は、Google の最新の実験的なマルチモーダル AI モデルで、次世代の機能、卓越した速度、ネイティブツールの呼び出し、マルチモーダル生成を備えています。"
604
604
  },
605
+ "gemini-2.0-flash-thinking-exp-1219": {
606
+ "description": "Gemini 2.0 Flash Expは、Googleの最新の実験的なマルチモーダルAIモデルで、次世代の機能、卓越した速度、ネイティブツールの呼び出し、そしてマルチモーダル生成を備えています。"
607
+ },
605
608
  "gemini-exp-1114": {
606
609
  "description": "Gemini Exp 1114は、Googleの最新の実験的なマルチモーダルAIモデルで、迅速な処理能力を備え、テキスト、画像、動画の入力をサポートし、様々なタスクに効率的に対応できます。"
607
610
  },
@@ -1094,6 +1097,12 @@
1094
1097
  "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
1095
1098
  "description": "Llama 3.1 Nemotron 70BはNVIDIAによってカスタマイズされた大規模言語モデルで、LLMが生成する応答がユーザーのクエリにどれだけ役立つかを向上させることを目的としています。このモデルはArena Hard、AlpacaEval 2 LC、GPT-4-Turbo MT-Benchなどのベンチマークテストで優れたパフォーマンスを示し、2024年10月1日現在、すべての自動整合ベンチマークテストで1位にランクされています。このモデルはRLHF(特にREINFORCE)、Llama-3.1-Nemotron-70B-Reward、HelpSteer2-Preferenceプロンプトを使用してLlama-3.1-70B-Instructモデルの基盤の上で訓練されています。"
1096
1099
  },
1100
+ "o1": {
1101
+ "description": "高度な推論と複雑な問題の解決に焦点を当てており、数学や科学のタスクを含みます。深いコンテキスト理解とエージェントワークフローを必要とするアプリケーションに非常に適しています。"
1102
+ },
1103
+ "o1-2024-12-17": {
1104
+ "description": "o1はOpenAIの新しい推論モデルで、画像とテキストの入力をサポートし、テキストを出力します。広範な一般知識を必要とする複雑なタスクに適しています。このモデルは200Kのコンテキストを持ち、2023年10月の知識のカットオフがあります。"
1105
+ },
1097
1106
  "o1-mini": {
1098
1107
  "description": "o1-miniは、プログラミング、数学、科学のアプリケーションシーンに特化して設計された迅速で経済的な推論モデルです。このモデルは128Kのコンテキストを持ち、2023年10月の知識のカットオフがあります。"
1099
1108
  },
@@ -1121,6 +1130,9 @@
1121
1130
  "openai/gpt-4o-mini": {
1122
1131
  "description": "GPT-4o miniはOpenAIがGPT-4 Omniの後に発表した最新モデルで、画像とテキストの入力をサポートし、テキストを出力します。彼らの最先端の小型モデルとして、最近の他の最前線モデルよりもはるかに安価で、GPT-3.5 Turboよりも60%以上安価です。最先端の知能を維持しつつ、顕著なコストパフォーマンスを誇ります。GPT-4o miniはMMLUテストで82%のスコアを獲得し、現在チャットの好みでGPT-4よりも高い評価を得ています。"
1123
1132
  },
1133
+ "openai/o1": {
1134
+ "description": "o1はOpenAIの新しい推論モデルで、画像とテキストの入力をサポートし、テキストを出力します。広範な一般知識を必要とする複雑なタスクに適しています。このモデルは200Kのコンテキストを持ち、2023年10月の知識のカットオフがあります。"
1135
+ },
1124
1136
  "openai/o1-mini": {
1125
1137
  "description": "o1-miniは、プログラミング、数学、科学のアプリケーションシーンに特化して設計された迅速で経済的な推論モデルです。このモデルは128Kのコンテキストを持ち、2023年10月の知識のカットオフがあります。"
1126
1138
  },
@@ -84,8 +84,7 @@
84
84
  },
85
85
  "modalTitle": "カスタムモデルの設定",
86
86
  "tokens": {
87
- "title": "最大トークン数",
88
- "unlimited": "無制限"
87
+ "title": "最大トークン数"
89
88
  },
90
89
  "vision": {
91
90
  "extra": "この設定はアプリ内の画像アップロード機能のみを有効にします。認識のサポートはモデル自体に依存するため、モデルの視覚認識機能の有効性を自分でテストしてください。",
@@ -68,6 +68,9 @@
68
68
  "GoBack": {
69
69
  "back": "뒤로 가기"
70
70
  },
71
+ "MaxTokenSlider": {
72
+ "unlimited": "무제한"
73
+ },
71
74
  "ModelSelect": {
72
75
  "featureTag": {
73
76
  "custom": "사용자 정의 모델, 기본적으로 함수 호출 및 시각 인식을 모두 지원하며, 실제 기능을 확인하세요",
@@ -131,22 +131,6 @@
131
131
  "title": "지정된 Ollama 모델 다운로드"
132
132
  }
133
133
  },
134
- "sensenova": {
135
- "sensenovaAccessKeyID": {
136
- "desc": "SenseNova Access Key ID를 입력하세요",
137
- "placeholder": "SenseNova Access Key ID",
138
- "title": "Access Key ID"
139
- },
140
- "sensenovaAccessKeySecret": {
141
- "desc": "SenseNova Access Key Secret를 입력하세요",
142
- "placeholder": "SenseNova Access Key Secret",
143
- "title": "Access Key Secret"
144
- },
145
- "unlock": {
146
- "description": "Access Key ID / Access Key Secret를 입력하면 대화를 시작할 수 있습니다. 애플리케이션은 인증 구성을 기록하지 않습니다.",
147
- "title": "사용자 정의 SenseNova 인증 정보 사용"
148
- }
149
- },
150
134
  "wenxin": {
151
135
  "accessKey": {
152
136
  "desc": "바이두 천범 플랫폼의 Access Key를 입력하세요",
@@ -602,6 +602,9 @@
602
602
  "gemini-2.0-flash-exp": {
603
603
  "description": "Gemini 2.0 Flash Exp는 Google의 최신 실험적 다중 모달 AI 모델로, 차세대 기능, 뛰어난 속도, 네이티브 도구 호출 및 다중 모달 생성을 갖추고 있습니다."
604
604
  },
605
+ "gemini-2.0-flash-thinking-exp-1219": {
606
+ "description": "Gemini 2.0 Flash Exp는 Google의 최신 실험적 다중 모드 AI 모델로, 차세대 기능, 뛰어난 속도, 네이티브 도구 호출 및 다중 모드 생성을 제공합니다."
607
+ },
605
608
  "gemini-exp-1114": {
606
609
  "description": "Gemini Exp 1114는 Google의 최신 실험적 다중 모달 AI 모델로, 빠른 처리 능력을 갖추고 있으며, 텍스트, 이미지 및 비디오 입력을 지원하여 다양한 작업에 효율적으로 확장할 수 있습니다."
607
610
  },
@@ -1094,6 +1097,12 @@
1094
1097
  "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
1095
1098
  "description": "Llama 3.1 Nemotron 70B는 NVIDIA가 맞춤 제작한 대규모 언어 모델로, LLM이 생성한 응답이 사용자 쿼리에 얼마나 도움이 되는지를 향상시키기 위해 설계되었습니다. 이 모델은 Arena Hard, AlpacaEval 2 LC 및 GPT-4-Turbo MT-Bench와 같은 벤치마크 테스트에서 뛰어난 성능을 보였으며, 2024년 10월 1일 기준으로 모든 자동 정렬 벤치마크 테스트에서 1위를 차지했습니다. 이 모델은 RLHF(특히 REINFORCE), Llama-3.1-Nemotron-70B-Reward 및 HelpSteer2-Preference 프롬프트를 사용하여 Llama-3.1-70B-Instruct 모델을 기반으로 훈련되었습니다."
1096
1099
  },
1100
+ "o1": {
1101
+ "description": "고급 추론 및 복잡한 문제 해결에 중점을 두며, 수학 및 과학 작업을 포함합니다. 깊이 있는 컨텍스트 이해와 에이전트 작업 흐름이 필요한 애플리케이션에 매우 적합합니다."
1102
+ },
1103
+ "o1-2024-12-17": {
1104
+ "description": "o1은 OpenAI의 새로운 추론 모델로, 이미지와 텍스트 입력을 지원하며 텍스트 출력을 제공합니다. 광범위한 일반 지식이 필요한 복잡한 작업에 적합합니다. 이 모델은 200K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다."
1105
+ },
1097
1106
  "o1-mini": {
1098
1107
  "description": "o1-mini는 프로그래밍, 수학 및 과학 응용 프로그램을 위해 설계된 빠르고 경제적인 추론 모델입니다. 이 모델은 128K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다."
1099
1108
  },
@@ -1121,6 +1130,9 @@
1121
1130
  "openai/gpt-4o-mini": {
1122
1131
  "description": "GPT-4o mini는 OpenAI가 GPT-4 Omni 이후에 출시한 최신 모델로, 이미지와 텍스트 입력을 지원하며 텍스트를 출력합니다. 가장 진보된 소형 모델로, 최근의 다른 최첨단 모델보다 훨씬 저렴하며, GPT-3.5 Turbo보다 60% 이상 저렴합니다. 최첨단 지능을 유지하면서도 뛰어난 가성비를 자랑합니다. GPT-4o mini는 MMLU 테스트에서 82%의 점수를 기록했으며, 현재 채팅 선호도에서 GPT-4보다 높은 순위를 차지하고 있습니다."
1123
1132
  },
1133
+ "openai/o1": {
1134
+ "description": "o1은 OpenAI의 새로운 추론 모델로, 이미지와 텍스트 입력을 지원하며 텍스트 출력을 제공합니다. 광범위한 일반 지식이 필요한 복잡한 작업에 적합합니다. 이 모델은 200K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다."
1135
+ },
1124
1136
  "openai/o1-mini": {
1125
1137
  "description": "o1-mini는 프로그래밍, 수학 및 과학 응용 프로그램을 위해 설계된 빠르고 경제적인 추론 모델입니다. 이 모델은 128K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다."
1126
1138
  },
@@ -84,8 +84,7 @@
84
84
  },
85
85
  "modalTitle": "사용자 정의 모델 구성",
86
86
  "tokens": {
87
- "title": "최대 토큰 수",
88
- "unlimited": "제한 없는"
87
+ "title": "최대 토큰 수"
89
88
  },
90
89
  "vision": {
91
90
  "extra": "이 설정은 애플리케이션 내에서 이미지 업로드 기능만 활성화합니다. 인식 지원 여부는 모델 자체에 따라 다르므로, 해당 모델의 시각 인식 가능성을 직접 테스트해 보시기 바랍니다.",
@@ -68,6 +68,9 @@
68
68
  "GoBack": {
69
69
  "back": "Terug"
70
70
  },
71
+ "MaxTokenSlider": {
72
+ "unlimited": "Onbeperkt"
73
+ },
71
74
  "ModelSelect": {
72
75
  "featureTag": {
73
76
  "custom": "Custom model, by default, supports both function call and visual recognition. Please verify the availability of the above capabilities based on actual needs.",
@@ -131,22 +131,6 @@
131
131
  "title": "Download het opgegeven Ollama model"
132
132
  }
133
133
  },
134
- "sensenova": {
135
- "sensenovaAccessKeyID": {
136
- "desc": "Vul je SenseNova Access Key ID in",
137
- "placeholder": "SenseNova Access Key ID",
138
- "title": "Access Key ID"
139
- },
140
- "sensenovaAccessKeySecret": {
141
- "desc": "Vul je SenseNova Access Key Secret in",
142
- "placeholder": "SenseNova Access Key Secret",
143
- "title": "Access Key Secret"
144
- },
145
- "unlock": {
146
- "description": "Voer je Access Key ID / Access Key Secret in om de sessie te starten. De applicatie registreert je authenticatie-instellingen niet",
147
- "title": "Gebruik aangepaste SenseNova authenticatie-informatie"
148
- }
149
- },
150
134
  "wenxin": {
151
135
  "accessKey": {
152
136
  "desc": "Vul de Access Key van het Baidu Qianfan-platform in",
@@ -602,6 +602,9 @@
602
602
  "gemini-2.0-flash-exp": {
603
603
  "description": "Gemini 2.0 Flash Exp is Google's nieuwste experimentele multimodale AI-model, met de volgende generatie functies, uitstekende snelheid, ingebouwde tool-aanroepen en multimodale generatie."
604
604
  },
605
+ "gemini-2.0-flash-thinking-exp-1219": {
606
+ "description": "Gemini 2.0 Flash Exp is Google's nieuwste experimentele multimodale AI-model, met next-gen functies, uitstekende snelheid, native tool-aanroepen en multimodale generatie."
607
+ },
605
608
  "gemini-exp-1114": {
606
609
  "description": "Gemini Exp 1114 is Google's nieuwste experimentele multimodale AI-model, met een snelle verwerkingscapaciteit, ondersteunt tekst-, beeld- en video-invoer, geschikt voor efficiënte schaling van diverse taken."
607
610
  },
@@ -1094,6 +1097,12 @@
1094
1097
  "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
1095
1098
  "description": "Llama 3.1 Nemotron 70B is een op maat gemaakt groot taalmodel van NVIDIA, ontworpen om de hulp van LLM-gegenereerde reacties op gebruikersvragen te verbeteren. Dit model presteert uitstekend in benchmarktests zoals Arena Hard, AlpacaEval 2 LC en GPT-4-Turbo MT-Bench, en staat per 1 oktober 2024 op de eerste plaats in alle drie de automatische afstemmingsbenchmarktests. Het model is getraind met RLHF (met name REINFORCE), Llama-3.1-Nemotron-70B-Reward en HelpSteer2-Preference prompts op basis van het Llama-3.1-70B-Instruct model."
1096
1099
  },
1100
+ "o1": {
1101
+ "description": "Gefocust op geavanceerd redeneren en het oplossen van complexe problemen, inclusief wiskunde en wetenschappelijke taken. Zeer geschikt voor toepassingen die diepgaand begrip van context en agentwerkstromen vereisen."
1102
+ },
1103
+ "o1-2024-12-17": {
1104
+ "description": "o1 is het nieuwe redeneer model van OpenAI, dat tekst- en afbeeldingsinvoer ondersteunt en tekstuitvoer genereert, geschikt voor complexe taken die uitgebreide algemene kennis vereisen. Dit model heeft een context van 200K en een kennisafkapdatum van oktober 2023."
1105
+ },
1097
1106
  "o1-mini": {
1098
1107
  "description": "o1-mini is een snel en kosteneffectief redeneermodel dat is ontworpen voor programmeer-, wiskunde- en wetenschappelijke toepassingen. Dit model heeft een context van 128K en een kennisafkapdatum van oktober 2023."
1099
1108
  },
@@ -1121,6 +1130,9 @@
1121
1130
  "openai/gpt-4o-mini": {
1122
1131
  "description": "GPT-4o mini is het nieuwste model van OpenAI, gelanceerd na GPT-4 Omni, dat tekst- en afbeeldingsinvoer ondersteunt en tekstuitvoer genereert. Als hun meest geavanceerde kleine model is het veel goedkoper dan andere recente toonaangevende modellen en meer dan 60% goedkoper dan GPT-3.5 Turbo. Het behoudt de meest geavanceerde intelligentie met een aanzienlijke prijs-kwaliteitverhouding. GPT-4o mini behaalde 82% op de MMLU-test en staat momenteel hoger in chatvoorkeuren dan GPT-4."
1123
1132
  },
1133
+ "openai/o1": {
1134
+ "description": "o1 is het nieuwe redeneer model van OpenAI, dat tekst- en afbeeldingsinvoer ondersteunt en tekstuitvoer genereert, geschikt voor complexe taken die uitgebreide algemene kennis vereisen. Dit model heeft een context van 200K en een kennisafkapdatum van oktober 2023."
1135
+ },
1124
1136
  "openai/o1-mini": {
1125
1137
  "description": "o1-mini is een snel en kosteneffectief redeneermodel dat is ontworpen voor programmeer-, wiskunde- en wetenschappelijke toepassingen. Dit model heeft een context van 128K en een kennisafkapdatum van oktober 2023."
1126
1138
  },
@@ -84,8 +84,7 @@
84
84
  },
85
85
  "modalTitle": "Aangepaste modelconfiguratie",
86
86
  "tokens": {
87
- "title": "Maximaal tokenaantal",
88
- "unlimited": "onbeperkt"
87
+ "title": "Maximaal tokenaantal"
89
88
  },
90
89
  "vision": {
91
90
  "extra": "Deze configuratie zal alleen de mogelijkheid voor het uploaden van afbeeldingen in de applicatie inschakelen. Of herkenning wordt ondersteund, hangt volledig af van het model zelf. Test de beschikbaarheid van visuele herkenning van dit model zelf.",
@@ -68,6 +68,9 @@
68
68
  "GoBack": {
69
69
  "back": "Wróć"
70
70
  },
71
+ "MaxTokenSlider": {
72
+ "unlimited": "Bez ograniczeń"
73
+ },
71
74
  "ModelSelect": {
72
75
  "featureTag": {
73
76
  "custom": "Niestandardowy model, domyślnie obsługujący zarówno wywołania funkcji, jak i rozpoznawanie wizualne. Proszę zweryfikować możliwość użycia tych funkcji w praktyce.",
@@ -131,22 +131,6 @@
131
131
  "title": "Pobierz określony model Ollama"
132
132
  }
133
133
  },
134
- "sensenova": {
135
- "sensenovaAccessKeyID": {
136
- "desc": "Wprowadź SenseNova Access Key ID",
137
- "placeholder": "SenseNova Access Key ID",
138
- "title": "Access Key ID"
139
- },
140
- "sensenovaAccessKeySecret": {
141
- "desc": "Wprowadź SenseNova Access Key Secret",
142
- "placeholder": "SenseNova Access Key Secret",
143
- "title": "Access Key Secret"
144
- },
145
- "unlock": {
146
- "description": "Wprowadź swój Access Key ID / Access Key Secret, aby rozpocząć sesję. Aplikacja nie zapisze twojej konfiguracji autoryzacji",
147
- "title": "Użyj niestandardowych informacji autoryzacyjnych SenseNova"
148
- }
149
- },
150
134
  "wenxin": {
151
135
  "accessKey": {
152
136
  "desc": "Wprowadź Access Key z platformy Baidu Qianfan",
@@ -602,6 +602,9 @@
602
602
  "gemini-2.0-flash-exp": {
603
603
  "description": "Gemini 2.0 Flash Exp to najnowszy eksperymentalny model AI o wielu modalnościach od Google, który oferuje cechy nowej generacji, doskonałą prędkość, natywne wywołania narzędzi oraz generowanie multimodalne."
604
604
  },
605
+ "gemini-2.0-flash-thinking-exp-1219": {
606
+ "description": "Gemini 2.0 Flash Exp to najnowszy eksperymentalny model AI multimodalnego Google, oferujący funkcje nowej generacji, doskonałą prędkość, natywne wywołania narzędzi oraz generację multimodalną."
607
+ },
605
608
  "gemini-exp-1114": {
606
609
  "description": "Gemini Exp 1114 to najnowszy eksperymentalny model AI o wielu modalnościach od Google, który charakteryzuje się szybkim przetwarzaniem i obsługuje wejścia tekstowe, obrazowe oraz wideo, co umożliwia wydajne rozszerzanie go na różne zadania."
607
610
  },
@@ -1094,6 +1097,12 @@
1094
1097
  "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
1095
1098
  "description": "Llama 3.1 Nemotron 70B to dostosowany przez NVIDIA duży model językowy, mający na celu zwiększenie użyteczności odpowiedzi generowanych przez LLM w odpowiedzi na zapytania użytkowników. Model ten osiągnął doskonałe wyniki w testach benchmarkowych, takich jak Arena Hard, AlpacaEval 2 LC i GPT-4-Turbo MT-Bench, zajmując pierwsze miejsce we wszystkich trzech automatycznych testach do 1 października 2024 roku. Model został przeszkolony przy użyciu RLHF (szczególnie REINFORCE), Llama-3.1-Nemotron-70B-Reward i HelpSteer2-Preference na bazie modelu Llama-3.1-70B-Instruct."
1096
1099
  },
1100
+ "o1": {
1101
+ "description": "Skupia się na zaawansowanym wnioskowaniu i rozwiązywaniu złożonych problemów, w tym zadań matematycznych i naukowych. Doskonale nadaje się do aplikacji wymagających głębokiego zrozumienia kontekstu i zarządzania procesami."
1102
+ },
1103
+ "o1-2024-12-17": {
1104
+ "description": "o1 to nowy model wnioskowania OpenAI, który obsługuje wejścia tekstowe i graficzne oraz generuje tekst, idealny do złożonych zadań wymagających szerokiej wiedzy ogólnej. Model ma kontekst 200K i datę graniczną wiedzy do października 2023 roku."
1105
+ },
1097
1106
  "o1-mini": {
1098
1107
  "description": "o1-mini to szybki i ekonomiczny model wnioskowania zaprojektowany z myślą o programowaniu, matematyce i zastosowaniach naukowych. Model ten ma kontekst 128K i datę graniczną wiedzy z października 2023 roku."
1099
1108
  },
@@ -1121,6 +1130,9 @@
1121
1130
  "openai/gpt-4o-mini": {
1122
1131
  "description": "GPT-4o mini to najnowszy model OpenAI, wydany po GPT-4 Omni, obsługujący wejścia tekstowe i wizualne. Jako ich najnowocześniejszy mały model, jest znacznie tańszy od innych niedawnych modeli czołowych i kosztuje o ponad 60% mniej niż GPT-3.5 Turbo. Utrzymuje najnowocześniejszą inteligencję, oferując jednocześnie znaczną wartość za pieniądze. GPT-4o mini uzyskał wynik 82% w teście MMLU i obecnie zajmuje wyższą pozycję w preferencjach czatu niż GPT-4."
1123
1132
  },
1133
+ "openai/o1": {
1134
+ "description": "o1 to nowy model wnioskowania OpenAI, który obsługuje wejścia tekstowe i graficzne oraz generuje tekst, idealny do złożonych zadań wymagających szerokiej wiedzy ogólnej. Model ma kontekst 200K i datę graniczną wiedzy do października 2023 roku."
1135
+ },
1124
1136
  "openai/o1-mini": {
1125
1137
  "description": "o1-mini to szybki i ekonomiczny model wnioskowania zaprojektowany z myślą o programowaniu, matematyce i zastosowaniach naukowych. Model ten ma kontekst 128K i datę graniczną wiedzy z października 2023 roku."
1126
1138
  },
@@ -84,8 +84,7 @@
84
84
  },
85
85
  "modalTitle": "Konfiguracja niestandardowego modelu",
86
86
  "tokens": {
87
- "title": "Maksymalna liczba tokenów",
88
- "unlimited": "Nieograniczony"
87
+ "title": "Maksymalna liczba tokenów"
89
88
  },
90
89
  "vision": {
91
90
  "extra": "Ta konfiguracja włączy jedynie możliwość przesyłania obrazów w aplikacji, a to, czy rozpoznawanie będzie wspierane, zależy całkowicie od samego modelu. Proszę samodzielnie przetestować dostępność rozpoznawania wizualnego w tym modelu.",
@@ -68,6 +68,9 @@
68
68
  "GoBack": {
69
69
  "back": "Voltar"
70
70
  },
71
+ "MaxTokenSlider": {
72
+ "unlimited": "Ilimitado"
73
+ },
71
74
  "ModelSelect": {
72
75
  "featureTag": {
73
76
  "custom": "Modelo personalizado, por padrão, suporta chamadas de função e reconhecimento visual. Por favor, verifique a disponibilidade dessas capacidades de acordo com a situação real.",
@@ -131,22 +131,6 @@
131
131
  "title": "Download specified Ollama model"
132
132
  }
133
133
  },
134
- "sensenova": {
135
- "sensenovaAccessKeyID": {
136
- "desc": "Insira o SenseNova Access Key ID",
137
- "placeholder": "SenseNova Access Key ID",
138
- "title": "Access Key ID"
139
- },
140
- "sensenovaAccessKeySecret": {
141
- "desc": "Insira o SenseNova Access Key Secret",
142
- "placeholder": "SenseNova Access Key Secret",
143
- "title": "Access Key Secret"
144
- },
145
- "unlock": {
146
- "description": "Digite seu Access Key ID / Access Key Secret para iniciar a sessão. O aplicativo não registrará suas configurações de autenticação",
147
- "title": "Usar informações de autenticação personalizadas do SenseNova"
148
- }
149
- },
150
134
  "wenxin": {
151
135
  "accessKey": {
152
136
  "desc": "Insira a Access Key da plataforma Qianfan do Baidu",
@@ -602,6 +602,9 @@
602
602
  "gemini-2.0-flash-exp": {
603
603
  "description": "O Gemini 2.0 Flash Exp é o mais recente modelo de IA multiodal experimental do Google, com recursos de próxima geração, velocidade extraordinária, chamadas nativas de ferramentas e geração multimodal."
604
604
  },
605
+ "gemini-2.0-flash-thinking-exp-1219": {
606
+ "description": "Gemini 2.0 Flash Exp é o mais recente modelo de IA multimodal experimental do Google, com recursos de próxima geração, velocidade excepcional, chamadas nativas de ferramentas e geração multimodal."
607
+ },
605
608
  "gemini-exp-1114": {
606
609
  "description": "O Gemini Exp 1114 é o mais recente modelo experimental de IA multimodal da Google, com capacidade de processamento rápido, suportando entradas de texto, imagem e vídeo, adequado para a expansão eficiente de várias tarefas."
607
610
  },
@@ -1094,6 +1097,12 @@
1094
1097
  "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF": {
1095
1098
  "description": "Llama 3.1 Nemotron 70B é um modelo de linguagem em larga escala personalizado pela NVIDIA, projetado para aumentar a utilidade das respostas geradas pelo LLM em relação às consultas dos usuários. Este modelo se destacou em benchmarks como Arena Hard, AlpacaEval 2 LC e GPT-4-Turbo MT-Bench, ocupando o primeiro lugar em todos os três benchmarks de alinhamento automático até 1º de outubro de 2024. O modelo foi treinado usando RLHF (especialmente REINFORCE), Llama-3.1-Nemotron-70B-Reward e HelpSteer2-Preference prompts, com base no modelo Llama-3.1-70B-Instruct."
1096
1099
  },
1100
+ "o1": {
1101
+ "description": "Focado em raciocínio avançado e resolução de problemas complexos, incluindo tarefas matemáticas e científicas. Muito adequado para aplicativos que exigem compreensão profunda do contexto e gerenciamento de fluxos de trabalho."
1102
+ },
1103
+ "o1-2024-12-17": {
1104
+ "description": "o1 é o novo modelo de raciocínio da OpenAI, que suporta entrada de texto e imagem e gera texto como saída, adequado para tarefas complexas que exigem amplo conhecimento geral. Este modelo possui um contexto de 200K e uma data limite de conhecimento em outubro de 2023."
1105
+ },
1097
1106
  "o1-mini": {
1098
1107
  "description": "o1-mini é um modelo de raciocínio rápido e econômico, projetado para cenários de programação, matemática e ciências. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023."
1099
1108
  },
@@ -1121,6 +1130,9 @@
1121
1130
  "openai/gpt-4o-mini": {
1122
1131
  "description": "GPT-4o mini é o mais recente modelo da OpenAI, lançado após o GPT-4 Omni, que suporta entrada de texto e imagem e saída de texto. Como seu modelo compacto mais avançado, é muito mais barato do que outros modelos de ponta recentes e custa mais de 60% menos que o GPT-3.5 Turbo. Ele mantém inteligência de ponta, ao mesmo tempo que oferece uma relação custo-benefício significativa. O GPT-4o mini obteve uma pontuação de 82% no teste MMLU e atualmente está classificado acima do GPT-4 em preferências de chat."
1123
1132
  },
1133
+ "openai/o1": {
1134
+ "description": "o1 é o novo modelo de raciocínio da OpenAI, que suporta entrada de texto e imagem e gera texto como saída, adequado para tarefas complexas que exigem amplo conhecimento geral. Este modelo possui um contexto de 200K e uma data limite de conhecimento em outubro de 2023."
1135
+ },
1124
1136
  "openai/o1-mini": {
1125
1137
  "description": "o1-mini é um modelo de raciocínio rápido e econômico, projetado para cenários de programação, matemática e ciências. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023."
1126
1138
  },
@@ -84,8 +84,7 @@
84
84
  },
85
85
  "modalTitle": "Configuração de Modelo Personalizado",
86
86
  "tokens": {
87
- "title": "Número Máximo de Tokens",
88
- "unlimited": "ilimitado"
87
+ "title": "Número Máximo de Tokens"
89
88
  },
90
89
  "vision": {
91
90
  "extra": "Esta configuração ativará apenas a configuração de upload de imagens dentro do aplicativo; a capacidade de reconhecimento depende totalmente do modelo em si. Por favor, teste a disponibilidade da capacidade de reconhecimento visual desse modelo.",