@lobehub/lobehub 2.0.7 → 2.0.9

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (61) hide show
  1. package/.github/workflows/sync.yml +3 -3
  2. package/CHANGELOG.md +50 -0
  3. package/changelog/v2.json +14 -0
  4. package/locales/ar/models.json +53 -0
  5. package/locales/ar/setting.json +2 -0
  6. package/locales/ar/subscription.json +2 -0
  7. package/locales/bg-BG/models.json +32 -0
  8. package/locales/bg-BG/setting.json +2 -0
  9. package/locales/bg-BG/subscription.json +2 -0
  10. package/locales/de-DE/models.json +33 -0
  11. package/locales/de-DE/setting.json +2 -0
  12. package/locales/de-DE/subscription.json +2 -0
  13. package/locales/en-US/subscription.json +2 -0
  14. package/locales/es-ES/models.json +65 -0
  15. package/locales/es-ES/setting.json +2 -0
  16. package/locales/es-ES/subscription.json +2 -0
  17. package/locales/fa-IR/models.json +31 -0
  18. package/locales/fa-IR/setting.json +2 -0
  19. package/locales/fa-IR/subscription.json +2 -0
  20. package/locales/fr-FR/models.json +34 -0
  21. package/locales/fr-FR/setting.json +2 -0
  22. package/locales/fr-FR/subscription.json +2 -0
  23. package/locales/it-IT/models.json +37 -0
  24. package/locales/it-IT/setting.json +2 -0
  25. package/locales/it-IT/subscription.json +2 -0
  26. package/locales/ja-JP/models.json +20 -0
  27. package/locales/ja-JP/setting.json +2 -0
  28. package/locales/ja-JP/subscription.json +2 -0
  29. package/locales/ko-KR/models.json +51 -0
  30. package/locales/ko-KR/setting.json +2 -0
  31. package/locales/ko-KR/subscription.json +2 -0
  32. package/locales/nl-NL/models.json +9 -0
  33. package/locales/nl-NL/setting.json +2 -0
  34. package/locales/nl-NL/subscription.json +2 -0
  35. package/locales/pl-PL/models.json +33 -0
  36. package/locales/pl-PL/setting.json +2 -0
  37. package/locales/pl-PL/subscription.json +2 -0
  38. package/locales/pt-BR/models.json +49 -0
  39. package/locales/pt-BR/setting.json +2 -0
  40. package/locales/pt-BR/subscription.json +2 -0
  41. package/locales/ru-RU/models.json +45 -0
  42. package/locales/ru-RU/setting.json +2 -0
  43. package/locales/ru-RU/subscription.json +2 -0
  44. package/locales/tr-TR/models.json +23 -0
  45. package/locales/tr-TR/setting.json +2 -0
  46. package/locales/tr-TR/subscription.json +2 -0
  47. package/locales/vi-VN/models.json +49 -0
  48. package/locales/vi-VN/setting.json +2 -0
  49. package/locales/vi-VN/subscription.json +2 -0
  50. package/locales/zh-CN/subscription.json +2 -0
  51. package/locales/zh-TW/setting.json +2 -0
  52. package/locales/zh-TW/subscription.json +2 -0
  53. package/package.json +1 -1
  54. package/packages/model-bank/src/aiModels/zenmux.ts +4 -4
  55. package/packages/model-runtime/src/index.ts +1 -1
  56. package/packages/model-runtime/src/runtimeMap.ts +1 -1
  57. package/src/app/[variants]/(mobile)/(home)/features/SessionListContent/Inbox/index.tsx +10 -20
  58. package/src/locales/default/subscription.ts +2 -0
  59. package/src/server/services/memory/userMemory/extract.ts +45 -34
  60. package/src/server/services/memory/userMemory/persona/__tests__/service.test.ts +2 -4
  61. package/src/server/services/memory/userMemory/persona/service.ts +18 -32
@@ -969,6 +969,25 @@
969
969
  "openai/gpt-5.description": "GPT-5 مدل قدرتمند OpenAI برای طیف وسیعی از وظایف تولیدی و پژوهشی است.",
970
970
  "openai/gpt-oss-120b.description": "یک مدل زبانی بزرگ چندمنظوره با قابلیت استدلال قوی و قابل‌کنترل.",
971
971
  "openai/gpt-oss-20b.description": "مدلی جمع‌وجور با وزن‌های باز که برای تأخیر پایین و محیط‌های با منابع محدود، از جمله اجراهای محلی و لبه‌ای بهینه شده است.",
972
+ "openai/o1-mini.description": "مدل o1-mini یک مدل استدلالی سریع و مقرون‌به‌صرفه است که برای برنامه‌نویسی، ریاضیات و علوم طراحی شده است. این مدل دارای حافظه متنی ۱۲۸ هزار توکن و دانش به‌روز تا اکتبر ۲۰۲۳ است.",
973
+ "openai/o1-preview.description": "مدل o1 پیش‌نمایشی از مدل استدلالی جدید OpenAI برای انجام وظایف پیچیده با نیاز به دانش گسترده است. این مدل دارای حافظه متنی ۱۲۸ هزار توکن و دانش به‌روز تا اکتبر ۲۰۲۳ است.",
974
+ "openai/o1.description": "مدل o1 پرچم‌دار OpenAI در حوزه استدلال است که برای حل مسائل پیچیده با نیاز به تفکر عمیق طراحی شده و دقت بالایی در انجام وظایف چندمرحله‌ای ارائه می‌دهد.",
975
+ "openai/o3-mini-high.description": "مدل o3-mini (با توان استدلال بالا) هوشمندی بیشتری را با همان هزینه و تأخیر مدل o1-mini ارائه می‌دهد.",
976
+ "openai/o3-mini.description": "مدل o3-mini جدیدترین مدل کوچک استدلالی OpenAI است که با همان هزینه و تأخیر مدل o1-mini، هوشمندی بیشتری ارائه می‌دهد.",
977
+ "openai/o3.description": "مدل o3 قدرتمندترین مدل استدلالی OpenAI است که استاندارد جدیدی در برنامه‌نویسی، ریاضیات، علوم و درک بصری ایجاد کرده است. این مدل در پاسخ به پرسش‌های پیچیده و چندوجهی، به‌ویژه در تحلیل تصاویر، نمودارها و دیاگرام‌ها بسیار توانمند است.",
978
+ "openai/o4-mini-high.description": "مدل o4-mini در سطح استدلال بالا، برای استدلال سریع و کارآمد با عملکرد قوی در برنامه‌نویسی و بینایی بهینه‌سازی شده است.",
979
+ "openai/o4-mini.description": "مدل o4-mini یک مدل کوچک و کارآمد از OpenAI برای سناریوهای با تأخیر پایین است.",
980
+ "openai/text-embedding-3-large.description": "قوی‌ترین مدل تعبیه متن OpenAI برای وظایف انگلیسی و غیرانگلیسی.",
981
+ "openai/text-embedding-3-small.description": "نسخه بهبودیافته و با عملکرد بالاتر مدل تعبیه ada از OpenAI.",
982
+ "openai/text-embedding-ada-002.description": "مدل تعبیه متن قدیمی OpenAI.",
983
+ "openrouter/auto.description": "بر اساس طول متن، موضوع و پیچیدگی، درخواست شما به یکی از مدل‌های Llama 3 70B Instruct، Claude 3.5 Sonnet (با خودنظارتی) یا GPT-4o هدایت می‌شود.",
984
+ "perplexity/sonar-pro.description": "محصول پرچم‌دار Perplexity با اتصال به جستجو، پشتیبانی از پرسش‌های پیشرفته و پیگیری‌های بعدی.",
985
+ "perplexity/sonar-reasoning-pro.description": "مدلی پیشرفته با تمرکز بر استدلال که خروجی زنجیره تفکر (CoT) را با جستجوی تقویت‌شده و چند پرس‌وجو در هر درخواست ارائه می‌دهد.",
986
+ "perplexity/sonar-reasoning.description": "مدلی با تمرکز بر استدلال که زنجیره تفکر (CoT) را با توضیحات دقیق و مبتنی بر جستجو تولید می‌کند.",
987
+ "perplexity/sonar.description": "محصول سبک Perplexity با اتصال به جستجو، سریع‌تر و ارزان‌تر از Sonar Pro.",
988
+ "phi3.description": "Phi-3 مدل سبک و متن‌باز مایکروسافت برای یکپارچه‌سازی کارآمد و استدلال در مقیاس بزرگ است.",
989
+ "phi3:14b.description": "Phi-3 مدل سبک و متن‌باز مایکروسافت برای یکپارچه‌سازی کارآمد و استدلال در مقیاس بزرگ است.",
990
+ "pixtral-12b-2409.description": "Pixtral در درک نمودار/تصویر، پاسخ به پرسش‌های اسنادی، استدلال چندوجهی و پیروی از دستورالعمل‌ها بسیار توانمند است. این مدل تصاویر را با وضوح و نسبت تصویر اصلی دریافت کرده و هر تعداد تصویر را در پنجره متنی ۱۲۸ هزار توکن پردازش می‌کند.",
972
991
  "pixtral-large-latest.description": "Pixtral Large یک مدل چندوجهی باز با ۱۲۴ میلیارد پارامتر است که بر پایه Mistral Large 2 ساخته شده و دومین مدل در خانواده چندوجهی ما با درک پیشرفته تصویر در سطح مرزی است.",
973
992
  "pro-128k.description": "Spark Pro 128K ظرفیت بسیار بالایی برای زمینه‌سازی دارد و تا ۱۲۸ هزار توکن را پشتیبانی می‌کند. این مدل برای اسناد بلند که نیاز به تحلیل کامل متن و انسجام بلندمدت دارند، ایده‌آل است و از منطق روان و ارجاع‌های متنوع در بحث‌های پیچیده پشتیبانی می‌کند.",
974
993
  "pro-deepseek-r1.description": "مدل خدمات اختصاصی سازمانی با هم‌زمانی بسته‌بندی‌شده.",
@@ -1018,6 +1037,18 @@
1018
1037
  "qwen/qwen-2-7b-instruct.description": "Qwen2 نسل جدید مدل‌های زبانی Qwen است. Qwen2 7B یک مدل مبتنی بر ترنسفورمر است که در درک زبان، توانایی چندزبانه، برنامه‌نویسی، ریاضی و استدلال عملکرد بالایی دارد.",
1019
1038
  "qwen/qwen-2-7b-instruct:free.description": "Qwen2 یک خانواده جدید از مدل‌های زبانی بزرگ با درک و تولید قوی‌تر است.",
1020
1039
  "qwen/qwen-2-vl-72b-instruct.description": "Qwen2-VL جدیدترین نسخه Qwen-VL است که به عملکرد پیشرفته در بنچمارک‌های بینایی مانند MathVista، DocVQA، RealWorldQA و MTVQA دست یافته است. این مدل می‌تواند بیش از ۲۰ دقیقه ویدیو را برای پرسش‌وپاسخ، گفت‌وگو و تولید محتوا با کیفیت بالا درک کند. همچنین استدلال و تصمیم‌گیری پیچیده را انجام می‌دهد و با دستگاه‌های همراه و ربات‌ها برای اقدام بر اساس زمینه بصری و دستور متنی یکپارچه می‌شود. فراتر از زبان‌های انگلیسی و چینی، متن در تصاویر را به زبان‌های مختلف از جمله بیشتر زبان‌های اروپایی، ژاپنی، کره‌ای، عربی و ویتنامی می‌خواند.",
1040
+ "qwen/qwen-2.5-72b-instruct.description": "Qwen2.5-72B-Instruct یکی از جدیدترین مدل‌های LLM شرکت Alibaba Cloud است. این مدل ۷۲ میلیارد پارامتری پیشرفت‌های قابل‌توجهی در برنامه‌نویسی و ریاضیات دارد، از بیش از ۲۹ زبان (از جمله چینی و انگلیسی) پشتیبانی می‌کند و در پیروی از دستورالعمل‌ها، درک داده‌های ساختاریافته و تولید خروجی ساختاریافته (به‌ویژه JSON) بسیار بهبود یافته است.",
1041
+ "qwen/qwen2.5-32b-instruct.description": "Qwen2.5-32B-Instruct یکی از جدیدترین مدل‌های LLM شرکت Alibaba Cloud است. این مدل ۳۲ میلیارد پارامتری پیشرفت‌های قابل‌توجهی در برنامه‌نویسی و ریاضیات دارد، از بیش از ۲۹ زبان (از جمله چینی و انگلیسی) پشتیبانی می‌کند و در پیروی از دستورالعمل‌ها، درک داده‌های ساختاریافته و تولید خروجی ساختاریافته (به‌ویژه JSON) بسیار بهبود یافته است.",
1042
+ "qwen/qwen2.5-7b-instruct.description": "یک مدل LLM دوزبانه برای زبان چینی و انگلیسی در حوزه‌های زبان، برنامه‌نویسی، ریاضیات و استدلال.",
1043
+ "qwen/qwen2.5-coder-32b-instruct.description": "مدلی پیشرفته برای تولید، استدلال و اصلاح کد در زبان‌های برنامه‌نویسی رایج.",
1044
+ "qwen/qwen2.5-coder-7b-instruct.description": "مدل کد میان‌رده قدرتمند با حافظه متنی ۳۲ هزار توکن، توانمند در برنامه‌نویسی چندزبانه.",
1045
+ "qwen/qwen3-14b.description": "Qwen3-14B نسخه ۱۴ میلیارد پارامتری برای استدلال عمومی و سناریوهای چت است.",
1046
+ "qwen/qwen3-14b:free.description": "Qwen3-14B یک مدل LLM علّی با ۱۴.۸ میلیارد پارامتر است که برای استدلال پیچیده و چت کارآمد طراحی شده است. این مدل بین حالت تفکر (برای ریاضی، کدنویسی و منطق) و حالت غیرتفکر (برای چت عمومی) جابجا می‌شود. برای پیروی از دستورالعمل‌ها، استفاده از ابزارهای عامل و نوشتن خلاقانه در بیش از ۱۰۰ زبان و گویش تنظیم شده است. به‌صورت بومی از حافظه متنی ۳۲ هزار توکن پشتیبانی می‌کند و با YaRN تا ۱۳۱ هزار توکن گسترش می‌یابد.",
1047
+ "qwen/qwen3-235b-a22b-2507.description": "Qwen3-235B-A22B-Instruct-2507 نسخه Instruct از سری Qwen3 است که بین استفاده چندزبانه از دستورالعمل‌ها و سناریوهای با حافظه بلند تعادل برقرار می‌کند.",
1048
+ "qwen/qwen3-235b-a22b-thinking-2507.description": "Qwen3-235B-A22B-Thinking-2507 نسخه تفکری Qwen3 است که برای وظایف پیچیده ریاضی و استدلال تقویت شده است.",
1049
+ "qwen/qwen3-235b-a22b.description": "Qwen3-235B-A22B یک مدل MoE با ۲۳۵ میلیارد پارامتر از Qwen است که در هر عبور رو به جلو ۲۲ میلیارد پارامتر فعال دارد. این مدل بین حالت تفکر (برای استدلال پیچیده، ریاضی و کدنویسی) و حالت غیرتفکر (برای چت کارآمد) جابجا می‌شود. از استدلال قوی، پشتیبانی چندزبانه (بیش از ۱۰۰ زبان/گویش)، پیروی پیشرفته از دستورالعمل‌ها و استفاده از ابزارهای عامل پشتیبانی می‌کند. به‌صورت بومی از حافظه متنی ۳۲ هزار توکن پشتیبانی می‌کند و با YaRN تا ۱۳۱ هزار توکن گسترش می‌یابد.",
1050
+ "qwen/qwen3-235b-a22b:free.description": "Qwen3-235B-A22B یک مدل MoE با ۲۳۵ میلیارد پارامتر از Qwen است که در هر عبور رو به جلو ۲۲ میلیارد پارامتر فعال دارد. این مدل بین حالت تفکر (برای استدلال پیچیده، ریاضی و کدنویسی) و حالت غیرتفکر (برای چت کارآمد) جابجا می‌شود. از استدلال قوی، پشتیبانی چندزبانه (بیش از ۱۰۰ زبان/گویش)، پیروی پیشرفته از دستورالعمل‌ها و استفاده از ابزارهای عامل پشتیبانی می‌کند. به‌صورت بومی از حافظه متنی ۳۲ هزار توکن پشتیبانی می‌کند و با YaRN تا ۱۳۱ هزار توکن گسترش می‌یابد.",
1051
+ "qwen/qwen3-30b-a3b.description": "Qwen3 جدیدترین نسل مدل‌های LLM Qwen با معماری‌های متراکم و MoE است که در استدلال، پشتیبانی چندزبانه و وظایف پیشرفته عامل بسیار توانمند است. توانایی منحصربه‌فرد آن در جابجایی بین حالت تفکر برای استدلال پیچیده و حالت غیرتفکر برای چت کارآمد، عملکردی همه‌جانبه و با کیفیت بالا را تضمین می‌کند.\n\nQwen3 به‌طور قابل‌توجهی از مدل‌های قبلی مانند QwQ و Qwen2.5 پیشی می‌گیرد و عملکردی عالی در ریاضی، برنامه‌نویسی، استدلال عقل سلیم، نوشتن خلاقانه و چت تعاملی ارائه می‌دهد. نسخه Qwen3-30B-A3B دارای ۳۰.۵ میلیارد پارامتر (۳.۳ میلیارد فعال)، ۴۸ لایه، ۱۲۸ متخصص (۸ فعال در هر وظیفه) است و از حافظه متنی تا ۱۳۱ هزار توکن با YaRN پشتیبانی می‌کند و استاندارد جدیدی برای مدل‌های متن‌باز تعیین می‌کند.",
1021
1052
  "qwen2.5-omni-7b.description": "مدل‌های Qwen-Omni از ورودی‌های چندرسانه‌ای (ویدیو، صدا، تصویر، متن) پشتیبانی می‌کنند و خروجی آن‌ها به صورت صوتی و متنی است.",
1022
1053
  "qwen2.5-vl-32b-instruct.description": "Qwen2.5 VL 32B Instruct یک مدل چندرسانه‌ای متن‌باز است که برای استقرار خصوصی و استفاده در سناریوهای مختلف مناسب می‌باشد.",
1023
1054
  "qwen2.5-vl-72b-instruct.description": "بهبود در پیروی از دستورالعمل‌ها، ریاضیات، حل مسئله و برنامه‌نویسی، با توانایی قوی‌تر در شناسایی اشیاء عمومی. از مکان‌یابی دقیق عناصر بصری در قالب‌های مختلف، درک ویدیوهای طولانی (تا ۱۰ دقیقه) با زمان‌بندی رویداد در سطح ثانیه، ترتیب زمانی و درک سرعت، و عامل‌هایی که می‌توانند سیستم‌عامل یا موبایل را از طریق تجزیه و تحلیل و مکان‌یابی کنترل کنند، پشتیبانی می‌کند. استخراج اطلاعات کلیدی قوی و خروجی JSON. این نسخه ۷۲B، قوی‌ترین نسخه در این سری است.",
@@ -446,6 +446,8 @@
446
446
  "settingImage.defaultCount.desc": "تعداد پیش‌فرض تصاویر تولیدشده هنگام ایجاد یک وظیفه جدید در پنل تولید تصویر را تنظیم کنید.",
447
447
  "settingImage.defaultCount.label": "تعداد پیش‌فرض تصویر",
448
448
  "settingImage.defaultCount.title": "هنر هوش مصنوعی",
449
+ "settingModel.enableContextCompression.desc": "هنگامی که گفتگو از ۶۴٬۰۰۰ توکن فراتر رود، پیام‌های پیشین به‌صورت خودکار خلاصه می‌شوند تا ۶۰ تا ۸۰ درصد در مصرف توکن صرفه‌جویی شود.",
450
+ "settingModel.enableContextCompression.title": "فعال‌سازی فشرده‌سازی خودکار زمینه",
449
451
  "settingModel.enableMaxTokens.title": "فعال‌سازی محدودیت حداکثر توکن",
450
452
  "settingModel.enableReasoningEffort.title": "فعال‌سازی تنظیم تلاش استدلالی",
451
453
  "settingModel.frequencyPenalty.desc": "هرچه مقدار بیشتر باشد، واژگان متنوع‌تر و غنی‌تر خواهد بود؛ مقدار کمتر منجر به زبان ساده‌تر و مستقیم‌تر می‌شود.",
@@ -140,6 +140,8 @@
140
140
  "models.output": "خروجی",
141
141
  "models.title": "مدل‌ها",
142
142
  "payDiffPrice": "پرداخت مابه‌التفاوت",
143
+ "payDiffPriceApprox": "تقریباً",
144
+ "payDiffPriceTip": "مبلغ نهایی در صفحه پرداخت مشخص می‌شود",
143
145
  "payment.error.actions.billing": "مدیریت صورتحساب",
144
146
  "payment.error.actions.home": "بازگشت به خانه",
145
147
  "payment.error.desc": "شناسه اشتراک: {{id}} یافت نشد. در صورت وجود سوال، لطفاً از طریق ایمیل با ما تماس بگیرید",
@@ -783,6 +783,40 @@
783
783
  "llava.description": "LLaVA est un modèle multimodal combinant un encodeur visuel et Vicuna pour une compréhension solide vision-langage.",
784
784
  "llava:13b.description": "LLaVA est un modèle multimodal combinant un encodeur visuel et Vicuna pour une compréhension solide vision-langage.",
785
785
  "llava:34b.description": "LLaVA est un modèle multimodal combinant un encodeur visuel et Vicuna pour une compréhension solide vision-langage.",
786
+ "magistral-medium-latest.description": "Magistral Medium 1.2 est un modèle de raisonnement de pointe de Mistral AI (septembre 2025) avec prise en charge de la vision.",
787
+ "magistral-small-2509.description": "Magistral Small 1.2 est un petit modèle de raisonnement open source de Mistral AI (septembre 2025) avec prise en charge de la vision.",
788
+ "mathstral.description": "MathΣtral est conçu pour la recherche scientifique et le raisonnement mathématique, avec de solides capacités de calcul et d'explication.",
789
+ "max-32k.description": "Spark Max 32K offre un traitement de contexte étendu avec une meilleure compréhension contextuelle et un raisonnement logique renforcé, prenant en charge des entrées de 32 000 jetons pour la lecture de longs documents et les questions-réponses sur des connaissances privées.",
790
+ "megrez-3b-instruct.description": "Megrez 3B Instruct est un petit modèle efficace développé par Wuwen Xinqiong.",
791
+ "meituan/longcat-flash-chat.description": "Un modèle de base open source sans raisonnement de Meituan, optimisé pour les dialogues et les tâches d'agents, performant dans l'utilisation d'outils et les interactions complexes à plusieurs tours.",
792
+ "meta-llama-3-70b-instruct.description": "Un puissant modèle de 70 milliards de paramètres, excellent en raisonnement, programmation et traitement de tâches linguistiques variées.",
793
+ "meta-llama-3-8b-instruct.description": "Un modèle polyvalent de 8 milliards de paramètres, optimisé pour la conversation et la génération de texte.",
794
+ "meta-llama-3.1-405b-instruct.description": "Llama 3.1, modèle textuel ajusté par instruction, optimisé pour la conversation multilingue, performant sur les principaux benchmarks industriels parmi les modèles ouverts et fermés.",
795
+ "meta-llama-3.1-70b-instruct.description": "Llama 3.1, modèle textuel ajusté par instruction, optimisé pour la conversation multilingue, performant sur les principaux benchmarks industriels parmi les modèles ouverts et fermés.",
796
+ "meta-llama-3.1-8b-instruct.description": "Llama 3.1, modèle textuel ajusté par instruction, optimisé pour la conversation multilingue, performant sur les principaux benchmarks industriels parmi les modèles ouverts et fermés.",
797
+ "meta-llama/Llama-2-13b-chat-hf.description": "LLaMA-2 Chat (13B) offre une gestion linguistique robuste et une expérience de conversation fluide.",
798
+ "meta-llama/Llama-2-70b-hf.description": "LLaMA-2 offre une gestion linguistique robuste et une expérience d’interaction solide.",
799
+ "meta-llama/Llama-3-70b-chat-hf.description": "Llama 3 70B Instruct Reference est un modèle de conversation puissant pour les dialogues complexes.",
800
+ "meta-llama/Llama-3-8b-chat-hf.description": "Llama 3 8B Instruct Reference offre un support multilingue et une vaste connaissance des domaines.",
801
+ "meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo.description": "LLaMA 3.2 est conçu pour les tâches combinant vision et texte. Il excelle en légendage d’images et en questions-réponses visuelles, reliant génération de langage et raisonnement visuel.",
802
+ "meta-llama/Llama-3.2-3B-Instruct-Turbo.description": "LLaMA 3.2 est conçu pour les tâches combinant vision et texte. Il excelle en légendage d’images et en questions-réponses visuelles, reliant génération de langage et raisonnement visuel.",
803
+ "meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo.description": "LLaMA 3.2 est conçu pour les tâches combinant vision et texte. Il excelle en légendage d’images et en questions-réponses visuelles, reliant génération de langage et raisonnement visuel.",
804
+ "meta-llama/Llama-3.3-70B-Instruct-Turbo.description": "Meta Llama 3.3 est un LLM multilingue de 70B (texte en/texte hors) préentraîné et ajusté par instruction. La version textuelle ajustée est optimisée pour la conversation multilingue et surpasse de nombreux modèles ouverts et fermés sur les benchmarks industriels.",
805
+ "meta-llama/Llama-Vision-Free.description": "LLaMA 3.2 est conçu pour les tâches combinant vision et texte. Il excelle en légendage d’images et en questions-réponses visuelles, reliant génération de langage et raisonnement visuel.",
806
+ "meta-llama/Meta-Llama-3-70B-Instruct-Lite.description": "Llama 3 70B Instruct Lite est conçu pour des performances élevées avec une latence réduite.",
807
+ "meta-llama/Meta-Llama-3-70B-Instruct-Turbo.description": "Llama 3 70B Instruct Turbo offre une compréhension et une génération puissantes pour les charges de travail les plus exigeantes.",
808
+ "meta-llama/Meta-Llama-3-8B-Instruct-Lite.description": "Llama 3 8B Instruct Lite équilibre performance et efficacité pour les environnements à ressources limitées.",
809
+ "meta-llama/Meta-Llama-3-8B-Instruct-Turbo.description": "Llama 3 8B Instruct Turbo est un LLM haute performance pour un large éventail de cas d’usage.",
810
+ "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo.description": "Le modèle Turbo Llama 3.1 405B offre une capacité de contexte massive pour le traitement de données volumineuses et excelle dans les applications d’IA à très grande échelle.",
811
+ "meta-llama/Meta-Llama-3.1-405B-Instruct.description": "Llama 3.1 est la famille de modèles phare de Meta, atteignant jusqu’à 405 milliards de paramètres pour les dialogues complexes, la traduction multilingue et l’analyse de données.",
812
+ "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo.description": "Llama 3.1 70B est finement ajusté pour les applications à forte charge ; la quantification FP8 permet un calcul efficace et précis dans des scénarios complexes.",
813
+ "meta-llama/Meta-Llama-3.1-70B.description": "Llama 3.1 est la famille de modèles phare de Meta, atteignant jusqu’à 405 milliards de paramètres pour les dialogues complexes, la traduction multilingue et l’analyse de données.",
814
+ "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo.description": "Llama 3.1 8B utilise la quantification FP8, prend en charge jusqu’à 131 072 jetons de contexte et se classe parmi les meilleurs modèles ouverts pour les tâches complexes sur de nombreux benchmarks.",
815
+ "meta-llama/llama-3-70b-instruct.description": "Llama 3 70B Instruct est optimisé pour des dialogues de haute qualité et obtient d’excellents résultats dans les évaluations humaines.",
816
+ "meta-llama/llama-3-8b-instruct.description": "Llama 3 8B Instruct est optimisé pour des dialogues de haute qualité, surpassant de nombreux modèles fermés.",
817
+ "meta-llama/llama-3.1-70b-instruct.description": "La dernière série Llama 3.1 de Meta, la variante 70B ajustée par instruction, est optimisée pour des dialogues de haute qualité. Elle affiche de solides performances face aux modèles fermés leaders dans les évaluations industrielles. (Disponible uniquement pour les entités vérifiées en entreprise.)",
818
+ "meta-llama/llama-3.1-8b-instruct.description": "La dernière série Llama 3.1 de Meta, la variante 8B ajustée par instruction, est particulièrement rapide et efficace. Elle offre de solides performances dans les évaluations industrielles, surpassant de nombreux modèles fermés leaders. (Disponible uniquement pour les entités vérifiées en entreprise.)",
819
+ "meta-llama/llama-3.1-8b-instruct:free.description": "LLaMA 3.1 offre un support multilingue et fait partie des modèles génératifs les plus performants.",
786
820
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
787
821
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
788
822
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",
@@ -446,6 +446,8 @@
446
446
  "settingImage.defaultCount.desc": "Définissez le nombre d’images générées par défaut lors de la création d’une nouvelle tâche dans le panneau de génération d’images.",
447
447
  "settingImage.defaultCount.label": "Nombre d’images par défaut",
448
448
  "settingImage.defaultCount.title": "Art IA",
449
+ "settingModel.enableContextCompression.desc": "Compresse automatiquement les messages historiques en résumés lorsque la conversation dépasse 64 000 jetons, permettant d’économiser 60 à 80 % de l’utilisation des jetons",
450
+ "settingModel.enableContextCompression.title": "Activer la compression automatique du contexte",
449
451
  "settingModel.enableMaxTokens.title": "Activer la limite de jetons",
450
452
  "settingModel.enableReasoningEffort.title": "Activer l’ajustement de l’effort de raisonnement",
451
453
  "settingModel.frequencyPenalty.desc": "Plus la valeur est élevée, plus le vocabulaire est riche et varié ; plus la valeur est faible, plus le langage est simple et direct.",
@@ -140,6 +140,8 @@
140
140
  "models.output": "Sortie",
141
141
  "models.title": "Modèles",
142
142
  "payDiffPrice": "Payer la différence",
143
+ "payDiffPriceApprox": "Env.",
144
+ "payDiffPriceTip": "Montant réel selon la page de paiement",
143
145
  "payment.error.actions.billing": "Gestion de la facturation",
144
146
  "payment.error.actions.home": "Retour à l'accueil",
145
147
  "payment.error.desc": "ID d’abonnement : {{id}} introuvable. Si vous avez des questions, veuillez nous contacter par e-mail",
@@ -723,6 +723,43 @@
723
723
  "imagen-4.0-generate-preview-06-06.description": "Famiglia di modelli di generazione immagini da testo di quarta generazione Imagen.",
724
724
  "imagen-4.0-ultra-generate-001.description": "Versione Ultra della serie di modelli di generazione immagini da testo di quarta generazione Imagen",
725
725
  "imagen-4.0-ultra-generate-preview-06-06.description": "Variante Ultra della quarta generazione di modelli di generazione immagini da testo Imagen.",
726
+ "inception/mercury-coder-small.description": "Mercury Coder Small è ideale per la generazione di codice, il debug e il refactoring con una latenza minima.",
727
+ "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 è il terzo modello dell'architettura Ling 2.0 del team Bailing di Ant Group. È un modello MoE con 100 miliardi di parametri totali, ma solo 6,1 miliardi attivi per token (4,8 miliardi esclusi gli embedding). Nonostante la configurazione leggera, eguaglia o supera modelli densi da 40 miliardi e MoE ancora più grandi in diversi benchmark, esplorando l'efficienza attraverso architettura e strategia di addestramento.",
728
+ "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 è un piccolo LLM MoE ad alte prestazioni con 16 miliardi di parametri totali e solo 1,4 miliardi attivi per token (789 milioni esclusi gli embedding), offrendo una generazione molto rapida. Grazie a un design MoE efficiente e a un ampio dataset di addestramento di alta qualità, raggiunge prestazioni di livello superiore comparabili a modelli densi sotto i 10 miliardi e a MoE più grandi.",
729
+ "inclusionAI/Ring-flash-2.0.description": "Ring-flash-2.0 è un modello di ragionamento ad alte prestazioni ottimizzato a partire da Ling-flash-2.0-base. Utilizza un'architettura MoE con 100 miliardi di parametri totali e solo 6,1 miliardi attivi per inferenza. Il suo algoritmo icepop stabilizza l'addestramento RL per i modelli MoE, consentendo progressi continui nel ragionamento complesso. Ottiene risultati eccezionali in benchmark difficili (gare di matematica, generazione di codice, ragionamento logico), superando i migliori modelli densi sotto i 40 miliardi e rivaleggiando con MoE aperti più grandi e modelli chiusi di ragionamento. Eccelle anche nella scrittura creativa e la sua architettura efficiente consente inferenze rapide a costi di distribuzione ridotti per scenari ad alta concorrenza.",
730
+ "inclusionai/ling-1t.description": "Ling-1T è il modello MoE da 1 trilione di parametri di inclusionAI, ottimizzato per compiti di ragionamento intensivo e contesti di grandi dimensioni.",
731
+ "inclusionai/ling-flash-2.0.description": "Ling-flash-2.0 è il modello MoE di inclusionAI ottimizzato per efficienza e prestazioni di ragionamento, adatto a compiti di media e grande scala.",
732
+ "inclusionai/ling-mini-2.0.description": "Ling-mini-2.0 è il modello MoE leggero di inclusionAI, che riduce significativamente i costi mantenendo la capacità di ragionamento.",
733
+ "inclusionai/ming-flash-omini-preview.description": "Ming-flash-omni Preview è il modello multimodale di inclusionAI, che supporta input vocali, immagini e video, con rendering delle immagini migliorato e riconoscimento vocale avanzato.",
734
+ "inclusionai/ring-1t.description": "Ring-1T è il modello MoE da un trilione di parametri di inclusionAI per il ragionamento, adatto a compiti di ricerca e ragionamento su larga scala.",
735
+ "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 è una variante del modello Ring di inclusionAI per scenari ad alto throughput, con enfasi su velocità ed efficienza dei costi.",
736
+ "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 è il modello MoE leggero ad alto throughput di inclusionAI, progettato per la concorrenza elevata.",
737
+ "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat è un modello di chat open-source basato sull'architettura InternLM2. Il modello da 7 miliardi è focalizzato sulla generazione di dialoghi con supporto per cinese e inglese, utilizzando tecniche di addestramento moderne per conversazioni fluide e intelligenti. È adatto a molti scenari di chat come assistenza clienti e assistenti personali.",
738
+ "internlm2.5-latest.description": "Modelli legacy ancora mantenuti con prestazioni eccellenti e stabili dopo numerose iterazioni. Disponibili nelle versioni da 7B e 20B, supportano contesti da 1M e una maggiore capacità di seguire istruzioni e utilizzare strumenti. Impostato di default sulla serie InternLM2.5 più recente (attualmente internlm2.5-20b-chat).",
739
+ "internlm3-latest.description": "La nostra serie di modelli più recente con prestazioni di ragionamento eccellenti, leader tra i modelli open-source della sua categoria. Impostato di default sulla serie InternLM3 più recente (attualmente internlm3-8b-instruct).",
740
+ "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO è un modello multimodale preaddestrato per il ragionamento complesso immagine-testo.",
741
+ "internvl2.5-latest.description": "InternVL2.5 è ancora mantenuto con prestazioni forti e stabili. Impostato di default sulla serie InternVL2.5 più recente (attualmente internvl2.5-78b).",
742
+ "internvl3-14b.description": "InternVL3 14B è un modello multimodale di medie dimensioni che bilancia prestazioni e costi.",
743
+ "internvl3-1b.description": "InternVL3 1B è un modello multimodale leggero per distribuzioni con risorse limitate.",
744
+ "internvl3-38b.description": "InternVL3 38B è un grande modello multimodale open-source per una comprensione immagine-testo ad alta precisione.",
745
+ "internvl3-latest.description": "Il nostro modello multimodale più recente con una comprensione immagine-testo più avanzata e capacità di analisi di immagini in sequenza lunga, comparabile ai migliori modelli chiusi. Impostato di default sulla serie InternVL più recente (attualmente internvl3-78b).",
746
+ "irag-1.0.description": "ERNIE iRAG è un modello di generazione aumentata dal recupero di immagini per la ricerca visiva, il recupero immagine-testo e la generazione di contenuti.",
747
+ "jamba-large.description": "Il nostro modello più potente e avanzato, progettato per compiti aziendali complessi con prestazioni eccezionali.",
748
+ "jamba-mini.description": "Il modello più efficiente della sua categoria, che bilancia velocità e qualità con un ingombro ridotto.",
749
+ "jina-deepsearch-v1.description": "DeepSearch combina ricerca web, lettura e ragionamento per indagini approfondite. Pensalo come un agente che prende il tuo compito di ricerca, esegue ricerche ampie con più iterazioni e solo dopo produce una risposta. Il processo prevede ricerca continua, ragionamento e risoluzione di problemi da più angolazioni, fondamentalmente diverso dai LLM standard che rispondono dai dati di preaddestramento o dai sistemi RAG tradizionali che si basano su una ricerca superficiale one-shot.",
750
+ "kimi-k2-0711-preview.description": "kimi-k2 è un modello base MoE con forti capacità di programmazione e agenti (1T di parametri totali, 32B attivi), che supera altri modelli open-source mainstream nei benchmark di ragionamento, programmazione, matematica e agenti.",
751
+ "kimi-k2-0905-preview.description": "kimi-k2-0905-preview offre una finestra di contesto da 256k, una programmazione agentica più forte, una qualità del codice front-end migliorata e una comprensione del contesto più profonda.",
752
+ "kimi-k2-instruct.description": "Kimi K2 Instruct è il modello ufficiale di ragionamento di Kimi con contesto esteso per codice, domande e risposte e altro.",
753
+ "kimi-k2-thinking-turbo.description": "Variante K2 long-thinking ad alta velocità con contesto da 256k, ragionamento profondo avanzato e output da 60–100 token/sec.",
754
+ "kimi-k2-thinking.description": "kimi-k2-thinking è un modello di ragionamento di Moonshot AI con capacità generali di agenti e ragionamento. Eccelle nel ragionamento profondo e può risolvere problemi complessi tramite l'uso di strumenti multi-step.",
755
+ "kimi-k2-turbo-preview.description": "kimi-k2 è un modello base MoE con forti capacità di programmazione e agenti (1T di parametri totali, 32B attivi), che supera altri modelli open-source mainstream nei benchmark di ragionamento, programmazione, matematica e agenti.",
756
+ "kimi-k2.description": "Kimi-K2 è un modello base MoE di Moonshot AI con forti capacità di programmazione e agenti, per un totale di 1T di parametri con 32B attivi. Nei benchmark per ragionamento generale, programmazione, matematica e compiti agentici, supera altri modelli open-source mainstream.",
757
+ "kimi-k2:1t.description": "Kimi K2 è un grande LLM MoE di Moonshot AI con 1T di parametri totali e 32B attivi per passaggio. È ottimizzato per capacità agentiche tra cui uso avanzato di strumenti, ragionamento e sintesi di codice.",
758
+ "kimi-latest.description": "Kimi Latest utilizza il modello Kimi più recente e può includere funzionalità sperimentali. Supporta la comprensione delle immagini e seleziona automaticamente i modelli di fatturazione 8k/32k/128k in base alla lunghezza del contesto.",
759
+ "kuaishou/kat-coder-pro-v1.description": "KAT-Coder-Pro-V1 (gratuito per un periodo limitato) è focalizzato sulla comprensione del codice e sull'automazione per agenti di programmazione efficienti.",
760
+ "learnlm-1.5-pro-experimental.description": "LearnLM è un modello sperimentale e specifico per compiti, addestrato secondo i principi della scienza dell'apprendimento per seguire istruzioni di sistema in scenari di insegnamento/apprendimento, agendo come un tutor esperto.",
761
+ "learnlm-2.0-flash-experimental.description": "LearnLM è un modello sperimentale e specifico per compiti, addestrato secondo i principi della scienza dell'apprendimento per seguire istruzioni di sistema in scenari di insegnamento/apprendimento, agendo come un tutor esperto.",
762
+ "lite.description": "Spark Lite è un LLM leggero con latenza ultra-bassa ed elaborazione efficiente. È completamente gratuito e supporta la ricerca web in tempo reale. Le sue risposte rapide si comportano bene su dispositivi a bassa potenza e per il fine-tuning dei modelli, offrendo un'esperienza intelligente e conveniente, soprattutto per domande e risposte, generazione di contenuti e scenari di ricerca.",
726
763
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 è un LLM open-source pensato per sviluppatori, ricercatori e aziende, progettato per supportare la creazione, la sperimentazione e la scalabilità responsabile di idee basate su IA generativa. Parte integrante dell’ecosistema globale per l’innovazione comunitaria, è ideale per ambienti con risorse limitate, dispositivi edge e tempi di addestramento ridotti.",
727
764
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Solido ragionamento visivo su immagini ad alta risoluzione, ideale per applicazioni di comprensione visiva.",
728
765
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Ragionamento visivo avanzato per applicazioni agenti di comprensione visiva.",
@@ -446,6 +446,8 @@
446
446
  "settingImage.defaultCount.desc": "Imposta il numero predefinito di immagini generate quando si crea un nuovo compito nel pannello di generazione immagini.",
447
447
  "settingImage.defaultCount.label": "Numero Immagini Predefinito",
448
448
  "settingImage.defaultCount.title": "Arte AI",
449
+ "settingModel.enableContextCompression.desc": "Comprimi automaticamente i messaggi storici in riepiloghi quando la conversazione supera i 64.000 token, risparmiando dal 60 all'80% nell'uso dei token",
450
+ "settingModel.enableContextCompression.title": "Abilita Compressione Automatica del Contesto",
449
451
  "settingModel.enableMaxTokens.title": "Abilita Limite Massimo Token",
450
452
  "settingModel.enableReasoningEffort.title": "Abilita Regolazione Sforzo di Ragionamento",
451
453
  "settingModel.frequencyPenalty.desc": "Valori più alti aumentano la varietà del vocabolario; valori più bassi rendono il linguaggio più semplice e diretto.",
@@ -140,6 +140,8 @@
140
140
  "models.output": "Output",
141
141
  "models.title": "Modelli",
142
142
  "payDiffPrice": "Paga la differenza",
143
+ "payDiffPriceApprox": "Circa",
144
+ "payDiffPriceTip": "Importo effettivo soggetto alla pagina di pagamento",
143
145
  "payment.error.actions.billing": "Gestione fatturazione",
144
146
  "payment.error.actions.home": "Torna alla home",
145
147
  "payment.error.desc": "ID abbonamento: {{id}} non trovato. In caso di domande, contattaci via email",
@@ -807,6 +807,26 @@
807
807
  "meta-llama/Meta-Llama-3-70B-Instruct-Turbo.description": "Llama 3 70B Instruct Turboは、最も要求の厳しいワークロードに対応する強力な理解力と生成能力を提供します。",
808
808
  "meta-llama/Meta-Llama-3-8B-Instruct-Lite.description": "Llama 3 8B Instruct Liteは、リソース制約のある環境向けにパフォーマンスを最適化しています。",
809
809
  "meta-llama/Meta-Llama-3-8B-Instruct-Turbo.description": "Llama 3 8B Instruct Turboは、幅広いユースケースに対応する高性能LLMです。",
810
+ "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo.description": "405B Llama 3.1 Turboモデルは、大規模なデータ処理に対応する膨大なコンテキスト容量を提供し、超大規模AIアプリケーションにおいて卓越した性能を発揮します。",
811
+ "meta-llama/Meta-Llama-3.1-405B-Instruct.description": "Llama 3.1はMetaの最先端モデルファミリーであり、405Bパラメータまでスケーリング可能で、複雑な対話、多言語翻訳、データ分析に対応します。",
812
+ "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo.description": "Llama 3.1 70Bは高負荷アプリケーション向けに最適化されており、FP8量子化により複雑なシナリオでも効率的な計算と高精度を実現します。",
813
+ "meta-llama/Meta-Llama-3.1-70B.description": "Llama 3.1はMetaの最先端モデルファミリーであり、405Bパラメータまでスケーリング可能で、複雑な対話、多言語翻訳、データ分析に対応します。",
814
+ "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo.description": "Llama 3.1 8BはFP8量子化を採用し、最大131,072トークンのコンテキストをサポート。多くのベンチマークで複雑なタスクにおいてトップクラスのオープンモデルとして評価されています。",
815
+ "meta-llama/llama-3-70b-instruct.description": "Llama 3 70B Instructは高品質な対話に最適化されており、人間による評価でも高いパフォーマンスを示します。",
816
+ "meta-llama/llama-3-8b-instruct.description": "Llama 3 8B Instructは高品質な対話に最適化されており、多くのクローズドモデルを上回る性能を発揮します。",
817
+ "meta-llama/llama-3.1-70b-instruct.description": "Metaの最新Llama 3.1シリーズの70B命令調整バージョンで、高品質な対話に最適化されています。業界評価において、主要なクローズドモデルに対して優れた性能を示しています。(企業認証済みの組織のみ利用可能)",
818
+ "meta-llama/llama-3.1-8b-instruct.description": "Metaの最新Llama 3.1シリーズの8B命令調整バージョンで、特に高速かつ効率的です。業界評価において、多くの主要なクローズドモデルを上回る性能を発揮します。(企業認証済みの組織のみ利用可能)",
819
+ "meta-llama/llama-3.1-8b-instruct:free.description": "LLaMA 3.1は多言語対応を備えた、最先端の生成モデルの一つです。",
820
+ "meta-llama/llama-3.2-11b-vision-instruct.description": "LLaMA 3.2は視覚と言語を組み合わせたタスク向けに設計されており、画像キャプション生成や視覚的質問応答に優れ、言語生成と視覚的推論の橋渡しを行います。",
821
+ "meta-llama/llama-3.2-3b-instruct.description": "meta-llama/llama-3.2-3b-instruct",
822
+ "meta-llama/llama-3.2-90b-vision-instruct.description": "LLaMA 3.2は視覚と言語を組み合わせたタスク向けに設計されており、画像キャプション生成や視覚的質問応答に優れ、言語生成と視覚的推論の橋渡しを行います。",
823
+ "meta-llama/llama-3.3-70b-instruct.description": "Llama 3.3は最も高度な多言語対応のオープンソースLlamaモデルで、非常に低コストで405Bに近い性能を提供します。Transformerベースで、SFTとRLHFにより有用性と安全性が向上。命令調整版は多言語チャットに最適化され、業界ベンチマークで多くのオープン・クローズドチャットモデルを上回ります。知識カットオフ:2023年12月。",
824
+ "meta-llama/llama-3.3-70b-instruct:free.description": "Llama 3.3は最も高度な多言語対応のオープンソースLlamaモデルで、非常に低コストで405Bに近い性能を提供します。Transformerベースで、SFTとRLHFにより有用性と安全性が向上。命令調整版は多言語チャットに最適化され、業界ベンチマークで多くのオープン・クローズドチャットモデルを上回ります。知識カットオフ:2023年12月。",
825
+ "meta.llama3-1-405b-instruct-v1:0.description": "Meta Llama 3.1 405B Instructは、Llama 3.1 Instructモデルの中で最大かつ最も強力なモデルであり、対話推論や合成データ生成に優れ、ドメイン特化の事前学習やファインチューニングの基盤としても最適です。Llama 3.1の多言語LLMは、8B、70B、405Bのサイズで事前学習および命令調整された生成モデル(テキスト入力/出力)です。命令調整モデルは多言語対話に最適化され、業界標準のベンチマークで多くのオープンチャットモデルを上回ります。Llama 3.1は商用および研究用途に対応しており、命令調整モデルはアシスタント型チャットに、事前学習モデルはより広範な自然言語生成タスクに適しています。Llama 3.1の出力は、合成データ生成や精緻化など、他のモデルの改善にも活用可能です。Llama 3.1は自己回帰型Transformerモデルで、最適化されたアーキテクチャを採用。命令調整版はSFT(教師ありファインチューニング)とRLHF(人間のフィードバックによる強化学習)を用いて、人間の好みに沿った有用性と安全性を実現しています。",
826
+ "meta.llama3-1-70b-instruct-v1:0.description": "Meta Llama 3.1 70B Instructのアップデート版で、128Kの拡張コンテキストウィンドウ、多言語対応、推論能力の向上を備えています。Llama 3.1の多言語LLMは、8B、70B、405Bのサイズで事前学習および命令調整された生成モデル(テキスト入力/出力)です。命令調整モデルは多言語対話に最適化され、業界標準のベンチマークで多くのオープンチャットモデルを上回ります。Llama 3.1は商用および研究用途に対応しており、命令調整モデルはアシスタント型チャットに、事前学習モデルはより広範な自然言語生成タスクに適しています。Llama 3.1の出力は、合成データ生成や精緻化など、他のモデルの改善にも活用可能です。Llama 3.1は自己回帰型Transformerモデルで、最適化されたアーキテクチャを採用。命令調整版はSFT(教師ありファインチューニング)とRLHF(人間のフィードバックによる強化学習)を用いて、人間の好みに沿った有用性と安全性を実現しています。",
827
+ "meta.llama3-1-8b-instruct-v1:0.description": "Meta Llama 3.1 8B Instructのアップデート版で、128Kのコンテキストウィンドウ、多言語対応、推論能力の向上を備えています。Llama 3.1ファミリーには、8B、70B、405Bの命令調整テキストモデルが含まれ、多言語チャットと高いベンチマーク性能に最適化されています。商用および研究用途に対応し、命令調整モデルはアシスタント型チャットに、事前学習モデルはより広範な生成タスクに適しています。Llama 3.1の出力は、合成データ生成や精緻化など、他のモデルの改善にも活用可能です。自己回帰型Transformerモデルであり、SFTとRLHFにより有用性と安全性を実現しています。",
828
+ "meta.llama3-70b-instruct-v1:0.description": "Meta Llama 3は、開発者、研究者、企業向けのオープンLLMであり、生成AIのアイデアを構築・実験・拡張するための基盤です。グローバルなコミュニティによるイノベーションの基礎として、コンテンツ生成、対話型AI、言語理解、研究開発、企業アプリケーションに最適です。",
829
+ "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3は、開発者、研究者、企業向けのオープンLLMであり、生成AIのアイデアを構築・実験・拡張するための基盤です。限られた計算資源やエッジデバイス、短時間のトレーニングに適しており、効率的な運用が可能です。",
810
830
  "meta/Llama-3.2-90B-Vision-Instruct.description": "視覚理解エージェント向けの高度な画像推論機能。",
811
831
  "meta/Llama-3.3-70B-Instruct.description": "Llama 3.3 は、最先端の多言語対応オープンソース Llama モデルであり、非常に低コストで 405B に近い性能を実現します。Transformer ベースで、SFT および RLHF により有用性と安全性が向上しています。命令調整版は多言語チャットに最適化されており、業界ベンチマークで多くのオープン・クローズドチャットモデルを上回ります。知識カットオフ:2023年12月。",
812
832
  "meta/Meta-Llama-3-70B-Instruct.description": "推論、コーディング、幅広い言語タスクに優れた 70B パラメータの強力なモデル。",
@@ -446,6 +446,8 @@
446
446
  "settingImage.defaultCount.desc": "新しいタスクを作成する際に、画像生成パネルでのデフォルト画像数を設定します。",
447
447
  "settingImage.defaultCount.label": "デフォルト画像数",
448
448
  "settingImage.defaultCount.title": "AI画像設定",
449
+ "settingModel.enableContextCompression.desc": "会話が64,000トークンを超えた場合に、過去のメッセージを自動的に要約して圧縮し、トークン使用量を60〜80%節約します",
450
+ "settingModel.enableContextCompression.title": "自動コンテキスト圧縮を有効にする",
449
451
  "settingModel.enableMaxTokens.title": "単一応答制限を有効にする",
450
452
  "settingModel.enableReasoningEffort.title": "推論強度の調整を有効にする",
451
453
  "settingModel.frequencyPenalty.desc": "値が大きいほど、言葉がより豊かで多様になります。値が小さいほど、言葉はより素朴でシンプルになります。",
@@ -140,6 +140,8 @@
140
140
  "models.output": "出力",
141
141
  "models.title": "モデル",
142
142
  "payDiffPrice": "差額を支払う",
143
+ "payDiffPriceApprox": "約",
144
+ "payDiffPriceTip": "実際の金額は支払いページでご確認ください",
143
145
  "payment.error.actions.billing": "請求管理",
144
146
  "payment.error.actions.home": "ホームに戻る",
145
147
  "payment.error.desc": "サブスクリプションID:{{id}} が見つかりません。ご不明な点がある場合は、メールでお問い合わせください。",
@@ -771,6 +771,57 @@
771
771
  "llama-3.3-70b-versatile.description": "Meta Llama 3.3은 70B 파라미터를 가진 다국어 LLM으로, 사전 학습 및 인스트럭션 튜닝 버전을 제공합니다. 텍스트 전용 인스트럭션 튜닝 모델은 다국어 대화에 최적화되어 있으며, 업계 공통 벤치마크에서 다수의 오픈 및 클로즈드 채팅 모델을 능가합니다.",
772
772
  "llama-3.3-70b.description": "Llama 3.3 70B는 추론과 처리량의 균형을 갖춘 중대형 Llama 모델입니다.",
773
773
  "llama-3.3-instruct.description": "Llama 3.3 인스트럭션 튜닝 모델은 채팅에 최적화되어 있으며, 업계 공통 벤치마크에서 다수의 오픈 채팅 모델을 능가합니다.",
774
+ "llama3-70b-8192.description": "Meta Llama 3 70B는 복잡한 프로젝트를 위한 탁월한 복잡성 처리 능력을 제공합니다.",
775
+ "llama3-8b-8192.description": "Meta Llama 3 8B는 다양한 상황에서 강력한 추론 성능을 발휘합니다.",
776
+ "llama3-groq-70b-8192-tool-use-preview.description": "Llama 3 Groq 70B Tool Use는 복잡한 작업을 효율적으로 처리하기 위한 강력한 도구 호출 기능을 제공합니다.",
777
+ "llama3-groq-8b-8192-tool-use-preview.description": "Llama 3 Groq 8B Tool Use는 빠른 병렬 연산을 통해 효율적인 도구 사용에 최적화되어 있습니다.",
778
+ "llama3.1-8b.description": "Llama 3.1 8B: 경량 온라인 추론 및 채팅을 위한 소형 저지연 Llama 변형 모델입니다.",
779
+ "llama3.1.description": "Llama 3.1은 Meta의 대표 모델로, 복잡한 대화, 다국어 번역, 데이터 분석을 위해 최대 405B 파라미터까지 확장됩니다.",
780
+ "llama3.1:405b.description": "Llama 3.1은 Meta의 대표 모델로, 복잡한 대화, 다국어 번역, 데이터 분석을 위해 최대 405B 파라미터까지 확장됩니다.",
781
+ "llama3.1:70b.description": "Llama 3.1은 Meta의 대표 모델로, 복잡한 대화, 다국어 번역, 데이터 분석을 위해 최대 405B 파라미터까지 확장됩니다.",
782
+ "llava-v1.5-7b-4096-preview.description": "LLaVA 1.5 7B는 시각 정보를 처리하여 복잡한 출력을 생성하는 모델입니다.",
783
+ "llava.description": "LLaVA는 비쿠나와 비전 인코더를 결합한 멀티모달 모델로, 강력한 시각-언어 이해 능력을 갖추고 있습니다.",
784
+ "llava:13b.description": "LLaVA는 비쿠나와 비전 인코더를 결합한 멀티모달 모델로, 강력한 시각-언어 이해 능력을 갖추고 있습니다.",
785
+ "llava:34b.description": "LLaVA는 비쿠나와 비전 인코더를 결합한 멀티모달 모델로, 강력한 시각-언어 이해 능력을 갖추고 있습니다.",
786
+ "magistral-medium-latest.description": "Magistral Medium 1.2는 Mistral AI가 개발한 최첨단 추론 모델로, 시각 기능을 지원합니다. (2025년 9월)",
787
+ "magistral-small-2509.description": "Magistral Small 1.2는 Mistral AI가 개발한 오픈소스 소형 추론 모델로, 시각 기능을 지원합니다. (2025년 9월)",
788
+ "mathstral.description": "MathΣtral은 과학 연구 및 수학적 추론을 위해 설계되었으며, 강력한 계산 및 설명 능력을 갖추고 있습니다.",
789
+ "max-32k.description": "Spark Max 32K는 32K 토큰 입력을 지원하여 긴 문서 읽기 및 개인 지식 기반 질의응답에 적합한 대용량 문맥 처리와 논리적 추론 능력을 제공합니다.",
790
+ "megrez-3b-instruct.description": "Megrez 3B Instruct는 Wuwen Xinqiong이 개발한 소형 고효율 모델입니다.",
791
+ "meituan/longcat-flash-chat.description": "Meituan이 개발한 오픈소스 기반 모델로, 대화 및 에이전트 작업에 최적화되어 있으며, 도구 사용 및 복잡한 다중 턴 상호작용에 강점을 보입니다.",
792
+ "meta-llama-3-70b-instruct.description": "70B 파라미터를 가진 강력한 모델로, 추론, 코딩, 다양한 언어 작업에 탁월한 성능을 발휘합니다.",
793
+ "meta-llama-3-8b-instruct.description": "8B 파라미터를 가진 다재다능한 모델로, 채팅 및 텍스트 생성에 최적화되어 있습니다.",
794
+ "meta-llama-3.1-405b-instruct.description": "Llama 3.1은 다국어 채팅에 최적화된 인스트럭션 튜닝 텍스트 모델로, 오픈 및 클로즈드 챗 모델 중 업계 표준 벤치마크에서 우수한 성능을 보입니다.",
795
+ "meta-llama-3.1-70b-instruct.description": "Llama 3.1은 다국어 채팅에 최적화된 인스트럭션 튜닝 텍스트 모델로, 오픈 및 클로즈드 챗 모델 중 업계 표준 벤치마크에서 우수한 성능을 보입니다.",
796
+ "meta-llama-3.1-8b-instruct.description": "Llama 3.1은 다국어 채팅에 최적화된 인스트럭션 튜닝 텍스트 모델로, 오픈 및 클로즈드 챗 모델 중 업계 표준 벤치마크에서 우수한 성능을 보입니다.",
797
+ "meta-llama/Llama-2-13b-chat-hf.description": "LLaMA-2 Chat (13B)은 강력한 언어 처리 능력과 안정적인 채팅 경험을 제공합니다.",
798
+ "meta-llama/Llama-2-70b-hf.description": "LLaMA-2는 강력한 언어 처리 능력과 안정적인 상호작용 경험을 제공합니다.",
799
+ "meta-llama/Llama-3-70b-chat-hf.description": "Llama 3 70B Instruct Reference는 복잡한 대화를 위한 강력한 챗 모델입니다.",
800
+ "meta-llama/Llama-3-8b-chat-hf.description": "Llama 3 8B Instruct Reference는 다국어 지원과 폭넓은 도메인 지식을 제공합니다.",
801
+ "meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo.description": "LLaMA 3.2는 시각과 텍스트를 결합한 작업을 위해 설계되었으며, 이미지 캡셔닝과 시각적 질의응답에 탁월합니다.",
802
+ "meta-llama/Llama-3.2-3B-Instruct-Turbo.description": "LLaMA 3.2는 시각과 텍스트를 결합한 작업을 위해 설계되었으며, 이미지 캡셔닝과 시각적 질의응답에 탁월합니다.",
803
+ "meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo.description": "LLaMA 3.2는 시각과 텍스트를 결합한 작업을 위해 설계되었으며, 이미지 캡셔닝과 시각적 질의응답에 탁월합니다.",
804
+ "meta-llama/Llama-3.3-70B-Instruct-Turbo.description": "Meta Llama 3.3 다국어 LLM은 70B 파라미터의 사전학습 및 인스트럭션 튜닝 모델로, 다국어 채팅에 최적화되어 있으며 업계 벤치마크에서 많은 오픈 및 클로즈드 챗 모델을 능가합니다.",
805
+ "meta-llama/Llama-Vision-Free.description": "LLaMA 3.2는 시각과 텍스트를 결합한 작업을 위해 설계되었으며, 이미지 캡셔닝과 시각적 질의응답에 탁월합니다.",
806
+ "meta-llama/Meta-Llama-3-70B-Instruct-Lite.description": "Llama 3 70B Instruct Lite는 낮은 지연 시간으로 높은 성능을 제공하도록 설계되었습니다.",
807
+ "meta-llama/Meta-Llama-3-70B-Instruct-Turbo.description": "Llama 3 70B Instruct Turbo는 가장 까다로운 작업 부하를 위한 강력한 이해 및 생성 능력을 제공합니다.",
808
+ "meta-llama/Meta-Llama-3-8B-Instruct-Lite.description": "Llama 3 8B Instruct Lite는 자원이 제한된 환경에서도 균형 잡힌 성능을 제공합니다.",
809
+ "meta-llama/Meta-Llama-3-8B-Instruct-Turbo.description": "Llama 3 8B Instruct Turbo는 다양한 사용 사례에 적합한 고성능 LLM입니다.",
810
+ "meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo.description": "405B Llama 3.1 Turbo 모델은 대규모 데이터 처리를 위한 방대한 문맥 용량을 제공하며, 초대형 AI 애플리케이션에 탁월한 성능을 발휘합니다.",
811
+ "meta-llama/Meta-Llama-3.1-405B-Instruct.description": "Llama 3.1은 Meta의 대표 모델군으로, 복잡한 대화, 다국어 번역, 데이터 분석을 위해 최대 405B 파라미터까지 확장됩니다.",
812
+ "meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo.description": "Llama 3.1 70B는 고부하 애플리케이션에 정밀하게 튜닝되었으며, FP8 양자화를 통해 복잡한 시나리오에서도 효율적인 연산과 정확도를 제공합니다.",
813
+ "meta-llama/Meta-Llama-3.1-70B.description": "Llama 3.1은 Meta의 대표 모델군으로, 복잡한 대화, 다국어 번역, 데이터 분석을 위해 최대 405B 파라미터까지 확장됩니다.",
814
+ "meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo.description": "Llama 3.1 8B는 FP8 양자화를 사용하며 최대 131,072 컨텍스트 토큰을 지원하고, 다양한 벤치마크에서 복잡한 작업에 대해 상위권 성능을 보입니다.",
815
+ "meta-llama/llama-3-70b-instruct.description": "Llama 3 70B Instruct는 고품질 대화에 최적화되어 있으며, 인간 평가에서 우수한 성능을 보입니다.",
816
+ "meta-llama/llama-3-8b-instruct.description": "Llama 3 8B Instruct는 고품질 대화에 최적화되어 있으며, 많은 클로즈드 모델을 능가합니다.",
817
+ "meta-llama/llama-3.1-70b-instruct.description": "Meta의 최신 Llama 3.1 시리즈 중 70B 인스트럭션 튜닝 버전으로, 고품질 대화에 최적화되어 있습니다. 업계 평가에서 주요 클로즈드 모델과 비교해 강력한 성능을 보입니다. (기업 인증 사용자만 이용 가능)",
818
+ "meta-llama/llama-3.1-8b-instruct.description": "Meta의 최신 Llama 3.1 시리즈 중 8B 인스트럭션 튜닝 버전으로, 빠르고 효율적입니다. 업계 평가에서 주요 클로즈드 모델을 능가하는 성능을 보입니다. (기업 인증 사용자만 이용 가능)",
819
+ "meta-llama/llama-3.1-8b-instruct:free.description": "LLaMA 3.1은 다국어 지원을 제공하며, 선도적인 생성 모델 중 하나입니다.",
820
+ "meta-llama/llama-3.2-11b-vision-instruct.description": "LLaMA 3.2는 시각과 텍스트를 결합한 작업을 위해 설계되었으며, 이미지 캡셔닝과 시각적 질의응답에 탁월합니다.",
821
+ "meta-llama/llama-3.2-3b-instruct.description": "meta-llama/llama-3.2-3b-instruct",
822
+ "meta-llama/llama-3.2-90b-vision-instruct.description": "LLaMA 3.2는 시각과 텍스트를 결합한 작업을 위해 설계되었으며, 이미지 캡셔닝과 시각적 질의응답에 탁월합니다.",
823
+ "meta-llama/llama-3.3-70b-instruct.description": "Llama 3.3은 가장 진보된 다국어 오픈소스 Llama 모델로, 매우 낮은 비용으로 405B에 근접한 성능을 제공합니다. Transformer 기반이며, SFT 및 RLHF를 통해 유용성과 안전성이 향상되었습니다. 인스트럭션 튜닝 버전은 다국어 채팅에 최적화되어 있으며, 업계 벤치마크에서 많은 오픈 및 클로즈드 챗 모델을 능가합니다. 지식 기준일: 2023년 12월",
824
+ "meta-llama/llama-3.3-70b-instruct:free.description": "Llama 3.3은 가장 진보된 다국어 오픈소스 Llama 모델로, 매우 낮은 비용으로 405B에 근접한 성능을 제공합니다. Transformer 기반이며, SFT 및 RLHF를 통해 유용성과 안전성이 향상되었습니다. 인스트럭션 튜닝 버전은 다국어 채팅에 최적화되어 있으며, 업계 벤치마크에서 많은 오픈 및 클로즈드 챗 모델을 능가합니다. 지식 기준일: 2023년 12월",
774
825
  "meta/Llama-3.2-90B-Vision-Instruct.description": "시각 이해 에이전트 애플리케이션을 위한 고급 이미지 추론 기능.",
775
826
  "meta/Llama-3.3-70B-Instruct.description": "Llama 3.3은 가장 진보된 다국어 오픈소스 Llama 모델로, 매우 낮은 비용으로 405B에 근접한 성능을 제공합니다. Transformer 기반이며, 유용성과 안전성을 위해 SFT 및 RLHF로 개선되었습니다. 명령어 튜닝 버전은 다국어 채팅에 최적화되어 있으며, 산업 벤치마크에서 많은 오픈 및 클로즈드 채팅 모델을 능가합니다. 지식 기준일: 2023년 12월.",
776
827
  "meta/Meta-Llama-3-70B-Instruct.description": "추론, 코딩, 다양한 언어 작업에 뛰어난 성능을 보이는 강력한 70B 파라미터 모델.",
@@ -446,6 +446,8 @@
446
446
  "settingImage.defaultCount.desc": "새 작업을 생성할 때 이미지 생성 패널의 기본 이미지 수를 설정합니다.",
447
447
  "settingImage.defaultCount.label": "기본 이미지 수",
448
448
  "settingImage.defaultCount.title": "AI 그림 설정",
449
+ "settingModel.enableContextCompression.desc": "대화가 64,000 토큰을 초과할 경우 이전 메시지를 자동으로 요약하여 토큰 사용량을 60~80% 절감합니다",
450
+ "settingModel.enableContextCompression.title": "자동 컨텍스트 압축 활성화",
449
451
  "settingModel.enableMaxTokens.title": "단일 응답 제한 활성화",
450
452
  "settingModel.enableReasoningEffort.title": "추론 강도 조정 활성화",
451
453
  "settingModel.frequencyPenalty.desc": "값이 클수록 단어 선택이 더 다양하고 풍부해지며, 값이 작을수록 단어 선택이 더 간단하고 소박해집니다.",
@@ -140,6 +140,8 @@
140
140
  "models.output": "출력",
141
141
  "models.title": "모델",
142
142
  "payDiffPrice": "차액 결제",
143
+ "payDiffPriceApprox": "약",
144
+ "payDiffPriceTip": "실제 결제 금액은 결제 페이지에서 확인하세요",
143
145
  "payment.error.actions.billing": "결제 관리",
144
146
  "payment.error.actions.home": "홈으로 돌아가기",
145
147
  "payment.error.desc": "구독 ID: {{id}}를 찾을 수 없습니다. 문의 사항이 있으시면 이메일로 연락해 주세요.",
@@ -817,6 +817,15 @@
817
817
  "meta-llama/llama-3.1-70b-instruct.description": "De nieuwste Llama 3.1-serie van Meta, de 70B instructie-afgestemde variant, geoptimaliseerd voor hoogwaardige dialogen. In industriële evaluaties toont het sterke prestaties ten opzichte van toonaangevende gesloten modellen. (Alleen beschikbaar voor geverifieerde zakelijke gebruikers.)",
818
818
  "meta-llama/llama-3.1-8b-instruct.description": "De nieuwste Llama 3.1-serie van Meta, de 8B instructie-afgestemde variant, is bijzonder snel en efficiënt. In industriële evaluaties levert het sterke prestaties en overtreft het veel toonaangevende gesloten modellen. (Alleen beschikbaar voor geverifieerde zakelijke gebruikers.)",
819
819
  "meta-llama/llama-3.1-8b-instruct:free.description": "LLaMA 3.1 biedt meertalige ondersteuning en is een van de toonaangevende generatieve modellen.",
820
+ "meta-llama/llama-3.2-11b-vision-instruct.description": "LLaMA 3.2 is ontworpen voor taken die visie en tekst combineren. Het blinkt uit in beeldonderschrijving en visuele vraagbeantwoording, en overbrugt taalproductie en visueel redeneren.",
821
+ "meta-llama/llama-3.2-3b-instruct.description": "meta-llama/llama-3.2-3b-instruct",
822
+ "meta-llama/llama-3.2-90b-vision-instruct.description": "LLaMA 3.2 is ontworpen voor taken die visie en tekst combineren. Het blinkt uit in beeldonderschrijving en visuele vraagbeantwoording, en overbrugt taalproductie en visueel redeneren.",
823
+ "meta-llama/llama-3.3-70b-instruct.description": "Llama 3.3 is het meest geavanceerde meertalige open-source Llama-model, met prestaties vergelijkbaar met 405B tegen zeer lage kosten. Het is gebaseerd op een Transformer-architectuur en verbeterd met SFT en RLHF voor bruikbaarheid en veiligheid. De instructie-afgestemde versie is geoptimaliseerd voor meertalige gesprekken en overtreft veel open en gesloten chatmodellen op industriestandaarden. Kennisgrens: dec 2023.",
824
+ "meta-llama/llama-3.3-70b-instruct:free.description": "Llama 3.3 is het meest geavanceerde meertalige open-source Llama-model, met prestaties vergelijkbaar met 405B tegen zeer lage kosten. Het is gebaseerd op een Transformer-architectuur en verbeterd met SFT en RLHF voor bruikbaarheid en veiligheid. De instructie-afgestemde versie is geoptimaliseerd voor meertalige gesprekken en overtreft veel open en gesloten chatmodellen op industriestandaarden. Kennisgrens: dec 2023.",
825
+ "meta.llama3-1-405b-instruct-v1:0.description": "Meta Llama 3.1 405B Instruct is het grootste en krachtigste Llama 3.1 Instruct-model, een zeer geavanceerd model voor dialoogredenering en synthetische datageneratie, en een sterke basis voor domeinspecifieke voortgezette pretraining of fine-tuning. De meertalige Llama 3.1 LLMs zijn een reeks voorgetrainde en instructie-afgestemde generatiemodellen in 8B-, 70B- en 405B-varianten (tekst in/tekst uit). De instructie-afgestemde modellen zijn geoptimaliseerd voor meertalige dialogen en presteren beter dan veel beschikbare open chatmodellen op gangbare benchmarks. Llama 3.1 is ontworpen voor commercieel en onderzoeksgebruik in meerdere talen. Instructie-afgestemde modellen zijn geschikt voor assistentachtige gesprekken, terwijl voorgetrainde modellen breder inzetbaar zijn voor natuurlijke taalproductie. De output van Llama 3.1 kan ook worden gebruikt om andere modellen te verbeteren, waaronder synthetische datageneratie en verfijning. Llama 3.1 is een autoregressief Transformer-model met een geoptimaliseerde architectuur. De afgestemde versies gebruiken gesuperviseerde fine-tuning (SFT) en reinforcement learning op basis van menselijke feedback (RLHF) om af te stemmen op menselijke voorkeuren voor behulpzaamheid en veiligheid.",
826
+ "meta.llama3-1-70b-instruct-v1:0.description": "Een bijgewerkte Meta Llama 3.1 70B Instruct met een uitgebreid contextvenster van 128K, meertalige ondersteuning en verbeterd redeneervermogen. De meertalige Llama 3.1 LLMs zijn een reeks voorgetrainde en instructie-afgestemde generatiemodellen in 8B-, 70B- en 405B-varianten (tekst in/tekst uit). De instructie-afgestemde modellen zijn geoptimaliseerd voor meertalige dialogen en presteren beter dan veel beschikbare open chatmodellen op gangbare benchmarks. Llama 3.1 is ontworpen voor commercieel en onderzoeksgebruik in meerdere talen. Instructie-afgestemde modellen zijn geschikt voor assistentachtige gesprekken, terwijl voorgetrainde modellen breder inzetbaar zijn voor natuurlijke taalproductie. De output van Llama 3.1 kan ook worden gebruikt om andere modellen te verbeteren, waaronder synthetische datageneratie en verfijning. Llama 3.1 is een autoregressief Transformer-model met een geoptimaliseerde architectuur. De afgestemde versies gebruiken gesuperviseerde fine-tuning (SFT) en reinforcement learning op basis van menselijke feedback (RLHF) om af te stemmen op menselijke voorkeuren voor behulpzaamheid en veiligheid.",
827
+ "meta.llama3-1-8b-instruct-v1:0.description": "Een bijgewerkte Meta Llama 3.1 8B Instruct met een contextvenster van 128K, meertalige ondersteuning en verbeterd redeneervermogen. De Llama 3.1-familie omvat 8B-, 70B- en 405B-instructie-afgestemde tekstmodellen die geoptimaliseerd zijn voor meertalige gesprekken en sterke benchmarkprestaties leveren. Het is ontworpen voor commercieel en onderzoeksgebruik in meerdere talen; instructie-afgestemde modellen zijn geschikt voor assistentachtige gesprekken, terwijl voorgetrainde modellen breder inzetbaar zijn voor tekstgeneratie. De output van Llama 3.1 kan ook worden gebruikt om andere modellen te verbeteren (bijv. synthetische data en verfijning). Het is een autoregressief Transformer-model, met SFT en RLHF om af te stemmen op behulpzaamheid en veiligheid.",
828
+ "meta.llama3-70b-instruct-v1:0.description": "Meta Llama 3 is een open LLM voor ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen generatieve AI-ideeën te bouwen, te experimenteren en verantwoord op te schalen. Als onderdeel van de basis voor wereldwijde gemeenschapsinnovatie is het goed geschikt voor contentcreatie, conversatie-AI, taalbegrip, R&D en zakelijke toepassingen.",
820
829
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 is een open LLM voor ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoord opschalen van generatieve AI-ideeën. Als onderdeel van de basis voor wereldwijde gemeenschapsinnovatie is het goed geschikt voor beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden.",
821
830
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Sterke beeldredenering op afbeeldingen met hoge resolutie, geschikt voor toepassingen voor visueel begrip.",
822
831
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Geavanceerde beeldredenering voor toepassingen met visueel begrip en agentfunctionaliteit.",
@@ -446,6 +446,8 @@
446
446
  "settingImage.defaultCount.desc": "Stel het standaard aantal afbeeldingen in dat wordt gegenereerd bij het aanmaken van een nieuwe taak in het afbeeldingspaneel.",
447
447
  "settingImage.defaultCount.label": "Standaard aantal afbeeldingen",
448
448
  "settingImage.defaultCount.title": "AI-kunst",
449
+ "settingModel.enableContextCompression.desc": "Comprimeer automatisch historische berichten tot samenvattingen wanneer het gesprek meer dan 64.000 tokens bevat, wat 60-80% aan tokengebruik bespaart",
450
+ "settingModel.enableContextCompression.title": "Automatische Contextcompressie Inschakelen",
449
451
  "settingModel.enableMaxTokens.title": "Maximaal aantal tokens inschakelen",
450
452
  "settingModel.enableReasoningEffort.title": "Redeneerinspanning aanpassen",
451
453
  "settingModel.frequencyPenalty.desc": "Hoe hoger de waarde, hoe rijker en gevarieerder de woordenschat; hoe lager, hoe eenvoudiger de taal.",
@@ -140,6 +140,8 @@
140
140
  "models.output": "Uitvoer",
141
141
  "models.title": "Modellen",
142
142
  "payDiffPrice": "Betaal Verschil",
143
+ "payDiffPriceApprox": "Ca.",
144
+ "payDiffPriceTip": "Het werkelijke bedrag wordt getoond op de betaalpagina",
143
145
  "payment.error.actions.billing": "Facturatiebeheer",
144
146
  "payment.error.actions.home": "Terug naar Startpagina",
145
147
  "payment.error.desc": "Abonnement-ID: {{id}} niet gevonden. Neem bij vragen contact met ons op via e-mail",
@@ -727,6 +727,39 @@
727
727
  "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 to trzeci model architektury Ling 2.0 od zespołu Bailing firmy Ant Group. Jest to model MoE z łączną liczbą 100 miliardów parametrów, z których tylko 6,1 miliarda jest aktywnych na token (4,8 miliarda bez osadzania). Pomimo lekkiej konfiguracji dorównuje lub przewyższa modele gęste 40B i większe modele MoE w wielu testach, eksplorując wysoką wydajność dzięki architekturze i strategii treningowej.",
728
728
  "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 to mały, wydajny model MoE LLM z 16 miliardami parametrów i tylko 1,4 miliarda aktywnych na token (789 milionów bez osadzania), zapewniający bardzo szybkie generowanie. Dzięki wydajnej konstrukcji MoE i dużym, wysokiej jakości danym treningowym osiąga wydajność porównywalną z modelami gęstymi poniżej 10B i większymi modelami MoE.",
729
729
  "inclusionAI/Ring-flash-2.0.description": "Ring-flash-2.0 to wydajny model rozumowania zoptymalizowany z Ling-flash-2.0-base. Wykorzystuje architekturę MoE z łączną liczbą 100 miliardów parametrów i tylko 6,1 miliarda aktywnych na jedno wnioskowanie. Jego algorytm icepop stabilizuje trening RL dla modeli MoE, umożliwiając dalsze postępy w złożonym rozumowaniu. Osiąga przełomowe wyniki w trudnych testach (konkursy matematyczne, generowanie kodu, rozumowanie logiczne), przewyższając czołowe modele gęste poniżej 40B i rywalizując z większymi otwartymi i zamkniętymi modelami rozumowania. Dobrze radzi sobie również w twórczym pisaniu, a jego wydajna architektura zapewnia szybkie wnioskowanie przy niższych kosztach wdrożenia i wysokiej współbieżności.",
730
+ "inclusionai/ling-1t.description": "Ling-1T to model MoE firmy inclusionAI zoptymalizowany pod kątem zadań wymagających intensywnego rozumowania i pracy z dużym kontekstem.",
731
+ "inclusionai/ling-flash-2.0.description": "Ling-flash-2.0 to model MoE firmy inclusionAI zoptymalizowany pod kątem wydajności i efektywności rozumowania, odpowiedni do zadań średniego i dużego rozmiaru.",
732
+ "inclusionai/ling-mini-2.0.description": "Ling-mini-2.0 to lekki model MoE firmy inclusionAI, który znacząco obniża koszty przy zachowaniu zdolności rozumowania.",
733
+ "inclusionai/ming-flash-omini-preview.description": "Ming-flash-omni Preview to multimodalny model inclusionAI obsługujący mowę, obrazy i wideo, z ulepszonym renderowaniem obrazów i rozpoznawaniem mowy.",
734
+ "inclusionai/ring-1t.description": "Ring-1T to model MoE firmy inclusionAI z bilionem parametrów, przeznaczony do zadań badawczych i rozumowania na dużą skalę.",
735
+ "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 to wariant modelu Ring firmy inclusionAI, zaprojektowany do scenariuszy o wysokiej przepustowości, z naciskiem na szybkość i efektywność kosztową.",
736
+ "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 to lekki model MoE firmy inclusionAI o wysokiej przepustowości, stworzony z myślą o równoczesnym przetwarzaniu.",
737
+ "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat to otwartoźródłowy model konwersacyjny oparty na architekturze InternLM2. Model 7B koncentruje się na generowaniu dialogów w języku chińskim i angielskim, wykorzystując nowoczesne techniki treningowe do płynnych i inteligentnych rozmów. Nadaje się do wielu scenariuszy, takich jak obsługa klienta czy asystenci osobowi.",
738
+ "internlm2.5-latest.description": "Modele starszej generacji, nadal utrzymywane i oferujące doskonałą, stabilną wydajność po wielu iteracjach. Dostępne w wersjach 7B i 20B, obsługujące kontekst 1M, z lepszym podążaniem za instrukcjami i obsługą narzędzi. Domyślnie wybierany jest najnowszy model z serii InternLM2.5 (obecnie internlm2.5-20b-chat).",
739
+ "internlm3-latest.description": "Nasza najnowsza seria modeli z doskonałą wydajnością w zakresie rozumowania, przewodząca wśród otwartych modeli w swojej klasie rozmiarowej. Domyślnie wybierany jest najnowszy model z serii InternLM3 (obecnie internlm3-8b-instruct).",
740
+ "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO to multimodalny model wstępnie wytrenowany do złożonego rozumowania obraz-tekst.",
741
+ "internvl2.5-latest.description": "InternVL2.5 nadal utrzymuje silną i stabilną wydajność. Domyślnie wybierany jest najnowszy model z serii InternVL2.5 (obecnie internvl2.5-78b).",
742
+ "internvl3-14b.description": "InternVL3 14B to multimodalny model średniej wielkości, łączący wydajność i efektywność kosztową.",
743
+ "internvl3-1b.description": "InternVL3 1B to lekki model multimodalny przeznaczony do wdrożeń w środowiskach o ograniczonych zasobach.",
744
+ "internvl3-38b.description": "InternVL3 38B to duży, otwartoźródłowy model multimodalny do precyzyjnego rozumienia obrazów i tekstu.",
745
+ "internvl3-latest.description": "Nasz najnowszy model multimodalny z ulepszonym rozumieniem obraz-tekst i długosekwencyjną analizą obrazów, porównywalny z najlepszymi zamkniętymi modelami. Domyślnie wybierany jest najnowszy model z serii InternVL (obecnie internvl3-78b).",
746
+ "irag-1.0.description": "ERNIE iRAG to model generatywny wspomagany wyszukiwaniem obrazów, przeznaczony do wyszukiwania obrazów, wyszukiwania obraz-tekst i generowania treści.",
747
+ "jamba-large.description": "Nasz najbardziej zaawansowany model, zaprojektowany do złożonych zadań korporacyjnych, oferujący wyjątkową wydajność.",
748
+ "jamba-mini.description": "Najbardziej efektywny model w swojej klasie, łączący szybkość i jakość przy mniejszym zużyciu zasobów.",
749
+ "jina-deepsearch-v1.description": "DeepSearch łączy wyszukiwanie w sieci, czytanie i rozumowanie w celu przeprowadzania dogłębnych analiz. Działa jak agent, który przyjmuje zadanie badawcze, przeprowadza szerokie wyszukiwanie z wieloma iteracjami, a dopiero potem generuje odpowiedź. Proces obejmuje ciągłe badanie, rozumowanie i rozwiązywanie problemów z różnych perspektyw, co zasadniczo różni się od standardowych LLM, które odpowiadają na podstawie danych treningowych lub tradycyjnych systemów RAG opartych na jednorazowym wyszukiwaniu powierzchownym.",
750
+ "kimi-k2-0711-preview.description": "kimi-k2 to model bazowy MoE o silnych możliwościach programistycznych i agentowych (1T parametrów, 32B aktywnych), przewyższający inne popularne otwarte modele w testach rozumowania, programowania, matematyki i agentów.",
751
+ "kimi-k2-0905-preview.description": "kimi-k2-0905-preview oferuje okno kontekstu 256k, lepsze kodowanie agentowe, wyższą jakość kodu front-end i lepsze rozumienie kontekstu.",
752
+ "kimi-k2-instruct.description": "Kimi K2 Instruct to oficjalny model rozumowania Kimi z długim kontekstem, przeznaczony do kodu, pytań i odpowiedzi oraz innych zastosowań.",
753
+ "kimi-k2-thinking-turbo.description": "Szybka wersja K2 z długim myśleniem, oknem kontekstu 256k, silnym głębokim rozumowaniem i szybkością generowania 60–100 tokenów/sek.",
754
+ "kimi-k2-thinking.description": "kimi-k2-thinking to model rozumowania Moonshot AI z ogólnymi zdolnościami agentowymi i rozumowania. Doskonale radzi sobie z głębokim rozumowaniem i potrafi rozwiązywać trudne problemy za pomocą wieloetapowego użycia narzędzi.",
755
+ "kimi-k2-turbo-preview.description": "kimi-k2 to model bazowy MoE o silnych możliwościach programistycznych i agentowych (1T parametrów, 32B aktywnych), przewyższający inne popularne otwarte modele w testach rozumowania, programowania, matematyki i agentów.",
756
+ "kimi-k2.description": "Kimi-K2 to model bazowy MoE firmy Moonshot AI o silnych możliwościach programistycznych i agentowych, z łączną liczbą 1T parametrów i 32B aktywnych. W testach ogólnego rozumowania, kodowania, matematyki i zadań agentowych przewyższa inne popularne otwarte modele.",
757
+ "kimi-k2:1t.description": "Kimi K2 to duży model MoE LLM firmy Moonshot AI z 1T parametrów i 32B aktywnych na każde przejście. Zoptymalizowany pod kątem zdolności agentowych, w tym zaawansowanego użycia narzędzi, rozumowania i syntezy kodu.",
758
+ "kimi-latest.description": "Kimi Latest korzysta z najnowszego modelu Kimi i może zawierać funkcje eksperymentalne. Obsługuje rozumienie obrazów i automatycznie wybiera modele rozliczeniowe 8k/32k/128k w zależności od długości kontekstu.",
759
+ "kuaishou/kat-coder-pro-v1.description": "KAT-Coder-Pro-V1 (dostępny za darmo przez ograniczony czas) koncentruje się na rozumieniu kodu i automatyzacji dla wydajnych agentów programistycznych.",
760
+ "learnlm-1.5-pro-experimental.description": "LearnLM to eksperymentalny model zadaniowy, trenowany zgodnie z zasadami nauki o uczeniu się, aby podążać za instrukcjami systemowymi w scenariuszach edukacyjnych, działając jako ekspert-nauczyciel.",
761
+ "learnlm-2.0-flash-experimental.description": "LearnLM to eksperymentalny model zadaniowy, trenowany zgodnie z zasadami nauki o uczeniu się, aby podążać za instrukcjami systemowymi w scenariuszach edukacyjnych, działając jako ekspert-nauczyciel.",
762
+ "lite.description": "Spark Lite to lekki LLM o ultraniskim opóźnieniu i wydajnym przetwarzaniu. Jest całkowicie darmowy i obsługuje wyszukiwanie w czasie rzeczywistym. Szybkie odpowiedzi sprawdzają się na urządzeniach o niskiej mocy obliczeniowej i przy dostrajaniu modeli, zapewniając wysoką efektywność kosztową i inteligentne doświadczenie, szczególnie w scenariuszach pytań i odpowiedzi, generowania treści i wyszukiwania.",
730
763
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
731
764
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
732
765
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
@@ -446,6 +446,8 @@
446
446
  "settingImage.defaultCount.desc": "Ustaw domyślną liczbę obrazów generowanych podczas tworzenia nowego zadania w panelu generowania obrazów.",
447
447
  "settingImage.defaultCount.label": "Domyślna liczba obrazów",
448
448
  "settingImage.defaultCount.title": "Sztuka AI",
449
+ "settingModel.enableContextCompression.desc": "Automatycznie kompresuj wcześniejsze wiadomości do podsumowań, gdy rozmowa przekroczy 64 000 tokenów, oszczędzając 60–80% zużycia tokenów",
450
+ "settingModel.enableContextCompression.title": "Włącz automatyczną kompresję kontekstu",
449
451
  "settingModel.enableMaxTokens.title": "Włącz limit tokenów",
450
452
  "settingModel.enableReasoningEffort.title": "Włącz regulację wysiłku rozumowania",
451
453
  "settingModel.frequencyPenalty.desc": "Im wyższa wartość, tym bardziej zróżnicowane i bogate słownictwo; im niższa, tym prostszy i bardziej bezpośredni język.",
@@ -140,6 +140,8 @@
140
140
  "models.output": "Wyjście",
141
141
  "models.title": "Modele",
142
142
  "payDiffPrice": "Dopłać różnicę",
143
+ "payDiffPriceApprox": "Około",
144
+ "payDiffPriceTip": "Rzeczywista kwota zgodna ze stroną płatności",
143
145
  "payment.error.actions.billing": "Zarządzanie rozliczeniami",
144
146
  "payment.error.actions.home": "Powrót do strony głównej",
145
147
  "payment.error.desc": "Nie znaleziono ID subskrypcji: {{id}}. W razie pytań skontaktuj się z nami mailowo",