@lobehub/lobehub 2.0.0-next.241 → 2.0.0-next.243

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (90) hide show
  1. package/.cursor/rules/desktop-feature-implementation.mdc +2 -2
  2. package/.cursor/rules/desktop-local-tools-implement.mdc +2 -2
  3. package/.github/workflows/test.yml +13 -5
  4. package/CHANGELOG.md +52 -0
  5. package/apps/desktop/Development.md +1 -6
  6. package/apps/desktop/README.md +2 -17
  7. package/apps/desktop/README.zh-CN.md +1 -15
  8. package/apps/desktop/build/Icon-beta.Assets.car +0 -0
  9. package/apps/desktop/build/Icon-beta.icns +0 -0
  10. package/apps/desktop/build/icon-beta.ico +0 -0
  11. package/apps/desktop/build/icon-beta.png +0 -0
  12. package/apps/desktop/src/main/controllers/index.ts +1 -1
  13. package/apps/desktop/src/main/controllers/registry.ts +0 -9
  14. package/apps/desktop/src/main/core/App.ts +1 -11
  15. package/apps/desktop/src/main/core/browser/Browser.ts +278 -457
  16. package/apps/desktop/src/main/core/browser/WindowStateManager.ts +180 -0
  17. package/apps/desktop/src/main/core/browser/WindowThemeManager.ts +167 -0
  18. package/apps/desktop/src/main/core/browser/__tests__/WindowStateManager.test.ts +237 -0
  19. package/apps/desktop/src/main/core/browser/__tests__/WindowThemeManager.test.ts +240 -0
  20. package/apps/desktop/src/main/exports.d.ts +1 -1
  21. package/apps/desktop/src/main/exports.ts +1 -1
  22. package/apps/desktop/src/main/utils/__tests__/http-headers.test.ts +131 -0
  23. package/apps/desktop/src/main/utils/http-headers.ts +61 -0
  24. package/apps/desktop/src/main/utils/ipc/__tests__/base.test.ts +1 -22
  25. package/apps/desktop/src/main/utils/ipc/base.ts +0 -20
  26. package/apps/desktop/src/main/utils/ipc/index.ts +1 -9
  27. package/changelog/v1.json +10 -0
  28. package/locales/ar/models.json +48 -7
  29. package/locales/ar/plugin.json +9 -0
  30. package/locales/ar/providers.json +1 -0
  31. package/locales/bg-BG/models.json +35 -7
  32. package/locales/bg-BG/plugin.json +9 -0
  33. package/locales/bg-BG/providers.json +1 -0
  34. package/locales/de-DE/models.json +26 -6
  35. package/locales/de-DE/plugin.json +9 -0
  36. package/locales/de-DE/providers.json +1 -0
  37. package/locales/en-US/models.json +10 -10
  38. package/locales/en-US/oauth.json +0 -1
  39. package/locales/en-US/providers.json +1 -0
  40. package/locales/en-US/subscription.json +2 -2
  41. package/locales/es-ES/models.json +42 -7
  42. package/locales/es-ES/plugin.json +9 -0
  43. package/locales/es-ES/providers.json +1 -0
  44. package/locales/fa-IR/models.json +52 -10
  45. package/locales/fa-IR/plugin.json +9 -0
  46. package/locales/fa-IR/providers.json +1 -0
  47. package/locales/fr-FR/models.json +36 -7
  48. package/locales/fr-FR/plugin.json +9 -0
  49. package/locales/fr-FR/providers.json +1 -0
  50. package/locales/it-IT/models.json +42 -7
  51. package/locales/it-IT/plugin.json +9 -0
  52. package/locales/it-IT/providers.json +1 -0
  53. package/locales/ja-JP/models.json +35 -6
  54. package/locales/ja-JP/plugin.json +9 -0
  55. package/locales/ja-JP/providers.json +1 -0
  56. package/locales/ko-KR/models.json +28 -7
  57. package/locales/ko-KR/plugin.json +9 -0
  58. package/locales/ko-KR/providers.json +1 -0
  59. package/locales/nl-NL/models.json +35 -6
  60. package/locales/nl-NL/plugin.json +9 -0
  61. package/locales/nl-NL/providers.json +1 -0
  62. package/locales/pl-PL/models.json +36 -7
  63. package/locales/pl-PL/plugin.json +9 -0
  64. package/locales/pl-PL/providers.json +1 -0
  65. package/locales/pt-BR/models.json +35 -6
  66. package/locales/pt-BR/plugin.json +9 -0
  67. package/locales/pt-BR/providers.json +1 -0
  68. package/locales/ru-RU/models.json +35 -7
  69. package/locales/ru-RU/plugin.json +9 -0
  70. package/locales/ru-RU/providers.json +1 -0
  71. package/locales/tr-TR/models.json +5 -7
  72. package/locales/tr-TR/plugin.json +9 -0
  73. package/locales/tr-TR/providers.json +1 -0
  74. package/locales/vi-VN/models.json +5 -5
  75. package/locales/vi-VN/plugin.json +9 -0
  76. package/locales/vi-VN/providers.json +1 -0
  77. package/locales/zh-CN/models.json +48 -6
  78. package/locales/zh-CN/oauth.json +0 -1
  79. package/locales/zh-CN/providers.json +1 -0
  80. package/locales/zh-CN/subscription.json +1 -1
  81. package/locales/zh-TW/models.json +10 -10
  82. package/locales/zh-TW/plugin.json +9 -0
  83. package/locales/zh-TW/providers.json +1 -0
  84. package/package.json +1 -1
  85. package/src/features/ChatInput/InputEditor/Placeholder.tsx +4 -1
  86. package/src/locales/default/subscription.ts +2 -3
  87. package/src/server/services/memory/userMemory/extract.ts +46 -6
  88. package/apps/desktop/src/main/controllers/UploadFileServerCtr.ts +0 -33
  89. package/apps/desktop/src/main/controllers/__tests__/UploadFileServerCtr.test.ts +0 -55
  90. package/src/server/modules/ElectronIPCClient/index.ts +0 -92
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.",
272
272
  "claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
273
273
  "claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است. در مقایسه با Claude 3 Haiku، در مهارت‌ها بهبود یافته و در بسیاری از معیارهای هوش از مدل بزرگ‌تر قبلی Claude 3 Opus پیشی می‌گیرد.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است که مهارت‌های بهبودیافته‌ای دارد و در بسیاری از معیارها از مدل پرچم‌دار قبلی Claude 3 Opus پیشی می‌گیرد.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخ‌های سریع برای وظایف سبک ارائه می‌دهد.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است. این مدل می‌تواند پاسخ‌های تقریباً فوری یا استدلال گام‌به‌گام گسترده‌ای تولید کند که کاربران می‌توانند آن را مشاهده کنند. Sonnet در زمینه‌های برنامه‌نویسی، علم داده، بینایی و وظایف عامل‌ها بسیار قدرتمند است.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است که پاسخ‌های تقریباً فوری یا تفکر گسترش‌یافته با کنترل دقیق را پشتیبانی می‌کند.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای پاسخ‌های تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار می‌کند و با هزینه کمتر، بهره‌وری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه می‌دهد.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی استدلال پیشرفته ارائه می‌شود.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی تفکر گسترده ارائه می‌شود.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که می‌تواند فرآیند استدلال خود را آشکار کند.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب برتری دارد.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش برجسته را با عملکرد مقیاس‌پذیر ترکیب می‌کند و برای وظایف پیچیده‌ای که نیاز به پاسخ‌های باکیفیت و استدلال دارند، ایده‌آل است.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام گسترده‌ای با فرآیند قابل مشاهده تولید کند.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 هوشمندترین مدل Anthropic تا به امروز است که پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام گسترش‌یافته با کنترل دقیق برای کاربران API ارائه می‌دهد.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
289
289
  "codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامه‌نویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی می‌کند تا بهره‌وری توسعه‌دهندگان را افزایش دهد.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی می‌کند و طیف گسترده‌ای از سناریوهای توسعه نرم‌افزار را پوشش می‌دهد. این مدل یکی از بهترین مدل‌های کد زیر ۱۰ میلیارد پارامتر است.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعال‌سازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قوی‌ای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایه‌گذاری بصری عملکرد درخشانی دارد.",
358
- "deepseek-chat.description": "مدلی متن‌باز و نوین که توانایی‌های عمومی و برنامه‌نویسی را ترکیب می‌کند. این مدل گفت‌وگوی عمومی مدل چت و قدرت کدنویسی مدل برنامه‌نویس را حفظ کرده و با هم‌راستایی ترجیحی بهتر ارائه می‌دهد. DeepSeek-V2.5 همچنین در نوشتن و پیروی از دستورالعمل‌ها بهبود یافته است.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 تعادلی میان استدلال و طول خروجی برای پرسش‌وپاسخ روزمره و وظایف عامل‌ها برقرار می‌کند. در معیارهای عمومی به سطح GPT-5 می‌رسد و نخستین مدلی است که تفکر را در استفاده از ابزارها ادغام می‌کند و در ارزیابی‌های عامل‌های متن‌باز پیشتاز است.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامه‌نویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم می‌کند.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "نسخه کامل سریع DeepSeek R1 با جستجوی وب در زمان واقعی که توانایی در مقیاس ۶۷۱B را با پاسخ‌دهی سریع‌تر ترکیب می‌کند.",
379
379
  "deepseek-r1-online.description": "نسخه کامل DeepSeek R1 با ۶۷۱ میلیارد پارامتر و جستجوی وب در زمان واقعی که درک و تولید قوی‌تری را ارائه می‌دهد.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 پیش از یادگیری تقویتی از داده‌های شروع سرد استفاده می‌کند و در وظایف ریاضی، کدنویسی و استدلال عملکردی هم‌سطح با OpenAI-o1 دارد.",
381
- "deepseek-reasoner.description": "حالت تفکر DeepSeek V3.2 پیش از پاسخ نهایی، زنجیره‌ای از افکار را تولید می‌کند تا دقت را افزایش دهد.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking مدلی برای استدلال عمیق است که پیش از تولید خروجی، زنجیره‌ای از تفکر ایجاد می‌کند تا دقت را افزایش دهد. این مدل در رقابت‌های برتر نتایج عالی کسب کرده و استدلالی هم‌تراز با Gemini-3.0-Pro دارد.",
382
382
  "deepseek-v2.description": "DeepSeek V2 یک مدل MoE کارآمد است که پردازش مقرون‌به‌صرفه را امکان‌پذیر می‌سازد.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B مدل متمرکز بر کدنویسی DeepSeek است که توانایی بالایی در تولید کد دارد.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در برنامه‌نویسی، توانایی‌های فنی، درک زمینه و پردازش متون بلند عملکرد برجسته‌ای دارد.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K یک مدل فوق‌سبک برای پرسش‌وپاسخ ساده، طبقه‌بندی و استنتاج کم‌هزینه است.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفت‌وگوی چندمرحله‌ای است.",
473
473
  "ernie-x1.1-preview.description": "پیش‌نمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودی‌های متنی و تصویری پشتیبانی می‌کند و تولید تصویر با کیفیت بالا و قابل کنترل را ارائه می‌دهد. این مدل تصاویر را از دستورات متنی تولید می‌کند.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، ساخته شده توسط تیم Seed در ByteDance، ورودی‌های متنی و تصویری را برای تولید تصاویر باکیفیت و قابل کنترل از طریق دستورات پشتیبانی می‌کند.",
475
475
  "fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودی‌های متنی و تصویری پشتیبانی می‌کند.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودی‌های متنی و تصاویر مرجع را می‌پذیرد و امکان ویرایش‌های محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم می‌کند.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیبایی‌شناسی به تصاویر طبیعی و واقع‌گرایانه‌تر است.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "یک مدل قدرتمند بومی چندوجهی برای تولید تصویر.",
480
480
  "fal-ai/imagen4/preview.description": "مدل تولید تصویر با کیفیت بالا از گوگل.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویر از طریق مکالمه را فراهم می‌کند.",
482
- "fal-ai/qwen-image-edit.description": "یک مدل حرفه‌ای ویرایش تصویر از تیم Qwen که از ویرایش‌های معنایی و ظاهری پشتیبانی می‌کند، متون چینی و انگلیسی را با دقت ویرایش می‌کند و ویرایش‌های با کیفیتی مانند انتقال سبک و چرخش اشیاء را ممکن می‌سازد.",
483
- "fal-ai/qwen-image.description": "یک مدل قدرتمند تولید تصویر از تیم Qwen با رندر چشمگیر متن چینی و سبک‌های بصری متنوع.",
482
+ "fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفه‌ای از تیم Qwen که ویرایش‌های معنایی و ظاهری، ویرایش دقیق متن چینی/انگلیسی، انتقال سبک، چرخش و موارد دیگر را پشتیبانی می‌کند.",
483
+ "fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با رندر قوی متن چینی و سبک‌های بصری متنوع.",
484
484
  "flux-1-schnell.description": "مدل تبدیل متن به تصویر با ۱۲ میلیارد پارامتر از Black Forest Labs که از تقطیر انتشار تقابلی نهفته برای تولید تصاویر با کیفیت بالا در ۱ تا ۴ مرحله استفاده می‌کند. این مدل با جایگزین‌های بسته رقابت می‌کند و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است.",
485
485
  "flux-dev.description": "FLUX.1 [dev] یک مدل تقطیر شده با وزن‌های باز برای استفاده غیرتجاری است. این مدل کیفیت تصویر نزدیک به حرفه‌ای و پیروی از دستورالعمل را حفظ می‌کند و در عین حال کارآمدتر اجرا می‌شود و منابع را بهتر از مدل‌های استاندارد هم‌سایز استفاده می‌کند.",
486
486
  "flux-kontext-max.description": "تولید و ویرایش تصویر متنی-زمینه‌ای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب می‌کند.",
@@ -512,6 +512,48 @@
512
512
  "gemini-2.0-flash-lite-001.description": "یک نسخه بهینه‌شده Gemini 2.0 Flash برای بهره‌وری هزینه و تأخیر کم.",
513
513
  "gemini-2.0-flash-lite.description": "یک نسخه بهینه‌شده Gemini 2.0 Flash برای بهره‌وری هزینه و تأخیر کم.",
514
514
  "gemini-2.0-flash.description": "Gemini 2.0 Flash ویژگی‌های نسل بعدی از جمله سرعت استثنایی، استفاده بومی از ابزارها، تولید چندوجهی و پنجره زمینه ۱ میلیون توکن را ارائه می‌دهد.",
515
+ "gemini-2.5-flash-image-preview.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌ای را ممکن می‌سازد.",
516
+ "gemini-2.5-flash-image-preview:image.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌ای را ممکن می‌سازد.",
517
+ "gemini-2.5-flash-image.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌ای را ممکن می‌سازد.",
518
+ "gemini-2.5-flash-image:image.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌ای را ممکن می‌سازد.",
519
+ "gemini-2.5-flash-lite-preview-06-17.description": "نسخه پیش‌نمایش Gemini 2.5 Flash-Lite کوچک‌ترین و مقرون‌به‌صرفه‌ترین مدل گوگل است که برای استفاده در مقیاس وسیع طراحی شده است.",
520
+ "gemini-2.5-flash-lite-preview-09-2025.description": "نسخه پیش‌نمایش (۲۵ سپتامبر ۲۰۲۵) از Gemini 2.5 Flash-Lite",
521
+ "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite کوچک‌ترین و مقرون‌به‌صرفه‌ترین مدل گوگل است که برای استفاده در مقیاس وسیع طراحی شده است.",
522
+ "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview مقرون‌به‌صرفه‌ترین مدل گوگل با قابلیت‌های کامل است.",
523
+ "gemini-2.5-flash-preview-09-2025.description": "نسخه پیش‌نمایش (۲۵ سپتامبر ۲۰۲۵) از Gemini 2.5 Flash",
524
+ "gemini-2.5-flash.description": "Gemini 2.5 Flash مقرون‌به‌صرفه‌ترین مدل گوگل با قابلیت‌های کامل است.",
525
+ "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview پیشرفته‌ترین مدل استدلالی گوگل است که توانایی استدلال در کد، ریاضی و مسائل STEM را دارد و می‌تواند مجموعه‌داده‌های بزرگ، پایگاه‌های کد و اسناد را با زمینه طولانی تحلیل کند.",
526
+ "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview پیشرفته‌ترین مدل استدلالی گوگل است که توانایی استدلال در کد، ریاضی و مسائل STEM را دارد و می‌تواند مجموعه‌داده‌های بزرگ، پایگاه‌های کد و اسناد را با زمینه طولانی تحلیل کند.",
527
+ "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview پیشرفته‌ترین مدل استدلالی گوگل است که توانایی استدلال در کد، ریاضی و مسائل STEM را دارد و می‌تواند مجموعه‌داده‌های بزرگ، پایگاه‌های کد و اسناد را با زمینه طولانی تحلیل کند.",
528
+ "gemini-2.5-pro.description": "Gemini 2.5 Pro پرچم‌دار مدل‌های استدلالی گوگل است که از زمینه‌های طولانی برای انجام وظایف پیچیده پشتیبانی می‌کند.",
529
+ "gemini-3-flash-preview.description": "Gemini 3 Flash هوشمندترین مدل طراحی‌شده برای سرعت است که هوش پیشرفته را با جستجوی عالی ترکیب می‌کند.",
530
+ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفت‌وگوی چندوجهی نیز پشتیبانی می‌کند.",
531
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفت‌وگوی چندوجهی نیز پشتیبانی می‌کند.",
532
+ "gemini-3-pro-preview.description": "Gemini 3 Pro قدرتمندترین مدل عامل و کدنویسی احساسی گوگل است که تعاملات بصری غنی‌تر و تعامل عمیق‌تری را بر پایه استدلال پیشرفته ارائه می‌دهد.",
533
+ "gemini-flash-latest.description": "آخرین نسخه منتشرشده از Gemini Flash",
534
+ "gemini-flash-lite-latest.description": "آخرین نسخه منتشرشده از Gemini Flash-Lite",
535
+ "gemini-pro-latest.description": "آخرین نسخه منتشرشده از Gemini Pro",
536
+ "gemma-7b-it.description": "Gemma 7B برای وظایف کوچک تا متوسط مقرون‌به‌صرفه است.",
537
+ "gemma2-9b-it.description": "Gemma 2 9B برای وظایف خاص و یکپارچه‌سازی ابزارها بهینه‌سازی شده است.",
538
+ "gemma2.description": "Gemma 2 مدل کارآمد گوگل است که از برنامه‌های کوچک تا پردازش داده‌های پیچیده را پوشش می‌دهد.",
539
+ "gemma2:27b.description": "Gemma 2 مدل کارآمد گوگل است که از برنامه‌های کوچک تا پردازش داده‌های پیچیده را پوشش می‌دهد.",
540
+ "gemma2:2b.description": "Gemma 2 مدل کارآمد گوگل است که از برنامه‌های کوچک تا پردازش داده‌های پیچیده را پوشش می‌دهد.",
541
+ "generalv3.5.description": "Spark Max کامل‌ترین نسخه است که از جستجوی وب و افزونه‌های داخلی متعددی پشتیبانی می‌کند. قابلیت‌های اصلی آن بهینه‌سازی شده‌اند و نقش‌های سیستمی و فراخوانی توابع عملکردی عالی در سناریوهای پیچیده ارائه می‌دهند.",
542
+ "generalv3.description": "Spark Pro یک مدل LLM با عملکرد بالا است که برای حوزه‌های حرفه‌ای بهینه‌سازی شده و بر ریاضی، برنامه‌نویسی، سلامت و آموزش تمرکز دارد. این مدل از جستجوی وب و افزونه‌های داخلی مانند آب‌وهوا و تاریخ پشتیبانی می‌کند و در پرسش‌وپاسخ دانش پیچیده، درک زبان و تولید متن پیشرفته عملکرد قوی و کارآمدی دارد و گزینه‌ای ایده‌آل برای کاربردهای حرفه‌ای است.",
543
+ "glm-4-0520.description": "GLM-4-0520 جدیدترین نسخه مدل است که برای وظایف بسیار پیچیده و متنوع با عملکرد عالی طراحی شده است.",
544
+ "glm-4-32b-0414.description": "GLM-4 32B 0414 یک مدل عمومی GLM است که از تولید و درک متن چندوظیفه‌ای پشتیبانی می‌کند.",
545
+ "glm-4-9b-chat.description": "GLM-4-9B-Chat در حوزه‌های معناشناسی، ریاضی، استدلال، کدنویسی و دانش عملکرد قوی دارد. همچنین از مرور وب، اجرای کد، فراخوانی ابزارهای سفارشی و استدلال متن‌های طولانی پشتیبانی می‌کند و از ۲۶ زبان از جمله ژاپنی، کره‌ای و آلمانی پشتیبانی می‌کند.",
546
+ "glm-4-air-250414.description": "GLM-4-Air گزینه‌ای با ارزش بالا است که عملکردی نزدیک به GLM-4 دارد، سرعت بالایی دارد و هزینه کمتری دارد.",
547
+ "glm-4-air.description": "GLM-4-Air گزینه‌ای با ارزش بالا است که عملکردی نزدیک به GLM-4 دارد، سرعت بالایی دارد و هزینه کمتری دارد.",
548
+ "glm-4-airx.description": "GLM-4-AirX نسخه‌ای کارآمدتر از GLM-4-Air است که تا ۲.۶ برابر استدلال سریع‌تری دارد.",
549
+ "glm-4-alltools.description": "GLM-4-AllTools یک مدل عامل چندمنظوره است که برای برنامه‌ریزی دستورالعمل‌های پیچیده و استفاده از ابزارهایی مانند مرور وب، توضیح کد و تولید متن بهینه‌سازی شده و برای اجرای چندوظیفه‌ای مناسب است.",
550
+ "glm-4-flash-250414.description": "GLM-4-Flash برای وظایف ساده ایده‌آل است: سریع‌ترین و رایگان.",
551
+ "glm-4-flash.description": "GLM-4-Flash برای وظایف ساده ایده‌آل است: سریع‌ترین و رایگان.",
552
+ "glm-4-flashx.description": "GLM-4-FlashX نسخه پیشرفته Flash با استدلال فوق‌العاده سریع است.",
553
+ "glm-4-long.description": "GLM-4-Long از ورودی‌های بسیار طولانی برای وظایف حافظه‌محور و پردازش اسناد در مقیاس بزرگ پشتیبانی می‌کند.",
554
+ "glm-4-plus.description": "GLM-4-Plus پرچم‌دار با هوش بالا است که در مدیریت متن‌های طولانی و وظایف پیچیده قوی عمل می‌کند و عملکرد کلی ارتقاء یافته‌ای دارد.",
555
+ "glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking قوی‌ترین مدل VLM شناخته‌شده با حدود ۱۰ میلیارد پارامتر است که وظایف پیشرفته‌ای مانند درک ویدیو، پرسش‌وپاسخ تصویری، حل مسائل موضوعی، OCR، خواندن اسناد و نمودارها، عامل‌های رابط کاربری، کدنویسی فرانت‌اند و اتصال به واقعیت را پوشش می‌دهد. این مدل حتی از Qwen2.5-VL-72B که ۸ برابر بزرگ‌تر است در بسیاری از وظایف پیشی می‌گیرد. با استفاده از یادگیری تقویتی پیشرفته، از استدلال زنجیره‌ای برای بهبود دقت و غنای پاسخ‌ها بهره می‌برد و در نتایج و قابلیت توضیح‌پذیری از مدل‌های سنتی بدون تفکر بهتر عمل می‌کند.",
556
+ "glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking قوی‌ترین مدل VLM شناخته‌شده با حدود ۱۰ میلیارد پارامتر است که وظایف پیشرفته‌ای مانند درک ویدیو، پرسش‌وپاسخ تصویری، حل مسائل موضوعی، OCR، خواندن اسناد و نمودارها، عامل‌های رابط کاربری، کدنویسی فرانت‌اند و اتصال به واقعیت را پوشش می‌دهد. این مدل حتی از Qwen2.5-VL-72B که ۸ برابر بزرگ‌تر است در بسیاری از وظایف پیشی می‌گیرد. با استفاده از یادگیری تقویتی پیشرفته، از استدلال زنجیره‌ای برای بهبود دقت و غنای پاسخ‌ها بهره می‌برد و در نتایج و قابلیت توضیح‌پذیری از مدل‌های سنتی بدون تفکر بهتر عمل می‌کند.",
515
557
  "meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعه‌دهندگان، پژوهشگران و شرکت‌ها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایده‌های هوش مصنوعی مولد طراحی شده است. این مدل به‌عنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیط‌هایی با منابع محدود، دستگاه‌های لبه و زمان‌های آموزش سریع مناسب است.",
516
558
  "meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامه‌های درک بصری.",
517
559
  "meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامه‌های عامل با قابلیت درک بصری.",
@@ -92,6 +92,15 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "نتیجه‌ای یافت نشد",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "سیستم محلی",
95
+ "builtins.lobe-notebook.actions.copy": "کپی",
96
+ "builtins.lobe-notebook.actions.creating": "در حال ایجاد سند...",
97
+ "builtins.lobe-notebook.actions.edit": "ویرایش",
98
+ "builtins.lobe-notebook.actions.expand": "گسترش",
99
+ "builtins.lobe-notebook.apiName.createDocument": "ایجاد سند",
100
+ "builtins.lobe-notebook.apiName.deleteDocument": "حذف سند",
101
+ "builtins.lobe-notebook.apiName.getDocument": "دریافت سند",
102
+ "builtins.lobe-notebook.apiName.updateDocument": "به‌روزرسانی سند",
103
+ "builtins.lobe-notebook.title": "دفترچه یادداشت",
95
104
  "builtins.lobe-page-agent.apiName.batchUpdate": "به‌روزرسانی دسته‌ای گره‌ها",
96
105
  "builtins.lobe-page-agent.apiName.compareSnapshots": "مقایسه نسخه‌ها",
97
106
  "builtins.lobe-page-agent.apiName.convertToList": "تبدیل به فهرست",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "یک سازمان متن‌باز متمرکز بر تحقیقات مدل‌های بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه می‌دهد تا مدل‌ها و الگوریتم‌های پیشرفته را در دسترس قرار دهد.",
30
30
  "jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدل‌های برداری، رتبه‌بندها و مدل‌های زبانی کوچک برای ساخت اپلیکیشن‌های جستجوی مولد و چندوجهی با کیفیت بالا است.",
31
31
  "lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدل‌های زبانی بزرگ روی رایانه شخصی شماست.",
32
+ "lobehub.description": "LobeHub Cloud از رابط‌های برنامه‌نویسی رسمی برای دسترسی به مدل‌های هوش مصنوعی استفاده می‌کند و مصرف را با اعتباراتی که به توکن‌های مدل وابسته‌اند، اندازه‌گیری می‌کند.",
32
33
  "minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدل‌های پایه چندوجهی از جمله مدل‌های متنی با پارامترهای تریلیونی، مدل‌های گفتاری و تصویری توسعه می‌دهد و اپ‌هایی مانند Hailuo AI را ارائه می‌کند.",
33
34
  "mistral.description": "Mistral مدل‌های عمومی، تخصصی و تحقیقاتی پیشرفته‌ای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه می‌دهد و از فراخوانی توابع برای یکپارچه‌سازی سفارشی پشتیبانی می‌کند.",
34
35
  "modelscope.description": "ModelScope پلتفرم مدل به‌عنوان‌سرویس Alibaba Cloud است که مجموعه‌ای گسترده از مدل‌های هوش مصنوعی و خدمات استنتاج را ارائه می‌دهد.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
272
272
  "claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
273
273
  "claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic. Par rapport à Claude 3 Haiku, il améliore ses compétences globales et surpasse le précédent plus grand modèle, Claude 3 Opus, sur de nombreux tests d’intelligence.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic, offrant des améliorations globales et surpassant l’ancien modèle phare Claude 3 Opus sur de nombreux benchmarks.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet est le modèle le plus intelligent d’Anthropic et le premier modèle hybride de raisonnement sur le marché. Il peut fournir des réponses quasi instantanées ou un raisonnement détaillé étape par étape visible par l’utilisateur. Sonnet excelle particulièrement en programmation, science des données, vision et tâches d’agents.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 est le modèle le plus intelligent d’Anthropic et le premier modèle hybride de raisonnement sur le marché, capable de fournir des réponses quasi instantanées ou une réflexion approfondie avec un contrôle précis.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d’Anthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, alliant vitesse fulgurante et raisonnement approfondi.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, combinant une vitesse fulgurante et une capacité de réflexion étendue.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches hautement complexes, offrant des performances exceptionnelles en intelligence, fluidité et compréhension.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches complexes, excelling en performance, intelligence, fluidité et compréhension.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut générer des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec un processus visible.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 est le modèle le plus intelligent d’Anthropic à ce jour, offrant des réponses quasi instantanées ou une réflexion pas à pas approfondie avec un contrôle précis pour les utilisateurs d’API.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d’Anthropic à ce jour.",
289
289
  "codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, l’interprétation de code, la recherche web, l’appel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est l’un des meilleurs modèles de code sous 10 milliards de paramètres.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 est un modèle vision-langage MoE basé sur DeepSeekMoE-27B avec activation clairsemée, atteignant de hautes performances avec seulement 4,5B de paramètres actifs. Il excelle en QA visuelle, OCR, compréhension de documents/tableaux/graphes et ancrage visuel.",
358
- "deepseek-chat.description": "Un nouveau modèle open source combinant capacités générales et de codage. Il conserve le dialogue général du modèle de chat et la puissance de codage du modèle de programmeur, avec un meilleur alignement des préférences. DeepSeek-V2.5 améliore également la rédaction et le suivi des instructions.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 équilibre raisonnement et longueur de sortie pour les tâches quotidiennes de questions-réponses et d’agents. Il atteint des performances comparables à GPT-5 sur les benchmarks publics et est le premier à intégrer la réflexion dans l’utilisation d’outils, se classant en tête des évaluations open source d’agents.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à l’échelle du projet et un remplissage de fragments.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Version complète rapide de DeepSeek R1 avec recherche web en temps réel, combinant des capacités à l’échelle de 671B et des réponses plus rapides.",
379
379
  "deepseek-r1-online.description": "Version complète de DeepSeek R1 avec 671B de paramètres et recherche web en temps réel, offrant une meilleure compréhension et génération.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 utilise des données de démarrage à froid avant l’apprentissage par renforcement et affiche des performances comparables à OpenAI-o1 en mathématiques, codage et raisonnement.",
381
- "deepseek-reasoner.description": "Le mode de pensée DeepSeek V3.2 produit une chaîne de raisonnement avant la réponse finale pour améliorer la précision.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking est un modèle de raisonnement profond qui génère une chaîne de pensée avant la réponse pour une précision accrue, avec des résultats de compétition de haut niveau et un raisonnement comparable à Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.",
@@ -413,6 +413,35 @@
413
413
  "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B est distillé à partir de Llama-3.3-70B-Instruct. Faisant partie de la série DeepSeek-R1, il est affiné sur des échantillons générés par DeepSeek-R1 et offre d'excellentes performances en mathématiques, programmation et raisonnement.",
414
414
  "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B est distillé à partir de Qwen2.5-14B et affiné sur 800 000 échantillons sélectionnés générés par DeepSeek-R1, offrant un raisonnement solide.",
415
415
  "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B est distillé à partir de Qwen2.5-32B et affiné sur 800 000 échantillons sélectionnés générés par DeepSeek-R1, excellant en mathématiques, programmation et raisonnement.",
416
+ "devstral-2:123b.description": "Devstral 2 123B excelle dans l’utilisation d’outils pour explorer des bases de code, modifier plusieurs fichiers et assister les agents en ingénierie logicielle.",
417
+ "doubao-1.5-lite-32k.description": "Doubao-1.5-lite est un nouveau modèle léger à réponse ultra-rapide, offrant une qualité et une latence de premier ordre.",
418
+ "doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k est une mise à niveau complète de Doubao-1.5-Pro, améliorant les performances globales de 10 %. Il prend en charge une fenêtre de contexte de 256k et jusqu’à 12k jetons de sortie, offrant de meilleures performances, une fenêtre plus large et une forte valeur pour des cas d’usage étendus.",
419
+ "doubao-1.5-pro-32k.description": "Doubao-1.5-pro est un modèle phare de nouvelle génération avec des améliorations globales, excellent en connaissances, codage et raisonnement.",
420
+ "doubao-1.5-thinking-pro-m.description": "Doubao-1.5 est un nouveau modèle de raisonnement profond (la version m inclut un raisonnement multimodal natif) qui excelle en mathématiques, codage, raisonnement scientifique et tâches générales comme l’écriture créative. Il atteint ou approche les meilleurs résultats sur des benchmarks tels que AIME 2024, Codeforces et GPQA. Il prend en charge une fenêtre de contexte de 128k et une sortie jusqu’à 16k jetons.",
421
+ "doubao-1.5-thinking-pro.description": "Doubao-1.5 est un nouveau modèle de raisonnement profond qui excelle en mathématiques, codage, raisonnement scientifique et tâches générales comme l’écriture créative. Il atteint ou approche les meilleurs résultats sur des benchmarks tels que AIME 2024, Codeforces et GPQA. Il prend en charge une fenêtre de contexte de 128k et une sortie jusqu’à 16k jetons.",
422
+ "doubao-1.5-thinking-vision-pro.description": "Un nouveau modèle visuel de raisonnement profond avec une compréhension et un raisonnement multimodaux renforcés, atteignant des résultats SOTA sur 37 des 59 benchmarks publics.",
423
+ "doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS est un modèle d’agent natif centré sur l’interface graphique, interagissant de manière fluide avec les interfaces grâce à une perception, un raisonnement et une action proches de l’humain.",
424
+ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite est un modèle multimodal amélioré prenant en charge les images de toute résolution et des rapports d’aspect extrêmes, renforçant le raisonnement visuel, la reconnaissance de documents, la compréhension des détails et le suivi d’instructions. Il prend en charge une fenêtre de contexte de 128k et jusqu’à 16k jetons de sortie.",
425
+ "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro est un modèle multimodal amélioré prenant en charge les images de toute résolution et des rapports d’aspect extrêmes, renforçant le raisonnement visuel, la reconnaissance de documents, la compréhension des détails et le suivi d’instructions.",
426
+ "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro est un modèle multimodal amélioré prenant en charge les images de toute résolution et des rapports d’aspect extrêmes, renforçant le raisonnement visuel, la reconnaissance de documents, la compréhension des détails et le suivi d’instructions.",
427
+ "doubao-lite-128k.description": "Réponse ultra-rapide avec un meilleur rapport qualité-prix, offrant des choix plus flexibles selon les scénarios. Prend en charge le raisonnement et l’ajustement fin avec une fenêtre de contexte de 128k.",
428
+ "doubao-lite-32k.description": "Réponse ultra-rapide avec un meilleur rapport qualité-prix, offrant des choix plus flexibles selon les scénarios. Prend en charge le raisonnement et l’ajustement fin avec une fenêtre de contexte de 32k.",
429
+ "doubao-lite-4k.description": "Réponse ultra-rapide avec un meilleur rapport qualité-prix, offrant des choix plus flexibles selon les scénarios. Prend en charge le raisonnement et l’ajustement fin avec une fenêtre de contexte de 4k.",
430
+ "doubao-pro-256k.description": "Le modèle phare le plus performant pour les tâches complexes, avec d’excellents résultats en questions-réponses de référence, résumé, création, classification de texte et jeu de rôle. Prend en charge le raisonnement et l’ajustement fin avec une fenêtre de contexte de 256k.",
431
+ "doubao-pro-32k.description": "Le modèle phare le plus performant pour les tâches complexes, avec d’excellents résultats en questions-réponses de référence, résumé, création, classification de texte et jeu de rôle. Prend en charge le raisonnement et l’ajustement fin avec une fenêtre de contexte de 32k.",
432
+ "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash est un modèle multimodal de raisonnement profond ultra-rapide avec un TPOT aussi bas que 10 ms. Il prend en charge le texte et la vision, dépasse l’ancien modèle lite en compréhension textuelle et rivalise avec les modèles pro concurrents en vision. Il prend en charge une fenêtre de contexte de 256k et jusqu’à 16k jetons de sortie.",
433
+ "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite est un nouveau modèle multimodal de raisonnement profond avec un effort de raisonnement ajustable (Minimal, Faible, Moyen, Élevé), offrant un meilleur rapport qualité-prix et un excellent choix pour les tâches courantes, avec une fenêtre de contexte allant jusqu’à 256k.",
434
+ "doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 renforce considérablement le raisonnement, améliorant encore les capacités fondamentales en codage, mathématiques et raisonnement logique par rapport à Doubao-1.5-thinking-pro, tout en ajoutant la compréhension visuelle. Il prend en charge une fenêtre de contexte de 256k et jusqu’à 16k jetons de sortie.",
435
+ "doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision est un modèle visuel de raisonnement profond offrant une compréhension et un raisonnement multimodaux renforcés pour l’éducation, la révision d’images, l’inspection/sécurité et les questions-réponses en recherche IA. Il prend en charge une fenêtre de contexte de 256k et jusqu’à 64k jetons de sortie.",
436
+ "doubao-seed-1.6.description": "Doubao-Seed-1.6 est un nouveau modèle multimodal de raisonnement profond avec des modes auto, raisonnement et non-raisonnement. En mode non-raisonnement, il surpasse nettement Doubao-1.5-pro/250115. Il prend en charge une fenêtre de contexte de 256k et jusqu’à 16k jetons de sortie.",
437
+ "doubao-seed-1.8.description": "Doubao-Seed-1.8 offre une compréhension multimodale et des capacités d’agent renforcées, prenant en charge les entrées texte/image/vidéo avec mise en cache contextuelle, pour des performances supérieures sur des tâches complexes.",
438
+ "doubao-seed-code.description": "Doubao-Seed-Code est optimisé pour le codage agentique, prend en charge les entrées multimodales (texte/image/vidéo) et une fenêtre de contexte de 256k, compatible avec l’API Anthropic, adapté au codage, à la compréhension visuelle et aux flux de travail d’agents.",
439
+ "doubao-seededit-3-0-i2i-250628.description": "Le modèle d’image Doubao de ByteDance Seed prend en charge les entrées texte et image avec une génération d’image de haute qualité et hautement contrôlable. Il prend en charge l’édition d’image guidée par texte, avec des tailles de sortie entre 512 et 1536 sur le côté long.",
440
+ "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 est un modèle de génération d’image de ByteDance Seed, prenant en charge les entrées texte et image avec une génération d’image de haute qualité et hautement contrôlable. Il génère des images à partir d’invites textuelles.",
441
+ "doubao-seedream-4-0-250828.description": "Seedream 4.0 est un modèle de génération d’image de ByteDance Seed, prenant en charge les entrées texte et image avec une génération d’image de haute qualité et hautement contrôlable. Il génère des images à partir d’invites textuelles.",
442
+ "doubao-vision-lite-32k.description": "Doubao-vision est un modèle multimodal de Doubao avec une forte compréhension et un raisonnement d’image, ainsi qu’un suivi précis des instructions. Il excelle dans l’extraction image-texte et les tâches de raisonnement basées sur l’image, permettant des scénarios de questions-réponses visuelles plus complexes et étendus.",
443
+ "doubao-vision-pro-32k.description": "Doubao-vision est un modèle multimodal de Doubao avec une forte compréhension et un raisonnement d’image, ainsi qu’un suivi précis des instructions. Il excelle dans l’extraction image-texte et les tâches de raisonnement basées sur l’image, permettant des scénarios de questions-réponses visuelles plus complexes et étendus.",
444
+ "emohaa.description": "Emohaa est un modèle de santé mentale doté de compétences professionnelles en conseil pour aider les utilisateurs à comprendre leurs problèmes émotionnels.",
416
445
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
417
446
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
418
447
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",
@@ -92,6 +92,15 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "Aucun résultat",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "Système local",
95
+ "builtins.lobe-notebook.actions.copy": "Copier",
96
+ "builtins.lobe-notebook.actions.creating": "Création du document...",
97
+ "builtins.lobe-notebook.actions.edit": "Modifier",
98
+ "builtins.lobe-notebook.actions.expand": "Développer",
99
+ "builtins.lobe-notebook.apiName.createDocument": "Créer un document",
100
+ "builtins.lobe-notebook.apiName.deleteDocument": "Supprimer le document",
101
+ "builtins.lobe-notebook.apiName.getDocument": "Obtenir le document",
102
+ "builtins.lobe-notebook.apiName.updateDocument": "Mettre à jour le document",
103
+ "builtins.lobe-notebook.title": "Carnet de notes",
95
104
  "builtins.lobe-page-agent.apiName.batchUpdate": "Mettre à jour plusieurs nœuds",
96
105
  "builtins.lobe-page-agent.apiName.compareSnapshots": "Comparer les instantanés",
97
106
  "builtins.lobe-page-agent.apiName.convertToList": "Convertir en liste",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Une organisation open source axée sur la recherche et les outils pour les grands modèles, offrant une plateforme efficace et accessible pour les modèles et algorithmes de pointe.",
30
30
  "jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
31
31
  "lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
32
+ "lobehub.description": "LobeHub Cloud utilise les API officielles pour accéder aux modèles d'IA et mesure l'utilisation à l'aide de crédits liés aux jetons des modèles.",
32
33
  "minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
33
34
  "mistral.description": "Mistral propose des modèles avancés généralistes, spécialisés et de recherche pour le raisonnement complexe, les tâches multilingues et la génération de code, avec appels de fonctions pour des intégrations personnalisées.",
34
35
  "modelscope.description": "ModelScope est la plateforme de modèles en tant que service d'Alibaba Cloud, offrant un large éventail de modèles d'IA et de services d'inférence.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o è un modello dinamico aggiornato in tempo reale, che combina comprensione e generazione avanzate per casi d'uso su larga scala come assistenza clienti, istruzione e supporto tecnico.",
272
272
  "claude-2.0.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
273
273
  "claude-2.1.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic. Rispetto a Claude 3 Haiku, migliora in tutte le competenze e supera il precedente modello di punta Claude 3 Opus in numerosi benchmark di intelligenza.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic, con miglioramenti in diverse competenze e prestazioni superiori rispetto al precedente modello di punta Claude 3 Opus in molti benchmark.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fornisce risposte rapide per attività leggere.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato. È in grado di fornire risposte quasi istantanee o ragionamenti dettagliati passo dopo passo visibili all’utente. Sonnet eccelle in particolare nella programmazione, data science, visione artificiale e compiti per agenti.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato, in grado di fornire risposte quasi istantanee o riflessioni estese con un controllo preciso.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet è il modello più recente e avanzato di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee con prestazioni rapide e accurate.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet bilancia intelligenza e velocità per carichi di lavoro aziendali, offrendo alta utilità a costi inferiori e distribuzione affidabile su larga scala.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con una velocità fulminea e capacità di ragionamento estese.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con una velocità fulminea e capacità di pensiero prolungato.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking è una variante avanzata in grado di mostrare il proprio processo di ragionamento.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 è il modello più recente e potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellente in prestazioni, intelligenza, fluidità e comprensione.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza eccezionale e prestazioni scalabili, ideale per compiti complessi che richiedono risposte e ragionamenti di altissima qualità.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking può produrre risposte quasi istantanee o riflessioni estese passo dopo passo con processo visibile.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 è in grado di fornire risposte quasi istantanee o ragionamenti articolati passo dopo passo con un processo visibile.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 è il modello più intelligente mai realizzato da Anthropic, in grado di offrire risposte quasi istantanee o ragionamenti dettagliati passo dopo passo con un controllo preciso per gli utenti API.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente di Anthropic fino ad oggi.",
289
289
  "codegeex-4.description": "CodeGeeX-4 è un potente assistente di codifica AI che supporta Q&A multilingue e completamento del codice per aumentare la produttività degli sviluppatori.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B è un modello multilingue di generazione di codice che supporta completamento e generazione di codice, interprete di codice, ricerca web, chiamata di funzioni e Q&A a livello di repository, coprendo un'ampia gamma di scenari di sviluppo software. È un modello di codice di alto livello con meno di 10B parametri.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 è un modello visione-linguaggio MoE basato su DeepSeekMoE-27B con attivazione sparsa, che raggiunge prestazioni elevate con solo 4,5B di parametri attivi. Eccelle in QA visivo, OCR, comprensione di documenti/tabelle/grafici e grounding visivo.",
358
- "deepseek-chat.description": "Un nuovo modello open-source che combina capacità generali e di programmazione. Mantiene il dialogo generale del modello di chat e la forte capacità di codifica del modello coder, con un migliore allineamento alle preferenze. DeepSeek-V2.5 migliora anche la scrittura e il rispetto delle istruzioni.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 bilancia ragionamento e lunghezza dell’output per attività quotidiane di domande e risposte e agenti. I benchmark pubblici raggiungono livelli paragonabili a GPT-5 ed è il primo a integrare il pensiero nell’uso degli strumenti, guidando le valutazioni open-source degli agenti.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B è un modello linguistico per il codice addestrato su 2 trilioni di token (87% codice, 13% testo in cinese/inglese). Introduce una finestra di contesto da 16K e compiti di completamento intermedio, offrendo completamento di codice a livello di progetto e riempimento di snippet.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 versione completa veloce con ricerca web in tempo reale, che combina capacità su scala 671B e risposte rapide.",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 versione completa con 671 miliardi di parametri e ricerca web in tempo reale, che offre una comprensione e generazione più avanzate.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 utilizza dati cold-start prima dell'RL e ottiene prestazioni comparabili a OpenAI-o1 in matematica, programmazione e ragionamento.",
381
- "deepseek-reasoner.description": "La modalità di pensiero di DeepSeek V3.2 produce un chain-of-thought prima della risposta finale per migliorare l'accuratezza.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking è un modello di ragionamento profondo che genera catene di pensiero prima degli output per una maggiore accuratezza, con risultati di alto livello e capacità di ragionamento comparabili a Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 è un modello MoE efficiente per un'elaborazione conveniente.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B è il modello DeepSeek focalizzato sul codice con forte capacità di generazione.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 è un modello MoE con 671 miliardi di parametri, con punti di forza nella programmazione, capacità tecnica, comprensione del contesto e gestione di testi lunghi.",
@@ -456,6 +456,41 @@
456
456
  "ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview è un modello multimodale di anteprima per comprensione e generazione immagine-testo, adatto a QA visivo e comprensione dei contenuti.",
457
457
  "ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL è un modello multimodale maturo per la comprensione e il riconoscimento immagine-testo in produzione.",
458
458
  "ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B è un modello multimodale open-source per la comprensione e il ragionamento immagine-testo.",
459
+ "ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking è un modello di punta nativo full-modal con modellazione unificata di testo, immagini, audio e video. Offre ampi miglioramenti nelle capacità per domande complesse, creazione e scenari con agenti.",
460
+ "ernie-5.0-thinking-preview.description": "Wenxin 5.0 Thinking Preview è un modello di punta nativo full-modal con modellazione unificata di testo, immagini, audio e video. Offre ampi miglioramenti nelle capacità per domande complesse, creazione e scenari con agenti.",
461
+ "ernie-char-8k.description": "ERNIE Character 8K è un modello di dialogo con personalità per la creazione di personaggi IP e conversazioni di compagnia a lungo termine.",
462
+ "ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview è un’anteprima del modello per la creazione di personaggi e trame, utile per valutazioni e test di funzionalità.",
463
+ "ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K è un modello con personalità per romanzi e creazione di trame, adatto alla generazione di storie di lunga durata.",
464
+ "ernie-irag-edit.description": "ERNIE iRAG Edit è un modello per l’editing di immagini che supporta cancellazione, ritocco e generazione di varianti.",
465
+ "ernie-lite-8k.description": "ERNIE Lite 8K è un modello generale leggero per domande e risposte quotidiane e generazione di contenuti sensibili ai costi.",
466
+ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K è un modello leggero ad alte prestazioni per scenari sensibili a latenza e costi.",
467
+ "ernie-novel-8k.description": "ERNIE Novel 8K è progettato per romanzi lunghi e trame IP con narrazioni multi-personaggio.",
468
+ "ernie-speed-128k.description": "ERNIE Speed 128K è un modello senza costi di I/O per la comprensione di testi lunghi e prove su larga scala.",
469
+ "ernie-speed-8k.description": "ERNIE Speed 8K è un modello gratuito e veloce per chat quotidiane e compiti testuali leggeri.",
470
+ "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K è un modello ad alto valore e alta concorrenza per servizi online su larga scala e applicazioni aziendali.",
471
+ "ernie-tiny-8k.description": "ERNIE Tiny 8K è un modello ultra-leggero per domande semplici, classificazione e inferenza a basso costo.",
472
+ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K è un modello di pensiero veloce con contesto da 32K per ragionamento complesso e chat multi-turno.",
473
+ "ernie-x1.1-preview.description": "ERNIE X1.1 Preview è un’anteprima del modello di pensiero per valutazioni e test.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, sviluppato da ByteDance Seed, supporta input di testo e immagini per una generazione di immagini di alta qualità e altamente controllabile a partire da prompt.",
475
+ "fal-ai/flux-kontext/dev.description": "FLUX.1 è un modello focalizzato sull’editing di immagini, che supporta input di testo e immagini.",
476
+ "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accetta testo e immagini di riferimento come input, consentendo modifiche locali mirate e trasformazioni complesse della scena globale.",
477
+ "fal-ai/flux/krea.description": "Flux Krea [dev] è un modello di generazione di immagini con una preferenza estetica per immagini più realistiche e naturali.",
478
+ "fal-ai/flux/schnell.description": "FLUX.1 [schnell] è un modello di generazione di immagini con 12 miliardi di parametri progettato per output rapidi e di alta qualità.",
479
+ "fal-ai/hunyuan-image/v3.description": "Un potente modello nativo multimodale per la generazione di immagini.",
480
+ "fal-ai/imagen4/preview.description": "Modello di generazione di immagini di alta qualità sviluppato da Google.",
481
+ "fal-ai/nano-banana.description": "Nano Banana è il modello multimodale nativo più recente, veloce ed efficiente di Google, che consente la generazione e l’editing di immagini tramite conversazione.",
482
+ "fal-ai/qwen-image-edit.description": "Modello professionale di editing di immagini del team Qwen, che supporta modifiche semantiche e di aspetto, editing preciso di testo in cinese/inglese, trasferimento di stile, rotazione e altro.",
483
+ "fal-ai/qwen-image.description": "Modello potente di generazione di immagini del team Qwen con eccellente resa del testo cinese e stili visivi diversificati.",
484
+ "flux-1-schnell.description": "Modello testo-immagine da 12 miliardi di parametri di Black Forest Labs che utilizza la distillazione latente avversariale per generare immagini di alta qualità in 1-4 passaggi. Con licenza Apache-2.0 per uso personale, di ricerca e commerciale.",
485
+ "flux-dev.description": "FLUX.1 [dev] è un modello distillato a pesi aperti per uso non commerciale. Mantiene una qualità d’immagine quasi professionale e capacità di seguire istruzioni, con maggiore efficienza rispetto ai modelli standard di pari dimensioni.",
486
+ "flux-kontext-max.description": "Generazione ed editing di immagini contestuali all’avanguardia, combinando testo e immagini per risultati precisi e coerenti.",
487
+ "flux-kontext-pro.description": "Generazione ed editing di immagini contestuali all’avanguardia, combinando testo e immagini per risultati precisi e coerenti.",
488
+ "flux-merged.description": "FLUX.1-merged combina le funzionalità approfondite esplorate in \"DEV\" con i vantaggi di velocità di \"Schnell\", estendendo i limiti delle prestazioni e ampliando le applicazioni.",
489
+ "flux-pro-1.1-ultra.description": "Generazione di immagini ad altissima risoluzione con output da 4MP, producendo immagini nitide in 10 secondi.",
490
+ "flux-pro-1.1.description": "Modello aggiornato di generazione di immagini di livello professionale con eccellente qualità visiva e aderenza precisa ai prompt.",
491
+ "flux-pro.description": "Modello commerciale di generazione di immagini di fascia alta con qualità visiva impareggiabile e output diversificati.",
492
+ "flux-schnell.description": "FLUX.1 [schnell] è il modello open-source più avanzato a pochi passaggi, superiore a concorrenti simili e persino a modelli non distillati come Midjourney v6.0 e DALL-E 3 (HD). Ottimizzato per preservare la diversità del pretraining, migliora notevolmente la qualità visiva, il rispetto delle istruzioni, la variazione di dimensioni/aspetto, la gestione dei font e la diversità degli output.",
493
+ "flux.1-schnell.description": "FLUX.1-schnell è un modello ad alte prestazioni per la generazione di immagini rapide in più stili.",
459
494
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 è un LLM open-source pensato per sviluppatori, ricercatori e aziende, progettato per supportare la creazione, la sperimentazione e la scalabilità responsabile di idee basate su IA generativa. Parte integrante dell’ecosistema globale per l’innovazione comunitaria, è ideale per ambienti con risorse limitate, dispositivi edge e tempi di addestramento ridotti.",
460
495
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Solido ragionamento visivo su immagini ad alta risoluzione, ideale per applicazioni di comprensione visiva.",
461
496
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Ragionamento visivo avanzato per applicazioni agenti di comprensione visiva.",
@@ -92,6 +92,15 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "Nessun risultato",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "Sistema Locale",
95
+ "builtins.lobe-notebook.actions.copy": "Copia",
96
+ "builtins.lobe-notebook.actions.creating": "Creazione del documento in corso...",
97
+ "builtins.lobe-notebook.actions.edit": "Modifica",
98
+ "builtins.lobe-notebook.actions.expand": "Espandi",
99
+ "builtins.lobe-notebook.apiName.createDocument": "Crea documento",
100
+ "builtins.lobe-notebook.apiName.deleteDocument": "Elimina documento",
101
+ "builtins.lobe-notebook.apiName.getDocument": "Ottieni documento",
102
+ "builtins.lobe-notebook.apiName.updateDocument": "Aggiorna documento",
103
+ "builtins.lobe-notebook.title": "Taccuino",
95
104
  "builtins.lobe-page-agent.apiName.batchUpdate": "Aggiorna nodi in blocco",
96
105
  "builtins.lobe-page-agent.apiName.compareSnapshots": "Confronta istantanee",
97
106
  "builtins.lobe-page-agent.apiName.convertToList": "Converti in elenco",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Un'organizzazione open-source focalizzata sulla ricerca e gli strumenti per modelli di grandi dimensioni, che offre una piattaforma efficiente e facile da usare per rendere accessibili modelli e algoritmi all'avanguardia.",
30
30
  "jina.description": "Fondata nel 2020, Jina AI è un'azienda leader nell'AI per la ricerca. Il suo stack include modelli vettoriali, reranker e piccoli modelli linguistici per costruire app di ricerca generativa e multimodale affidabili e di alta qualità.",
31
31
  "lmstudio.description": "LM Studio è un'app desktop per sviluppare e sperimentare con LLM direttamente sul tuo computer.",
32
+ "lobehub.description": "LobeHub Cloud utilizza le API ufficiali per accedere ai modelli di intelligenza artificiale e misura l'utilizzo tramite Crediti legati ai token del modello.",
32
33
  "minimax.description": "Fondata nel 2021, MiniMax sviluppa AI generali con modelli fondamentali multimodali, inclusi modelli testuali MoE da trilioni di parametri, modelli vocali e visivi, oltre ad app come Hailuo AI.",
33
34
  "mistral.description": "Mistral offre modelli avanzati generali, specializzati e di ricerca per ragionamento complesso, compiti multilingue e generazione di codice, con supporto per chiamate di funzione per integrazioni personalizzate.",
34
35
  "modelscope.description": "ModelScope è la piattaforma di modelli-as-a-service di Alibaba Cloud, che offre un'ampia gamma di modelli AI e servizi di inferenza.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、顧客サポート、教育、技術支援などの大規模ユースケースにおいて、優れた理解力と生成能力を兼ね備えています。",
272
272
  "claude-2.0.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
273
273
  "claude-2.1.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku は、Anthropic による次世代モデルの中で最速のモデルです。Claude 3 Haiku と比較してあらゆるスキルが向上しており、従来の最大モデルである Claude 3 Opus を多くの知能ベンチマークで上回ります。",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku は、Anthropic による次世代モデルの中で最速のものであり、さまざまなスキルで向上し、従来のフラッグシップモデル Claude 3 Opus を多くのベンチマークで上回ります。",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haikuは、軽量タスク向けに高速な応答を提供します。",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet は、Anthropic による最も知的なモデルであり、市場初のハイブリッド推論モデルです。瞬時の応答から、ユーザーが確認できる段階的な推論まで対応可能です。特にコーディング、データサイエンス、画像認識、エージェントタスクに優れています。",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 は、Anthropic による最も知的なモデルであり、市場初のハイブリッド推論モデルです。即時応答と深い思考を細かく制御しながら両立させます。",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnetは、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haikuは、Anthropicの最速かつ最小のモデルで、即時応答と高速かつ正確な性能を実現するよう設計されています。",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opusは、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnetは、知性と速度のバランスを取り、エンタープライズ向けのワークロードにおいて高い実用性とコスト効率、信頼性のある大規模展開を実現します。",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 は、Anthropic による最速かつ最も高性能な Haiku モデルであり、驚異的なスピードと高度な推論能力を備えています。",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 は、Anthropic による最速かつ最も知的な Haiku モデルであり、驚異的なスピードと深い思考能力を兼ね備えています。",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinkingは、推論プロセスを可視化できる高度なバリアントです。",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1は、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 は、Anthropic による最も強力なモデルであり、極めて複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、卓越した知性とスケーラブルな性能を兼ね備え、最高品質の応答と推論が求められる複雑なタスクに最適です。",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinkingは、即時応答または段階的な思考プロセスを可視化しながら出力できます。",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 は、瞬時の応答や、可視化された段階的な思考プロセスによる推論を生成できます。",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 は、Anthropic によるこれまでで最も知的なモデルであり、API ユーザー向けに即時応答と段階的な思考を細かく制御しながら提供します。",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5は、Anthropic史上最も知的なモデルです。",
289
289
  "codegeex-4.description": "CodeGeeX-4は、開発者の生産性を向上させる多言語対応のAIコーディングアシスタントで、Q&Aやコード補完をサポートします。",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9Bは、多言語コード生成モデルで、コード補完、生成、インタープリタ、Web検索、関数呼び出し、リポジトリレベルのQ&Aなど、幅広いソフトウェア開発シナリオに対応します。10B未満のパラメータで最高クラスのコードモデルです。",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 は DeepSeekMoE-27B をベースにした MoE 視覚言語モデルで、スパースアクティベーションにより、4.5B のアクティブパラメータで高性能を実現しています。視覚 QA、OCR、文書・表・チャート理解、視覚的グラウンディングに優れています。",
358
- "deepseek-chat.description": "一般的な対話能力と強力なコーディング能力を兼ね備えた新しいオープンソースモデルです。チャットモデルの自然な対話と、コーディングモデルの高いプログラミング能力を維持しつつ、ユーザーの好みにより適合するよう改善されています。DeepSeek-V2.5 は、文章生成や指示の理解・実行能力も向上しています。",
358
+ "deepseek-chat.description": "DeepSeek V3.2 は、日常的な質問応答やエージェントタスクにおいて、推論力と出力長のバランスを実現しています。公開ベンチマークでは GPT-5 レベルに達し、ツール使用に思考を統合した初のモデルとして、オープンソースエージェント評価で高評価を得ています。",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B は 2T トークン(コード 87%、中英テキスト 13%)で学習されたコード言語モデルです。16K のコンテキストウィンドウと Fill-in-the-Middle タスクを導入し、プロジェクトレベルのコード補完とスニペット補完を提供します。",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 高速フルバージョンは、リアルタイムのウェブ検索を搭載し、671Bスケールの能力と高速応答を両立します。",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 フルバージョンは、671Bパラメータとリアルタイムのウェブ検索を備え、より強力な理解と生成を提供します。",
380
380
  "deepseek-r1.description": "DeepSeek-R1は、強化学習前にコールドスタートデータを使用し、数学、コーディング、推論においてOpenAI-o1と同等の性能を発揮します。",
381
- "deepseek-reasoner.description": "DeepSeek V3.2の思考モードは、最終的な回答の前に思考の連鎖(Chain-of-Thought)を出力し、精度を向上させます。",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking は、出力前に思考の連鎖(Chain-of-Thought)を生成することで精度を高める深層推論モデルです。競技レベルの結果を出し、Gemini-3.0-Pro に匹敵する推論力を持ちます。",
382
382
  "deepseek-v2.description": "DeepSeek V2は、コスト効率の高い処理を実現する効率的なMoEモデルです。",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236Bは、コード生成に特化したDeepSeekのモデルで、強力なコード生成能力を持ちます。",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324は、671BパラメータのMoEモデルで、プログラミングや技術的能力、文脈理解、長文処理において優れた性能を発揮します。",
@@ -442,6 +442,35 @@
442
442
  "doubao-vision-lite-32k.description": "Doubao-vision は、画像理解と推論に優れ、正確な指示追従が可能な Doubao のマルチモーダルモデルです。画像とテキストの抽出や画像ベースの推論タスクにおいて高い性能を発揮し、より複雑で広範な視覚QAシナリオを実現します。",
443
443
  "doubao-vision-pro-32k.description": "Doubao-vision は、画像理解と推論に優れ、正確な指示追従が可能な Doubao のマルチモーダルモデルです。画像とテキストの抽出や画像ベースの推論タスクにおいて高い性能を発揮し、より複雑で広範な視覚QAシナリオを実現します。",
444
444
  "emohaa.description": "Emohaa は、専門的なカウンセリング能力を備えたメンタルヘルスモデルで、ユーザーが感情的な問題を理解するのを支援します。",
445
+ "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B は、ローカルおよびカスタマイズ展開に適した軽量なオープンソースモデルです。",
446
+ "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B は、理解力と生成力を強化した大規模パラメータのオープンソースモデルです。",
447
+ "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B は、Baidu ERNIE による超大規模 MoE モデルであり、優れた推論能力を備えています。",
448
+ "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview は、ERNIE 4.5 の評価用に設計された 8K コンテキストプレビューモデルです。",
449
+ "ernie-4.5-turbo-128k-preview.description": "ERNIE 4.5 Turbo 128K Preview は、リリースレベルの機能を備えた統合およびカナリアテストに適したモデルです。",
450
+ "ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K は、検索補強とツール呼び出しを備えた高性能な汎用モデルであり、質問応答、コーディング、エージェントシナリオに適しています。",
451
+ "ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K は、中程度の長さのコンテキストに対応し、質問応答、ナレッジベース検索、マルチターン対話に適しています。",
452
+ "ernie-4.5-turbo-latest.description": "最新の ERNIE 4.5 Turbo は、全体的な性能が最適化されており、主要な本番モデルとして理想的です。",
453
+ "ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview は、長文コンテキストにおける視覚能力を評価するための 32K マルチモーダルプレビューモデルです。",
454
+ "ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K は、長文と画像の理解を組み合わせた中長距離マルチモーダルモデルです。",
455
+ "ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest は、画像とテキストの理解および推論を強化した最新のマルチモーダルモデルです。",
456
+ "ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview は、画像とテキストの理解および生成に対応したマルチモーダルプレビューモデルであり、視覚的質問応答やコンテンツ理解に適しています。",
457
+ "ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL は、本番環境での画像とテキストの理解および認識に適した成熟したマルチモーダルモデルです。",
458
+ "ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B は、画像とテキストの理解および推論に対応したオープンソースのマルチモーダルモデルです。",
459
+ "ernie-5.0-thinking-latest.description": "文心 5.0 Thinking は、テキスト、画像、音声、動画を統合的に扱うネイティブなフルモーダルフラッグシップモデルであり、複雑な質問応答、創作、エージェントシナリオにおいて大幅な能力向上を実現します。",
460
+ "ernie-5.0-thinking-preview.description": "文心 5.0 Thinking Preview は、テキスト、画像、音声、動画を統合的に扱うネイティブなフルモーダルフラッグシップモデルであり、複雑な質問応答、創作、エージェントシナリオにおいて大幅な能力向上を実現します。",
461
+ "ernie-char-8k.description": "ERNIE Character 8K は、IP キャラクター構築や長期的な会話に適した人格対話モデルです。",
462
+ "ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview は、キャラクターとプロットの創作に対応したモデルのプレビュー版であり、機能評価とテストに適しています。",
463
+ "ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K は、小説やプロット創作に適した人格モデルであり、長編ストーリー生成に最適です。",
464
+ "ernie-irag-edit.description": "ERNIE iRAG Edit は、消去、再描画、バリエーション生成に対応した画像編集モデルです。",
465
+ "ernie-lite-8k.description": "ERNIE Lite 8K は、コスト重視の日常的な質問応答やコンテンツ生成に適した軽量汎用モデルです。",
466
+ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K は、レイテンシーとコストに敏感なシナリオに対応した軽量高性能モデルです。",
467
+ "ernie-novel-8k.description": "ERNIE Novel 8K は、複数キャラクターによる長編小説や IP プロットの生成に特化しています。",
468
+ "ernie-speed-128k.description": "ERNIE Speed 128K は、長文理解と大規模試行に対応した I/O 無料モデルです。",
469
+ "ernie-speed-8k.description": "ERNIE Speed 8K は、日常会話や軽量なテキストタスクに適した無料かつ高速なモデルです。",
470
+ "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K は、大規模なオンラインサービスや企業アプリケーション向けの高同時接続・高価値モデルです。",
471
+ "ernie-tiny-8k.description": "ERNIE Tiny 8K は、シンプルな質問応答、分類、低コスト推論に適した超軽量モデルです。",
472
+ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K は、複雑な推論やマルチターン対話に対応した 32K コンテキストの高速思考モデルです。",
473
+ "ernie-x1.1-preview.description": "ERNIE X1.1 Preview は、評価およびテスト用の思考モデルプレビューです。",
445
474
  "gemini-flash-latest.description": "Gemini Flash の最新リリース",
446
475
  "gemini-flash-lite-latest.description": "Gemini Flash-Lite の最新リリース",
447
476
  "gemini-pro-latest.description": "Gemini Pro の最新リリース",