@lobehub/chat 1.36.33 → 1.36.35

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (87) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/README.ja-JP.md +150 -115
  3. package/README.md +65 -30
  4. package/README.zh-CN.md +65 -30
  5. package/changelog/v1.json +18 -0
  6. package/locales/ar/common.json +27 -7
  7. package/locales/ar/models.json +0 -24
  8. package/locales/ar/providers.json +10 -4
  9. package/locales/bg-BG/common.json +27 -7
  10. package/locales/bg-BG/models.json +0 -24
  11. package/locales/bg-BG/providers.json +10 -4
  12. package/locales/de-DE/common.json +27 -7
  13. package/locales/de-DE/models.json +0 -24
  14. package/locales/de-DE/providers.json +10 -4
  15. package/locales/en-US/common.json +27 -7
  16. package/locales/en-US/models.json +0 -24
  17. package/locales/en-US/providers.json +10 -4
  18. package/locales/es-ES/common.json +27 -7
  19. package/locales/es-ES/models.json +0 -24
  20. package/locales/es-ES/providers.json +10 -4
  21. package/locales/fa-IR/common.json +27 -7
  22. package/locales/fa-IR/models.json +0 -24
  23. package/locales/fa-IR/providers.json +10 -4
  24. package/locales/fr-FR/common.json +27 -7
  25. package/locales/fr-FR/models.json +0 -24
  26. package/locales/fr-FR/providers.json +10 -4
  27. package/locales/it-IT/common.json +27 -7
  28. package/locales/it-IT/models.json +0 -24
  29. package/locales/it-IT/providers.json +10 -4
  30. package/locales/ja-JP/common.json +27 -7
  31. package/locales/ja-JP/models.json +0 -24
  32. package/locales/ja-JP/providers.json +10 -4
  33. package/locales/ko-KR/common.json +27 -7
  34. package/locales/ko-KR/models.json +0 -24
  35. package/locales/ko-KR/providers.json +10 -4
  36. package/locales/nl-NL/common.json +27 -7
  37. package/locales/nl-NL/models.json +0 -24
  38. package/locales/nl-NL/providers.json +10 -4
  39. package/locales/pl-PL/common.json +27 -7
  40. package/locales/pl-PL/models.json +0 -24
  41. package/locales/pl-PL/providers.json +10 -4
  42. package/locales/pt-BR/common.json +27 -7
  43. package/locales/pt-BR/models.json +0 -24
  44. package/locales/pt-BR/providers.json +10 -4
  45. package/locales/ru-RU/common.json +27 -7
  46. package/locales/ru-RU/models.json +0 -24
  47. package/locales/ru-RU/providers.json +10 -4
  48. package/locales/tr-TR/common.json +27 -7
  49. package/locales/tr-TR/models.json +0 -24
  50. package/locales/tr-TR/providers.json +10 -4
  51. package/locales/vi-VN/common.json +27 -7
  52. package/locales/vi-VN/models.json +0 -24
  53. package/locales/vi-VN/providers.json +10 -4
  54. package/locales/zh-CN/common.json +28 -8
  55. package/locales/zh-CN/models.json +4 -28
  56. package/locales/zh-CN/providers.json +10 -4
  57. package/locales/zh-TW/common.json +27 -7
  58. package/locales/zh-TW/models.json +0 -24
  59. package/locales/zh-TW/providers.json +10 -4
  60. package/package.json +1 -1
  61. package/scripts/readmeWorkflow/const.ts +22 -8
  62. package/scripts/readmeWorkflow/index.ts +2 -0
  63. package/scripts/readmeWorkflow/syncAgentIndex.ts +36 -28
  64. package/scripts/readmeWorkflow/syncPluginIndex.ts +28 -15
  65. package/scripts/readmeWorkflow/syncProviderIndex.ts +51 -0
  66. package/scripts/readmeWorkflow/utlis.ts +23 -12
  67. package/src/app/loading/Client/Content.tsx +38 -0
  68. package/src/app/loading/Client/Redirect.tsx +47 -0
  69. package/src/app/loading/Client/index.tsx +22 -0
  70. package/src/app/loading/{Content.tsx → Server/Content.tsx} +6 -2
  71. package/src/app/loading/{Redirect.tsx → Server/Redirect.tsx} +3 -12
  72. package/src/app/loading/Server/index.tsx +22 -0
  73. package/src/app/loading/index.tsx +4 -16
  74. package/src/app/loading/stage.ts +22 -0
  75. package/src/components/FullscreenLoading/index.tsx +9 -8
  76. package/src/components/InitProgress/index.tsx +42 -0
  77. package/src/config/modelProviders/ai21.ts +1 -0
  78. package/src/config/modelProviders/cloudflare.ts +1 -2
  79. package/src/config/modelProviders/higress.ts +2 -1
  80. package/src/config/modelProviders/sensenova.ts +6 -3
  81. package/src/features/FileViewer/index.tsx +1 -1
  82. package/src/features/MobileSwitchLoading/index.tsx +20 -7
  83. package/src/layout/AuthProvider/NextAuth/UserUpdater.tsx +3 -1
  84. package/src/locales/default/common.ts +29 -8
  85. package/src/locales/default/models.ts +1 -0
  86. package/src/locales/default/providers.ts +1 -0
  87. package/src/app/loading/type.ts +0 -6
@@ -10,10 +10,16 @@
10
10
  }
11
11
  },
12
12
  "appLoading": {
13
- "goToChat": "(4/4) در حال بارگذاری صفحه گفتگو...",
14
- "initAuth": "(2/4) در حال راه‌اندازی سرویس احراز هویت...",
15
- "initUser": "(3/4) در حال راه‌اندازی وضعیت کاربر...",
16
- "initializing": "(1/4) در حال راه‌اندازی برنامه..."
13
+ "appInitializing": "در حال راه‌اندازی برنامه...",
14
+ "finished": "راه‌اندازی پایگاه داده کامل شد",
15
+ "goToChat": "در حال بارگذاری صفحه گفتگو...",
16
+ "initAuth": "در حال راه‌اندازی سرویس احراز هویت...",
17
+ "initUser": "در حال راه‌اندازی وضعیت کاربر...",
18
+ "initializing": "در حال راه‌اندازی پایگاه داده PGlite...",
19
+ "loadingDependencies": "در حال بارگذاری وابستگی‌ها...",
20
+ "loadingWasm": "در حال بارگذاری ماژول WASM...",
21
+ "migrating": "در حال اجرای مهاجرت جداول داده...",
22
+ "ready": "پایگاه داده آماده است"
17
23
  },
18
24
  "autoGenerate": "تکمیل خودکار",
19
25
  "autoGenerateTooltip": "تکمیل خودکار توضیحات دستیار بر اساس کلمات راهنما",
@@ -38,14 +44,28 @@
38
44
  "error": "خطایی رخ داده است، لطفاً دوباره تلاش کنید",
39
45
  "idle": "در حال انتظار برای راه‌اندازی...",
40
46
  "initializing": "در حال راه‌اندازی...",
41
- "loadingDependencies": "در حال بارگذاری وابستگی‌ها ({{progress}}%)...",
42
- "loadingWasmModule": "در حال بارگذاری ماژول WASM ({{progress}}%)...",
43
- "migrating": "در حال انتقال داده‌ها...",
47
+ "loadingDependencies": "در حال بارگذاری وابستگی‌ها...",
48
+ "loadingWasmModule": "در حال بارگذاری ماژول WASM...",
49
+ "migrating": "در حال انجام مهاجرت جدول داده‌ها...",
44
50
  "ready": "پایگاه داده آماده است"
45
51
  },
46
52
  "modal": {
47
53
  "desc": "فعال‌سازی پایگاه داده کلاینت PGlite، برای ذخیره‌سازی دائمی داده‌های گفتگو در مرورگر شما و استفاده از ویژگی‌های پیشرفته مانند دانش‌نامه",
48
54
  "enable": "همین حالا فعال‌سازی کنید",
55
+ "features": {
56
+ "knowledgeBase": {
57
+ "desc": "دانشنامه شخصی خود را بسازید و به راحتی با دستیار خود گفتگو کنید (به زودی منتشر می‌شود)",
58
+ "title": "پشتیبانی از گفتگو در دانشنامه، آغاز مغز دوم"
59
+ },
60
+ "localFirst": {
61
+ "desc": "تمام داده‌های چت در مرورگر ذخیره می‌شوند و داده‌های شما همیشه در کنترل شماست.",
62
+ "title": "اولویت محلی، حریم خصوصی در اولویت"
63
+ },
64
+ "pglite": {
65
+ "desc": "بر اساس PGlite ساخته شده، پشتیبانی بومی از ویژگی‌های پیشرفته AI Native (جستجوی برداری)",
66
+ "title": "معماری ذخیره‌سازی کلاینت نسل جدید"
67
+ }
68
+ },
49
69
  "init": {
50
70
  "desc": "در حال راه‌اندازی پایگاه داده، بسته به تفاوت‌های شبکه ممکن است ۵ تا ۳۰ ثانیه طول بکشد",
51
71
  "title": "در حال راه‌اندازی پایگاه داده PGlite"
@@ -23,20 +23,6 @@
23
23
  "4.0Ultra": {
24
24
  "description": "Spark Ultra قدرتمندترین نسخه از سری مدل‌های بزرگ Spark است که با ارتقاء مسیر جستجوی متصل به شبکه، توانایی درک و خلاصه‌سازی محتوای متنی را بهبود می‌بخشد. این یک راه‌حل جامع برای افزایش بهره‌وری در محیط کار و پاسخگویی دقیق به نیازها است و به عنوان یک محصول هوشمند پیشرو در صنعت شناخته می‌شود."
25
25
  },
26
- "@cf/meta/llama-3-8b-instruct-awq": {},
27
- "@cf/openchat/openchat-3.5-0106": {},
28
- "@cf/qwen/qwen1.5-14b-chat-awq": {},
29
- "@hf/google/gemma-7b-it": {},
30
- "@hf/meta-llama/meta-llama-3-8b-instruct": {
31
- "description": "نسل به نسل، Meta Llama 3 عملکردی پیشرفته در طیف وسیعی از معیارهای صنعتی نشان می‌دهد و قابلیت‌های جدیدی از جمله بهبود در استدلال را ارائه می‌دهد."
32
- },
33
- "@hf/mistral/mistral-7b-instruct-v0.2": {},
34
- "@hf/nexusflow/starling-lm-7b-beta": {},
35
- "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
36
- "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
37
- "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
38
- "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
39
- "@hf/thebloke/zephyr-7b-beta-awq": {},
40
26
  "Baichuan2-Turbo": {
41
27
  "description": "با استفاده از فناوری تقویت جستجو، مدل بزرگ را به دانش حوزه‌ای و دانش کل وب متصل می‌کند. از آپلود انواع اسناد مانند PDF، Word و همچنین وارد کردن آدرس‌های وب پشتیبانی می‌کند. اطلاعات به‌موقع و جامع دریافت می‌شود و نتایج خروجی دقیق و حرفه‌ای هستند."
42
28
  },
@@ -127,7 +113,6 @@
127
113
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
128
114
  "description": "Hermes 2 Mixtral 8x7B DPO یک ترکیب چندمدلی بسیار انعطاف‌پذیر است که برای ارائه تجربه‌ای خلاقانه و برجسته طراحی شده است."
129
115
  },
130
- "NousResearch/Hermes-3-Llama-3.1-8B": {},
131
116
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
132
117
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) یک مدل دستورالعمل با دقت بالا است که برای محاسبات پیچیده مناسب است."
133
118
  },
@@ -530,9 +515,6 @@
530
515
  "cohere-command-r-plus": {
531
516
  "description": "Command R+ یک مدل پیشرفته بهینه‌سازی RAG است که برای مدیریت بارهای کاری در سطح سازمانی طراحی شده است."
532
517
  },
533
- "command-light": {
534
- "description": ""
535
- },
536
518
  "command-r": {
537
519
  "description": "Command R یک LLM بهینه‌سازی شده برای مکالمات و وظایف با متن طولانی است که به‌ویژه برای تعاملات پویا و مدیریت دانش مناسب است."
538
520
  },
@@ -794,9 +776,6 @@
794
776
  "hunyuan-functioncall": {
795
777
  "description": "مدل FunctionCall با معماری MOE جدید Hunyuan، آموزش‌دیده با داده‌های باکیفیت FunctionCall، با پنجره متنی تا 32K و پیشرو در چندین شاخص ارزیابی."
796
778
  },
797
- "hunyuan-large": {
798
- "description": ""
799
- },
800
779
  "hunyuan-lite": {
801
780
  "description": "به ساختار MOE ارتقا یافته است، پنجره متنی 256k دارد و در چندین مجموعه ارزیابی در زمینه‌های NLP، کد، ریاضیات و صنایع از بسیاری از مدل‌های متن‌باز پیشی گرفته است."
802
781
  },
@@ -830,8 +809,6 @@
830
809
  "internlm2.5-latest": {
831
810
  "description": "جدیدترین سری مدل‌های ما با عملکرد استدلال عالی، از طول متن ۱M پشتیبانی می‌کند و توانایی‌های قوی‌تری در پیروی از دستورات و فراخوانی ابزارها دارد."
832
811
  },
833
- "jamba-1.5-large": {},
834
- "jamba-1.5-mini": {},
835
812
  "learnlm-1.5-pro-experimental": {
836
813
  "description": "LearnLM یک مدل زبانی تجربی و خاص برای وظایف است که برای مطابقت با اصول علم یادگیری آموزش دیده است و می‌تواند در سناریوهای آموزشی و یادگیری از دستورات سیستم پیروی کند و به عنوان مربی متخصص عمل کند."
837
814
  },
@@ -1027,7 +1004,6 @@
1027
1004
  "meta.llama3-8b-instruct-v1:0": {
1028
1005
  "description": "Meta Llama 3 یک مدل زبان بزرگ باز (LLM) است که برای توسعه‌دهندگان، پژوهشگران و شرکت‌ها طراحی شده است تا به آن‌ها در ساخت، آزمایش و گسترش مسئولانه ایده‌های هوش مصنوعی مولد کمک کند. به عنوان بخشی از سیستم پایه نوآوری جامعه جهانی، این مدل برای دستگاه‌های با توان محاسباتی و منابع محدود، دستگاه‌های لبه و زمان‌های آموزش سریع‌تر بسیار مناسب است."
1029
1006
  },
1030
- "microsoft/Phi-3.5-mini-instruct": {},
1031
1007
  "microsoft/WizardLM-2-8x22B": {
1032
1008
  "description": "WizardLM 2 یک مدل زبانی است که توسط AI مایکروسافت ارائه شده و در زمینه‌های گفتگوی پیچیده، چند زبانه، استدلال و دستیار هوشمند به ویژه عملکرد خوبی دارد."
1033
1009
  },
@@ -1,5 +1,7 @@
1
1
  {
2
- "ai21": {},
2
+ "ai21": {
3
+ "description": "AI21 Labs مدل‌های پایه و سیستم‌های هوش مصنوعی را برای کسب‌وکارها ایجاد می‌کند و به تسریع کاربرد هوش مصنوعی تولیدی در تولید کمک می‌کند."
4
+ },
3
5
  "ai360": {
4
6
  "description": "360 AI پلتفرم مدل‌ها و خدمات هوش مصنوعی شرکت 360 است که مدل‌های پیشرفته پردازش زبان طبیعی متعددی از جمله 360GPT2 Pro، 360GPT Pro، 360GPT Turbo و 360GPT Turbo Responsibility 8K را ارائه می‌دهد. این مدل‌ها با ترکیب پارامترهای بزرگ‌مقیاس و قابلیت‌های چندوجهی، به طور گسترده در زمینه‌های تولید متن، درک معنایی، سیستم‌های مکالمه و تولید کد به کار می‌روند. با استفاده از استراتژی‌های قیمت‌گذاری انعطاف‌پذیر، 360 AI نیازهای متنوع کاربران را برآورده کرده و از یکپارچه‌سازی توسعه‌دهندگان پشتیبانی می‌کند و به نوآوری و توسعه کاربردهای هوشمند کمک می‌کند."
5
7
  },
@@ -15,7 +17,9 @@
15
17
  "bedrock": {
16
18
  "description": "Bedrock یک سرویس ارائه شده توسط آمازون AWS است که بر ارائه مدل‌های پیشرفته زبان AI و مدل‌های بصری برای شرکت‌ها تمرکز دارد. خانواده مدل‌های آن شامل سری Claude از Anthropic، سری Llama 3.1 از Meta و غیره است که از مدل‌های سبک تا مدل‌های با عملکرد بالا را پوشش می‌دهد و از وظایفی مانند تولید متن، مکالمه و پردازش تصویر پشتیبانی می‌کند. این سرویس برای برنامه‌های شرکتی با مقیاس‌ها و نیازهای مختلف مناسب است."
17
19
  },
18
- "cloudflare": {},
20
+ "cloudflare": {
21
+ "description": "مدل‌های یادگیری ماشین مبتنی بر GPU بدون سرور را در شبکه جهانی Cloudflare اجرا کنید."
22
+ },
19
23
  "deepseek": {
20
24
  "description": "DeepSeek یک شرکت متمرکز بر تحقیق و کاربرد فناوری هوش مصنوعی است. مدل جدید آن، DeepSeek-V2.5، توانایی‌های مکالمه عمومی و پردازش کد را ترکیب کرده و در زمینه‌هایی مانند هم‌ترازی با ترجیحات انسانی، وظایف نوشتاری و پیروی از دستورات بهبود قابل توجهی داشته است."
21
25
  },
@@ -35,7 +39,7 @@
35
39
  "description": "موتور استنتاج LPU شرکت Groq در آخرین آزمون‌های معیار مدل‌های زبانی بزرگ (LLM) مستقل عملکرد برجسته‌ای داشته و با سرعت و کارایی شگفت‌انگیز خود، استانداردهای راه‌حل‌های هوش مصنوعی را بازتعریف کرده است. Groq نمادی از سرعت استنتاج فوری است و در استقرارهای مبتنی بر ابر عملکرد خوبی از خود نشان داده است."
36
40
  },
37
41
  "higress": {
38
- "description": ""
42
+ "description": "Higress یک دروازه API ابری است که برای حل مشکلات مربوط به بارگذاری مجدد Tengine در کسب و کارهای با اتصالات طولانی و همچنین کمبود قابلیت‌های تعادل بار gRPC/Dubbo در داخل علی ایجاد شده است."
39
43
  },
40
44
  "huggingface": {
41
45
  "description": "API استنتاج HuggingFace یک روش سریع و رایگان برای کاوش هزاران مدل برای وظایف مختلف ارائه می‌دهد. چه در حال طراحی نمونه اولیه برای یک برنامه جدید باشید و چه در حال آزمایش قابلیت‌های یادگیری ماشین، این API به شما امکان دسترسی فوری به مدل‌های با عملکرد بالا در چندین حوزه را می‌دهد."
@@ -73,7 +77,9 @@
73
77
  "qwen": {
74
78
  "description": "چوان یی چیان ون یک مدل زبان بسیار بزرگ است که توسط علی‌کلود به‌طور مستقل توسعه یافته و دارای توانایی‌های قدرتمند درک و تولید زبان طبیعی است. این مدل می‌تواند به انواع سوالات پاسخ دهد، محتوای متنی خلق کند، نظرات و دیدگاه‌ها را بیان کند، کد بنویسد و در حوزه‌های مختلف نقش ایفا کند."
75
79
  },
76
- "sensenova": {},
80
+ "sensenova": {
81
+ "description": "سنسنووا، با تکیه بر زیرساخت‌های قوی سنس‌تک، خدمات مدل‌های بزرگ تمام‌پشته‌ای را به‌صورت کارآمد و آسان ارائه می‌دهد."
82
+ },
77
83
  "siliconcloud": {
78
84
  "description": "SiliconCloud، یک سرویس ابری GenAI با کارایی بالا و مقرون‌به‌صرفه بر اساس مدل‌های منبع‌باز برجسته"
79
85
  },
@@ -10,10 +10,16 @@
10
10
  }
11
11
  },
12
12
  "appLoading": {
13
- "goToChat": "(4/4) Chargement de la page de conversation...",
14
- "initAuth": "(2/4) Initialisation du service d'authentification...",
15
- "initUser": "(3/4) Initialisation de l'état de l'utilisateur...",
16
- "initializing": "(1/4) L'application se lance..."
13
+ "appInitializing": "L'application se charge...",
14
+ "finished": "Initialisation de la base de données terminée",
15
+ "goToChat": "Chargement de la page de chat...",
16
+ "initAuth": "Initialisation du service d'authentification...",
17
+ "initUser": "Initialisation de l'état de l'utilisateur...",
18
+ "initializing": "Initialisation de la base de données PGlite...",
19
+ "loadingDependencies": "Chargement des dépendances...",
20
+ "loadingWasm": "Chargement du module WASM...",
21
+ "migrating": "Exécution de la migration des tables de données...",
22
+ "ready": "La base de données est prête"
17
23
  },
18
24
  "autoGenerate": "Générer automatiquement",
19
25
  "autoGenerateTooltip": "Générer automatiquement la description de l'agent basée sur les suggestions",
@@ -38,14 +44,28 @@
38
44
  "error": "Une erreur s'est produite, veuillez réessayer",
39
45
  "idle": "En attente d'initialisation...",
40
46
  "initializing": "Initialisation en cours...",
41
- "loadingDependencies": "Chargement des dépendances ({{progress}}%)...",
42
- "loadingWasmModule": "Chargement du module WASM ({{progress}}%)...",
43
- "migrating": "Migration des données en cours...",
47
+ "loadingDependencies": "Chargement des dépendances...",
48
+ "loadingWasmModule": "Chargement du module WASM...",
49
+ "migrating": "Exécution de la migration des tables de données...",
44
50
  "ready": "Base de données prête"
45
51
  },
46
52
  "modal": {
47
53
  "desc": "Activez la base de données client PGlite pour stocker de manière persistante les données de discussion dans votre navigateur et utiliser des fonctionnalités avancées telles que la base de connaissances.",
48
54
  "enable": "Activer maintenant",
55
+ "features": {
56
+ "knowledgeBase": {
57
+ "desc": "Consolidez votre base de connaissances personnelle et engagez facilement des conversations avec votre assistant (bientôt disponible)",
58
+ "title": "Support des conversations de base de connaissances, activez votre deuxième cerveau"
59
+ },
60
+ "localFirst": {
61
+ "desc": "Les données de chat sont entièrement stockées dans le navigateur, vos données sont toujours sous votre contrôle.",
62
+ "title": "Priorité locale, confidentialité avant tout"
63
+ },
64
+ "pglite": {
65
+ "desc": "Construit sur PGlite, prend en charge nativement les fonctionnalités avancées AI Native (recherche vectorielle)",
66
+ "title": "Nouvelle architecture de stockage client de nouvelle génération"
67
+ }
68
+ },
49
69
  "init": {
50
70
  "desc": "Initialisation de la base de données en cours, cela peut prendre de 5 à 30 secondes selon la connexion réseau.",
51
71
  "title": "Initialisation de la base de données PGlite en cours"
@@ -23,20 +23,6 @@
23
23
  "4.0Ultra": {
24
24
  "description": "Spark4.0 Ultra est la version la plus puissante de la série de grands modèles Xinghuo, améliorant la compréhension et la capacité de résumé du contenu textuel tout en mettant à jour le lien de recherche en ligne. C'est une solution complète pour améliorer la productivité au bureau et répondre avec précision aux besoins, représentant un produit intelligent de premier plan dans l'industrie."
25
25
  },
26
- "@cf/meta/llama-3-8b-instruct-awq": {},
27
- "@cf/openchat/openchat-3.5-0106": {},
28
- "@cf/qwen/qwen1.5-14b-chat-awq": {},
29
- "@hf/google/gemma-7b-it": {},
30
- "@hf/meta-llama/meta-llama-3-8b-instruct": {
31
- "description": "Génération après génération, Meta Llama 3 démontre des performances de pointe sur une large gamme de références industrielles et offre de nouvelles capacités, y compris un raisonnement amélioré."
32
- },
33
- "@hf/mistral/mistral-7b-instruct-v0.2": {},
34
- "@hf/nexusflow/starling-lm-7b-beta": {},
35
- "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
36
- "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
37
- "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
38
- "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
39
- "@hf/thebloke/zephyr-7b-beta-awq": {},
40
26
  "Baichuan2-Turbo": {
41
27
  "description": "Utilise une technologie d'amélioration de recherche pour relier complètement le grand modèle aux connaissances sectorielles et aux connaissances du web. Supporte le téléchargement de divers documents tels que PDF, Word, et l'entrée d'URL, permettant une acquisition d'informations rapide et complète, avec des résultats précis et professionnels."
42
28
  },
@@ -127,7 +113,6 @@
127
113
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
128
114
  "description": "Hermes 2 Mixtral 8x7B DPO est une fusion de modèles hautement flexible, visant à offrir une expérience créative exceptionnelle."
129
115
  },
130
- "NousResearch/Hermes-3-Llama-3.1-8B": {},
131
116
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
132
117
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) est un modèle d'instructions de haute précision, adapté aux calculs complexes."
133
118
  },
@@ -530,9 +515,6 @@
530
515
  "cohere-command-r-plus": {
531
516
  "description": "Command R+ est un modèle optimisé RAG de pointe conçu pour traiter des charges de travail de niveau entreprise."
532
517
  },
533
- "command-light": {
534
- "description": ""
535
- },
536
518
  "command-r": {
537
519
  "description": "Command R est un LLM optimisé pour les tâches de dialogue et de long contexte, particulièrement adapté à l'interaction dynamique et à la gestion des connaissances."
538
520
  },
@@ -794,9 +776,6 @@
794
776
  "hunyuan-functioncall": {
795
777
  "description": "Dernier modèle FunctionCall de l'architecture MOE Hunyuan, formé sur des données FunctionCall de haute qualité, avec une fenêtre contextuelle atteignant 32K, se classant parmi les meilleurs sur plusieurs dimensions d'évaluation."
796
778
  },
797
- "hunyuan-large": {
798
- "description": ""
799
- },
800
779
  "hunyuan-lite": {
801
780
  "description": "Mise à niveau vers une structure MOE, avec une fenêtre contextuelle de 256k, en tête de nombreux modèles open source dans les évaluations NLP, code, mathématiques, industrie, etc."
802
781
  },
@@ -830,8 +809,6 @@
830
809
  "internlm2.5-latest": {
831
810
  "description": "Notre dernière série de modèles, offrant des performances d'inférence exceptionnelles, prenant en charge une longueur de contexte de 1M et des capacités améliorées de suivi des instructions et d'appel d'outils."
832
811
  },
833
- "jamba-1.5-large": {},
834
- "jamba-1.5-mini": {},
835
812
  "learnlm-1.5-pro-experimental": {
836
813
  "description": "LearnLM est un modèle de langage expérimental, spécifique à des tâches, formé pour respecter les principes des sciences de l'apprentissage, capable de suivre des instructions systématiques dans des contextes d'enseignement et d'apprentissage, agissant comme un mentor expert, entre autres."
837
814
  },
@@ -1027,7 +1004,6 @@
1027
1004
  "meta.llama3-8b-instruct-v1:0": {
1028
1005
  "description": "Meta Llama 3 est un modèle de langage ouvert (LLM) destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à construire, expérimenter et étendre de manière responsable leurs idées d'IA générative. En tant que partie intégrante d'un système de base pour l'innovation de la communauté mondiale, il est particulièrement adapté aux appareils à capacité de calcul et de ressources limitées, ainsi qu'à des temps d'entraînement plus rapides."
1029
1006
  },
1030
- "microsoft/Phi-3.5-mini-instruct": {},
1031
1007
  "microsoft/WizardLM-2-8x22B": {
1032
1008
  "description": "WizardLM 2 est un modèle de langage proposé par Microsoft AI, qui excelle dans les domaines des dialogues complexes, du multilinguisme, du raisonnement et des assistants intelligents."
1033
1009
  },
@@ -1,5 +1,7 @@
1
1
  {
2
- "ai21": {},
2
+ "ai21": {
3
+ "description": "AI21 Labs construit des modèles de base et des systèmes d'intelligence artificielle pour les entreprises, accélérant l'application de l'intelligence artificielle générative en production."
4
+ },
3
5
  "ai360": {
4
6
  "description": "360 AI est une plateforme de modèles et de services IA lancée par la société 360, offrant divers modèles avancés de traitement du langage naturel, y compris 360GPT2 Pro, 360GPT Pro, 360GPT Turbo et 360GPT Turbo Responsibility 8K. Ces modèles combinent de grands paramètres et des capacités multimodales, largement utilisés dans la génération de texte, la compréhension sémantique, les systèmes de dialogue et la génération de code. Grâce à une stratégie de tarification flexible, 360 AI répond à des besoins variés des utilisateurs, soutenant l'intégration des développeurs et favorisant l'innovation et le développement des applications intelligentes."
5
7
  },
@@ -15,7 +17,9 @@
15
17
  "bedrock": {
16
18
  "description": "Bedrock est un service proposé par Amazon AWS, axé sur la fourniture de modèles linguistiques et visuels avancés pour les entreprises. Sa famille de modèles comprend la série Claude d'Anthropic, la série Llama 3.1 de Meta, etc., offrant une variété d'options allant des modèles légers aux modèles haute performance, prenant en charge des tâches telles que la génération de texte, les dialogues et le traitement d'images, adaptées aux applications d'entreprise de différentes tailles et besoins."
17
19
  },
18
- "cloudflare": {},
20
+ "cloudflare": {
21
+ "description": "Exécutez des modèles d'apprentissage automatique alimentés par GPU sans serveur sur le réseau mondial de Cloudflare."
22
+ },
19
23
  "deepseek": {
20
24
  "description": "DeepSeek est une entreprise spécialisée dans la recherche et l'application des technologies d'intelligence artificielle, dont le dernier modèle, DeepSeek-V2.5, combine des capacités de dialogue général et de traitement de code, réalisant des améliorations significatives dans l'alignement des préférences humaines, les tâches d'écriture et le suivi des instructions."
21
25
  },
@@ -35,7 +39,7 @@
35
39
  "description": "Le moteur d'inférence LPU de Groq a excellé dans les derniers tests de référence des grands modèles de langage (LLM), redéfinissant les normes des solutions IA grâce à sa vitesse et son efficacité impressionnantes. Groq représente une vitesse d'inférence instantanée, montrant de bonnes performances dans les déploiements basés sur le cloud."
36
40
  },
37
41
  "higress": {
38
- "description": ""
42
+ "description": "Higress est une passerelle API cloud-native, née au sein d'Alibaba pour résoudre les problèmes de rechargement de Tengine affectant les connexions persistantes, ainsi que le manque de capacités d'équilibrage de charge pour gRPC/Dubbo."
39
43
  },
40
44
  "huggingface": {
41
45
  "description": "L'API d'inférence HuggingFace offre un moyen rapide et gratuit d'explorer des milliers de modèles adaptés à diverses tâches. Que vous soyez en train de prototyper une nouvelle application ou d'expérimenter les capacités de l'apprentissage automatique, cette API vous permet d'accéder instantanément à des modèles performants dans de nombreux domaines."
@@ -73,7 +77,9 @@
73
77
  "qwen": {
74
78
  "description": "Tongyi Qianwen est un modèle de langage à grande échelle développé de manière autonome par Alibaba Cloud, doté de puissantes capacités de compréhension et de génération du langage naturel. Il peut répondre à diverses questions, créer du contenu écrit, exprimer des opinions, rédiger du code, etc., jouant un rôle dans plusieurs domaines."
75
79
  },
76
- "sensenova": {},
80
+ "sensenova": {
81
+ "description": "SenseNova, soutenue par la puissante infrastructure de SenseTime, offre des services de modèles de grande taille complets, efficaces et faciles à utiliser."
82
+ },
77
83
  "siliconcloud": {
78
84
  "description": "SiliconFlow s'engage à accélérer l'AGI pour le bénéfice de l'humanité, en améliorant l'efficacité de l'IA à grande échelle grâce à une pile GenAI facile à utiliser et à faible coût."
79
85
  },
@@ -10,10 +10,16 @@
10
10
  }
11
11
  },
12
12
  "appLoading": {
13
- "goToChat": "(4/4) Caricamento della pagina della chat in corso...",
14
- "initAuth": "(2/4) Inizializzazione del servizio di autenticazione...",
15
- "initUser": "(3/4) Inizializzazione dello stato utente...",
16
- "initializing": "(1/4) Avvio dell'app in corso..."
13
+ "appInitializing": "Avvio dell'app in corso...",
14
+ "finished": "Inizializzazione del database completata",
15
+ "goToChat": "Caricamento della pagina di chat in corso...",
16
+ "initAuth": "Inizializzazione del servizio di autenticazione...",
17
+ "initUser": "Inizializzazione dello stato utente...",
18
+ "initializing": "Inizializzazione del database PGlite...",
19
+ "loadingDependencies": "Inizializzazione delle dipendenze...",
20
+ "loadingWasm": "Caricamento del modulo WASM...",
21
+ "migrating": "Esecuzione della migrazione delle tabelle dati...",
22
+ "ready": "Database pronto"
17
23
  },
18
24
  "autoGenerate": "Generazione automatica",
19
25
  "autoGenerateTooltip": "Completamento automatico basato su suggerimenti",
@@ -38,14 +44,28 @@
38
44
  "error": "Si è verificato un errore, si prega di riprovare",
39
45
  "idle": "In attesa di inizializzazione...",
40
46
  "initializing": "In fase di inizializzazione...",
41
- "loadingDependencies": "Caricamento delle dipendenze ({ {progress}}%)...",
42
- "loadingWasmModule": "Caricamento del modulo WASM ({ {progress}}%)...",
43
- "migrating": "In fase di migrazione dei dati...",
47
+ "loadingDependencies": "Caricamento delle dipendenze in corso...",
48
+ "loadingWasmModule": "Caricamento del modulo WASM in corso...",
49
+ "migrating": "Esecuzione della migrazione della tabella dati...",
44
50
  "ready": "Database pronto"
45
51
  },
46
52
  "modal": {
47
53
  "desc": "Abilita il database client PGlite per memorizzare in modo persistente i dati della chat nel tuo browser e utilizzare funzionalità avanzate come la knowledge base",
48
54
  "enable": "Abilita ora",
55
+ "features": {
56
+ "knowledgeBase": {
57
+ "desc": "Conserva il tuo archivio personale di conoscenze e avvia facilmente conversazioni con il tuo assistente (in arrivo)",
58
+ "title": "Supporto per conversazioni sull'archivio di conoscenze, attiva il tuo secondo cervello"
59
+ },
60
+ "localFirst": {
61
+ "desc": "I dati delle chat sono completamente memorizzati nel browser, i tuoi dati sono sempre sotto il tuo controllo.",
62
+ "title": "Locale prima, privacy al primo posto"
63
+ },
64
+ "pglite": {
65
+ "desc": "Costruito su PGlite, supporta nativamente le funzionalità avanzate AI Native (ricerca vettoriale)",
66
+ "title": "Nuova generazione di architettura di archiviazione client"
67
+ }
68
+ },
49
69
  "init": {
50
70
  "desc": "In fase di inizializzazione del database, il tempo necessario può variare da 5 a 30 secondi a seconda della rete",
51
71
  "title": "Inizializzazione del database PGlite in corso"
@@ -23,20 +23,6 @@
23
23
  "4.0Ultra": {
24
24
  "description": "Spark4.0 Ultra è la versione più potente della serie di modelli Spark, migliorando la comprensione e la sintesi del contenuto testuale mentre aggiorna il collegamento alla ricerca online. È una soluzione completa per migliorare la produttività lavorativa e rispondere con precisione alle esigenze, rappresentando un prodotto intelligente all'avanguardia nel settore."
25
25
  },
26
- "@cf/meta/llama-3-8b-instruct-awq": {},
27
- "@cf/openchat/openchat-3.5-0106": {},
28
- "@cf/qwen/qwen1.5-14b-chat-awq": {},
29
- "@hf/google/gemma-7b-it": {},
30
- "@hf/meta-llama/meta-llama-3-8b-instruct": {
31
- "description": "Generazione dopo generazione, Meta Llama 3 dimostra prestazioni all'avanguardia su una vasta gamma di benchmark del settore e offre nuove capacità, inclusa una ragionamento migliorato."
32
- },
33
- "@hf/mistral/mistral-7b-instruct-v0.2": {},
34
- "@hf/nexusflow/starling-lm-7b-beta": {},
35
- "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
36
- "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
37
- "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
38
- "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
39
- "@hf/thebloke/zephyr-7b-beta-awq": {},
40
26
  "Baichuan2-Turbo": {
41
27
  "description": "Utilizza tecnologie di ricerca avanzate per collegare completamente il grande modello con la conoscenza di settore e la conoscenza globale. Supporta il caricamento di vari documenti come PDF, Word e l'immissione di URL, con acquisizione di informazioni tempestiva e completa, e risultati di output accurati e professionali."
42
28
  },
@@ -127,7 +113,6 @@
127
113
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
128
114
  "description": "Hermes 2 Mixtral 8x7B DPO è un modello altamente flessibile, progettato per offrire un'esperienza creativa eccezionale."
129
115
  },
130
- "NousResearch/Hermes-3-Llama-3.1-8B": {},
131
116
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
132
117
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) è un modello di istruzioni ad alta precisione, adatto per calcoli complessi."
133
118
  },
@@ -530,9 +515,6 @@
530
515
  "cohere-command-r-plus": {
531
516
  "description": "Command R+ è un modello ottimizzato per RAG all'avanguardia progettato per affrontare carichi di lavoro di livello aziendale."
532
517
  },
533
- "command-light": {
534
- "description": ""
535
- },
536
518
  "command-r": {
537
519
  "description": "Command R è un LLM ottimizzato per compiti di dialogo e contesti lunghi, particolarmente adatto per interazioni dinamiche e gestione della conoscenza."
538
520
  },
@@ -794,9 +776,6 @@
794
776
  "hunyuan-functioncall": {
795
777
  "description": "Ultimo modello FunctionCall con architettura MOE di Hunyuan, addestrato su dati di alta qualità per le chiamate di funzione, con una finestra di contesto di 32K, è in testa in vari indicatori di valutazione."
796
778
  },
797
- "hunyuan-large": {
798
- "description": ""
799
- },
800
779
  "hunyuan-lite": {
801
780
  "description": "Aggiornato a una struttura MOE, con una finestra di contesto di 256k, è in testa a molti modelli open source in vari set di valutazione su NLP, codice, matematica e settori."
802
781
  },
@@ -830,8 +809,6 @@
830
809
  "internlm2.5-latest": {
831
810
  "description": "La nostra ultima serie di modelli, con prestazioni di ragionamento eccezionali, supporta una lunghezza di contesto di 1M e offre una migliore capacità di seguire istruzioni e chiamare strumenti."
832
811
  },
833
- "jamba-1.5-large": {},
834
- "jamba-1.5-mini": {},
835
812
  "learnlm-1.5-pro-experimental": {
836
813
  "description": "LearnLM è un modello linguistico sperimentale, specifico per compiti, addestrato per rispettare i principi della scienza dell'apprendimento, in grado di seguire istruzioni sistematiche in contesti di insegnamento e apprendimento, fungendo da tutor esperto."
837
814
  },
@@ -1027,7 +1004,6 @@
1027
1004
  "meta.llama3-8b-instruct-v1:0": {
1028
1005
  "description": "Meta Llama 3 è un modello di linguaggio di grandi dimensioni (LLM) open source progettato per sviluppatori, ricercatori e aziende, per aiutarli a costruire, sperimentare e scalare responsabilmente le loro idee di AI generativa. Come parte di un sistema di base per l'innovazione della comunità globale, è particolarmente adatto per dispositivi a bassa potenza e risorse limitate, oltre a garantire tempi di addestramento più rapidi."
1029
1006
  },
1030
- "microsoft/Phi-3.5-mini-instruct": {},
1031
1007
  "microsoft/WizardLM-2-8x22B": {
1032
1008
  "description": "WizardLM 2 è un modello linguistico fornito da Microsoft AI, particolarmente efficace in conversazioni complesse, multilingue, ragionamento e assistenti intelligenti."
1033
1009
  },
@@ -1,5 +1,7 @@
1
1
  {
2
- "ai21": {},
2
+ "ai21": {
3
+ "description": "AI21 Labs costruisce modelli di base e sistemi di intelligenza artificiale per le imprese, accelerando l'adozione dell'intelligenza artificiale generativa in produzione."
4
+ },
3
5
  "ai360": {
4
6
  "description": "360 AI è una piattaforma di modelli e servizi AI lanciata da 360 Company, che offre vari modelli avanzati di elaborazione del linguaggio naturale, tra cui 360GPT2 Pro, 360GPT Pro, 360GPT Turbo e 360GPT Turbo Responsibility 8K. Questi modelli combinano parametri su larga scala e capacità multimodali, trovando ampio utilizzo in generazione di testo, comprensione semantica, sistemi di dialogo e generazione di codice. Con strategie di prezzo flessibili, 360 AI soddisfa le esigenze diversificate degli utenti, supportando l'integrazione degli sviluppatori e promuovendo l'innovazione e lo sviluppo delle applicazioni intelligenti."
5
7
  },
@@ -15,7 +17,9 @@
15
17
  "bedrock": {
16
18
  "description": "Bedrock è un servizio offerto da Amazon AWS, focalizzato sulla fornitura di modelli linguistici e visivi AI avanzati per le aziende. La sua famiglia di modelli include la serie Claude di Anthropic, la serie Llama 3.1 di Meta e altro, coprendo una varietà di opzioni da leggere a ad alte prestazioni, supportando generazione di testo, dialogo, elaborazione di immagini e altro, adatta a diverse applicazioni aziendali di varie dimensioni e necessità."
17
19
  },
18
- "cloudflare": {},
20
+ "cloudflare": {
21
+ "description": "Esegui modelli di machine learning alimentati da GPU serverless sulla rete globale di Cloudflare."
22
+ },
19
23
  "deepseek": {
20
24
  "description": "DeepSeek è un'azienda focalizzata sulla ricerca e applicazione della tecnologia AI, il cui ultimo modello DeepSeek-V2.5 combina capacità di dialogo generico e elaborazione del codice, realizzando miglioramenti significativi nell'allineamento delle preferenze umane, nei compiti di scrittura e nel rispetto delle istruzioni."
21
25
  },
@@ -35,7 +39,7 @@
35
39
  "description": "Il motore di inferenza LPU di Groq ha mostrato prestazioni eccezionali nei recenti benchmark indipendenti sui modelli di linguaggio di grandi dimensioni (LLM), ridefinendo gli standard delle soluzioni AI con la sua incredibile velocità ed efficienza. Groq rappresenta una velocità di inferenza istantanea, mostrando buone prestazioni nelle implementazioni basate su cloud."
36
40
  },
37
41
  "higress": {
38
- "description": ""
42
+ "description": "Higress è un gateway API cloud-native, nato all'interno di Alibaba per risolvere i problemi causati dal ricaricamento di Tengine sulle connessioni persistenti e per migliorare le capacità di bilanciamento del carico di gRPC/Dubbo."
39
43
  },
40
44
  "huggingface": {
41
45
  "description": "L'API di Inferenza di HuggingFace offre un modo rapido e gratuito per esplorare migliaia di modelli per una varietà di compiti. Che tu stia prototipando una nuova applicazione o cercando di sperimentare le funzionalità del machine learning, questa API ti consente di accedere immediatamente a modelli ad alte prestazioni in diversi ambiti."
@@ -73,7 +77,9 @@
73
77
  "qwen": {
74
78
  "description": "Qwen è un modello di linguaggio di grande scala sviluppato autonomamente da Alibaba Cloud, con potenti capacità di comprensione e generazione del linguaggio naturale. Può rispondere a varie domande, creare contenuti testuali, esprimere opinioni e scrivere codice, svolgendo un ruolo in vari settori."
75
79
  },
76
- "sensenova": {},
80
+ "sensenova": {
81
+ "description": "SenseTime offre servizi di modelli di grandi dimensioni full-stack, supportati dalla potente infrastruttura di SenseTime."
82
+ },
77
83
  "siliconcloud": {
78
84
  "description": "SiliconFlow si impegna ad accelerare l'AGI per il bene dell'umanità, migliorando l'efficienza dell'AI su larga scala attraverso stack GenAI facili da usare e a basso costo."
79
85
  },
@@ -10,10 +10,16 @@
10
10
  }
11
11
  },
12
12
  "appLoading": {
13
- "goToChat": "(4/4) チャットページを読み込んでいます...",
14
- "initAuth": "(2/4) 認証サービスの初期化...",
15
- "initUser": "(3/4) ユーザー状態の初期化...",
16
- "initializing": "(1/4) アプリを起動しています..."
13
+ "appInitializing": "アプリケーションを起動しています...",
14
+ "finished": "データベースの初期化が完了しました",
15
+ "goToChat": "チャットページを読み込んでいます...",
16
+ "initAuth": "認証サービスを初期化しています...",
17
+ "initUser": "ユーザー状態を初期化しています...",
18
+ "initializing": "PGliteデータベースを初期化しています...",
19
+ "loadingDependencies": "依存関係を初期化しています...",
20
+ "loadingWasm": "WASM モジュールを読み込んでいます...",
21
+ "migrating": "データテーブルの移行を実行しています...",
22
+ "ready": "データベースは準備完了です"
17
23
  },
18
24
  "autoGenerate": "自動生成",
19
25
  "autoGenerateTooltip": "ヒントに基づいてエージェントの説明を自動生成します",
@@ -38,14 +44,28 @@
38
44
  "error": "エラーが発生しました。再試行してください。",
39
45
  "idle": "初期化を待っています...",
40
46
  "initializing": "初期化中...",
41
- "loadingDependencies": "依存関係を読み込んでいます({{progress}}%)...",
42
- "loadingWasmModule": "WASM モジュールを読み込んでいます({{progress}}%)...",
43
- "migrating": "データを移行中...",
47
+ "loadingDependencies": "依存関係を読み込んでいます...",
48
+ "loadingWasmModule": "WASM モジュールを読み込んでいます...",
49
+ "migrating": "データテーブルの移行を実行しています...",
44
50
  "ready": "データベースは準備完了です"
45
51
  },
46
52
  "modal": {
47
53
  "desc": "PGlite クライアントデータベースを有効にし、ブラウザにチャットデータを永続的に保存し、ナレッジベースなどの高度な機能を使用します。",
48
54
  "enable": "今すぐ有効にする",
55
+ "features": {
56
+ "knowledgeBase": {
57
+ "desc": "あなたの個人的な知識ベースを蓄積し、アシスタントと簡単に知識ベースの対話を開始できます(近日公開)",
58
+ "title": "知識ベースの対話をサポートし、第二の脳を開放する"
59
+ },
60
+ "localFirst": {
61
+ "desc": "チャットデータは完全にブラウザに保存され、あなたのデータは常にあなたの手の中にあります。",
62
+ "title": "ローカルファースト、プライバシー最優先"
63
+ },
64
+ "pglite": {
65
+ "desc": "PGliteに基づいて構築され、AIネイティブの高度な機能(ベクトル検索)をネイティブにサポートします。",
66
+ "title": "次世代クライアントストレージアーキテクチャ"
67
+ }
68
+ },
49
69
  "init": {
50
70
  "desc": "データベースを初期化中です。ネットワークの状況により、5〜30秒かかる場合があります。",
51
71
  "title": "PGlite データベースを初期化中"
@@ -23,20 +23,6 @@
23
23
  "4.0Ultra": {
24
24
  "description": "Spark4.0 Ultraは星火大モデルシリーズの中で最も強力なバージョンで、ネットワーク検索のリンクをアップグレードし、テキストコンテンツの理解と要約能力を向上させています。これは、オフィスの生産性を向上させ、要求に正確に応えるための全方位のソリューションであり、業界をリードするインテリジェントな製品です。"
25
25
  },
26
- "@cf/meta/llama-3-8b-instruct-awq": {},
27
- "@cf/openchat/openchat-3.5-0106": {},
28
- "@cf/qwen/qwen1.5-14b-chat-awq": {},
29
- "@hf/google/gemma-7b-it": {},
30
- "@hf/meta-llama/meta-llama-3-8b-instruct": {
31
- "description": "Generation over generation, Meta Llama 3は幅広い業界ベンチマークで最先端のパフォーマンスを示し、改善された推論を含む新しい機能を提供します。"
32
- },
33
- "@hf/mistral/mistral-7b-instruct-v0.2": {},
34
- "@hf/nexusflow/starling-lm-7b-beta": {},
35
- "@hf/nousresearch/hermes-2-pro-mistral-7b": {},
36
- "@hf/thebloke/deepseek-coder-6.7b-instruct-awq": {},
37
- "@hf/thebloke/neural-chat-7b-v3-1-awq": {},
38
- "@hf/thebloke/openhermes-2.5-mistral-7b-awq": {},
39
- "@hf/thebloke/zephyr-7b-beta-awq": {},
40
26
  "Baichuan2-Turbo": {
41
27
  "description": "検索強化技術を採用し、大モデルと分野知識、全網知識の全面的なリンクを実現しています。PDF、Wordなどのさまざまな文書のアップロードやURL入力をサポートし、情報取得が迅速かつ包括的で、出力結果は正確かつ専門的です。"
42
28
  },
@@ -127,7 +113,6 @@
127
113
  "Nous-Hermes-2-Mixtral-8x7B-DPO": {
128
114
  "description": "Hermes 2 Mixtral 8x7B DPOは非常に柔軟なマルチモデル統合で、卓越した創造的体験を提供することを目的としています。"
129
115
  },
130
- "NousResearch/Hermes-3-Llama-3.1-8B": {},
131
116
  "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
132
117
  "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B)は、高精度の指示モデルであり、複雑な計算に適しています。"
133
118
  },
@@ -530,9 +515,6 @@
530
515
  "cohere-command-r-plus": {
531
516
  "description": "Command R+は、企業グレードのワークロードに対応するために設計された最先端のRAG最適化モデルです。"
532
517
  },
533
- "command-light": {
534
- "description": ""
535
- },
536
518
  "command-r": {
537
519
  "description": "Command Rは、対話と長いコンテキストタスクに最適化されたLLMであり、特に動的なインタラクションと知識管理に適しています。"
538
520
  },
@@ -794,9 +776,6 @@
794
776
  "hunyuan-functioncall": {
795
777
  "description": "混元の最新のMOEアーキテクチャFunctionCallモデルで、高品質のFunctionCallデータトレーニングを経て、コンテキストウィンドウは32Kに達し、複数の次元の評価指標でリーダーシップを発揮しています。"
796
778
  },
797
- "hunyuan-large": {
798
- "description": ""
799
- },
800
779
  "hunyuan-lite": {
801
780
  "description": "MOE構造にアップグレードされ、コンテキストウィンドウは256kで、NLP、コード、数学、業界などの多くの評価セットで多くのオープンソースモデルをリードしています。"
802
781
  },
@@ -830,8 +809,6 @@
830
809
  "internlm2.5-latest": {
831
810
  "description": "私たちの最新のモデルシリーズで、卓越した推論性能を持ち、1Mのコンテキスト長をサポートし、より強力な指示追従とツール呼び出し能力を備えています。"
832
811
  },
833
- "jamba-1.5-large": {},
834
- "jamba-1.5-mini": {},
835
812
  "learnlm-1.5-pro-experimental": {
836
813
  "description": "LearnLMは、学習科学の原則に従って訓練された実験的なタスク特化型言語モデルで、教育や学習のシーンでシステムの指示に従い、専門的なメンターとして機能します。"
837
814
  },
@@ -1027,7 +1004,6 @@
1027
1004
  "meta.llama3-8b-instruct-v1:0": {
1028
1005
  "description": "Meta Llama 3は、開発者、研究者、企業向けのオープンな大規模言語モデル(LLM)であり、生成AIのアイデアを構築、実験、責任を持って拡張するのを支援することを目的としています。世界的なコミュニティの革新の基盤システムの一部として、計算能力とリソースが限られたエッジデバイスや、より迅速なトレーニング時間に非常に適しています。"
1029
1006
  },
1030
- "microsoft/Phi-3.5-mini-instruct": {},
1031
1007
  "microsoft/WizardLM-2-8x22B": {
1032
1008
  "description": "WizardLM 2はMicrosoft AIが提供する言語モデルで、複雑な対話、多言語、推論、インテリジェントアシスタントの分野で特に優れた性能を発揮します。"
1033
1009
  },