@lobehub/chat 1.129.0 → 1.129.2

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (52) hide show
  1. package/CHANGELOG.md +66 -0
  2. package/changelog/v1.json +21 -0
  3. package/docs/development/database-schema.dbml +9 -0
  4. package/locales/ar/models.json +248 -23
  5. package/locales/ar/providers.json +3 -0
  6. package/locales/bg-BG/models.json +248 -23
  7. package/locales/bg-BG/providers.json +3 -0
  8. package/locales/de-DE/models.json +248 -23
  9. package/locales/de-DE/providers.json +3 -0
  10. package/locales/en-US/models.json +248 -23
  11. package/locales/en-US/providers.json +3 -0
  12. package/locales/es-ES/models.json +248 -23
  13. package/locales/es-ES/providers.json +3 -0
  14. package/locales/fa-IR/models.json +248 -23
  15. package/locales/fa-IR/providers.json +3 -0
  16. package/locales/fr-FR/models.json +248 -23
  17. package/locales/fr-FR/providers.json +3 -0
  18. package/locales/it-IT/models.json +248 -23
  19. package/locales/it-IT/providers.json +3 -0
  20. package/locales/ja-JP/models.json +248 -23
  21. package/locales/ja-JP/providers.json +3 -0
  22. package/locales/ko-KR/models.json +248 -23
  23. package/locales/ko-KR/providers.json +3 -0
  24. package/locales/nl-NL/models.json +248 -23
  25. package/locales/nl-NL/providers.json +3 -0
  26. package/locales/pl-PL/models.json +248 -23
  27. package/locales/pl-PL/providers.json +3 -0
  28. package/locales/pt-BR/models.json +248 -23
  29. package/locales/pt-BR/providers.json +3 -0
  30. package/locales/ru-RU/models.json +248 -23
  31. package/locales/ru-RU/providers.json +3 -0
  32. package/locales/tr-TR/models.json +248 -23
  33. package/locales/tr-TR/providers.json +3 -0
  34. package/locales/vi-VN/models.json +248 -23
  35. package/locales/vi-VN/providers.json +3 -0
  36. package/locales/zh-CN/models.json +248 -23
  37. package/locales/zh-CN/providers.json +3 -0
  38. package/locales/zh-TW/models.json +248 -23
  39. package/locales/zh-TW/providers.json +3 -0
  40. package/package.json +1 -1
  41. package/packages/database/migrations/0031_add_agent_index.sql +9 -3
  42. package/packages/database/migrations/0032_improve_agents_field.sql +0 -4
  43. package/packages/database/migrations/0033_modern_mercury.sql +18 -0
  44. package/packages/database/migrations/meta/0033_snapshot.json +6594 -0
  45. package/packages/database/migrations/meta/_journal.json +7 -0
  46. package/packages/database/src/core/migrations.json +23 -6
  47. package/packages/database/src/schemas/message.ts +12 -11
  48. package/packages/database/src/schemas/rag.ts +10 -6
  49. package/packages/database/src/schemas/session.ts +7 -5
  50. package/packages/database/src/schemas/topic.ts +7 -3
  51. package/packages/model-bank/src/aiModels/siliconcloud.ts +45 -0
  52. package/packages/model-runtime/src/providers/siliconcloud/index.ts +19 -11
@@ -602,6 +602,33 @@
602
602
  "ai21-labs/AI21-Jamba-1.5-Mini": {
603
603
  "description": "Một mô hình đa ngôn ngữ với 52 tỷ tham số (12 tỷ tham số hoạt động), cung cấp cửa sổ ngữ cảnh dài 256K, gọi hàm, đầu ra có cấu trúc và sinh dựa trên sự thật."
604
604
  },
605
+ "alibaba/qwen-3-14b": {
606
+ "description": "Qwen3 là thế hệ mới nhất trong dòng mô hình ngôn ngữ lớn Qwen, cung cấp một bộ mô hình chuyên gia dày đặc và hỗn hợp (MoE) toàn diện. Được xây dựng dựa trên đào tạo rộng rãi, Qwen3 mang lại bước đột phá trong suy luận, tuân thủ chỉ dẫn, khả năng đại lý và hỗ trợ đa ngôn ngữ."
607
+ },
608
+ "alibaba/qwen-3-235b": {
609
+ "description": "Qwen3 là thế hệ mới nhất trong dòng mô hình ngôn ngữ lớn Qwen, cung cấp một bộ mô hình chuyên gia dày đặc và hỗn hợp (MoE) toàn diện. Được xây dựng dựa trên đào tạo rộng rãi, Qwen3 mang lại bước đột phá trong suy luận, tuân thủ chỉ dẫn, khả năng đại lý và hỗ trợ đa ngôn ngữ."
610
+ },
611
+ "alibaba/qwen-3-30b": {
612
+ "description": "Qwen3 là thế hệ mới nhất trong dòng mô hình ngôn ngữ lớn Qwen, cung cấp một bộ mô hình chuyên gia dày đặc và hỗn hợp (MoE) toàn diện. Được xây dựng dựa trên đào tạo rộng rãi, Qwen3 mang lại bước đột phá trong suy luận, tuân thủ chỉ dẫn, khả năng đại lý và hỗ trợ đa ngôn ngữ."
613
+ },
614
+ "alibaba/qwen-3-32b": {
615
+ "description": "Qwen3 là thế hệ mới nhất trong dòng mô hình ngôn ngữ lớn Qwen, cung cấp một bộ mô hình chuyên gia dày đặc và hỗn hợp (MoE) toàn diện. Được xây dựng dựa trên đào tạo rộng rãi, Qwen3 mang lại bước đột phá trong suy luận, tuân thủ chỉ dẫn, khả năng đại lý và hỗ trợ đa ngôn ngữ."
616
+ },
617
+ "alibaba/qwen3-coder": {
618
+ "description": "Qwen3-Coder-480B-A35B-Instruct là mô hình mã hóa có khả năng đại lý cao nhất của Qwen, thể hiện hiệu suất nổi bật trong mã hóa đại lý, sử dụng trình duyệt đại lý và các nhiệm vụ mã hóa cơ bản khác, đạt kết quả tương đương với Claude Sonnet."
619
+ },
620
+ "amazon/nova-lite": {
621
+ "description": "Một mô hình đa phương thức với chi phí rất thấp, xử lý đầu vào hình ảnh, video và văn bản với tốc độ cực nhanh."
622
+ },
623
+ "amazon/nova-micro": {
624
+ "description": "Một mô hình chỉ văn bản, cung cấp phản hồi với độ trễ thấp nhất ở chi phí rất thấp."
625
+ },
626
+ "amazon/nova-pro": {
627
+ "description": "Một mô hình đa phương thức rất năng lực, kết hợp tối ưu giữa độ chính xác, tốc độ và chi phí, phù hợp cho nhiều nhiệm vụ đa dạng."
628
+ },
629
+ "amazon/titan-embed-text-v2": {
630
+ "description": "Amazon Titan Text Embeddings V2 là mô hình nhúng đa ngôn ngữ nhẹ, hiệu quả, hỗ trợ các chiều 1024, 512 và 256."
631
+ },
605
632
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
606
633
  "description": "Claude 3.5 Sonnet nâng cao tiêu chuẩn ngành, hiệu suất vượt trội hơn các mô hình cạnh tranh và Claude 3 Opus, thể hiện xuất sắc trong nhiều đánh giá, đồng thời có tốc độ và chi phí của mô hình tầm trung của chúng tôi."
607
634
  },
@@ -627,25 +654,28 @@
627
654
  "description": "Phiên bản cập nhật của Claude 2, có cửa sổ ngữ cảnh gấp đôi, cùng với độ tin cậy, tỷ lệ ảo giác và độ chính xác dựa trên bằng chứng được cải thiện trong các tài liệu dài và ngữ cảnh RAG."
628
655
  },
629
656
  "anthropic/claude-3-haiku": {
630
- "description": "Claude 3 Haiku là mô hình nhanh nhất nhỏ gọn nhất của Anthropic, được thiết kế để đạt được phản hồi gần như ngay lập tức. hiệu suất định hướng nhanh chóng chính xác."
657
+ "description": "Claude 3 Haiku là mô hình nhanh nhất của Anthropic cho đến nay, được thiết kế cho các khối lượng công việc doanh nghiệp thường liên quan đến các lời nhắc dài. Haikuthể phân tích nhanh lượng lớn tài liệu như báo cáo quý, hợp đồng hoặc vụ kiện pháp lý với chi phí chỉ bằng một nửa so với các mô hình cùng cấp hiệu suất."
631
658
  },
632
659
  "anthropic/claude-3-opus": {
633
- "description": "Claude 3 Opus là mô hình mạnh mẽ nhất của Anthropic, được sử dụng để xử các nhiệm vụ phức tạp cao. Nó thể hiện xuất sắc về hiệu suất, trí thông minh, sự trôi chảy khả năng hiểu biết."
660
+ "description": "Claude 3 Opus là mô hình thông minh nhất của Anthropic, dẫn đầu thị trường trong các nhiệm vụ phức tạp cao. Nó khả năng xử các lời nhắc mở các tình huống chưa từng thấy với độ trôi chảy xuất sắc hiểu biết gần như con người."
634
661
  },
635
662
  "anthropic/claude-3.5-haiku": {
636
- "description": "Claude 3.5 Haiku là mô hình thế hệ tiếp theo nhanh nhất của Anthropic. So với Claude 3 Haiku, Claude 3.5 Haiku sự cải thiện trong nhiều kỹ năng và vượt qua mô hình lớn nhất thế hệ trước Claude 3 Opus trong nhiều bài kiểm tra trí tuệ."
663
+ "description": "Claude 3.5 Haiku là thế hệ tiếp theo của mô hình nhanh nhất của chúng tôi. Với tốc độ tương đương Claude 3 Haiku, Claude 3.5 Haiku được cải thiện trên mọi kỹ năng và vượt qua mô hình lớn nhất thế hệ trước Claude 3 Opus trong nhiều bài kiểm tra trí tuệ."
637
664
  },
638
665
  "anthropic/claude-3.5-sonnet": {
639
- "description": "Claude 3.5 Sonnet cung cấp khả năng vượt trội hơn Opus và tốc độ nhanh hơn Sonnet, trong khi vẫn giữ giá tương tự. Sonnet đặc biệt xuất sắc trong lập trình, khoa học dữ liệu, xử hình ảnhcác nhiệm vụ đại lý."
666
+ "description": "Claude 3.5 Sonnet đạt sự cân bằng tưởng giữa trí tuệ và tốc độ đặc biệt phù hợp cho khối lượng công việc doanh nghiệp. So với các sản phẩm cùng loại, cung cấp hiệu suất mạnh mẽ với chi phí thấp hơn được thiết kế cho độ bền cao trong triển khai AI quy mô lớn."
640
667
  },
641
668
  "anthropic/claude-3.7-sonnet": {
642
- "description": "Claude 3.7 Sonnet là mô hình thông minh nhất của Anthropic cho đến nay, và cũng là mô hình suy luận hỗn hợp đầu tiên trên thị trường. Claude 3.7 Sonnet khả năng tạo ra phản hồi gần như ngay lập tức hoặc suy nghĩ từng bước kéo dài, cho phép người dùng thấy những quá trình này. Sonnet đặc biệt xuất sắc trong lập trình, khoa học dữ liệu, xử hình ảnh các nhiệm vụ đại diện."
669
+ "description": "Claude 3.7 Sonnet là mô hình suy luận hỗn hợp đầu tiên hình thông minh nhất của Anthropic cho đến nay. cung cấp hiệu suất tiên tiến trong hóa, tạo nội dung, phân tích dữ liệu lập kế hoạch, xây dựng trên nền tảng khả năng kỹ thuật phần mềm sử dụng máy tính của Claude 3.5 Sonnet."
643
670
  },
644
671
  "anthropic/claude-opus-4": {
645
- "description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic dùng để xử các nhiệm vụ phức tạp cao. thể hiện xuất sắc về hiệu suất, trí tuệ, sự mượt và khả năng hiểu biết."
672
+ "description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic cho đến nay là mô hình mã hóa tốt nhất thế giới, dẫn đầu trên các bảng đánh giá SWE-bench (72,5%) Terminal-bench (43,2%). cung cấp hiệu suất liên tục cho các nhiệm vụ dài hạn đòi hỏi sự tập trung cao hàng nghìn bước, có thể làm việc liên tục trong nhiều giờ — mở rộng đáng kể khả năng của các đại lý AI."
673
+ },
674
+ "anthropic/claude-opus-4.1": {
675
+ "description": "Claude Opus 4.1 là phiên bản thay thế plug-and-play của Opus 4, cung cấp hiệu suất và độ chính xác vượt trội cho các nhiệm vụ mã hóa và đại lý thực tế. Opus 4.1 nâng cao hiệu suất mã hóa tiên tiến lên 74,5% trên SWE-bench Verified và xử lý các vấn đề phức tạp nhiều bước với độ nghiêm ngặt và chú ý đến chi tiết cao hơn."
646
676
  },
647
677
  "anthropic/claude-sonnet-4": {
648
- "description": "Claude Sonnet 4 thể tạo ra phản hồi gần như tức thì hoặc suy nghĩ từng bước kéo dài, người dùng thể ràng quan sát quá trình này. Người dùng API cũng thể kiểm soát chi tiết thời gian suy nghĩ của hình."
678
+ "description": "Claude Sonnet 4 cải tiến đáng kể dựa trên khả năng dẫn đầu ngành của Sonnet 3.7, thể hiện xuất sắc trong hóa với điểm số tiên tiến 72,7% trên SWE-bench. hình cân bằng giữa hiệu suất và hiệu quả, phù hợp cho các trường hợp sử dụng nội bộ và bên ngoài, đồng thời cung cấp kiểm soát lớn hơn thông qua khả năng điều khiển nâng cao."
649
679
  },
650
680
  "ascend-tribe/pangu-pro-moe": {
651
681
  "description": "Pangu-Pro-MoE 72B-A16B là một mô hình ngôn ngữ lớn thưa thớt với 72 tỷ tham số và 16 tỷ tham số kích hoạt, dựa trên kiến trúc chuyên gia hỗn hợp theo nhóm (MoGE). Nó phân nhóm các chuyên gia trong giai đoạn lựa chọn chuyên gia và giới hạn token kích hoạt số lượng chuyên gia bằng nhau trong mỗi nhóm, từ đó đạt được cân bằng tải chuyên gia và cải thiện đáng kể hiệu quả triển khai mô hình trên nền tảng Ascend."
@@ -797,6 +827,18 @@
797
827
  "cohere/Cohere-command-r-plus": {
798
828
  "description": "Command R+ là mô hình tối ưu RAG tiên tiến nhất, được thiết kế để xử lý khối lượng công việc cấp doanh nghiệp."
799
829
  },
830
+ "cohere/command-a": {
831
+ "description": "Command A là mô hình hiệu suất cao nhất của Cohere cho đến nay, xuất sắc trong việc sử dụng công cụ, đại lý, tạo tăng cường truy xuất (RAG) và các trường hợp đa ngôn ngữ. Command A có độ dài ngữ cảnh 256K, chỉ cần hai GPU để vận hành, tăng thông lượng 150% so với Command R+ 08-2024."
832
+ },
833
+ "cohere/command-r": {
834
+ "description": "Command R là mô hình ngôn ngữ lớn được tối ưu cho tương tác hội thoại và các nhiệm vụ ngữ cảnh dài. Nó thuộc loại mô hình \"có thể mở rộng\", cân bằng giữa hiệu suất cao và độ chính xác mạnh mẽ, giúp các công ty vượt qua giai đoạn chứng minh khái niệm và tiến vào sản xuất."
835
+ },
836
+ "cohere/command-r-plus": {
837
+ "description": "Command R+ là mô hình ngôn ngữ lớn mới nhất của Cohere, được tối ưu cho tương tác hội thoại và các nhiệm vụ ngữ cảnh dài. Mục tiêu của nó là đạt hiệu suất xuất sắc, giúp các công ty vượt qua giai đoạn chứng minh khái niệm và tiến vào sản xuất."
838
+ },
839
+ "cohere/embed-v4.0": {
840
+ "description": "Mô hình cho phép phân loại hoặc chuyển đổi văn bản, hình ảnh hoặc nội dung hỗn hợp thành các vector nhúng."
841
+ },
800
842
  "command": {
801
843
  "description": "Một mô hình đối thoại tuân theo chỉ dẫn, thể hiện chất lượng cao và đáng tin cậy trong các nhiệm vụ ngôn ngữ, đồng thời có độ dài ngữ cảnh dài hơn so với mô hình sinh cơ bản của chúng tôi."
802
844
  },
@@ -975,7 +1017,7 @@
975
1017
  "description": "DeepSeek-V3.1 là mô hình suy luận hỗn hợp lớn hỗ trợ ngữ cảnh dài 128K và chuyển đổi chế độ hiệu quả, đạt hiệu suất và tốc độ xuất sắc trong việc gọi công cụ, tạo mã và các nhiệm vụ suy luận phức tạp."
976
1018
  },
977
1019
  "deepseek/deepseek-r1": {
978
- "description": "DeepSeek-R1 đã nâng cao khả năng suy luận của hình một cách đáng kể với rất ít dữ liệu được gán nhãn. Trước khi đưa ra câu trả lời cuối cùng, hình sẽ xuất ra một chuỗi suy nghĩ để nâng cao độ chính xác của câu trả lời cuối cùng."
1020
+ "description": "Mô hình DeepSeek R1 đã được nâng cấp phiên bản nhỏ, hiện tại là DeepSeek-R1-0528. Trong bản cập nhật mới nhất, DeepSeek R1 đã cải thiện đáng kể độ sâu và khả năng suy luận bằng cách tận dụng tài nguyên tính toán tăng chế tối ưu thuật toán sau đào tạo. hình thể hiện xuất sắc trong các bài đánh giá chuẩn về toán học, lập trình logic chung, hiệu suất tổng thể hiện gần bằng các hình hàng đầu như O3 Gemini 2.5 Pro."
979
1021
  },
980
1022
  "deepseek/deepseek-r1-0528": {
981
1023
  "description": "DeepSeek-R1 đã cải thiện đáng kể khả năng suy luận của mô hình ngay cả khi có rất ít dữ liệu gán nhãn. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ nhằm nâng cao độ chính xác của câu trả lời cuối."
@@ -984,7 +1026,7 @@
984
1026
  "description": "DeepSeek-R1 đã cải thiện đáng kể khả năng suy luận của mô hình ngay cả khi có rất ít dữ liệu gán nhãn. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ nhằm nâng cao độ chính xác của câu trả lời cuối."
985
1027
  },
986
1028
  "deepseek/deepseek-r1-distill-llama-70b": {
987
- "description": "DeepSeek R1 Distill Llama 70B là hình ngôn ngữ lớn dựa trên Llama3.3 70B, mô hình này sử dụng đầu ra tinh chỉnh từ DeepSeek R1 để đạt được hiệu suất cạnh tranh tương đương với các hình tiên tiến lớn."
1029
+ "description": "DeepSeek-R1-Distill-Llama-70B là biến thể chưng cất hiệu quả hơn của mô hình Llama 70B. duy trì hiệu suất mạnh mẽ trong các nhiệm vụ tạo văn bản, giảm chi phí tính toán để dễ dàng triển khai nghiên cứu. Được Groq phục vụ bằng phần cứng đơn vị xử lý ngôn ngữ (LPU) tùy chỉnh để cung cấp suy luận nhanh và hiệu quả."
988
1030
  },
989
1031
  "deepseek/deepseek-r1-distill-llama-8b": {
990
1032
  "description": "DeepSeek R1 Distill Llama 8B là một mô hình ngôn ngữ lớn đã được tinh chế dựa trên Llama-3.1-8B-Instruct, được đào tạo bằng cách sử dụng đầu ra từ DeepSeek R1."
@@ -1002,7 +1044,10 @@
1002
1044
  "description": "DeepSeek-R1 đã nâng cao khả năng suy luận của mô hình một cách đáng kể với rất ít dữ liệu được gán nhãn. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ để nâng cao độ chính xác của câu trả lời cuối cùng."
1003
1045
  },
1004
1046
  "deepseek/deepseek-v3": {
1005
- "description": "DeepSeek-V3 đã đạt được bước đột phá lớn về tốc độ suy diễn so với các hình trước đó. Nó đứng đầu trong số các mô hình mã nguồn mở và có thể so sánh với các mô hình đóng nguồn tiên tiến nhất trên toàn cầu. DeepSeek-V3 sử dụng kiến trúc Attention đa đầu (MLA) và DeepSeekMoE, những kiến trúc này đã được xác thực toàn diện trong DeepSeek-V2. Hơn nữa, DeepSeek-V3 đã sáng tạo ra một chiến lược phụ trợ không mất mát cho cân bằng tải và thiết lập mục tiêu đào tạo dự đoán đa nhãn để đạt được hiệu suất mạnh mẽ hơn."
1047
+ "description": " hình ngôn ngữ lớn đa năng nhanh với khả năng suy luận nâng cao."
1048
+ },
1049
+ "deepseek/deepseek-v3.1-base": {
1050
+ "description": "DeepSeek V3.1 Base là phiên bản cải tiến của mô hình DeepSeek V3."
1006
1051
  },
1007
1052
  "deepseek/deepseek-v3/community": {
1008
1053
  "description": "DeepSeek-V3 đã đạt được bước đột phá lớn về tốc độ suy diễn so với các mô hình trước đó. Nó đứng đầu trong số các mô hình mã nguồn mở và có thể so sánh với các mô hình đóng nguồn tiên tiến nhất trên toàn cầu. DeepSeek-V3 sử dụng kiến trúc Attention đa đầu (MLA) và DeepSeekMoE, những kiến trúc này đã được xác thực toàn diện trong DeepSeek-V2. Hơn nữa, DeepSeek-V3 đã sáng tạo ra một chiến lược phụ trợ không mất mát cho cân bằng tải và thiết lập mục tiêu đào tạo dự đoán đa nhãn để đạt được hiệu suất mạnh mẽ hơn."
@@ -1430,18 +1475,27 @@
1430
1475
  "glm-zero-preview": {
1431
1476
  "description": "GLM-Zero-Preview có khả năng suy luận phức tạp mạnh mẽ, thể hiện xuất sắc trong các lĩnh vực suy luận logic, toán học, lập trình."
1432
1477
  },
1478
+ "google/gemini-2.0-flash": {
1479
+ "description": "Gemini 2.0 Flash cung cấp các tính năng thế hệ tiếp theo và cải tiến, bao gồm tốc độ vượt trội, sử dụng công cụ tích hợp, tạo đa phương thức và cửa sổ ngữ cảnh 1 triệu token."
1480
+ },
1433
1481
  "google/gemini-2.0-flash-001": {
1434
1482
  "description": "Gemini 2.0 Flash cung cấp các tính năng và cải tiến thế hệ tiếp theo, bao gồm tốc độ vượt trội, sử dụng công cụ bản địa, tạo đa phương tiện và cửa sổ ngữ cảnh 1M token."
1435
1483
  },
1436
1484
  "google/gemini-2.0-flash-exp:free": {
1437
1485
  "description": "Gemini 2.0 Flash Experimental là mô hình AI đa phương tiện thử nghiệm mới nhất của Google, có sự cải thiện về chất lượng so với các phiên bản trước, đặc biệt là đối với kiến thức thế giới, mã và ngữ cảnh dài."
1438
1486
  },
1487
+ "google/gemini-2.0-flash-lite": {
1488
+ "description": "Gemini 2.0 Flash Lite cung cấp các tính năng thế hệ tiếp theo và cải tiến, bao gồm tốc độ vượt trội, sử dụng công cụ tích hợp, tạo đa phương thức và cửa sổ ngữ cảnh 1 triệu token."
1489
+ },
1439
1490
  "google/gemini-2.5-flash": {
1440
- "description": "Gemini 2.5 Flash là mô hình chủ lực tiên tiến nhất của Google, được thiết kế dành riêng cho các nhiệm vụ suy luận nâng cao, mã hóa, toán học và khoa học. Nó bao gồm khả năng \"suy nghĩ\" tích hợp, cho phép cung cấp các phản hồi với độ chính xác cao hơn và xử lý ngữ cảnh tinh tế hơn.\n\nLưu ý: Mô hình này có hai biến thể: có suy nghĩ và không suy nghĩ. Giá đầu ra có sự khác biệt đáng kể tùy thuộc vào việc khả năng suy nghĩ được kích hoạt hay không. Nếu bạn chọn biến thể tiêu chuẩn (không hậu tố \":thinking\"), mô hình sẽ rõ ràng tránh tạo ra các token suy nghĩ.\n\nĐể tận dụng khả năng suy nghĩ nhận các token suy nghĩ, bạn phải chọn biến thể \":thinking\", điều này sẽ dẫn đến giá đầu ra suy nghĩ cao hơn.\n\nNgoài ra, Gemini 2.5 Flash có thể được cấu hình thông qua tham số \"Số token suy luận tối đa\", như được mô tả trong tài liệu (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1491
+ "description": "Gemini 2.5 Flash là mô hình duy cung cấp khả năng toàn diện xuất sắc. được thiết kế để cân bằng giữa giá cảhiệu suất, hỗ trợ đa phương thức cửa sổ ngữ cảnh 1 triệu token."
1441
1492
  },
1442
1493
  "google/gemini-2.5-flash-image-preview": {
1443
1494
  "description": "Mô hình thử nghiệm Gemini 2.5 Flash, hỗ trợ tạo hình ảnh."
1444
1495
  },
1496
+ "google/gemini-2.5-flash-lite": {
1497
+ "description": "Gemini 2.5 Flash-Lite là mô hình cân bằng, độ trễ thấp với ngân sách tư duy và kết nối công cụ có thể cấu hình (ví dụ: Google Search có căn cứ và thực thi mã). Nó hỗ trợ đầu vào đa phương thức và cung cấp cửa sổ ngữ cảnh 1 triệu token."
1498
+ },
1445
1499
  "google/gemini-2.5-flash-preview": {
1446
1500
  "description": "Gemini 2.5 Flash là mô hình chủ lực tiên tiến nhất của Google, được thiết kế cho suy luận nâng cao, lập trình, toán học và các nhiệm vụ khoa học. Nó bao gồm khả năng 'suy nghĩ' tích hợp, cho phép nó cung cấp phản hồi với độ chính xác cao hơn và xử lý ngữ cảnh chi tiết hơn.\n\nLưu ý: Mô hình này có hai biến thể: suy nghĩ và không suy nghĩ. Giá đầu ra có sự khác biệt đáng kể tùy thuộc vào việc khả năng suy nghĩ có được kích hoạt hay không. Nếu bạn chọn biến thể tiêu chuẩn (không có hậu tố ':thinking'), mô hình sẽ rõ ràng tránh việc tạo ra các token suy nghĩ.\n\nĐể tận dụng khả năng suy nghĩ và nhận các token suy nghĩ, bạn phải chọn biến thể ':thinking', điều này sẽ tạo ra giá đầu ra suy nghĩ cao hơn.\n\nNgoài ra, Gemini 2.5 Flash có thể được cấu hình thông qua tham số 'số token tối đa cho suy luận', như đã mô tả trong tài liệu (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1447
1501
  },
@@ -1449,11 +1503,14 @@
1449
1503
  "description": "Gemini 2.5 Flash là mô hình chủ lực tiên tiến nhất của Google, được thiết kế cho suy luận nâng cao, lập trình, toán học và các nhiệm vụ khoa học. Nó bao gồm khả năng 'suy nghĩ' tích hợp, cho phép nó cung cấp phản hồi với độ chính xác cao hơn và xử lý ngữ cảnh chi tiết hơn.\n\nLưu ý: Mô hình này có hai biến thể: suy nghĩ và không suy nghĩ. Giá đầu ra có sự khác biệt đáng kể tùy thuộc vào việc khả năng suy nghĩ có được kích hoạt hay không. Nếu bạn chọn biến thể tiêu chuẩn (không có hậu tố ':thinking'), mô hình sẽ rõ ràng tránh việc tạo ra các token suy nghĩ.\n\nĐể tận dụng khả năng suy nghĩ và nhận các token suy nghĩ, bạn phải chọn biến thể ':thinking', điều này sẽ tạo ra giá đầu ra suy nghĩ cao hơn.\n\nNgoài ra, Gemini 2.5 Flash có thể được cấu hình thông qua tham số 'số token tối đa cho suy luận', như đã mô tả trong tài liệu (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1450
1504
  },
1451
1505
  "google/gemini-2.5-pro": {
1452
- "description": "Gemini 2.5 Pro là mô hình duy tiên tiến nhất của Google, có khả năng suy luận các vấn đề phức tạp trong hóa, toán học lĩnh vực STEM, cũng như sử dụng ngữ cảnh dài để phân tích các bộ dữ liệu lớn, kho và tài liệu."
1506
+ "description": "Gemini 2.5 Pro là mô hình Gemini suy luận tiên tiến nhất của chúng tôi, có khả năng giải quyết các vấn đề phức tạp. cửa sổ ngữ cảnh 2 triệu token, hỗ trợ đầu vào đa phương thức bao gồm văn bản, hình ảnh, âm thanh, video và tài liệu PDF."
1453
1507
  },
1454
1508
  "google/gemini-2.5-pro-preview": {
1455
1509
  "description": "Gemini 2.5 Pro Preview là mô hình tư duy tiên tiến nhất của Google, có khả năng suy luận các vấn đề phức tạp trong lĩnh vực mã hóa, toán học và STEM, cũng như phân tích các bộ dữ liệu lớn, kho mã và tài liệu bằng ngữ cảnh dài."
1456
1510
  },
1511
+ "google/gemini-embedding-001": {
1512
+ "description": "Mô hình nhúng tiên tiến, thể hiện hiệu suất xuất sắc trong các nhiệm vụ tiếng Anh, đa ngôn ngữ và mã hóa."
1513
+ },
1457
1514
  "google/gemini-flash-1.5": {
1458
1515
  "description": "Gemini 1.5 Flash cung cấp khả năng xử lý đa phương thức được tối ưu hóa, phù hợp cho nhiều tình huống nhiệm vụ phức tạp."
1459
1516
  },
@@ -1490,6 +1547,12 @@
1490
1547
  "google/gemma-3-27b-it": {
1491
1548
  "description": "Gemma 3 27B là một mô hình ngôn ngữ mã nguồn mở của Google, thiết lập tiêu chuẩn mới về hiệu suất và hiệu quả."
1492
1549
  },
1550
+ "google/text-embedding-005": {
1551
+ "description": "Mô hình nhúng văn bản tập trung vào tiếng Anh, được tối ưu cho các nhiệm vụ mã hóa và ngôn ngữ tiếng Anh."
1552
+ },
1553
+ "google/text-multilingual-embedding-002": {
1554
+ "description": "Mô hình nhúng văn bản đa ngôn ngữ được tối ưu cho các nhiệm vụ đa ngôn ngữ, hỗ trợ nhiều ngôn ngữ."
1555
+ },
1493
1556
  "gpt-3.5-turbo": {
1494
1557
  "description": "GPT 3.5 Turbo, phù hợp cho nhiều nhiệm vụ sinh và hiểu văn bản, hiện tại trỏ đến gpt-3.5-turbo-0125."
1495
1558
  },
@@ -1781,6 +1844,9 @@
1781
1844
  "imagen-4.0-ultra-generate-preview-06-06": {
1782
1845
  "description": "Phiên bản Ultra của dòng mô hình chuyển đổi văn bản thành hình ảnh thế hệ thứ 4 của Imagen"
1783
1846
  },
1847
+ "inception/mercury-coder-small": {
1848
+ "description": "Mercury Coder Small là lựa chọn lý tưởng cho các nhiệm vụ tạo mã, gỡ lỗi và tái cấu trúc với độ trễ tối thiểu."
1849
+ },
1784
1850
  "inclusionAI/Ling-mini-2.0": {
1785
1851
  "description": "Ling-mini-2.0 là một mô hình ngôn ngữ lớn hiệu suất cao kích thước nhỏ dựa trên kiến trúc MoE. Nó có tổng số 16 tỷ tham số, nhưng mỗi token chỉ kích hoạt 1.4 tỷ tham số (không bao gồm embedding là 789 triệu), từ đó đạt được tốc độ sinh nhanh vượt trội. Nhờ thiết kế MoE hiệu quả và dữ liệu huấn luyện quy mô lớn, chất lượng cao, mặc dù tham số kích hoạt chỉ là 1.4 tỷ, Ling-mini-2.0 vẫn thể hiện hiệu suất hàng đầu trong các nhiệm vụ hạ nguồn, có thể sánh ngang với các mô hình LLM dense dưới 10 tỷ tham số và các mô hình MoE quy mô lớn hơn."
1786
1852
  },
@@ -2057,30 +2123,63 @@
2057
2123
  "meta/Meta-Llama-3.1-8B-Instruct": {
2058
2124
  "description": "Mô hình văn bản Llama 3.1 được tinh chỉnh chỉ dẫn, tối ưu cho các trường hợp sử dụng đối thoại đa ngôn ngữ, thể hiện xuất sắc trên nhiều chuẩn mực ngành so với nhiều mô hình trò chuyện mã nguồn mở và đóng hiện có."
2059
2125
  },
2126
+ "meta/llama-3-70b": {
2127
+ "description": "Mô hình mã nguồn mở 70 tỷ tham số được Meta tinh chỉnh kỹ lưỡng cho mục đích tuân thủ chỉ dẫn. Được Groq phục vụ bằng phần cứng đơn vị xử lý ngôn ngữ (LPU) tùy chỉnh để cung cấp suy luận nhanh và hiệu quả."
2128
+ },
2129
+ "meta/llama-3-8b": {
2130
+ "description": "Mô hình mã nguồn mở 8 tỷ tham số được Meta tinh chỉnh kỹ lưỡng cho mục đích tuân thủ chỉ dẫn. Được Groq phục vụ bằng phần cứng đơn vị xử lý ngôn ngữ (LPU) tùy chỉnh để cung cấp suy luận nhanh và hiệu quả."
2131
+ },
2060
2132
  "meta/llama-3.1-405b-instruct": {
2061
2133
  "description": "LLM cao cấp, hỗ trợ tạo dữ liệu tổng hợp, chưng cất kiến thức và suy luận, phù hợp cho chatbot, lập trình và các nhiệm vụ chuyên biệt."
2062
2134
  },
2135
+ "meta/llama-3.1-70b": {
2136
+ "description": "Phiên bản cập nhật của Meta Llama 3 70B Instruct, bao gồm độ dài ngữ cảnh mở rộng 128K, đa ngôn ngữ và khả năng suy luận cải tiến."
2137
+ },
2063
2138
  "meta/llama-3.1-70b-instruct": {
2064
2139
  "description": "Tăng cường cuộc đối thoại phức tạp, có khả năng hiểu ngữ cảnh xuất sắc, suy luận và sinh văn bản."
2065
2140
  },
2141
+ "meta/llama-3.1-8b": {
2142
+ "description": "Llama 3.1 8B hỗ trợ cửa sổ ngữ cảnh 128K, là lựa chọn lý tưởng cho giao diện đối thoại thời gian thực và phân tích dữ liệu, đồng thời tiết kiệm chi phí đáng kể so với các mô hình lớn hơn. Được Groq phục vụ bằng phần cứng đơn vị xử lý ngôn ngữ (LPU) tùy chỉnh để cung cấp suy luận nhanh và hiệu quả."
2143
+ },
2066
2144
  "meta/llama-3.1-8b-instruct": {
2067
2145
  "description": "Mô hình tiên tiến hàng đầu, có khả năng hiểu ngôn ngữ, suy luận xuất sắc và khả năng sinh văn bản."
2068
2146
  },
2147
+ "meta/llama-3.2-11b": {
2148
+ "description": "Mô hình tạo suy luận hình ảnh được điều chỉnh chỉ dẫn (đầu vào văn bản + hình ảnh / đầu ra văn bản), tối ưu cho nhận dạng hình ảnh, suy luận hình ảnh, tạo chú thích và trả lời các câu hỏi chung về hình ảnh."
2149
+ },
2069
2150
  "meta/llama-3.2-11b-vision-instruct": {
2070
2151
  "description": "Mô hình thị giác-ngôn ngữ tiên tiến, xuất sắc trong việc suy luận chất lượng cao từ hình ảnh."
2071
2152
  },
2153
+ "meta/llama-3.2-1b": {
2154
+ "description": "Mô hình chỉ văn bản, hỗ trợ các trường hợp sử dụng trên thiết bị như truy xuất kiến thức địa phương đa ngôn ngữ, tóm tắt và viết lại."
2155
+ },
2072
2156
  "meta/llama-3.2-1b-instruct": {
2073
2157
  "description": "Mô hình ngôn ngữ nhỏ tiên tiến hàng đầu, có khả năng hiểu ngôn ngữ, suy luận xuất sắc và khả năng sinh văn bản."
2074
2158
  },
2159
+ "meta/llama-3.2-3b": {
2160
+ "description": "Mô hình chỉ văn bản, được tinh chỉnh kỹ lưỡng để hỗ trợ các trường hợp sử dụng trên thiết bị như truy xuất kiến thức địa phương đa ngôn ngữ, tóm tắt và viết lại."
2161
+ },
2075
2162
  "meta/llama-3.2-3b-instruct": {
2076
2163
  "description": "Mô hình ngôn ngữ nhỏ tiên tiến hàng đầu, có khả năng hiểu ngôn ngữ, suy luận xuất sắc và khả năng sinh văn bản."
2077
2164
  },
2165
+ "meta/llama-3.2-90b": {
2166
+ "description": "Mô hình tạo suy luận hình ảnh được điều chỉnh chỉ dẫn (đầu vào văn bản + hình ảnh / đầu ra văn bản), tối ưu cho nhận dạng hình ảnh, suy luận hình ảnh, tạo chú thích và trả lời các câu hỏi chung về hình ảnh."
2167
+ },
2078
2168
  "meta/llama-3.2-90b-vision-instruct": {
2079
2169
  "description": "Mô hình thị giác-ngôn ngữ tiên tiến, xuất sắc trong việc suy luận chất lượng cao từ hình ảnh."
2080
2170
  },
2171
+ "meta/llama-3.3-70b": {
2172
+ "description": "Sự kết hợp hoàn hảo giữa hiệu suất và hiệu quả. Mô hình hỗ trợ AI đối thoại hiệu suất cao, được thiết kế cho tạo nội dung, ứng dụng doanh nghiệp và nghiên cứu, cung cấp khả năng hiểu ngôn ngữ tiên tiến bao gồm tóm tắt văn bản, phân loại, phân tích cảm xúc và tạo mã."
2173
+ },
2081
2174
  "meta/llama-3.3-70b-instruct": {
2082
2175
  "description": "Mô hình LLM tiên tiến, xuất sắc trong suy luận, toán học, kiến thức chung và gọi hàm."
2083
2176
  },
2177
+ "meta/llama-4-maverick": {
2178
+ "description": "Bộ mô hình Llama 4 là các mô hình AI đa phương thức nguyên bản, hỗ trợ trải nghiệm văn bản và đa phương thức. Các mô hình này sử dụng kiến trúc chuyên gia hỗn hợp để cung cấp hiệu suất hàng đầu ngành trong hiểu văn bản và hình ảnh. Llama 4 Maverick, mô hình 17 tỷ tham số với 128 chuyên gia. Được DeepInfra phục vụ."
2179
+ },
2180
+ "meta/llama-4-scout": {
2181
+ "description": "Bộ mô hình Llama 4 là các mô hình AI đa phương thức nguyên bản, hỗ trợ trải nghiệm văn bản và đa phương thức. Các mô hình này sử dụng kiến trúc chuyên gia hỗn hợp để cung cấp hiệu suất hàng đầu ngành trong hiểu văn bản và hình ảnh. Llama 4 Scout, mô hình 17 tỷ tham số với 16 chuyên gia. Được DeepInfra phục vụ."
2182
+ },
2084
2183
  "microsoft/Phi-3-medium-128k-instruct": {
2085
2184
  "description": "Cùng mô hình Phi-3-medium nhưng với kích thước ngữ cảnh lớn hơn, phù hợp cho RAG hoặc ít gợi ý."
2086
2185
  },
@@ -2156,6 +2255,48 @@
2156
2255
  "mistral-small-latest": {
2157
2256
  "description": "Mistral Small là lựa chọn hiệu quả về chi phí, nhanh chóng và đáng tin cậy, phù hợp cho các trường hợp như dịch thuật, tóm tắt và phân tích cảm xúc."
2158
2257
  },
2258
+ "mistral/codestral": {
2259
+ "description": "Mistral Codestral 25.01 là mô hình mã hóa tiên tiến, được tối ưu cho các trường hợp sử dụng độ trễ thấp và tần suất cao. Thành thạo hơn 80 ngôn ngữ lập trình, nó thể hiện xuất sắc trong các nhiệm vụ như điền giữa (FIM), sửa lỗi mã và tạo kiểm thử."
2260
+ },
2261
+ "mistral/codestral-embed": {
2262
+ "description": "Mô hình nhúng mã để tích hợp vào cơ sở dữ liệu và kho lưu trữ mã, hỗ trợ trợ lý mã hóa."
2263
+ },
2264
+ "mistral/devstral-small": {
2265
+ "description": "Devstral là mô hình ngôn ngữ lớn đại lý cho các nhiệm vụ kỹ thuật phần mềm, là lựa chọn tuyệt vời cho đại lý kỹ thuật phần mềm."
2266
+ },
2267
+ "mistral/magistral-medium": {
2268
+ "description": "Tư duy phức tạp được hỗ trợ bởi sự hiểu biết sâu sắc, với suy luận minh bạch mà bạn có thể theo dõi và xác minh. Mô hình duy trì suy luận độ trung thực cao trên nhiều ngôn ngữ ngay cả khi chuyển đổi ngôn ngữ giữa chừng trong nhiệm vụ."
2269
+ },
2270
+ "mistral/magistral-small": {
2271
+ "description": "Tư duy phức tạp được hỗ trợ bởi sự hiểu biết sâu sắc, với suy luận minh bạch mà bạn có thể theo dõi và xác minh. Mô hình duy trì suy luận độ trung thực cao trên nhiều ngôn ngữ ngay cả khi chuyển đổi ngôn ngữ giữa chừng trong nhiệm vụ."
2272
+ },
2273
+ "mistral/ministral-3b": {
2274
+ "description": "Mô hình nhỏ gọn, hiệu quả cho các nhiệm vụ trên thiết bị như trợ lý thông minh và phân tích cục bộ, cung cấp hiệu suất độ trễ thấp."
2275
+ },
2276
+ "mistral/ministral-8b": {
2277
+ "description": "Mô hình mạnh mẽ hơn với suy luận nhanh hơn và tiết kiệm bộ nhớ, là lựa chọn lý tưởng cho các quy trình làm việc phức tạp và ứng dụng biên đòi hỏi cao."
2278
+ },
2279
+ "mistral/mistral-embed": {
2280
+ "description": "Mô hình nhúng văn bản đa năng cho tìm kiếm ngữ nghĩa, tương đồng, phân cụm và quy trình làm việc RAG."
2281
+ },
2282
+ "mistral/mistral-large": {
2283
+ "description": "Mistral Large là lựa chọn lý tưởng cho các nhiệm vụ phức tạp đòi hỏi khả năng suy luận lớn hoặc chuyên môn cao — như tạo văn bản tổng hợp, tạo mã, RAG hoặc đại lý."
2284
+ },
2285
+ "mistral/mistral-saba-24b": {
2286
+ "description": "Mistral Saba 24B là mô hình mã nguồn mở 24 tỷ tham số do Mistral.ai phát triển. Saba là mô hình chuyên biệt được huấn luyện để thể hiện xuất sắc trong các ngôn ngữ Ả Rập, Ba Tư, Urdu, Do Thái và các ngôn ngữ Ấn Độ. Được Groq phục vụ bằng phần cứng đơn vị xử lý ngôn ngữ (LPU) tùy chỉnh để cung cấp suy luận nhanh và hiệu quả."
2287
+ },
2288
+ "mistral/mistral-small": {
2289
+ "description": "Mistral Small là lựa chọn lý tưởng cho các nhiệm vụ đơn giản có thể xử lý theo lô — như phân loại, hỗ trợ khách hàng hoặc tạo văn bản. Nó cung cấp hiệu suất xuất sắc với mức giá phải chăng."
2290
+ },
2291
+ "mistral/mixtral-8x22b-instruct": {
2292
+ "description": "Mô hình 8x22b Instruct. 8x22b là mô hình chuyên gia hỗn hợp mã nguồn mở được Mistral phục vụ."
2293
+ },
2294
+ "mistral/pixtral-12b": {
2295
+ "description": "Mô hình 12B có khả năng hiểu hình ảnh cùng với văn bản."
2296
+ },
2297
+ "mistral/pixtral-large": {
2298
+ "description": "Pixtral Large là mô hình thứ hai trong gia đình đa phương thức của chúng tôi, thể hiện khả năng hiểu hình ảnh tiên tiến. Đặc biệt, mô hình có thể hiểu tài liệu, biểu đồ và hình ảnh tự nhiên, đồng thời duy trì khả năng hiểu văn bản hàng đầu của Mistral Large 2."
2299
+ },
2159
2300
  "mistralai/Mistral-7B-Instruct-v0.1": {
2160
2301
  "description": "Mistral (7B) Instruct nổi bật với hiệu suất cao, phù hợp cho nhiều nhiệm vụ ngôn ngữ."
2161
2302
  },
@@ -2222,12 +2363,21 @@
2222
2363
  "moonshotai/Kimi-K2-Instruct-0905": {
2223
2364
  "description": "Kimi K2-Instruct-0905 là phiên bản mới nhất và mạnh mẽ nhất của Kimi K2. Đây là một mô hình ngôn ngữ chuyên gia hỗn hợp (MoE) hàng đầu với tổng số tham số lên đến 1 nghìn tỷ và 32 tỷ tham số kích hoạt. Các đặc điểm chính của mô hình bao gồm: tăng cường trí tuệ mã hóa tác nhân, thể hiện sự cải thiện đáng kể trong các bài kiểm tra chuẩn công khai và các nhiệm vụ mã hóa tác nhân trong thế giới thực; cải tiến trải nghiệm mã hóa giao diện người dùng, nâng cao cả về tính thẩm mỹ và tính thực tiễn trong lập trình giao diện."
2224
2365
  },
2366
+ "moonshotai/kimi-k2": {
2367
+ "description": "Kimi K2 là mô hình ngôn ngữ chuyên gia hỗn hợp (MoE) quy mô lớn do Moonshot AI phát triển, với tổng số tham số lên đến 1 nghìn tỷ và 32 tỷ tham số kích hoạt mỗi lần truyền tiến. Nó được tối ưu cho khả năng đại lý, bao gồm sử dụng công cụ nâng cao, suy luận và tổng hợp mã."
2368
+ },
2225
2369
  "moonshotai/kimi-k2-0905": {
2226
2370
  "description": "Mô hình kimi-k2-0905-preview có độ dài ngữ cảnh 256k, sở hữu năng lực Agentic Coding mạnh mẽ hơn, mã front-end đẹp mắt và thực dụng hơn, cùng khả năng hiểu ngữ cảnh tốt hơn."
2227
2371
  },
2228
2372
  "moonshotai/kimi-k2-instruct-0905": {
2229
2373
  "description": "Mô hình kimi-k2-0905-preview có độ dài ngữ cảnh 256k, sở hữu năng lực Agentic Coding mạnh mẽ hơn, mã front-end đẹp mắt và thực dụng hơn, cùng khả năng hiểu ngữ cảnh tốt hơn."
2230
2374
  },
2375
+ "morph/morph-v3-fast": {
2376
+ "description": "Morph cung cấp mô hình AI chuyên biệt, áp dụng các thay đổi mã được đề xuất bởi các mô hình tiên tiến như Claude hoặc GPT-4o vào các tệp mã hiện có của bạn với tốc độ nhanh — hơn 4500 token/giây. Nó đóng vai trò là bước cuối cùng trong quy trình làm việc mã hóa AI. Hỗ trợ 16k token đầu vào và 16k token đầu ra."
2377
+ },
2378
+ "morph/morph-v3-large": {
2379
+ "description": "Morph cung cấp mô hình AI chuyên biệt, áp dụng các thay đổi mã được đề xuất bởi các mô hình tiên tiến như Claude hoặc GPT-4o vào các tệp mã hiện có của bạn với tốc độ nhanh — hơn 2500 token/giây. Nó đóng vai trò là bước cuối cùng trong quy trình làm việc mã hóa AI. Hỗ trợ 16k token đầu vào và 16k token đầu ra."
2380
+ },
2231
2381
  "nousresearch/hermes-2-pro-llama-3-8b": {
2232
2382
  "description": "Hermes 2 Pro Llama 3 8B là phiên bản nâng cấp của Nous Hermes 2, bao gồm bộ dữ liệu phát triển nội bộ mới nhất."
2233
2383
  },
@@ -2294,29 +2444,47 @@
2294
2444
  "open-mixtral-8x7b": {
2295
2445
  "description": "Mixtral 8x7B là một mô hình chuyên gia thưa thớt, sử dụng nhiều tham số để tăng tốc độ suy luận, phù hợp cho việc xử lý đa ngôn ngữ và sinh mã."
2296
2446
  },
2447
+ "openai/gpt-3.5-turbo": {
2448
+ "description": "Mô hình hiệu quả nhất và tiết kiệm chi phí nhất trong dòng GPT-3.5 của OpenAI, được tối ưu cho mục đích trò chuyện nhưng cũng hoạt động tốt trong các nhiệm vụ hoàn thành truyền thống."
2449
+ },
2450
+ "openai/gpt-3.5-turbo-instruct": {
2451
+ "description": "Khả năng tương tự các mô hình thời GPT-3. Tương thích với điểm cuối hoàn thành truyền thống thay vì điểm cuối hoàn thành trò chuyện."
2452
+ },
2453
+ "openai/gpt-4-turbo": {
2454
+ "description": "gpt-4-turbo của OpenAI có kiến thức tổng quát rộng và chuyên môn lĩnh vực, cho phép tuân theo các chỉ dẫn ngôn ngữ tự nhiên phức tạp và giải quyết chính xác các vấn đề khó. Kiến thức cập nhật đến tháng 4 năm 2023, cửa sổ ngữ cảnh 128.000 token."
2455
+ },
2297
2456
  "openai/gpt-4.1": {
2298
- "description": "GPT-4.1 là mô hình hàng đầu của chúng tôi cho các nhiệm vụ phức tạp. Nó rất phù hợp để giải quyết vấn đề xuyên lĩnh vực."
2457
+ "description": "GPT 4.1 là mô hình hàng đầu của OpenAI, phù hợp cho các nhiệm vụ phức tạp. Nó rất thích hợp để giải quyết vấn đề đa lĩnh vực."
2299
2458
  },
2300
2459
  "openai/gpt-4.1-mini": {
2301
- "description": "GPT-4.1 mini cung cấp sự cân bằng giữa trí tuệ, tốc độ và chi phí, khiến nó trở thành một mô hình hấp dẫn cho nhiều trường hợp sử dụng."
2460
+ "description": "GPT 4.1 mini cân bằng giữa trí tuệ, tốc độ và chi phí, mô hình hấp dẫn cho nhiều trường hợp sử dụng."
2302
2461
  },
2303
2462
  "openai/gpt-4.1-nano": {
2304
- "description": "GPT-4.1 nano là mô hình GPT-4.1 nhanh nhất và tiết kiệm chi phí nhất."
2463
+ "description": "GPT-4.1 nano là mô hình GPT 4.1 nhanh nhất và tiết kiệm chi phí nhất."
2305
2464
  },
2306
2465
  "openai/gpt-4o": {
2307
- "description": "ChatGPT-4o một hình động, cập nhật theo thời gian để giữ phiên bản mới nhất. kết hợp khả năng hiểu tạo ngôn ngữ mạnh mẽ, phù hợp với các tình huống ứng dụng quy lớn, bao gồm dịch vụ khách hàng, giáo dụchỗ trợ kỹ thuật."
2466
+ "description": "GPT-4o của OpenAI kiến thức tổng quát rộng chuyên môn lĩnh vực, khả năng tuân theo các chỉ dẫn ngôn ngữ tự nhiên phức tạp giải quyết chính xác các vấn đề khó. cung cấp hiệu suất tương đương GPT-4 Turbo với API nhanh hơn rẻ hơn."
2308
2467
  },
2309
2468
  "openai/gpt-4o-mini": {
2310
- "description": "GPT-4o mini là mô hình mới nhất của OpenAI, được phát hành sau GPT-4 Omni, hỗ trợ đầu vào hình ảnh văn bản, đầu ra văn bản. Là mô hình nhỏ tiên tiến nhất của họ, rẻ hơn nhiều so với các hình tiên tiến gần đây khác rẻ hơn hơn 60% so với GPT-3.5 Turbo. Nó giữ lại trí thông minh tiên tiến nhất trong khi có giá trị sử dụng đáng kể. GPT-4o mini đạt 82% điểm trong bài kiểm tra MMLU và hiện đứng đầu về sở thích trò chuyện so với GPT-4."
2469
+ "description": "GPT-4o mini của OpenAI hình nhỏ tiên tiếntiết kiệm chi phí nhất của họ. đa phương thức (chấp nhận đầu vào văn bản hoặc hình ảnhxuất ra văn bản), thông minh hơn gpt-3.5-turbo nhưng tốc độ tương đương."
2470
+ },
2471
+ "openai/gpt-5": {
2472
+ "description": "GPT-5 là mô hình ngôn ngữ hàng đầu của OpenAI, xuất sắc trong suy luận phức tạp, kiến thức thực tế rộng lớn, các nhiệm vụ mã hóa chuyên sâu và đại lý đa bước."
2473
+ },
2474
+ "openai/gpt-5-mini": {
2475
+ "description": "GPT-5 mini là mô hình tối ưu chi phí, thể hiện tốt trong các nhiệm vụ suy luận/trò chuyện. Nó cung cấp sự cân bằng tốt nhất giữa tốc độ, chi phí và khả năng."
2476
+ },
2477
+ "openai/gpt-5-nano": {
2478
+ "description": "GPT-5 nano là mô hình có thông lượng cao, thể hiện tốt trong các nhiệm vụ chỉ dẫn đơn giản hoặc phân loại."
2311
2479
  },
2312
2480
  "openai/gpt-oss-120b": {
2313
- "description": "OpenAI GPT-OSS 120B là mô hình ngôn ngữ hàng đầu với 120 tỷ tham số, tích hợp chức năng tìm kiếm trình duyệtthực thi mã, đồng thời khả năng suy luận."
2481
+ "description": " hình ngôn ngữ lớn đa năng cực kỳ năng lực, với khả năng suy luận mạnh mẽ và có thể kiểm soát."
2314
2482
  },
2315
2483
  "openai/gpt-oss-20b": {
2316
- "description": "OpenAI GPT-OSS 20B hình ngôn ngữ hàng đầu với 20 tỷ tham số, tích hợp chức năng tìm kiếm trình duyệt thực thi mã, đồng thời khả năng suy luận."
2484
+ "description": " hình ngôn ngữ trọng số nguồn mở nhỏ gọn, được tối ưu cho độ trễ thấp môi trường tài nguyên hạn chế, bao gồm triển khai cục bộ biên."
2317
2485
  },
2318
2486
  "openai/o1": {
2319
- "description": "o1 là mô hình suy luận mới của OpenAI, hỗ trợ đầu vào hình ảnh và văn bản, đồng thời xuất ra văn bản, phù hợp cho các nhiệm vụ phức tạp đòi hỏi kiến thức phổ quát rộng rãi. hình này ngữ cảnh 200Kkiến thức cập nhật đến tháng 10 năm 2023."
2487
+ "description": "o1 của OpenAI là mô hình suy luận hàng đầu, được thiết kế cho các vấn đề phức tạp đòi hỏi suy nghĩ sâu sắc. cung cấp khả năng suy luận mạnh mẽđộ chính xác cao cho các nhiệm vụ đa bước phức tạp."
2320
2488
  },
2321
2489
  "openai/o1-mini": {
2322
2490
  "description": "o1-mini là một mô hình suy diễn nhanh chóng và tiết kiệm chi phí, được thiết kế cho các ứng dụng lập trình, toán học và khoa học. Mô hình này có ngữ cảnh 128K và thời điểm cắt kiến thức vào tháng 10 năm 2023."
@@ -2325,23 +2493,44 @@
2325
2493
  "description": "o1 là mô hình suy diễn mới của OpenAI, phù hợp cho các nhiệm vụ phức tạp cần kiến thức tổng quát rộng rãi. Mô hình này có ngữ cảnh 128K và thời điểm cắt kiến thức vào tháng 10 năm 2023."
2326
2494
  },
2327
2495
  "openai/o3": {
2328
- "description": "o3 là một mô hình mạnh mẽ toàn diện, thể hiện xuất sắc trong nhiều lĩnh vực. Nó thiết lập tiêu chuẩn mới cho các nhiệm vụ toán học, khoa học, lập trình suy luận hình ảnh. Nó cũng giỏi trong việc viết kỹ thuật tuân thủ hướng dẫn. Người dùngthể sử dụng để phân tích văn bản, mã và hình ảnh, giải quyết các vấn đề phức tạp nhiều bước."
2496
+ "description": "o3 của OpenAI là mô hình suy luận mạnh nhất, thiết lập các tiêu chuẩn mới trong hóa, toán học, khoa học và nhận thức thị giác. Nó xuất sắc trong các truy vấn phức tạp đòi hỏi phân tích đa chiều,lợi thế đặc biệt trong phân tích hình ảnh, biểu đồ đồ họa."
2329
2497
  },
2330
2498
  "openai/o3-mini": {
2331
- "description": "o3-mini cung cấp trí tuệ cao với cùng chi phí và mục tiêu độ trễ như o1-mini."
2499
+ "description": "o3-mini là mô hình suy luận nhỏ mới nhất của OpenAI, cung cấp trí tuệ cao với chi phí và độ trễ tương đương o1-mini."
2332
2500
  },
2333
2501
  "openai/o3-mini-high": {
2334
2502
  "description": "o3-mini phiên bản cao cấp về suy luận, cung cấp trí tuệ cao với cùng chi phí và mục tiêu độ trễ như o1-mini."
2335
2503
  },
2336
2504
  "openai/o4-mini": {
2337
- "description": "o4-mini được tối ưu hóa cho suy luận nhanh chóng hiệu quả, thể hiện hiệu suất hiệu quả cao trong các nhiệm vụ mã hóa và hình ảnh."
2505
+ "description": "o4-mini của OpenAI cung cấp suy luận nhanh và tiết kiệm chi phí, với hiệu suất xuất sắc trong kích thước của nó, đặc biệt trong toán học (đạt điểm cao nhất trong bài kiểm tra chuẩn AIME), mã hóa và các nhiệm vụ thị giác."
2338
2506
  },
2339
2507
  "openai/o4-mini-high": {
2340
2508
  "description": "o4-mini phiên bản cao cấp, được tối ưu hóa cho suy luận nhanh chóng và hiệu quả, thể hiện hiệu suất và hiệu quả cao trong các nhiệm vụ mã hóa và hình ảnh."
2341
2509
  },
2510
+ "openai/text-embedding-3-large": {
2511
+ "description": "Mô hình nhúng hiệu quả nhất của OpenAI, phù hợp cho các nhiệm vụ tiếng Anh và phi tiếng Anh."
2512
+ },
2513
+ "openai/text-embedding-3-small": {
2514
+ "description": "Phiên bản cải tiến và hiệu suất cao hơn của mô hình nhúng ada của OpenAI."
2515
+ },
2516
+ "openai/text-embedding-ada-002": {
2517
+ "description": "Mô hình nhúng văn bản truyền thống của OpenAI."
2518
+ },
2342
2519
  "openrouter/auto": {
2343
2520
  "description": "Dựa trên độ dài ngữ cảnh, chủ đề và độ phức tạp, yêu cầu của bạn sẽ được gửi đến Llama 3 70B Instruct, Claude 3.5 Sonnet (tự điều chỉnh) hoặc GPT-4o."
2344
2521
  },
2522
+ "perplexity/sonar": {
2523
+ "description": "Sản phẩm nhẹ của Perplexity với khả năng tìm kiếm có căn cứ, nhanh hơn và rẻ hơn Sonar Pro."
2524
+ },
2525
+ "perplexity/sonar-pro": {
2526
+ "description": "Sản phẩm hàng đầu của Perplexity với khả năng tìm kiếm có căn cứ, hỗ trợ truy vấn nâng cao và các thao tác tiếp theo."
2527
+ },
2528
+ "perplexity/sonar-reasoning": {
2529
+ "description": "Mô hình tập trung vào suy luận, xuất ra chuỗi suy nghĩ (CoT) trong phản hồi, cung cấp giải thích chi tiết có căn cứ tìm kiếm."
2530
+ },
2531
+ "perplexity/sonar-reasoning-pro": {
2532
+ "description": "Mô hình tập trung suy luận nâng cao, xuất ra chuỗi suy nghĩ (CoT) trong phản hồi, cung cấp giải thích toàn diện với khả năng tìm kiếm nâng cao và nhiều truy vấn tìm kiếm cho mỗi yêu cầu."
2533
+ },
2345
2534
  "phi3": {
2346
2535
  "description": "Phi-3 là mô hình mở nhẹ do Microsoft phát hành, phù hợp cho việc tích hợp hiệu quả và suy luận kiến thức quy mô lớn."
2347
2536
  },
@@ -2804,6 +2993,12 @@
2804
2993
  "v0-1.5-md": {
2805
2994
  "description": "Mô hình v0-1.5-md phù hợp cho các nhiệm vụ hàng ngày và tạo giao diện người dùng (UI)"
2806
2995
  },
2996
+ "vercel/v0-1.0-md": {
2997
+ "description": "Truy cập mô hình phía sau v0 để tạo, sửa lỗi và tối ưu hóa ứng dụng Web hiện đại, với suy luận theo khung cụ thể và kiến thức cập nhật."
2998
+ },
2999
+ "vercel/v0-1.5-md": {
3000
+ "description": "Truy cập mô hình phía sau v0 để tạo, sửa lỗi và tối ưu hóa ứng dụng Web hiện đại, với suy luận theo khung cụ thể và kiến thức cập nhật."
3001
+ },
2807
3002
  "wan2.2-t2i-flash": {
2808
3003
  "description": "Phiên bản tốc độ cao Wanxiang 2.2, là mô hình mới nhất hiện nay. Nâng cấp toàn diện về sáng tạo, ổn định và cảm giác thực, tốc độ tạo nhanh, hiệu quả chi phí cao."
2809
3004
  },
@@ -2834,6 +3029,27 @@
2834
3029
  "x1": {
2835
3030
  "description": "Mô hình Spark X1 sẽ được nâng cấp thêm, trên nền tảng dẫn đầu trong các nhiệm vụ toán học trong nước, đạt được hiệu quả trong các nhiệm vụ chung như suy luận, tạo văn bản, hiểu ngôn ngữ tương đương với OpenAI o1 và DeepSeek R1."
2836
3031
  },
3032
+ "xai/grok-2": {
3033
+ "description": "Grok 2 là mô hình ngôn ngữ tiên tiến với khả năng suy luận hàng đầu. Nó có năng lực vượt trội trong trò chuyện, mã hóa và suy luận, đứng trên Claude 3.5 Sonnet và GPT-4-Turbo trên bảng xếp hạng LMSYS."
3034
+ },
3035
+ "xai/grok-2-vision": {
3036
+ "description": "Mô hình thị giác Grok 2 thể hiện xuất sắc trong các nhiệm vụ dựa trên hình ảnh, cung cấp hiệu suất tiên tiến trong suy luận toán học dựa trên hình ảnh (MathVista) và hỏi đáp dựa trên tài liệu (DocVQA). Nó có khả năng xử lý đa dạng thông tin hình ảnh, bao gồm tài liệu, biểu đồ, đồ thị, ảnh chụp màn hình và ảnh chụp."
3037
+ },
3038
+ "xai/grok-3": {
3039
+ "description": "Mô hình hàng đầu của xAI, xuất sắc trong các trường hợp sử dụng doanh nghiệp như trích xuất dữ liệu, mã hóa và tóm tắt văn bản. Có kiến thức chuyên sâu trong các lĩnh vực tài chính, chăm sóc sức khỏe, pháp lý và khoa học."
3040
+ },
3041
+ "xai/grok-3-fast": {
3042
+ "description": "Mô hình hàng đầu của xAI, xuất sắc trong các trường hợp sử dụng doanh nghiệp như trích xuất dữ liệu, mã hóa và tóm tắt văn bản. Biến thể mô hình nhanh phục vụ trên cơ sở hạ tầng nhanh hơn, cung cấp thời gian phản hồi nhanh hơn nhiều so với tiêu chuẩn. Tốc độ tăng đi kèm chi phí token đầu ra cao hơn."
3043
+ },
3044
+ "xai/grok-3-mini": {
3045
+ "description": "Mô hình nhẹ của xAI, suy nghĩ trước khi phản hồi. Rất phù hợp cho các nhiệm vụ đơn giản hoặc dựa trên logic không đòi hỏi kiến thức chuyên sâu. Có thể truy cập đường đi suy nghĩ thô."
3046
+ },
3047
+ "xai/grok-3-mini-fast": {
3048
+ "description": "Mô hình nhẹ của xAI, suy nghĩ trước khi phản hồi. Rất phù hợp cho các nhiệm vụ đơn giản hoặc dựa trên logic không đòi hỏi kiến thức chuyên sâu. Có thể truy cập đường đi suy nghĩ thô. Biến thể mô hình nhanh phục vụ trên cơ sở hạ tầng nhanh hơn, cung cấp thời gian phản hồi nhanh hơn nhiều so với tiêu chuẩn. Tốc độ tăng đi kèm chi phí token đầu ra cao hơn."
3049
+ },
3050
+ "xai/grok-4": {
3051
+ "description": "Mô hình hàng đầu mới nhất và tuyệt vời nhất của xAI, cung cấp hiệu suất vô song trong ngôn ngữ tự nhiên, toán học và suy luận — lựa chọn toàn năng hoàn hảo."
3052
+ },
2837
3053
  "yi-1.5-34b-chat": {
2838
3054
  "description": "Yi-1.5 là phiên bản nâng cấp của Yi. Nó sử dụng 500B token từ cơ sở dữ liệu chất lượng cao để tiếp tục tiền huấn luyện trên Yi, và được tinh chỉnh trên 3M mẫu đa dạng."
2839
3055
  },
@@ -2881,5 +3097,14 @@
2881
3097
  },
2882
3098
  "zai-org/GLM-4.5V": {
2883
3099
  "description": "GLM-4.5V là thế hệ mô hình ngôn ngữ thị giác (VLM) mới nhất được phát hành bởi Zhipu AI. Mô hình này được xây dựng trên cơ sở mô hình văn bản chủ lực GLM-4.5-Air với tổng 106 tỷ tham số và 12 tỷ tham số kích hoạt, sử dụng kiến trúc chuyên gia hỗn hợp (Mixture of Experts - MoE), nhằm đạt hiệu năng xuất sắc với chi phí suy luận thấp hơn. Về mặt kỹ thuật, GLM-4.5V tiếp nối hướng phát triển của GLM-4.1V-Thinking và giới thiệu các đổi mới như mã hóa vị trí xoay ba chiều (3D-RoPE), đáng kể nâng cao khả năng nhận thức và suy luận về các mối quan hệ trong không gian 3D. Thông qua tối ưu hóa ở các giai đoạn tiền huấn luyện, tinh chỉnh có giám sát và học tăng cường, mô hình có khả năng xử lý nhiều dạng nội dung thị giác như hình ảnh, video và tài liệu dài, và đã đạt vị trí hàng đầu trong số các mô hình mã nguồn mở cùng cấp trên 41 bộ đánh giá đa phương thức công khai. Ngoài ra, mô hình còn bổ sung công tắc “chế độ tư duy”, cho phép người dùng linh hoạt lựa chọn giữa phản hồi nhanh và suy luận sâu để cân bằng hiệu quả và chất lượng."
3100
+ },
3101
+ "zai/glm-4.5": {
3102
+ "description": "Dòng mô hình GLM-4.5 được thiết kế đặc biệt cho các tác nhân thông minh. Mô hình hàng đầu GLM-4.5 tích hợp 355 tỷ tham số tổng (32 tỷ tham số kích hoạt), hợp nhất khả năng suy luận, mã hóa và đại lý để giải quyết các yêu cầu ứng dụng phức tạp. Là hệ thống suy luận hỗn hợp, nó cung cấp hai chế độ hoạt động."
3103
+ },
3104
+ "zai/glm-4.5-air": {
3105
+ "description": "GLM-4.5 và GLM-4.5-Air là các mô hình hàng đầu mới nhất của chúng tôi, được thiết kế đặc biệt làm mô hình nền tảng cho các ứng dụng đại lý. Cả hai đều sử dụng kiến trúc chuyên gia hỗn hợp (MoE). GLM-4.5 có tổng số tham số 355 tỷ với 32 tỷ tham số kích hoạt mỗi lần truyền tiến, trong khi GLM-4.5-Air có thiết kế đơn giản hơn với tổng số tham số 106 tỷ và 12 tỷ tham số kích hoạt."
3106
+ },
3107
+ "zai/glm-4.5v": {
3108
+ "description": "GLM-4.5V được xây dựng trên mô hình nền tảng GLM-4.5-Air, kế thừa công nghệ đã được xác minh của GLM-4.1V-Thinking, đồng thời mở rộng hiệu quả với kiến trúc MoE 106 tỷ tham số mạnh mẽ."
2884
3109
  }
2885
3110
  }
@@ -161,6 +161,9 @@
161
161
  "v0": {
162
162
  "description": "v0 là một trợ lý lập trình theo cặp, bạn chỉ cần mô tả ý tưởng bằng ngôn ngữ tự nhiên, nó sẽ tạo mã và giao diện người dùng (UI) cho dự án của bạn"
163
163
  },
164
+ "vercelaigateway": {
165
+ "description": "Vercel AI Gateway cung cấp API thống nhất để truy cập hơn 100 mô hình, cho phép sử dụng các mô hình từ nhiều nhà cung cấp như OpenAI, Anthropic, Google chỉ qua một điểm cuối duy nhất. Hỗ trợ thiết lập ngân sách, giám sát sử dụng, cân bằng tải yêu cầu và chuyển đổi dự phòng."
166
+ },
164
167
  "vertexai": {
165
168
  "description": "Dòng sản phẩm Gemini của Google là mô hình AI tiên tiến và đa năng nhất của họ, được phát triển bởi Google DeepMind, được thiết kế đặc biệt cho đa phương thức, hỗ trợ hiểu và xử lý liền mạch văn bản, mã, hình ảnh, âm thanh và video. Phù hợp với nhiều môi trường từ trung tâm dữ liệu đến thiết bị di động, nâng cao đáng kể hiệu quả và tính ứng dụng của mô hình AI."
166
169
  },