@lobehub/chat 1.129.1 → 1.129.3

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (45) hide show
  1. package/CHANGELOG.md +58 -0
  2. package/changelog/v1.json +21 -0
  3. package/locales/ar/models.json +248 -23
  4. package/locales/ar/providers.json +3 -0
  5. package/locales/bg-BG/models.json +248 -23
  6. package/locales/bg-BG/providers.json +3 -0
  7. package/locales/de-DE/models.json +248 -23
  8. package/locales/de-DE/providers.json +3 -0
  9. package/locales/en-US/models.json +248 -23
  10. package/locales/en-US/providers.json +3 -0
  11. package/locales/es-ES/models.json +248 -23
  12. package/locales/es-ES/providers.json +3 -0
  13. package/locales/fa-IR/models.json +248 -23
  14. package/locales/fa-IR/providers.json +3 -0
  15. package/locales/fr-FR/models.json +248 -23
  16. package/locales/fr-FR/providers.json +3 -0
  17. package/locales/it-IT/models.json +248 -23
  18. package/locales/it-IT/providers.json +3 -0
  19. package/locales/ja-JP/models.json +248 -23
  20. package/locales/ja-JP/providers.json +3 -0
  21. package/locales/ko-KR/models.json +248 -23
  22. package/locales/ko-KR/providers.json +3 -0
  23. package/locales/nl-NL/models.json +248 -23
  24. package/locales/nl-NL/providers.json +3 -0
  25. package/locales/pl-PL/models.json +248 -23
  26. package/locales/pl-PL/providers.json +3 -0
  27. package/locales/pt-BR/models.json +248 -23
  28. package/locales/pt-BR/providers.json +3 -0
  29. package/locales/ru-RU/models.json +248 -23
  30. package/locales/ru-RU/providers.json +3 -0
  31. package/locales/tr-TR/models.json +248 -23
  32. package/locales/tr-TR/providers.json +3 -0
  33. package/locales/vi-VN/models.json +248 -23
  34. package/locales/vi-VN/providers.json +3 -0
  35. package/locales/zh-CN/models.json +248 -23
  36. package/locales/zh-CN/providers.json +3 -0
  37. package/locales/zh-TW/models.json +248 -23
  38. package/locales/zh-TW/providers.json +3 -0
  39. package/package.json +1 -1
  40. package/packages/database/migrations/0031_add_agent_index.sql +6 -6
  41. package/packages/database/src/core/migrations.json +3 -3
  42. package/packages/model-runtime/src/core/RouterRuntime/baseRuntimeMap.ts +2 -0
  43. package/packages/model-runtime/src/providers/newapi/index.ts +17 -2
  44. package/packages/model-runtime/src/providers/qwen/createImage.test.ts +110 -0
  45. package/packages/model-runtime/src/providers/qwen/createImage.ts +100 -3
@@ -602,6 +602,33 @@
602
602
  "ai21-labs/AI21-Jamba-1.5-Mini": {
603
603
  "description": "Un modèle multilingue de 52 milliards de paramètres (12 milliards actifs), offrant une fenêtre contextuelle longue de 256K, des appels de fonctions, une sortie structurée et une génération factuelle."
604
604
  },
605
+ "alibaba/qwen-3-14b": {
606
+ "description": "Qwen3 est la dernière génération de grands modèles de langage de la série Qwen, offrant un ensemble complet de modèles experts denses et hybrides (MoE). Basé sur un entraînement étendu, Qwen3 réalise des avancées majeures en matière de raisonnement, de suivi des instructions, de capacités d'agent et de support multilingue."
607
+ },
608
+ "alibaba/qwen-3-235b": {
609
+ "description": "Qwen3 est la dernière génération de grands modèles de langage de la série Qwen, offrant un ensemble complet de modèles experts denses et hybrides (MoE). Basé sur un entraînement étendu, Qwen3 réalise des avancées majeures en matière de raisonnement, de suivi des instructions, de capacités d'agent et de support multilingue."
610
+ },
611
+ "alibaba/qwen-3-30b": {
612
+ "description": "Qwen3 est la dernière génération de grands modèles de langage de la série Qwen, offrant un ensemble complet de modèles experts denses et hybrides (MoE). Basé sur un entraînement étendu, Qwen3 réalise des avancées majeures en matière de raisonnement, de suivi des instructions, de capacités d'agent et de support multilingue."
613
+ },
614
+ "alibaba/qwen-3-32b": {
615
+ "description": "Qwen3 est la dernière génération de grands modèles de langage de la série Qwen, offrant un ensemble complet de modèles experts denses et hybrides (MoE). Basé sur un entraînement étendu, Qwen3 réalise des avancées majeures en matière de raisonnement, de suivi des instructions, de capacités d'agent et de support multilingue."
616
+ },
617
+ "alibaba/qwen3-coder": {
618
+ "description": "Qwen3-Coder-480B-A35B-Instruct est le modèle de code le plus agentif de Qwen, avec des performances remarquables en codage agent, utilisation d'agents navigateurs et autres tâches de codage fondamentales, atteignant des résultats comparables à Claude Sonnet."
619
+ },
620
+ "amazon/nova-lite": {
621
+ "description": "Un modèle multimodal à très faible coût, traitant les entrées d'images, vidéos et textes à une vitesse extrêmement rapide."
622
+ },
623
+ "amazon/nova-micro": {
624
+ "description": "Un modèle uniquement textuel offrant des réponses à latence minimale à très faible coût."
625
+ },
626
+ "amazon/nova-pro": {
627
+ "description": "Un modèle multimodal très performant, offrant le meilleur compromis entre précision, vitesse et coût, adapté à une large gamme de tâches."
628
+ },
629
+ "amazon/titan-embed-text-v2": {
630
+ "description": "Amazon Titan Text Embeddings V2 est un modèle d'embedding multilingue léger et efficace, supportant des dimensions de 1024, 512 et 256."
631
+ },
605
632
  "anthropic.claude-3-5-sonnet-20240620-v1:0": {
606
633
  "description": "Claude 3.5 Sonnet élève les normes de l'industrie, surpassant les modèles concurrents et Claude 3 Opus, avec d'excellentes performances dans une large gamme d'évaluations, tout en offrant la vitesse et le coût de nos modèles de niveau intermédiaire."
607
634
  },
@@ -627,25 +654,28 @@
627
654
  "description": "Version mise à jour de Claude 2, avec une fenêtre contextuelle doublée, ainsi que des améliorations en fiabilité, taux d'hallucination et précision basée sur des preuves dans des documents longs et des contextes RAG."
628
655
  },
629
656
  "anthropic/claude-3-haiku": {
630
- "description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d'Anthropic, conçu pour offrir des réponses quasi instantanées. Il présente des performances directionnelles rapides et précises."
657
+ "description": "Claude 3 Haiku est le modèle le plus rapide d'Anthropic à ce jour, conçu pour les charges de travail d'entreprise impliquant généralement des invites longues. Haiku peut analyser rapidement de nombreux documents, tels que rapports trimestriels, contrats ou dossiers juridiques, à un coût moitié moindre que d'autres modèles de sa catégorie."
631
658
  },
632
659
  "anthropic/claude-3-opus": {
633
- "description": "Claude 3 Opus est le modèle le plus puissant d'Anthropic pour traiter des tâches hautement complexes. Il excelle en termes de performance, d'intelligence, de fluidité et de compréhension."
660
+ "description": "Claude 3 Opus est le modèle le plus intelligent d'Anthropic, offrant des performances de pointe sur des tâches très complexes. Il maîtrise avec fluidité et compréhension humaine les invites ouvertes et les scénarios inédits."
634
661
  },
635
662
  "anthropic/claude-3.5-haiku": {
636
- "description": "Claude 3.5 Haiku est le modèle de nouvelle génération le plus rapide d'Anthropic. Par rapport à Claude 3 Haiku, Claude 3.5 Haiku présente des améliorations dans toutes les compétences et surpasse le plus grand modèle de la génération précédente, Claude 3 Opus, dans de nombreux tests de référence intellectuels."
663
+ "description": "Claude 3.5 Haiku est la nouvelle génération de notre modèle le plus rapide. Avec une vitesse comparable à Claude 3 Haiku, il améliore chaque compétence et dépasse dans de nombreux benchmarks intelligents notre plus grand modèle précédent, Claude 3 Opus."
637
664
  },
638
665
  "anthropic/claude-3.5-sonnet": {
639
- "description": "Claude 3.5 Sonnet offre des capacités supérieures à celles d'Opus et une vitesse plus rapide que Sonnet, tout en maintenant le même prix que Sonnet. Sonnet excelle particulièrement dans la programmation, la science des données, le traitement visuel et les tâches d'agent."
666
+ "description": "Claude 3.5 Sonnet atteint un équilibre idéal entre intelligence et vitesse, particulièrement adapté aux charges de travail d'entreprise. Par rapport à ses pairs, il offre des performances puissantes à moindre coût, conçu pour une haute durabilité dans les déploiements d'IA à grande échelle."
640
667
  },
641
668
  "anthropic/claude-3.7-sonnet": {
642
- "description": "Claude 3.7 Sonnet est le modèle le plus intelligent d'Anthropic à ce jour, et le premier modèle de raisonnement hybride sur le marché. Claude 3.7 Sonnet peut produire des réponses quasi instantanées ou un raisonnement prolongé, permettant aux utilisateurs de voir clairement ces processus. Sonnet excelle particulièrement dans la programmation, la science des données, le traitement visuel et les tâches d'agent."
669
+ "description": "Claude 3.7 Sonnet est le premier modèle hybride de raisonnement et le plus intelligent d'Anthropic à ce jour. Il offre des performances de pointe en codage, génération de contenu, analyse de données et planification, s'appuyant sur les capacités en ingénierie logicielle et informatique de son prédécesseur Claude 3.5 Sonnet."
643
670
  },
644
671
  "anthropic/claude-opus-4": {
645
- "description": "Claude Opus 4 est le modèle le plus puissant d'Anthropic pour traiter des tâches hautement complexes. Il excelle en performance, intelligence, fluidité et compréhension."
672
+ "description": "Claude Opus 4 est le modèle le plus puissant d'Anthropic et le meilleur modèle de codage au monde, en tête sur SWE-bench (72,5 %) et Terminal-bench (43,2 %). Il assure des performances durables pour des tâches longues nécessitant concentration et milliers d'étapes, capable de fonctionner plusieurs heures d'affilée, étendant significativement les capacités des agents IA."
673
+ },
674
+ "anthropic/claude-opus-4.1": {
675
+ "description": "Claude Opus 4.1 est une alternative plug-and-play à Opus 4, offrant des performances et une précision exceptionnelles pour les tâches de codage et d'agent. Il porte la performance de codage à 74,5 % sur SWE-bench Verified, traitant les problèmes complexes à plusieurs étapes avec rigueur et souci du détail accrus."
646
676
  },
647
677
  "anthropic/claude-sonnet-4": {
648
- "description": "Claude Sonnet 4 peut générer des réponses quasi instantanées ou des réflexions prolongées étape par étape, que l'utilisateur peut suivre clairement. Les utilisateurs de l'API peuvent également contrôler précisément la durée de réflexion du modèle."
678
+ "description": "Claude Sonnet 4 améliore significativement les capacités de Sonnet 3.7, excelle en codage avec un score de pointe de 72,7 % sur SWE-bench. Ce modèle équilibre performance et efficacité, adapté aux cas d'usage internes et externes, avec un contrôle accru grâce à une meilleure contrôlabilité."
649
679
  },
650
680
  "ascend-tribe/pangu-pro-moe": {
651
681
  "description": "Pangu-Pro-MoE 72B-A16B est un grand modèle de langage sparse à 72 milliards de paramètres, avec 16 milliards de paramètres activés. Il repose sur une architecture Mixture of Experts groupée (MoGE), qui regroupe les experts lors de la sélection et contraint chaque token à activer un nombre égal d'experts dans chaque groupe, assurant ainsi un équilibre de charge entre les experts et améliorant considérablement l'efficacité de déploiement sur la plateforme Ascend."
@@ -797,6 +827,18 @@
797
827
  "cohere/Cohere-command-r-plus": {
798
828
  "description": "Command R+ est un modèle optimisé RAG de pointe, conçu pour gérer des charges de travail d'entreprise."
799
829
  },
830
+ "cohere/command-a": {
831
+ "description": "Command A est le modèle le plus performant de Cohere à ce jour, excellent dans l'utilisation d'outils, les agents, la génération augmentée par récupération (RAG) et les cas multilingues. Avec une longueur de contexte de 256K, il fonctionne sur seulement deux GPU, offrant un débit 150 % supérieur à Command R+ 08-2024."
832
+ },
833
+ "cohere/command-r": {
834
+ "description": "Command R est un grand modèle de langage optimisé pour les interactions conversationnelles et les tâches à long contexte. Il se positionne dans la catégorie \"scalable\", équilibrant haute performance et forte précision, permettant aux entreprises de dépasser la preuve de concept pour la production."
835
+ },
836
+ "cohere/command-r-plus": {
837
+ "description": "Command R+ est le dernier grand modèle de langage de Cohere, optimisé pour les interactions conversationnelles et les tâches à long contexte. Il vise une performance exceptionnelle, permettant aux entreprises de passer de la preuve de concept à la production."
838
+ },
839
+ "cohere/embed-v4.0": {
840
+ "description": "Un modèle permettant de classifier ou de transformer en embeddings des textes, images ou contenus mixtes."
841
+ },
800
842
  "command": {
801
843
  "description": "Un modèle de dialogue qui suit des instructions, offrant une haute qualité et une fiabilité accrue dans les tâches linguistiques, avec une longueur de contexte plus longue que notre modèle de génération de base."
802
844
  },
@@ -975,7 +1017,7 @@
975
1017
  "description": "DeepSeek-V3.1 est un grand modèle d'inférence hybride supportant un contexte long de 128K et un changement de mode efficace, offrant des performances et une rapidité exceptionnelles dans l'appel d'outils, la génération de code et les tâches de raisonnement complexes."
976
1018
  },
977
1019
  "deepseek/deepseek-r1": {
978
- "description": "DeepSeek-R1 améliore considérablement les capacités de raisonnement du modèle avec très peu de données annotées. Avant de fournir la réponse finale, le modèle génère d'abord une chaîne de pensée pour améliorer l'exactitude de la réponse finale."
1020
+ "description": "Le modèle DeepSeek R1 a bénéficié d'une mise à jour mineure, version actuelle DeepSeek-R1-0528. Cette mise à jour améliore significativement la profondeur et la capacité de raisonnement grâce à des ressources de calcul accrues et des optimisations algorithmiques post-entraînement. Il excelle dans plusieurs benchmarks en mathématiques, programmation et logique générale, approchant les performances des modèles leaders comme O3 et Gemini 2.5 Pro."
979
1021
  },
980
1022
  "deepseek/deepseek-r1-0528": {
981
1023
  "description": "DeepSeek-R1 améliore considérablement les capacités de raisonnement du modèle avec très peu de données annotées. Avant de fournir la réponse finale, le modèle génère une chaîne de pensée pour améliorer la précision de la réponse."
@@ -984,7 +1026,7 @@
984
1026
  "description": "DeepSeek-R1 améliore considérablement les capacités de raisonnement du modèle avec très peu de données annotées. Avant de fournir la réponse finale, le modèle génère une chaîne de pensée pour améliorer la précision de la réponse."
985
1027
  },
986
1028
  "deepseek/deepseek-r1-distill-llama-70b": {
987
- "description": "DeepSeek R1 Distill Llama 70B est un modèle de langage de grande taille basé sur Llama3.3 70B, qui utilise le fine-tuning des sorties de DeepSeek R1 pour atteindre des performances compétitives comparables aux grands modèles de pointe."
1029
+ "description": "DeepSeek-R1-Distill-Llama-70B est une variante distillée et plus efficace du modèle Llama 70B. Il conserve de solides performances en génération de texte tout en réduisant les coûts de calcul pour faciliter le déploiement et la recherche. Il est servi par Groq avec son matériel personnalisé LPU pour un raisonnement rapide et efficace."
988
1030
  },
989
1031
  "deepseek/deepseek-r1-distill-llama-8b": {
990
1032
  "description": "DeepSeek R1 Distill Llama 8B est un modèle de langage distillé basé sur Llama-3.1-8B-Instruct, entraîné en utilisant les sorties de DeepSeek R1."
@@ -1002,7 +1044,10 @@
1002
1044
  "description": "DeepSeek-R1 améliore considérablement les capacités de raisonnement du modèle avec très peu de données annotées. Avant de fournir la réponse finale, le modèle génère d'abord une chaîne de pensée pour améliorer l'exactitude de la réponse finale."
1003
1045
  },
1004
1046
  "deepseek/deepseek-v3": {
1005
- "description": "DeepSeek-V3 a réalisé une percée majeure en termes de vitesse d'inférence par rapport aux modèles précédents. Il se classe au premier rang des modèles open source et peut rivaliser avec les modèles fermés les plus avancés au monde. DeepSeek-V3 utilise une architecture d'attention multi-tête (MLA) et DeepSeekMoE, qui ont été entièrement validées dans DeepSeek-V2. De plus, DeepSeek-V3 a introduit une stratégie auxiliaire sans perte pour l'équilibrage de charge et a établi des objectifs d'entraînement de prédiction multi-étiquettes pour obtenir de meilleures performances."
1047
+ "description": "Un grand modèle de langage universel rapide avec des capacités de raisonnement améliorées."
1048
+ },
1049
+ "deepseek/deepseek-v3.1-base": {
1050
+ "description": "DeepSeek V3.1 Base est une version améliorée du modèle DeepSeek V3."
1006
1051
  },
1007
1052
  "deepseek/deepseek-v3/community": {
1008
1053
  "description": "DeepSeek-V3 a réalisé une percée majeure en termes de vitesse d'inférence par rapport aux modèles précédents. Il se classe au premier rang des modèles open source et peut rivaliser avec les modèles fermés les plus avancés au monde. DeepSeek-V3 utilise une architecture d'attention multi-tête (MLA) et DeepSeekMoE, qui ont été entièrement validées dans DeepSeek-V2. De plus, DeepSeek-V3 a introduit une stratégie auxiliaire sans perte pour l'équilibrage de charge et a établi des objectifs d'entraînement de prédiction multi-étiquettes pour obtenir de meilleures performances."
@@ -1430,18 +1475,27 @@
1430
1475
  "glm-zero-preview": {
1431
1476
  "description": "GLM-Zero-Preview possède de puissantes capacités de raisonnement complexe, se distinguant dans les domaines du raisonnement logique, des mathématiques et de la programmation."
1432
1477
  },
1478
+ "google/gemini-2.0-flash": {
1479
+ "description": "Gemini 2.0 Flash offre des fonctionnalités de nouvelle génération et des améliorations, incluant une vitesse exceptionnelle, l'utilisation d'outils intégrés, la génération multimodale et une fenêtre de contexte de 1 million de tokens."
1480
+ },
1433
1481
  "google/gemini-2.0-flash-001": {
1434
1482
  "description": "Gemini 2.0 Flash propose des fonctionnalités et des améliorations de nouvelle génération, y compris une vitesse exceptionnelle, l'utilisation d'outils natifs, la génération multimodale et une fenêtre de contexte de 1M tokens."
1435
1483
  },
1436
1484
  "google/gemini-2.0-flash-exp:free": {
1437
1485
  "description": "Gemini 2.0 Flash Experimental est le dernier modèle d'IA multimodal expérimental de Google, offrant une amélioration de qualité par rapport aux versions précédentes, en particulier pour les connaissances générales, le code et les longs contextes."
1438
1486
  },
1487
+ "google/gemini-2.0-flash-lite": {
1488
+ "description": "Gemini 2.0 Flash Lite offre des fonctionnalités de nouvelle génération et des améliorations, incluant une vitesse exceptionnelle, l'utilisation d'outils intégrés, la génération multimodale et une fenêtre de contexte de 1 million de tokens."
1489
+ },
1439
1490
  "google/gemini-2.5-flash": {
1440
- "description": "Gemini 2.5 Flash est le modèle principal le plus avancé de Google, conçu pour des tâches avancées de raisonnement, de codage, de mathématiques et de sciences. Il intègre une capacité de « réflexion » intégrée, lui permettant de fournir des réponses avec une précision accrue et un traitement contextuel plus détaillé.\n\nRemarque : ce modèle existe en deux variantes : avec réflexion et sans réflexion. Le tarif de sortie varie considérablement selon que la capacité de réflexion est activée ou non. Si vous choisissez la variante standard (sans le suffixe « :thinking »), le modèle évitera explicitement de générer des jetons de réflexion.\n\nPour exploiter la capacité de réflexion et recevoir des jetons de réflexion, vous devez sélectionner la variante « :thinking », ce qui entraînera un tarif de sortie plus élevé pour la réflexion.\n\nDe plus, Gemini 2.5 Flash peut être configuré via le paramètre « nombre maximal de jetons pour le raisonnement », comme décrit dans la documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1491
+ "description": "Gemini 2.5 Flash est un modèle de réflexion offrant d'excellentes capacités globales. Il vise un équilibre entre prix et performance, supportant le multimodal et une fenêtre de contexte de 1 million de tokens."
1441
1492
  },
1442
1493
  "google/gemini-2.5-flash-image-preview": {
1443
1494
  "description": "Modèle expérimental Gemini 2.5 Flash, supportant la génération d'images."
1444
1495
  },
1496
+ "google/gemini-2.5-flash-lite": {
1497
+ "description": "Gemini 2.5 Flash-Lite est un modèle équilibré à faible latence, avec un budget de réflexion configurable et une connectivité aux outils (par exemple, recherche Google ancrée et exécution de code). Il supporte les entrées multimodales et offre une fenêtre de contexte de 1 million de tokens."
1498
+ },
1445
1499
  "google/gemini-2.5-flash-preview": {
1446
1500
  "description": "Gemini 2.5 Flash est le modèle phare le plus avancé de Google, conçu pour des tâches de raisonnement avancé, de codage, de mathématiques et de sciences. Il comprend des capacités de 'pensée' intégrées, lui permettant de fournir des réponses avec une plus grande précision et un traitement contextuel détaillé.\n\nRemarque : ce modèle a deux variantes : pensée et non-pensée. La tarification de sortie varie considérablement en fonction de l'activation de la capacité de pensée. Si vous choisissez la variante standard (sans le suffixe ':thinking'), le modèle évitera explicitement de générer des jetons de pensée.\n\nPour tirer parti de la capacité de pensée et recevoir des jetons de pensée, vous devez choisir la variante ':thinking', ce qui entraînera une tarification de sortie de pensée plus élevée.\n\nDe plus, Gemini 2.5 Flash peut être configuré via le paramètre 'nombre maximal de jetons de raisonnement', comme décrit dans la documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1447
1501
  },
@@ -1449,11 +1503,14 @@
1449
1503
  "description": "Gemini 2.5 Flash est le modèle phare le plus avancé de Google, conçu pour des tâches de raisonnement avancé, de codage, de mathématiques et de sciences. Il comprend des capacités de 'pensée' intégrées, lui permettant de fournir des réponses avec une plus grande précision et un traitement contextuel détaillé.\n\nRemarque : ce modèle a deux variantes : pensée et non-pensée. La tarification de sortie varie considérablement en fonction de l'activation de la capacité de pensée. Si vous choisissez la variante standard (sans le suffixe ':thinking'), le modèle évitera explicitement de générer des jetons de pensée.\n\nPour tirer parti de la capacité de pensée et recevoir des jetons de pensée, vous devez choisir la variante ':thinking', ce qui entraînera une tarification de sortie de pensée plus élevée.\n\nDe plus, Gemini 2.5 Flash peut être configuré via le paramètre 'nombre maximal de jetons de raisonnement', comme décrit dans la documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1450
1504
  },
1451
1505
  "google/gemini-2.5-pro": {
1452
- "description": "Gemini 2.5 Pro est le modèle de réflexion le plus avancé de Google, capable de raisonner sur des problèmes complexes en code, mathématiques et domaines STEM, ainsi que d’analyser de grands ensembles de données, des bases de code et des documents en utilisant un contexte étendu."
1506
+ "description": "Gemini 2.5 Pro est notre modèle Gemini de raisonnement le plus avancé, capable de résoudre des problèmes complexes. Il dispose d'une fenêtre de contexte de 2 millions de tokens et supporte des entrées multimodales incluant texte, images, audio, vidéo et documents PDF."
1453
1507
  },
1454
1508
  "google/gemini-2.5-pro-preview": {
1455
1509
  "description": "Gemini 2.5 Pro Preview est le modèle de pensée le plus avancé de Google, capable de raisonner sur des problèmes complexes en code, mathématiques et domaines STEM, ainsi que d'analyser de grands ensembles de données, des bases de code et des documents en utilisant un contexte étendu."
1456
1510
  },
1511
+ "google/gemini-embedding-001": {
1512
+ "description": "Modèle d'embedding de pointe, performant en anglais, multilingue et tâches de code."
1513
+ },
1457
1514
  "google/gemini-flash-1.5": {
1458
1515
  "description": "Gemini 1.5 Flash propose des capacités de traitement multimodal optimisées, adaptées à divers scénarios de tâches complexes."
1459
1516
  },
@@ -1490,6 +1547,12 @@
1490
1547
  "google/gemma-3-27b-it": {
1491
1548
  "description": "Gemma 3 27B est un modèle de langage open source de Google, qui a établi de nouvelles normes en matière d'efficacité et de performance."
1492
1549
  },
1550
+ "google/text-embedding-005": {
1551
+ "description": "Modèle d'embedding textuel focalisé sur l'anglais, optimisé pour les tâches de code et de langue anglaise."
1552
+ },
1553
+ "google/text-multilingual-embedding-002": {
1554
+ "description": "Modèle d'embedding textuel multilingue optimisé pour les tâches interlinguistiques, supportant plusieurs langues."
1555
+ },
1493
1556
  "gpt-3.5-turbo": {
1494
1557
  "description": "GPT 3.5 Turbo, adapté à diverses tâches de génération et de compréhension de texte, pointe actuellement vers gpt-3.5-turbo-0125."
1495
1558
  },
@@ -1781,6 +1844,9 @@
1781
1844
  "imagen-4.0-ultra-generate-preview-06-06": {
1782
1845
  "description": "Série de modèles de génération d'images à partir de texte Imagen 4e génération version Ultra"
1783
1846
  },
1847
+ "inception/mercury-coder-small": {
1848
+ "description": "Mercury Coder Small est idéal pour les tâches de génération, débogage et refactorisation de code, avec une latence minimale."
1849
+ },
1784
1850
  "inclusionAI/Ling-mini-2.0": {
1785
1851
  "description": "Ling-mini-2.0 est un modèle linguistique de grande taille à haute performance et petite taille basé sur l'architecture MoE. Il possède 16 milliards de paramètres au total, mais n'active que 1,4 milliard par token (789 millions hors embeddings), ce qui permet une vitesse de génération extrêmement élevée. Grâce à une conception MoE efficace et à un entraînement à grande échelle avec des données de haute qualité, malgré seulement 1,4 milliard de paramètres activés, Ling-mini-2.0 affiche des performances de pointe comparables à celles des modèles denses de moins de 10 milliards de paramètres et des modèles MoE de plus grande taille dans les tâches en aval."
1786
1852
  },
@@ -2057,30 +2123,63 @@
2057
2123
  "meta/Meta-Llama-3.1-8B-Instruct": {
2058
2124
  "description": "Modèle textuel Llama 3.1 ajusté aux instructions, optimisé pour les cas d'usage de dialogue multilingue, performant sur de nombreux benchmarks industriels parmi les modèles de chat open source et propriétaires disponibles."
2059
2125
  },
2126
+ "meta/llama-3-70b": {
2127
+ "description": "Modèle open source de 70 milliards de paramètres finement ajusté par Meta pour le suivi des instructions. Servi par Groq avec son matériel personnalisé LPU pour un raisonnement rapide et efficace."
2128
+ },
2129
+ "meta/llama-3-8b": {
2130
+ "description": "Modèle open source de 8 milliards de paramètres finement ajusté par Meta pour le suivi des instructions. Servi par Groq avec son matériel personnalisé LPU pour un raisonnement rapide et efficace."
2131
+ },
2060
2132
  "meta/llama-3.1-405b-instruct": {
2061
2133
  "description": "LLM avancé, prenant en charge la génération de données synthétiques, la distillation de connaissances et le raisonnement, adapté aux chatbots, à la programmation et aux tâches spécifiques."
2062
2134
  },
2135
+ "meta/llama-3.1-70b": {
2136
+ "description": "Version mise à jour de Meta Llama 3 70B Instruct, incluant une longueur de contexte étendue à 128K, multilingue et capacités de raisonnement améliorées."
2137
+ },
2063
2138
  "meta/llama-3.1-70b-instruct": {
2064
2139
  "description": "Permet des dialogues complexes, avec une excellente compréhension du contexte, des capacités de raisonnement et de génération de texte."
2065
2140
  },
2141
+ "meta/llama-3.1-8b": {
2142
+ "description": "Llama 3.1 8B supporte une fenêtre de contexte de 128K, idéal pour les interfaces de dialogue en temps réel et l'analyse de données, tout en offrant des économies de coûts significatives par rapport aux modèles plus grands. Servi par Groq avec son matériel personnalisé LPU pour un raisonnement rapide et efficace."
2143
+ },
2066
2144
  "meta/llama-3.1-8b-instruct": {
2067
2145
  "description": "Modèle de pointe avancé, doté de compréhension linguistique, d'excellentes capacités de raisonnement et de génération de texte."
2068
2146
  },
2147
+ "meta/llama-3.2-11b": {
2148
+ "description": "Modèle de génération d'inférence d'image ajusté par instruction (entrée texte + image / sortie texte), optimisé pour la reconnaissance visuelle, l'inférence d'image, la génération de légendes et la réponse aux questions générales sur les images."
2149
+ },
2069
2150
  "meta/llama-3.2-11b-vision-instruct": {
2070
2151
  "description": "Modèle visuel-linguistique de pointe, spécialisé dans le raisonnement de haute qualité à partir d'images."
2071
2152
  },
2153
+ "meta/llama-3.2-1b": {
2154
+ "description": "Modèle uniquement textuel, supportant les cas d'usage sur appareil tels que la recherche locale multilingue, le résumé et la réécriture."
2155
+ },
2072
2156
  "meta/llama-3.2-1b-instruct": {
2073
2157
  "description": "Modèle de langage de pointe de petite taille, doté de compréhension linguistique, d'excellentes capacités de raisonnement et de génération de texte."
2074
2158
  },
2159
+ "meta/llama-3.2-3b": {
2160
+ "description": "Modèle uniquement textuel, finement ajusté pour supporter les cas d'usage sur appareil tels que la recherche locale multilingue, le résumé et la réécriture."
2161
+ },
2075
2162
  "meta/llama-3.2-3b-instruct": {
2076
2163
  "description": "Modèle de langage de pointe de petite taille, doté de compréhension linguistique, d'excellentes capacités de raisonnement et de génération de texte."
2077
2164
  },
2165
+ "meta/llama-3.2-90b": {
2166
+ "description": "Modèle de génération d'inférence d'image ajusté par instruction (entrée texte + image / sortie texte), optimisé pour la reconnaissance visuelle, l'inférence d'image, la génération de légendes et la réponse aux questions générales sur les images."
2167
+ },
2078
2168
  "meta/llama-3.2-90b-vision-instruct": {
2079
2169
  "description": "Modèle visuel-linguistique de pointe, spécialisé dans le raisonnement de haute qualité à partir d'images."
2080
2170
  },
2171
+ "meta/llama-3.3-70b": {
2172
+ "description": "Combinaison parfaite de performance et d'efficacité. Ce modèle supporte une IA conversationnelle haute performance, conçu pour la création de contenu, les applications d'entreprise et la recherche, offrant des capacités avancées de compréhension du langage, incluant résumé de texte, classification, analyse de sentiment et génération de code."
2173
+ },
2081
2174
  "meta/llama-3.3-70b-instruct": {
2082
2175
  "description": "LLM avancé, spécialisé dans le raisonnement, les mathématiques, le bon sens et les appels de fonction."
2083
2176
  },
2177
+ "meta/llama-4-maverick": {
2178
+ "description": "La collection de modèles Llama 4 est une IA multimodale native, supportant les expériences textuelles et multimodales. Ces modèles utilisent une architecture d'experts hybrides pour offrir des performances de pointe en compréhension de texte et d'image. Llama 4 Maverick, un modèle de 17 milliards de paramètres avec 128 experts, est servi par DeepInfra."
2179
+ },
2180
+ "meta/llama-4-scout": {
2181
+ "description": "La collection de modèles Llama 4 est une IA multimodale native, supportant les expériences textuelles et multimodales. Ces modèles utilisent une architecture d'experts hybrides pour offrir des performances de pointe en compréhension de texte et d'image. Llama 4 Scout, un modèle de 17 milliards de paramètres avec 16 experts, est servi par DeepInfra."
2182
+ },
2084
2183
  "microsoft/Phi-3-medium-128k-instruct": {
2085
2184
  "description": "Même modèle Phi-3-medium, mais avec une taille de contexte plus grande, adapté au RAG ou aux prompts courts."
2086
2185
  },
@@ -2156,6 +2255,48 @@
2156
2255
  "mistral-small-latest": {
2157
2256
  "description": "Mistral Small est une option rentable, rapide et fiable, adaptée aux cas d'utilisation tels que la traduction, le résumé et l'analyse des sentiments."
2158
2257
  },
2258
+ "mistral/codestral": {
2259
+ "description": "Mistral Codestral 25.01 est un modèle de codage de pointe, optimisé pour les cas d'usage à faible latence et haute fréquence. Maîtrisant plus de 80 langages de programmation, il excelle dans les tâches de remplissage intermédiaire (FIM), correction de code et génération de tests."
2260
+ },
2261
+ "mistral/codestral-embed": {
2262
+ "description": "Modèle d'embedding de code pouvant être intégré dans des bases de données et dépôts de code pour soutenir les assistants de codage."
2263
+ },
2264
+ "mistral/devstral-small": {
2265
+ "description": "Devstral est un grand modèle de langage agent pour les tâches d'ingénierie logicielle, en faisant un excellent choix pour les agents en ingénierie logicielle."
2266
+ },
2267
+ "mistral/magistral-medium": {
2268
+ "description": "Pensée complexe soutenue par une compréhension profonde, avec un raisonnement transparent que vous pouvez suivre et vérifier. Ce modèle maintient un raisonnement fidèle dans de nombreuses langues, même lors de changements de langue en cours de tâche."
2269
+ },
2270
+ "mistral/magistral-small": {
2271
+ "description": "Pensée complexe soutenue par une compréhension profonde, avec un raisonnement transparent que vous pouvez suivre et vérifier. Ce modèle maintient un raisonnement fidèle dans de nombreuses langues, même lors de changements de langue en cours de tâche."
2272
+ },
2273
+ "mistral/ministral-3b": {
2274
+ "description": "Un modèle compact et efficace pour les tâches sur appareil telles qu'assistants intelligents et analyses locales, offrant une faible latence."
2275
+ },
2276
+ "mistral/ministral-8b": {
2277
+ "description": "Un modèle plus puissant avec un raisonnement plus rapide et économe en mémoire, idéal pour les flux de travail complexes et les applications exigeantes en périphérie."
2278
+ },
2279
+ "mistral/mistral-embed": {
2280
+ "description": "Modèle d'embedding textuel universel pour la recherche sémantique, la similarité, le clustering et les workflows RAG."
2281
+ },
2282
+ "mistral/mistral-large": {
2283
+ "description": "Mistral Large est idéal pour les tâches complexes nécessitant une grande capacité de raisonnement ou une spécialisation élevée, telles que la génération de texte synthétique, le codage, le RAG ou les agents."
2284
+ },
2285
+ "mistral/mistral-saba-24b": {
2286
+ "description": "Mistral Saba 24B est un modèle open source de 24 milliards de paramètres développé par Mistral.ai. Saba est un modèle spécialisé entraîné pour exceller en arabe, persan, ourdou, hébreu et langues indiennes. Servi par Groq avec son matériel personnalisé LPU pour un raisonnement rapide et efficace."
2287
+ },
2288
+ "mistral/mistral-small": {
2289
+ "description": "Mistral Small est idéal pour les tâches simples pouvant être traitées en lots, telles que la classification, le support client ou la génération de texte. Il offre d'excellentes performances à un prix abordable."
2290
+ },
2291
+ "mistral/mixtral-8x22b-instruct": {
2292
+ "description": "Modèle 8x22b Instruct. 8x22b est un modèle open source à experts hybrides servi par Mistral."
2293
+ },
2294
+ "mistral/pixtral-12b": {
2295
+ "description": "Un modèle de 12 milliards de paramètres avec capacités de compréhension d'image et de texte."
2296
+ },
2297
+ "mistral/pixtral-large": {
2298
+ "description": "Pixtral Large est le deuxième modèle de notre famille multimodale, démontrant un niveau avancé de compréhension d'image. En particulier, il peut comprendre documents, graphiques et images naturelles, tout en conservant les capacités de compréhension textuelle de pointe de Mistral Large 2."
2299
+ },
2159
2300
  "mistralai/Mistral-7B-Instruct-v0.1": {
2160
2301
  "description": "Mistral (7B) Instruct est réputé pour ses performances élevées, adapté à diverses tâches linguistiques."
2161
2302
  },
@@ -2222,12 +2363,21 @@
2222
2363
  "moonshotai/Kimi-K2-Instruct-0905": {
2223
2364
  "description": "Kimi K2-Instruct-0905 est la version la plus récente et la plus puissante de Kimi K2. Il s'agit d'un modèle linguistique de pointe à experts mixtes (MoE), avec un total de 1 000 milliards de paramètres et 32 milliards de paramètres activés. Les principales caractéristiques de ce modèle incluent : une intelligence de codage d'agents améliorée, démontrant des performances significatives dans les tests de référence publics et les tâches réelles d'agents de codage ; une expérience de codage frontale améliorée, avec des progrès tant en esthétique qu'en praticité pour la programmation frontale."
2224
2365
  },
2366
+ "moonshotai/kimi-k2": {
2367
+ "description": "Kimi K2 est un modèle de langage à experts hybrides (MoE) à grande échelle développé par Moonshot AI, avec un total de 1 000 milliards de paramètres et 32 milliards de paramètres activés par passage avant. Il est optimisé pour les capacités d'agent, incluant l'utilisation avancée d'outils, le raisonnement et la synthèse de code."
2368
+ },
2225
2369
  "moonshotai/kimi-k2-0905": {
2226
2370
  "description": "Le modèle kimi-k2-0905-preview dispose d'une longueur de contexte de 256k, offrant une capacité renforcée de codage agentique, une meilleure esthétique et utilité du code front-end, ainsi qu'une compréhension contextuelle améliorée."
2227
2371
  },
2228
2372
  "moonshotai/kimi-k2-instruct-0905": {
2229
2373
  "description": "Le modèle kimi-k2-0905-preview dispose d'une longueur de contexte de 256k, offrant une capacité renforcée de codage agentique, une meilleure esthétique et utilité du code front-end, ainsi qu'une compréhension contextuelle améliorée."
2230
2374
  },
2375
+ "morph/morph-v3-fast": {
2376
+ "description": "Morph propose un modèle IA spécialisé qui applique rapidement les modifications de code suggérées par des modèles de pointe (comme Claude ou GPT-4o) à vos fichiers de code existants - RAPIDE - plus de 4500 tokens/seconde. Il agit comme la dernière étape dans le flux de travail de codage IA. Supporte 16k tokens d'entrée et 16k tokens de sortie."
2377
+ },
2378
+ "morph/morph-v3-large": {
2379
+ "description": "Morph propose un modèle IA spécialisé qui applique les modifications de code suggérées par des modèles de pointe (comme Claude ou GPT-4o) à vos fichiers de code existants - RAPIDE - plus de 2500 tokens/seconde. Il agit comme la dernière étape dans le flux de travail de codage IA. Supporte 16k tokens d'entrée et 16k tokens de sortie."
2380
+ },
2231
2381
  "nousresearch/hermes-2-pro-llama-3-8b": {
2232
2382
  "description": "Hermes 2 Pro Llama 3 8B est une version améliorée de Nous Hermes 2, intégrant les derniers ensembles de données développés en interne."
2233
2383
  },
@@ -2294,29 +2444,47 @@
2294
2444
  "open-mixtral-8x7b": {
2295
2445
  "description": "Mixtral 8x7B est un modèle d'expert épars, utilisant plusieurs paramètres pour améliorer la vitesse de raisonnement, adapté au traitement de tâches multilingues et de génération de code."
2296
2446
  },
2447
+ "openai/gpt-3.5-turbo": {
2448
+ "description": "Le modèle le plus performant et rentable de la série GPT-3.5 d'OpenAI, optimisé pour le chat mais également performant pour les tâches de complétion traditionnelles."
2449
+ },
2450
+ "openai/gpt-3.5-turbo-instruct": {
2451
+ "description": "Capacités similaires aux modèles de l'ère GPT-3. Compatible avec les points de terminaison de complétion traditionnels, pas les complétions de chat."
2452
+ },
2453
+ "openai/gpt-4-turbo": {
2454
+ "description": "gpt-4-turbo d'OpenAI possède une vaste connaissance générale et une expertise sectorielle, capable de suivre des instructions complexes en langage naturel et de résoudre précisément des problèmes difficiles. Sa date de coupure des connaissances est avril 2023, avec une fenêtre de contexte de 128 000 tokens."
2455
+ },
2297
2456
  "openai/gpt-4.1": {
2298
- "description": "GPT-4.1 est notre modèle phare pour les tâches complexes. Il est particulièrement adapté à la résolution de problèmes interdomaines."
2457
+ "description": "GPT 4.1 est le modèle phare d'OpenAI, adapté aux tâches complexes. Il excelle dans la résolution de problèmes interdomaines."
2299
2458
  },
2300
2459
  "openai/gpt-4.1-mini": {
2301
- "description": "GPT-4.1 mini offre un équilibre entre intelligence, rapidité et coût, ce qui en fait un modèle attrayant pour de nombreux cas d'utilisation."
2460
+ "description": "GPT 4.1 mini équilibre intelligence, vitesse et coût, en faisant un modèle attractif pour de nombreux cas d'usage."
2302
2461
  },
2303
2462
  "openai/gpt-4.1-nano": {
2304
- "description": "GPT-4.1 nano est le modèle GPT-4.1 le plus rapide et le plus rentable."
2463
+ "description": "GPT-4.1 nano est le modèle GPT 4.1 le plus rapide et le plus rentable."
2305
2464
  },
2306
2465
  "openai/gpt-4o": {
2307
- "description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension et une génération de langage puissantes, adapté à des scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique."
2466
+ "description": "GPT-4o d'OpenAI possède une vaste connaissance générale et une expertise sectorielle, capable de suivre des instructions complexes en langage naturel et de résoudre précisément des problèmes difficiles. Il offre des performances équivalentes à GPT-4 Turbo avec une API plus rapide et moins coûteuse."
2308
2467
  },
2309
2468
  "openai/gpt-4o-mini": {
2310
- "description": "GPT-4o mini est le dernier modèle d'OpenAI lancé après GPT-4 Omni, prenant en charge les entrées d'images et de texte et produisant du texte en sortie. En tant que leur modèle compact le plus avancé, il est beaucoup moins cher que d'autres modèles de pointe récents et coûte plus de 60 % de moins que GPT-3.5 Turbo. Il maintient une intelligence de pointe tout en offrant un rapport qualité-prix significatif. GPT-4o mini a obtenu un score de 82 % au test MMLU et se classe actuellement au-dessus de GPT-4 en termes de préférences de chat."
2469
+ "description": "GPT-4o mini d'OpenAI est leur modèle petit, avancé et rentable. Il est multimodal (accepte texte ou image en entrée et produit du texte), plus intelligent que gpt-3.5-turbo tout en étant aussi rapide."
2470
+ },
2471
+ "openai/gpt-5": {
2472
+ "description": "GPT-5 est le modèle de langage phare d'OpenAI, excellent en raisonnement complexe, vaste connaissance du monde réel, tâches intensives en code et agents multi-étapes."
2473
+ },
2474
+ "openai/gpt-5-mini": {
2475
+ "description": "GPT-5 mini est un modèle optimisé pour le coût, performant en raisonnement et tâches de chat. Il offre un équilibre optimal entre vitesse, coût et capacité."
2476
+ },
2477
+ "openai/gpt-5-nano": {
2478
+ "description": "GPT-5 nano est un modèle à haut débit, performant pour les instructions simples ou les tâches de classification."
2311
2479
  },
2312
2480
  "openai/gpt-oss-120b": {
2313
- "description": "OpenAI GPT-OSS 120B est un modèle linguistique de pointe doté de 120 milliards de paramètres, intégrant des fonctions de recherche via navigateur et d'exécution de code, ainsi que des capacités de raisonnement."
2481
+ "description": "Modèle de langage général extrêmement performant avec des capacités de raisonnement puissantes et contrôlables."
2314
2482
  },
2315
2483
  "openai/gpt-oss-20b": {
2316
- "description": "OpenAI GPT-OSS 20B est un modèle linguistique de pointe doté de 20 milliards de paramètres, intégrant des fonctions de recherche via navigateur et d'exécution de code, ainsi que des capacités de raisonnement."
2484
+ "description": "Modèle de langage compact avec poids open source, optimisé pour la faible latence et les environnements à ressources limitées, incluant le déploiement local et en périphérie."
2317
2485
  },
2318
2486
  "openai/o1": {
2319
- "description": "o1 est le nouveau modèle d'inférence d'OpenAI, prenant en charge les entrées multimodales (texte et image) et produisant du texte, adapté aux tâches complexes nécessitant des connaissances générales étendues. Ce modèle dispose d'un contexte de 200K et d'une date de coupure des connaissances en octobre 2023."
2487
+ "description": "o1 d'OpenAI est un modèle de raisonnement phare, conçu pour les problèmes complexes nécessitant une réflexion approfondie. Il offre un raisonnement puissant et une précision accrue pour les tâches complexes à plusieurs étapes."
2320
2488
  },
2321
2489
  "openai/o1-mini": {
2322
2490
  "description": "o1-mini est un modèle de raisonnement rapide et économique conçu pour les applications de programmation, de mathématiques et de sciences. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023."
@@ -2325,23 +2493,44 @@
2325
2493
  "description": "o1 est le nouveau modèle de raisonnement d'OpenAI, adapté aux tâches complexes nécessitant une vaste connaissance générale. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023."
2326
2494
  },
2327
2495
  "openai/o3": {
2328
- "description": "o3 est un modèle polyvalent et puissant, qui excelle dans de nombreux domaines. Il établit de nouvelles normes pour les tâches de mathématiques, de sciences, de programmation et de raisonnement visuel. Il est également doué pour la rédaction technique et le respect des instructions. Les utilisateurs peuvent l'utiliser pour analyser des textes, du code et des images, et résoudre des problèmes complexes en plusieurs étapes."
2496
+ "description": "o3 d'OpenAI est le modèle de raisonnement le plus puissant, établissant de nouveaux standards en codage, mathématiques, sciences et perception visuelle. Il excelle dans les requêtes complexes nécessitant une analyse multidimensionnelle, avec un avantage particulier pour l'analyse d'images, graphiques et diagrammes."
2329
2497
  },
2330
2498
  "openai/o3-mini": {
2331
- "description": "o3-mini offre une grande intelligence avec les mêmes objectifs de coût et de latence que o1-mini."
2499
+ "description": "o3-mini est le dernier petit modèle de raisonnement d'OpenAI, offrant une intelligence élevée avec les mêmes objectifs de coût et latence que o1-mini."
2332
2500
  },
2333
2501
  "openai/o3-mini-high": {
2334
2502
  "description": "o3-mini haute version de raisonnement, offrant une grande intelligence avec les mêmes objectifs de coût et de latence que o1-mini."
2335
2503
  },
2336
2504
  "openai/o4-mini": {
2337
- "description": "o4-mini est optimisé pour une inférence rapide et efficace, offrant une grande efficacité et performance dans les tâches de codage et visuelles."
2505
+ "description": "o4-mini d'OpenAI offre un raisonnement rapide et rentable, avec des performances exceptionnelles pour sa taille, notamment en mathématiques (meilleur sur le benchmark AIME), codage et tâches visuelles."
2338
2506
  },
2339
2507
  "openai/o4-mini-high": {
2340
2508
  "description": "Version à haut niveau d'inférence d'o4-mini, optimisée pour une inférence rapide et efficace, offrant une grande efficacité et performance dans les tâches de codage et visuelles."
2341
2509
  },
2510
+ "openai/text-embedding-3-large": {
2511
+ "description": "Le modèle d'embedding le plus performant d'OpenAI, adapté aux tâches en anglais et non anglaises."
2512
+ },
2513
+ "openai/text-embedding-3-small": {
2514
+ "description": "Version améliorée et plus performante du modèle d'embedding ada d'OpenAI."
2515
+ },
2516
+ "openai/text-embedding-ada-002": {
2517
+ "description": "Modèle d'embedding textuel traditionnel d'OpenAI."
2518
+ },
2342
2519
  "openrouter/auto": {
2343
2520
  "description": "En fonction de la longueur du contexte, du sujet et de la complexité, votre demande sera envoyée à Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-régulé) ou GPT-4o."
2344
2521
  },
2522
+ "perplexity/sonar": {
2523
+ "description": "Produit léger de Perplexity avec capacité de recherche ancrée, plus rapide et moins cher que Sonar Pro."
2524
+ },
2525
+ "perplexity/sonar-pro": {
2526
+ "description": "Produit phare de Perplexity avec capacité de recherche ancrée, supportant des requêtes avancées et des suivis."
2527
+ },
2528
+ "perplexity/sonar-reasoning": {
2529
+ "description": "Modèle axé sur le raisonnement, produisant des chaînes de pensée (CoT) dans les réponses, offrant des explications détaillées avec recherche ancrée."
2530
+ },
2531
+ "perplexity/sonar-reasoning-pro": {
2532
+ "description": "Modèle avancé axé sur le raisonnement, produisant des chaînes de pensée (CoT) dans les réponses, offrant des explications complètes avec capacités de recherche améliorées et multiples requêtes de recherche par demande."
2533
+ },
2345
2534
  "phi3": {
2346
2535
  "description": "Phi-3 est un modèle ouvert léger lancé par Microsoft, adapté à une intégration efficace et à un raisonnement de connaissances à grande échelle."
2347
2536
  },
@@ -2804,6 +2993,12 @@
2804
2993
  "v0-1.5-md": {
2805
2994
  "description": "Le modèle v0-1.5-md convient aux tâches quotidiennes et à la génération d'interfaces utilisateur (UI)"
2806
2995
  },
2996
+ "vercel/v0-1.0-md": {
2997
+ "description": "Accès au modèle derrière v0 pour générer, réparer et optimiser des applications Web modernes, avec raisonnement spécifique aux frameworks et connaissances à jour."
2998
+ },
2999
+ "vercel/v0-1.5-md": {
3000
+ "description": "Accès au modèle derrière v0 pour générer, réparer et optimiser des applications Web modernes, avec raisonnement spécifique aux frameworks et connaissances à jour."
3001
+ },
2807
3002
  "wan2.2-t2i-flash": {
2808
3003
  "description": "Version ultra-rapide Wanxiang 2.2, le modèle le plus récent à ce jour. Améliorations globales en créativité, stabilité et réalisme, avec une vitesse de génération rapide et un excellent rapport qualité-prix."
2809
3004
  },
@@ -2834,6 +3029,27 @@
2834
3029
  "x1": {
2835
3030
  "description": "Le modèle Spark X1 sera mis à niveau, et sur la base de ses performances déjà leaders dans les tâches mathématiques, il atteindra des résultats comparables dans des tâches générales telles que le raisonnement, la génération de texte et la compréhension du langage, en se mesurant à OpenAI o1 et DeepSeek R1."
2836
3031
  },
3032
+ "xai/grok-2": {
3033
+ "description": "Grok 2 est un modèle de langage de pointe avec des capacités de raisonnement avancées. Il excelle en chat, codage et raisonnement, surpassant Claude 3.5 Sonnet et GPT-4-Turbo dans le classement LMSYS."
3034
+ },
3035
+ "xai/grok-2-vision": {
3036
+ "description": "Le modèle visuel Grok 2 excelle dans les tâches basées sur la vision, offrant des performances de pointe en raisonnement mathématique visuel (MathVista) et en questions-réponses basées sur documents (DocVQA). Il peut traiter diverses informations visuelles, y compris documents, graphiques, diagrammes, captures d'écran et photos."
3037
+ },
3038
+ "xai/grok-3": {
3039
+ "description": "Modèle phare de xAI, performant pour les cas d'usage d'entreprise tels que l'extraction de données, le codage et le résumé de texte. Il possède une expertise approfondie dans les domaines financier, médical, juridique et scientifique."
3040
+ },
3041
+ "xai/grok-3-fast": {
3042
+ "description": "Modèle phare de xAI, performant pour les cas d'usage d'entreprise tels que l'extraction de données, le codage et le résumé de texte. La variante rapide est servie sur une infrastructure plus rapide, offrant des temps de réponse bien supérieurs au standard, au coût accru par token de sortie."
3043
+ },
3044
+ "xai/grok-3-mini": {
3045
+ "description": "Modèle léger de xAI, réfléchissant avant de répondre. Idéal pour les tâches simples ou logiques ne nécessitant pas une expertise approfondie. La trajectoire de pensée brute est accessible."
3046
+ },
3047
+ "xai/grok-3-mini-fast": {
3048
+ "description": "Modèle léger de xAI, réfléchissant avant de répondre. Idéal pour les tâches simples ou logiques ne nécessitant pas une expertise approfondie. La trajectoire de pensée brute est accessible. La variante rapide est servie sur une infrastructure plus rapide, offrant des temps de réponse bien supérieurs au standard, au coût accru par token de sortie."
3049
+ },
3050
+ "xai/grok-4": {
3051
+ "description": "Le dernier et meilleur modèle phare de xAI, offrant des performances inégalées en langage naturel, mathématiques et raisonnement — un véritable modèle polyvalent."
3052
+ },
2837
3053
  "yi-1.5-34b-chat": {
2838
3054
  "description": "Yi-1.5 est une version améliorée de Yi. Il utilise un corpus de haute qualité de 500 milliards de tokens pour poursuivre l'entraînement préalable de Yi, et est affiné sur 3 millions d'exemples de fine-tuning variés."
2839
3055
  },
@@ -2881,5 +3097,14 @@
2881
3097
  },
2882
3098
  "zai-org/GLM-4.5V": {
2883
3099
  "description": "GLM-4.5V est la dernière génération de modèle langage-visuel (VLM) publiée par Zhipu AI. Ce modèle est construit sur le modèle texte phare GLM-4.5-Air, qui compte 106 milliards de paramètres au total et 12 milliards de paramètres d'activation, et adopte une architecture de mixture d'experts (MoE) afin d'obtenir des performances excellentes à un coût d'inférence réduit. Sur le plan technique, GLM-4.5V prolonge la lignée de GLM-4.1V-Thinking et introduit des innovations telles que l'encodage de position rotatif en 3D (3D-RoPE), renforçant de façon significative la perception et le raisonnement des relations spatiales tridimensionnelles. Grâce aux optimisations apportées lors des phases de pré-entraînement, d'affinage supervisé et d'apprentissage par renforcement, ce modèle est capable de traiter divers contenus visuels, notamment des images, des vidéos et des documents longs, et atteint un niveau de pointe parmi les modèles open source de la même catégorie sur 41 benchmarks multimodaux publics. De plus, le modèle intègre un interrupteur « mode réflexion » permettant aux utilisateurs de choisir de manière flexible entre réponses rapides et raisonnement approfondi, pour équilibrer efficacité et qualité."
3100
+ },
3101
+ "zai/glm-4.5": {
3102
+ "description": "La série de modèles GLM-4.5 est conçue spécifiquement pour les agents. Le modèle phare GLM-4.5 intègre 355 milliards de paramètres totaux (32 milliards actifs), unifiant raisonnement, codage et capacités d'agent pour répondre à des besoins applicatifs complexes. En tant que système de raisonnement hybride, il offre deux modes d'opération."
3103
+ },
3104
+ "zai/glm-4.5-air": {
3105
+ "description": "GLM-4.5 et GLM-4.5-Air sont nos derniers modèles phares, conçus comme modèles de base pour les applications d'agents. Les deux utilisent une architecture d'experts hybrides (MoE). GLM-4.5 compte 355 milliards de paramètres totaux avec 32 milliards actifs par passage avant, tandis que GLM-4.5-Air adopte une conception plus simplifiée avec 106 milliards de paramètres totaux et 12 milliards actifs."
3106
+ },
3107
+ "zai/glm-4.5v": {
3108
+ "description": "GLM-4.5V est construit sur le modèle de base GLM-4.5-Air, héritant des techniques éprouvées de GLM-4.1V-Thinking, tout en réalisant une mise à l'échelle efficace grâce à une puissante architecture MoE de 106 milliards de paramètres."
2884
3109
  }
2885
3110
  }
@@ -161,6 +161,9 @@
161
161
  "v0": {
162
162
  "description": "v0 est un assistant de programmation en binôme. Il vous suffit de décrire vos idées en langage naturel, et il génère le code et l'interface utilisateur (UI) pour votre projet."
163
163
  },
164
+ "vercelaigateway": {
165
+ "description": "Vercel AI Gateway offre une API unifiée pour accéder à plus de 100 modèles, permettant d'utiliser les modèles de plusieurs fournisseurs tels qu'OpenAI, Anthropic, Google, via un point de terminaison unique. Il prend en charge la gestion du budget, la surveillance de l'utilisation, l'équilibrage de charge des requêtes et la tolérance aux pannes."
166
+ },
164
167
  "vertexai": {
165
168
  "description": "La série Gemini de Google est son modèle d'IA le plus avancé et polyvalent, développé par Google DeepMind, conçu pour être multimodal, prenant en charge la compréhension et le traitement sans couture de texte, de code, d'images, d'audio et de vidéo. Adapté à divers environnements, des centres de données aux appareils mobiles, il améliore considérablement l'efficacité et l'applicabilité des modèles d'IA."
166
169
  },