La société chinoise de recherche en intelligence artificielle DeepSeek a introduit un modèle de « raisonnement » doté de fonctionnalités qui peuvent rivaliser avec le modèle O1 d'OpenAI. Ce modèle, baptisé DeepSeek-R1, est considéré comme une nouvelle étape remarquable dans le monde de l’intelligence artificielle. La version préliminaire du modèle, publiée mercredi, se distingue par sa capacité à se valider en interne en passant plus de temps à répondre à des questions particulièrement difficiles.
La société de développement DeepSeek a déclaré que R1 vise à réduire les problèmes tels que les mauvaises réponses ou les inférences incorrectes que les modèles d'intelligence artificielle rencontrent souvent. Le modèle effectue une série d’opérations avant de répondre à une question, ce qui dans certains cas peut prendre de quelques secondes à plusieurs dizaines de secondes pour générer la réponse. Il s'agit d'une fonctionnalité également présente dans le modèle O1 d'OpenAI.
DeepSeek-R1 et tests de performances
DeepSeek affirme que les performances du R1 sont comparables à celles du modèle O1 d'OpenAI dans les tests AIME et MATH, qui sont couramment utilisés pour évaluer les capacités des modèles d'IA. Alors qu'AIME fournit une évaluation comparative des modèles avec d'autres intelligences artificielles, MATH teste le modèle avec des problèmes mathématiques et des questions logiques. Cependant, malgré ces succès du modèle, il est indiqué qu'il présente certaines lacunes dans des problèmes de logique simples tels que le tic-tac-toe.
De plus, des critiques ont été formulées concernant les limites de sécurité et éthiques de DeepSeek-R1. Certains utilisateurs affirment que le modèle peut facilement être « jailbreaké », ce qui signifie qu’il peut contourner les protections et fournir des réponses indésirables ou contraires à l’éthique. Par exemple, un utilisateur a pu obtenir à partir du modèle des instructions détaillées sur la fabrication de produits chimiques illicites.
Il a été observé que DeepSeek-R1 refuse de répondre aux questions concernant certaines questions politiques. Par exemple, les questions sur des sujets tels que Xi Jinping, la place Tiananmen ou une éventuelle invasion de Taiwan par la Chine ont été bloquées par le modèle. Cela montre que le modèle a été développé spécialement en fonction des sensibilités politiques en Chine.
Les modèles de raisonnement tels que DeepSeek-R1 sont considérés comme une étape importante dans le développement de la technologie de l’intelligence artificielle. Ces modèles traitent non seulement les données, mais peuvent également être utilisés pour des tâches plus complexes telles que la planification et la prévision. Cependant, clarifier les limites éthiques de ces technologies et améliorer les mesures de sécurité apparaissent comme une condition essentielle pour une adoption plus large.
Bien que DeepSeek-R1 soit une initiative innovante susceptible d’accroître la concurrence dans le monde de l’intelligence artificielle, il apparaît comme un modèle à surveiller attentivement en raison de ses limites actuelles et de ses risques potentiels. Ces développements rapides dans le domaine de l’intelligence artificielle offrent une opportunité importante pour parvenir à un écosystème technologique plus fiable et plus complet.