OpenAI repousse les limites du raisonnement avec le nouveau modèle o3

OpenAI a présenté les modèles o3 et o3-mini, qui sont décrits comme une nouvelle étape dans la recherche sur l'intelligence artificielle. Ces modèles attirent l’attention par leurs capacités de raisonnement et seraient beaucoup plus efficaces pour résoudre des problèmes complexes que les générations précédentes. Bien que la société n’ait pas encore rendu public le modèle o3, elle a commencé à accepter les candidatures de la communauté des chercheurs pour des tests préliminaires. La date d'accès public n'a pas encore été annoncée.

La caractéristique la plus frappante du modèle O3 est qu’il peut produire des résultats plus clairs et plus solides en divisant les instructions données à l’intelligence artificielle en étapes plus petites. Cette méthode permet également au modèle d’expliquer étape par étape comment il est arrivé à une conclusion, plutôt que de simplement fournir une réponse finale. Dans ce contexte, o3 vise à offrir à ses utilisateurs une expérience d'intelligence artificielle plus transparente grâce à sa capacité de raisonnement.

Du point de vue des performances, le modèle o3 a apporté une amélioration significative par rapport à ses prédécesseurs. Par exemple, il est indiqué qu'il est 22,8 % plus performant que les modèles précédents lors des tests de codage. Il a également été annoncé qu'il avait surpassé le scientifique en chef d'OpenAI en matière de programmation compétitive. Le modèle, qui n'a répondu correctement qu'à une seule question du concours AIME 2024 organisé dans le domaine des mathématiques, a atteint un taux de réussite de 87,7 % dans des problèmes scientifiques de niveau expert. Il a atteint un taux de résolution de 25,2 %, bien au-dessus des autres modèles, notamment dans les problèmes de mathématiques et de raisonnement les plus complexes avec lesquels l'intelligence artificielle a habituellement des difficultés.

Nouvelles approches de sécurité : alignement par la pensée

En plus du modèle o3, OpenAI a également annoncé une recherche sur la sécurité qu'elle appelle « alignement réfléchi ». Cette nouvelle approche nécessite que les modèles d’IA évaluent les décisions de sécurité en une série d’étapes. Le modèle prend des décisions plus éclairées en analysant si une demande d'utilisateur est conforme aux politiques de sécurité d'OpenAI. Cette méthode va au-delà du paradigme de sécurité traditionnel qui se limite aux seules réponses « Oui/Non ».

Par exemple, des tests sur le modèle o1 ont montré que cette méthode donne des résultats plus fiables que les modèles de génération précédente. OpenAI affirme que ce nouveau système est plus efficace, en particulier dans les scénarios de sécurité où même des modèles puissants tels que GPT-4 sont parfois remis en question. Cela indique que les modèles o3 et o3-mini auront à l'avenir une structure plus robuste en termes de sécurité.

Le passage d'OpenAI au modèle o3 est une indication de l'importance que l'entreprise accorde aux capacités de raisonnement. Suite au modèle o1, introduit en septembre, ignorer le modèle o2 et passer directement à o3 suggère que ce processus a été accéléré. Il est indiqué que la société a choisi cette étape pour éviter toute confusion de nom, en particulier avec la société de télécommunications britannique O2.

Le concept de « raisonnement », qui prend de plus en plus d’importance dans le monde de l’intelligence artificielle, naît de la nécessité de comprendre comment les machines non seulement donnent des réponses rapides, mais aussi comment elles créent ces réponses. Les nouveaux modèles d'OpenAI sont considérés comme une étape importante vers la satisfaction de ce besoin. Grâce à ses capacités de raisonnement, il a le potentiel d’offrir une expérience d’intelligence artificielle plus puissante et plus fiable tant aux utilisateurs individuels qu’aux chercheurs.

Les détails sur les modèles o3 et o3-mini d'OpenAI fournissent des indices importants sur le rôle que jouera l'intelligence artificielle dans la résolution de tâches plus complexes à l'avenir. Ces évolutions sont surveillées attentivement pour voir comment les technologies d’intelligence artificielle évolueront en termes de sécurité et de performances.