OpenAI impose des limites aux conseils juridiques, financiers et sanitaires de ChatGPT

Le chatbot basé sur l'intelligence artificielle ChatGPT a longtemps été considéré comme un outil permettant aux utilisateurs d'obtenir des informations sur tous les sujets. Les gens expliquaient un symptôme sur leur corps, demandaient un protocole de divorce ou recherchaient des idées d'investissement. Mais cette situation a changé avec la nouvelle décision prise par OpenAI. Désormais, ChatGPT n'offrira que des informations générales plutôt que des conseils personnels.

Les nouvelles règles entrent en vigueur le 29 octobre 2025. Désormais, ChatGPT ne pourra plus nommer de médicaments pour des symptômes liés à la santé ni vous indiquer le traitement possible d'une maladie. Les contenus tels que les documents juridiques, les échantillons de contrat ou les requêtes en justice ne seront plus créés. De même, le modèle ne vous recommandera pas d’investir ni ne donnera d’avis sur l’achat ou la vente d’actions. L'utilisateur se verra uniquement expliquer les principes de base en la matière, puis il lui sera conseillé de consulter un spécialiste.

ChatGPT sera un système qui explique les informations générales

Avec cette décision, OpenAI a empêché ChatGPT d'agir en tant que conseiller. En plus de tout cela, il y a une raison bien plus concrète derrière laquelle l’entreprise impose ces restrictions. Selon NEXTA, les grandes entreprises technologiques ont commencé à bloquer consciemment ce type de contenu afin d'éviter toute responsabilité juridique. Parce que les actions entreprises sur la base de fausses informations peuvent avoir de graves conséquences pour les utilisateurs. L’entreprise s’expose alors à des risques de poursuites.

Bien que ChatGPT réussisse à simplifier et expliquer des concepts complexes, cette compétence est insuffisante dans certains domaines. En particulier dans les domaines qui nécessitent une expertise tels que la médecine, le droit et la finance, fournir des informations incorrectes ou incomplètes peut causer de graves dommages. Lorsqu'une personne qui ressent une boule dans la poitrine parle à ChatGPT de la situation, le modèle peut évoquer une maladie grave. Cependant, un tel symptôme pourrait aussi être simplement un simple champ de pétrole. C’est pourquoi le diagnostic proprement dit doit être laissé aux médecins et il ne faut pas faire confiance à l’intelligence artificielle dans ce sens.

Un autre problème qui attire l’attention à ce stade est la tendance de ChatGPT à être utilisé à des fins de soutien psychologique. Certains utilisateurs se tournent vers le modèle lorsqu'ils rencontrent des difficultés émotionnelles et lui font part de leurs ennuis. Cependant, assumer un tel rôle comporte un grand risque pour une intelligence artificielle incapable de faire preuve d’empathie. De plus, même si un thérapeute a des responsabilités juridiques et une éthique professionnelle, ChatGPT ne dispose pas d'un tel cadre. Cela peut entraîner des conséquences néfastes, notamment pour les utilisateurs sensibles.

Des dangers similaires s’appliquent aux questions financières. L'intelligence artificielle peut expliquer ce que signifie un terme financier. Cependant, il est assez risqué de donner des conseils sans prendre en compte des informations personnelles telles que le niveau de revenu d'une personne, le montant de ses dettes et ses objectifs d'investissement. De plus, certains utilisateurs peuvent essayer d'obtenir une réponse rapide en saisissant leurs informations de compte bancaire ou leurs numéros fiscaux dans ChatGPT. Cependant, l’écriture de ces données dans le système peut entraîner des vulnérabilités irréversibles en matière de sécurité des données.

La situation n’est pas très différente en termes de documents juridiques. Les brouillons proposés par ChatGPT sont généralement constitués de textes généraux. Cependant, étant donné que chaque pays, voire chaque État, a des règles juridiques différentes, la validité de ces documents devient très controversée. Le document en question peut être totalement invalide en raison d'un manque de légalisation ou d'une formulation incorrecte. L’insuffisance de l’intelligence artificielle dans ces domaines apparaît comme l’une des principales raisons des restrictions.