Chatgpt a une fonctionnalité de recherche qui a consommé moins de ressources

La nouvelle fonctionnalité de recherche qui ouvre l'IA intégrée dans la plate-forme ChatGpt consomme moins de ressources et produit des réponses plus courtes que la version précédente. Ce nouvel outil est défini comme un outil de recherche «léger» et peut être utilisé par Chatgpt Plus, Team et Pro utilisateurs aujourd'hui. Cependant, la même fonctionnalité a été active pour les utilisateurs gratuits. Ce nouveau modèle, qui vise à augmenter l'expérience utilisateur, a été développé en particulier pour ceux qui souhaitent accéder à des informations rapides et efficaces.

L'outil de recherche léger est soutenu par le modèle O4-Mini d'Open AI. Ce modèle nécessite une puissance de traitement plus faible par rapport à l'outil de recherche complet de Chatgpt. De cette façon, l'entreprise peut également étendre ses limites d'utilisation en réduisant les coûts du système. Lorsque les utilisateurs atteignent la limite de requête dans la version complète, le système passe automatiquement à cette version légère.

Chatgpt maintient sa profondeur de connaissances en donnant de courtes réponses

Ouvrez l'IA, même si le nouveau système produit des réponses plus courtes, elle ne fait pas de compromis sur la profondeur et la qualité du contenu. La structure concise des réponses offre un avantage, en particulier pour les utilisateurs qui souhaitent démarrer la recherche rapidement. Ainsi, au lieu de numériser des pages longues, il est désormais plus facile d'accéder à des informations résumées mais fiables. Cela soulage l'utilisateur en termes de gestion du temps et de ressources de transaction.

Récemment, des systèmes de recherche similaires ont commencé à être vus sur différentes plates-formes. Le modèle Gémeaux de Google, le système Copilot de Microsoft et l'initiative XAI d'Elon Musk Gok, fait partie des solutions remarquables dans ce domaine. Le point commun de ces systèmes est le travail avec des modèles de raisonnement avancé. Ces intelligences artificielles, non seulement offrent des informations, peuvent également contrôler la précision du contenu en elle-même.

La fonction de recherche légère d'Open AI ne prend pas derrière cette compétence. Bien que le système offre des réponses plus simples mais efficaces, elle élimine la foule d'informations inutile. Ce type de simplification augmente l'efficacité, en particulier pour les utilisateurs qui utilisent fréquemment et effectuent des recherches détaillées. Cela se démarque comme une innovation qui affecte directement les utilisateurs d'entreprises ou universitaires.

Open AI a annoncé qu'il serait actif pour les utilisateurs de l'entreprise et de formation à la formation la semaine prochaine. Ces utilisateurs auront le droit d'accéder au même niveau que les utilisateurs individuels dans le plan d'équipe. Ainsi, les institutions pourront accéder à des informations à moindre coût. Cela garantira que les processus de recherche sont plus équilibrés et durables.

De plus, l'outil de recherche léger devient un outil idéal, en particulier pour l'analyse de première étape. Les utilisateurs qui souhaitent dessiner un cadre général sur le sujet commencent le processus avec des résumés rapides au lieu de longs rapports. Cela constitue une base solide pour des recherches ultérieures. Bien que les réponses soient courtes, la précision du contenu et la fiabilité sont toujours à l'avant.

En plus de tout cela, le fait que le système travaille avec une faible puissance de traitement offre un avantage d'accès ininterrompu même pendant les périodes d'utilisation intensives. Cela augmente la satisfaction des utilisateurs et soutient la durabilité technique. De ce point de vue, la fonction de recherche «légère» attire l'attention comme une étape qui transforme non seulement une mise à jour technique, mais transforme également les habitudes d'utilisation.