Apple se prépare à offrir des innovations de sécurité remarquables aux utilisateurs d'iPhone avec la version iOS 26. L'un des plus importants est le système d'arrêt basé sur la détection de la nudité intégré à FaceTime. Ce système coupe instantanément l'image et le son lorsque du contenu inapproprié est détecté pendant l'entretien. Cette fonctionnalité avec intelligence artificielle est actuellement testée dans la version bêta.
Ce nouveau, en particulier, pour la sécurité des utilisateurs, la fonction de la sécurité de la communication, précédemment développé pour les comptes d'enfants, peut être en pleine expansion. Selon les déclarations précédentes d'Apple, ce système a brouillé le contenu lorsqu'il a détecté la nudité ou a averti l'utilisateur. Cependant, les observations faites dans la dernière version bêta montrent que cette fonctionnalité est également active dans les comptes adultes. Cela apporte de nouveaux points d'interrogation sur la portée du système.
Quand il détecte la non-conformité avec iOS 26, il déduit l'entretien
Dans une vidéo partagée par la source d'idevicehelp sur la plate-forme X, on voit que l'écran s'est arrêté lorsque la nudité a été détectée lors de l'entretien FaceTime. L'application suspend le son et l'image et affiche un message d'avertissement à l'écran. Le message comprend la phrase « Le son et la vidéo ont été interrompus parce que vous montrez un contenu sensible ». Il est conseillé à l'utilisateur de faire un choix entre continuer ou terminer.
En regardant le fonctionnement du système, il est indiqué que tout se passe dans l'appareil. Apple n'envoie aucun contenu à ses serveurs pour la détection de la nudité. Au lieu de cela, l'analyse est effectuée via des modèles d'apprentissage automatique à l'intérieur de l'appareil. Ainsi, la confidentialité des utilisateurs est techniquement préservée.
Bien que le système semble prêter attention aux limites de la vie privée à cet égard, l'activation des utilisateurs adultes a également causé certaines préoccupations. Car il n'est pas clair selon les critères d'une telle intervention. L'interruption de l'image sans le consentement de l'utilisateur recueille à nouveau les discussions de la confidentialité numérique. Cette incertitude augmente la nécessité de plus d'explications sur exactement quels types de comptes de la fonctionnalité.
Apple a déclaré que cette nouvelle fonction de sécurité visait uniquement les enfants dans l'introduction d'iOS 26. Cependant, les signes dans la version bêta montrent que le système peut également affecter les utilisateurs adultes. Cela augmente la nécessité de clarter sur la façon dont l'entreprise met en œuvre les limites des utilisateurs et les politiques de sécurité. En plus de tout cela, on ne sait pas encore comment offrir la fonctionnalité dans la version finale.
D'un autre côté, la sensibilité de l'algorithme du système est une question de discussion. Est-ce que la nudité est perçue, ou est-elle activée dans chaque image sur le thème du corps; Ces questions ne sont pas encore claires. De plus, si le système produit les mauvais résultats positifs est actuellement en phase de test. Si les entretiens s'arrêtent, l'expérience des utilisateurs sera décisive en termes de convivialité de l'application.