Apple est accusé d'utiliser du contenu non autorisé lors du développement de systèmes d'intelligence artificielle. Cette fois, l’entreprise a fait face à un recours collectif intenté par deux scientifiques. Les universitaires en question ont affirmé que deux livres, dont les droits d'auteur leur appartenaient, avaient été utilisés par Apple sans aucune approbation ou autorisation. Avec cette évolution, les ressources que les géants de la technologie privilégient dans la formation à l’intelligence artificielle ont recommencé à être remises en question.
Les professeurs Susana Martinez-Conde et Stephen Macknik affirment qu'Apple obtient ses propres œuvres via des plateformes de contenu piraté connues sous le nom de « bibliothèques fantômes ». On prétend que les logiciels de navigation qui donnent accès à ces plates-formes collectent des publications protégées par le droit d'auteur sur Internet et les transfèrent aux systèmes. En outre, il est affirmé que la formation de modèles d’intelligence artificielle avec un tel contenu pose de sérieux problèmes tant sur le plan juridique qu’éthique. En particulier, l’utilisation non autorisée d’études scientifiques suscite de vives réactions dans les milieux universitaires. Les deux professeurs trouvent inacceptable que leurs travaux soient utilisés à des fins commerciales et à leur insu.
Apple a récemment été poursuivi pour une réclamation similaire.
Suite à cette évolution, une affaire similaire déposée auparavant est revenue sur le devant de la scène. Il y a quelques semaines à peine, deux auteurs différents accusaient également Apple de violation du droit d'auteur. L’utilisation d’ouvrages publiés dans des modèles d’intelligence artificielle à l’insu des auteurs soulève des inquiétudes quant à la manière dont ces systèmes sont entraînés. À ce stade, le statut juridique des données utilisées et les modalités d’obtention de celles-ci deviennent critiques. Parce que le manque de transparence mine la confiance des utilisateurs et affecte directement les producteurs de contenu. Dans ce domaine où les incertitudes juridiques persistent, la manière dont les affaires seront conclues revêt une grande importance.
Bien qu'Apple n'ait pas encore fait de déclaration officielle, le public suit de près ce processus. Le silence de l'entreprise est interprété dans certains milieux comme une tentative de se soustraire à ses responsabilités. Ce silence fait également ressortir d’autres systèmes d’intelligence artificielle entraînés avec des méthodes similaires. Dans ce contexte, nous discutons de la manière dont les entreprises sélectionnent les données de formation et des processus d'autorisation qu'elles suivent. L’utilisation commerciale de contenus académiques et littéraires, en particulier, soulève des questions éthiques.
Apple n'est pas seul dans ce processus ; D’autres entreprises technologiques combattent des allégations similaires. Par exemple, OpenAI fait l’objet d’une action en justice en raison d’une action en justice pour droits d’auteur déposée par le New York Times. Cette affaire remet également en cause les pratiques des sociétés d’intelligence artificielle dans le domaine du journalisme et de la production de contenus. Même si de telles poursuites n’entravent pas directement le développement technologique, elles obligent les entreprises à agir avec plus de prudence. Négliger des questions fondamentales telles que le droit d’auteur affaiblit la confiance dans le secteur. Par conséquent, les étapes futures sont évaluées dans le cadre juridique plus large.
À tout cela s’ajoute l’accord conclu avec la société Anthropic sur une question similaire ces derniers mois en est un exemple. Dans le cadre de cet accord, la société a accepté de verser 1,5 milliard de dollars à 500 000 écrivains. Ce règlement montre que les réclamations en matière de droits d'auteur ne se limitent pas aux procédures judiciaires et que des règlements financiers sont également possibles. Une telle évolution pourrait amener Apple et des sociétés similaires à réévaluer les moyens de réduire leurs risques juridiques. Quoi qu’il en soit, de tels accords sont également considérés par le public comme une « acceptation secrète de responsabilité ». Par conséquent, les entreprises sont censées élaborer des politiques plus claires concernant l’utilisation du contenu.
Les entreprises technologiques ne devraient pas se concentrer uniquement sur la capacité technique lorsqu’elles développent l’intelligence artificielle. La source, l’exactitude et le statut juridique du contenu jouent également un rôle déterminant dans la fiabilité des systèmes. Les utilisateurs ont le droit de savoir avec quelles données les textes produits ont été créés. Cette transparence protège à la fois les droits des producteurs de contenu et garantit que le public est informé. Garder secrète la source des données de formation éveille des soupçons. Tout d’abord, les systèmes basés sur la connaissance doivent être fondés sur la confiance.
Malgré cela, le fait que les développements dans le domaine de l’intelligence artificielle se poursuivent sans relâche nécessite que les réglementations juridiques progressent au même rythme. Les lois existantes peuvent s’avérer insuffisantes, notamment en ce qui concerne l’utilisation de contenus par les systèmes d’intelligence artificielle. À ce stade, la nécessité d’une nouvelle réglementation couvrant à la fois les producteurs de contenu et les entreprises technologiques apparaît clairement. Bien entendu, il est important que ces réglementations soient conçues de manière à ne pas entraver le développement technologique mais à protéger les droits. Dans le cas contraire, les tensions actuelles pourraient se transformer à long terme en crises juridiques plus graves. Il semble que la question de la propriété du contenu reviendra plus fréquemment au premier plan dans la période à venir.
Les scientifiques plaignants estiment que l'utilisation non autorisée de leurs travaux constitue un manque de respect envers le travail universitaire. Selon eux, le problème ne concerne pas seulement le droit d’auteur ; mais aussi le problème de la dévalorisation de la contribution scientifique. L’intégration d’études universitaires dans les systèmes commerciaux d’intelligence artificielle soulève de sérieuses questions éthiques. Cela met en évidence la nécessité de réévaluer les relations entre les universités et les entreprises technologiques. Malgré tout, le lieu de résolution de ces débats continuera à être le système judiciaire. Les décisions juridiques sont susceptibles d’avoir des effets durables sur l’industrie.