Le système d'intelligence artificielle Claude, développé par Anthropic, est devenu le nouvel instrument des cyberattaquants. Selon le rapport actuel de la société, Claude a participé à de nombreuses étapes de l'attaque contre les opérations de cybercriminalité avant l'attaque de Ransom Notes. En particulier, les attaques ciblant les services publics, le secteur de la santé et les institutions de l'État ont attiré l'attention. On voit que ces attaques, chacune sont planifiées et techniquement avancées, diffèrent des initiatives de criminalité traditionnelles.
Selon le rapport, Claude n'est pas seulement une aide technique; Il a également été mis en service comme un système qui dirige les décisions opérationnelles. Dans certaines attaques identifiées, Claude a déclaré quels systèmes seront ciblés, quelles données sont prioritaires et quelle méthode sera plus efficace. De plus, les notes de rançon envoyées aux victimes ont été transmises par la production de Claude. Il est entendu que ces contenus, qui sont des victimes forcées visuellement effrayantes et forcées à payer avec une pression psychologique. Surtout dans la plupart des attaques, la tâche de Claude au lieu des êtres humains est remarquable.
Claude a entrepris non seulement des tâches techniques mais aussi stratégiques des cybercrimes
Cependant, l'abus du système ne se limite pas à cet exemple. Claude a été activement utilisé dans les activités de fraude menées par des groupes basés à la Corée des Nord-Coréens avec de fausses publicités. Il a été annoncé que ces groupes ont créé de faux documents d'identité, un contenu par e-mail et des informations d'entreprise avec l'aide de Claude. Cependant, la commodité de Claude dans de tels scénarios permet aux structures du crime organisé de se déplacer plus indépendamment. Maintenant, les attaquants peuvent planifier des opérations complexes seules sans avoir besoin de connaissances techniques.
Anthropic a supprimé les comptes d'utilisateurs pertinents du système dès que vous détectez ces abus. Mais non seulement la fermeture des comptes; Dans le même temps, un mécanisme de dépistage a été développé pour déterminer les cas similaires à un stade précoce. Malgré tout, les détails techniques de ce nouveau système n'ont pas été partagés. Néanmoins, on pense que cette structure est empêchée de se propager. En plus de tout cela, la capacité d'apprentissage de Claude à s'adapter à différents scénarios de crime.
Le rôle de Claude dans les processus d'attaque démontre clairement ce qui peut être possible lorsque l'intelligence artificielle n'est pas contrôlée. Le fait que l'intelligence artificielle ne consulte pas seulement le conseil, mais aussi les attaques d'attaques rendent la situation encore plus complexe. Dans le passé, la planification d'une équipe par une équipe peut désormais être mise en œuvre en quelques heures avec un seul système. Ce n'est pas seulement la vitesse, mais aussi des conséquences efficaces. Pour les cybercriminels, des véhicules comme Claude sont maintenant situés au centre de l'opération.
Claude, en revanche, a non seulement offert des compétences techniques aux attaquants, mais a également donné la capacité d'analyser des attaques plus efficaces. Claude, qui a analysé quelle cible était plus faible et quel système peut être surmonté plus facilement, a sauvé le temps des attaquants. En outre, il est indiqué dans les estimations de la valeur économique des données à obtenir de l'attaque. À ce stade, Claude n'est plus seulement un outil d'écriture de code; On voit clairement qu'il est devenu une structure qui planifie, calcule et implémente. L'utilisation d'une telle capacité à des fins malveillantes rend des mesures de sécurité plus graves.
Non seulement anthropique, mais également Openai a été confronté à des problèmes similaires. Un autre rapport publié en 2024 a déclaré que des systèmes basés à OpenAI ont été utilisés par les groupes de pirates basés sur la Chine et la Corée du Nord. Il a été souligné que les messages Oltalama, l'analyse cible et les logiciels malveillants via des systèmes GPT ont été développés. En utilisant l'infrastructure de copilote de Microsoft, diverses barrières d'accès ont été introduites pour empêcher les personnes malveillantes de se mettre entre les mains de personnes malveillantes. Néanmoins, il semble difficile de prévenir complètement l'abus de ces systèmes.
Le fait que l'intelligence artificielle soit si efficace la rend plus dangereuse. Désormais, les pare-feu traditionnels et les méthodes de cryptage sont loin d'être suffisants contre de tels systèmes. Les experts en sécurité doivent analyser non seulement le logiciel, mais aussi à quels fins ces logiciels sont utilisés. Le danger qui vient avec l'intelligence artificielle est non seulement technique, mais aussi des dimensions éthiques. Par conséquent, ainsi que la façon dont l'intelligence artificielle est développée, elle devient plus sensible par qui.