8 Déc, 2023
Les faux nus créés par IA ou deepfakes pornographiques envahissent la toile et aux États-Unis, ce sont les adolescentes américaines qui en pâtissent. Ces montages photo particulièrement réalistes sont de plus en plus faciles à produire avec la démocratisation de l’intelligence artificielle.
Les faux nus créés par IA circulent beaucoup sur les réseaux sociaux
Les progrès de l’intelligence artificielle et surtout la popularisation de son usage auprès du grand public mènent à certaines dérives. La création des deepfakes pornographiques en fait partie, et fait des victimes, surtout auprès des adolescentes américaines. Ces faux nus créés par IA sont en réalité, des montages photo ou vidéo hyperréalistes à caractère pornographique, souvent utilisés pour harceler les victimes ou pour les humilier. Ce fut le cas, par exemple, d’une collégienne Texane appelée Ellis, âgée de 14 ans, dont les fausses photographies la montrant dénudée, ont été partagées sur Snapchat. Il s’avère que nombreuses de ses camarades ont aussi été la cible de cet acte malveillant.
L’intelligence artificielle facilite la création de ces montages photo ou vidéo
La création de deepfakes pornographiques et leur mise en circulation à des fins de vengeance, d’humiliation ou de harcèlement est de plus en plus fréquent aux USA. Une enquête est d’ailleurs ouverte après que de tels contenus ont été découverts dans un lycée du New Jersey en octobre. Leur prolifération s’explique par la facilité à laquelle il est possible d’accéder aux programmes de création. Une chercheuse en intelligence artificielle précise qu’il suffit d’un smartphone et de quelques dollars pour fabriquer un deepfake. L’intelligence artificielle générative est désormais en mesure de produire des images, des sons et des vidéos à partir d’une simple requête.
La législation est dépassée face à la menace de ces contenus à caractère sexuel
Les adolescentes américaines victimes de ces fausses images à caractère sexuel ont beau être traumatisées, elles ne sont pas pour autant bien protégées par les systèmes scolaires et judiciaires. Aux USA, le fait de fabriquer et de transmettre ce genre de contenus ne fait l’objet d’aucune sanction fédérale. Par ailleurs, seuls quelques États ont légiféré spécifiquement sur ce sujet. Face à la situation actuelle, le président américain Joe Biden a appelé les législateurs à empêcher l’usage de l’intelligence artificielle générative pour fabriquer des contenus pédocriminels ou intimes non consentis par les personnes réelles. À cet effet, il demande à ce que des limites et des protections soient fixées.
Quid de la responsabilité des éditeurs et des plateformes ?
La prolifération alarmante des deepfakes sexuels sur les réseaux sociaux, mettant en scène des adolescentes américaines, soulève des préoccupations croissantes quant à la protection de la vie privée et à la sécurité en ligne. Cependant, au-delà des individus malveillants qui exploitent ces technologies, la responsabilité des entreprises qui fournissent ces outils et des réseaux sociaux en tant que canaux de diffusion doit être scrutée de près. Des mesures de sécurité renforcées, telles que des algorithmes de détection avancés, pourraient contribuer à limiter la propagation de ces contenus néfastes. Les entreprises doivent également coopérer avec les autorités pour enquêter sur les cas signalés et prendre des mesures légales contre les individus responsables.
Les victimes doivent être accompagnées psychologiquement
Ces attaques sous forme de contenus altérés par l’intelligence artificielle devenus malheureusement courantes peuvent avoir des conséquences dévastatrices sur la santé mentale des victimes. Les ados qui se retrouvent piégés dans ce type de cyberharcèlement peuvent développer un stress post-traumatique, des symptômes d’anxiété sévère, des crises de panique et même sombrer dans la dépression. Dans de tels cas, le soutien psychologique professionnel est primordial. Les victimes ont besoin d’un espace sécurisé pour exprimer leurs émotions, comprendre et traiter les traumatismes subis.
Avec ETX/DailyUp