Une vidéo d'IA montre un Narendra Modi extatique, vêtu d'une veste et d'un pantalon à la mode, dansant sur une scène au son d'une chanson de Bollywood, sous les acclamations de la foule. Le premier ministre indien a re-partagé la vidéo sur X en déclarant : "Une telle créativité en pleine période électorale est vraiment un délice".

Une autre vidéo, avec la même mise en scène, montre Mamata Banerjee, la rivale de Modi, dansant dans une tenue semblable à un saree, mais la musique de fond est constituée de parties de son discours critiquant ceux qui ont quitté son parti pour rejoindre celui de Modi. La police de l'État a ouvert une enquête, estimant que la vidéo pouvait "porter atteinte à l'ordre public".

Les différentes réactions aux vidéos créées à l'aide d'outils d'intelligence artificielle (IA) montrent à quel point l'utilisation et l'abus de cette technologie augmentent et inquiètent les autorités de régulation et les responsables de la sécurité, alors que le pays le plus peuplé du monde organise des élections générales de grande ampleur.

Les vidéos d'IA faciles à réaliser, qui contiennent des ombres et des mouvements de mains presque parfaits, peuvent parfois induire en erreur même les personnes qui maîtrisent le numérique. Mais les risques sont plus élevés dans un pays où un grand nombre des 1,4 milliard d'habitants ont des difficultés technologiques et où un contenu manipulé peut facilement attiser les tensions sectaires, en particulier au moment des élections.

Selon une étude du Forum économique mondial publiée en janvier, le risque que représente la désinformation pour l'Inde est considéré comme plus élevé que le risque lié aux maladies infectieuses ou aux activités économiques illicites au cours des deux prochaines années.

"L'Inde est déjà très exposée au risque de désinformation. Avec l'IA, elle peut se propager à une vitesse 100 fois supérieure", a déclaré Sagar Vishnoi, consultant basé à New Delhi, qui conseille certains partis politiques sur l'utilisation de l'IA dans le cadre des élections indiennes.

"Les personnes âgées, qui ne sont souvent pas des adeptes de la technologie, se laissent de plus en plus séduire par des récits truqués, aidés par des vidéos d'IA. Cela pourrait avoir de graves conséquences, comme le déclenchement de la haine contre une communauté, une caste ou une religion."

Les élections nationales de 2024, qui se dérouleront sur six semaines et s'achèveront le 1er juin, sont les premières pour lesquelles l'IA est déployée. Les premiers exemples étaient innocents et se limitaient à quelques politiciens qui utilisaient la technologie pour créer des vidéos et des sons afin de personnaliser leurs campagnes.

Mais des cas majeurs d'utilisation abusive ont fait la une des journaux en avril, notamment des deepfakes d'acteurs de Bollywood critiquant Modi et de faux clips impliquant deux des principaux collaborateurs de Modi, qui ont conduit à l'arrestation de neuf personnes.

DIFFICILE À CONTRER

La semaine dernière, la commission électorale indienne a mis en garde les partis politiques contre l'utilisation de l'IA pour diffuser des informations erronées et a rappelé sept dispositions des lois sur les technologies de l'information et d'autres lois qui prévoient des peines d'emprisonnement pouvant aller jusqu'à trois ans pour des infractions telles que la falsification, la promotion de rumeurs et l'inimitié.

Un haut responsable de la sécurité nationale à New Delhi a déclaré que les autorités s'inquiétaient de la possibilité que les fausses nouvelles entraînent des troubles. La facilité d'accès aux outils d'intelligence artificielle permet de fabriquer de telles fausses nouvelles, en particulier pendant les élections, et il est difficile de les contrer, a déclaré le responsable.

"Nous ne disposons pas d'une capacité (de surveillance adéquate)... il est difficile de suivre l'évolution constante de l'environnement de l'IA", a déclaré le fonctionnaire.

Un haut fonctionnaire électoral a déclaré : "Nous ne sommes pas en mesure d'assurer une surveillance complète : "Nous ne sommes pas en mesure de surveiller pleinement les médias sociaux, sans parler du contrôle du contenu.

Ils ont refusé d'être identifiés parce qu'ils n'étaient pas autorisés à parler aux médias.

L'IA et les "deepfakes" sont de plus en plus utilisés dans les élections ailleurs dans le monde, notamment aux États-Unis, au Pakistan et en Indonésie. La dernière diffusion de ces vidéos en Inde montre les difficultés auxquelles sont confrontées les autorités.

Depuis des années, un groupe d'experts du ministère indien des technologies de l'information est chargé d'ordonner le blocage des contenus qu'il juge susceptibles de nuire à l'ordre public, à sa propre discrétion ou sur réception de plaintes. Au cours de cette élection, l'organisme de surveillance des élections et la police ont déployé des centaines de fonctionnaires dans tout le pays pour détecter et demander le retrait des contenus problématiques.

Alors que la réaction de Modi à la vidéo de son IA dansante - "J'ai aussi aimé me voir danser" - était légère, la police de la ville de Kolkata, dans l'État du Bengale-Occidental, a ouvert une enquête contre l'utilisateur X, SoldierSaffron7, pour avoir partagé la vidéo de Banerjee.

Dulal Saha Roy, responsable de la cybercriminalité à Kolkata, a diffusé un avis dactylographié sur X demandant à l'utilisateur de supprimer la vidéo ou "d'être passible d'une action pénale stricte".

"Je ne la supprimerai pas, quoi qu'il arrive", a déclaré l'utilisateur à Reuters par messagerie directe X, refusant de communiquer son numéro ou son vrai nom par crainte d'une action de la police. "Ils ne peuvent pas remonter jusqu'à moi.

Les agents électoraux ont déclaré à Reuters que les autorités ne peuvent que demander aux plateformes de médias sociaux de supprimer du contenu et qu'elles doivent se débrouiller si les plateformes disent que les messages n'enfreignent pas leurs politiques internes.

VIGGLE VIDEOS

Les vidéos de danse de Modi et de Banerjee, qui ont été vues respectivement 30 millions et 1,1 million de fois sur X, ont été créées à l'aide d'un site web gratuit, Viggle. Ce site permet, à partir d'une photographie et de quelques instructions de base détaillées dans un tutoriel, de générer en quelques minutes des vidéos montrant la personne photographiée en train de danser ou de faire d'autres mouvements de la vie réelle.

Hang Chu, cofondateur de Viggle, et le bureau de M. Banerjee n'ont pas répondu aux questions de Reuters.

Outre les deux vidéos d'IA dansantes, une autre vidéo de Viggle de 25 secondes diffusée en ligne montre Banerjee apparaissant devant un hôpital en flammes et le faisant exploser à l'aide d'une télécommande. Il s'agit d'un clip modifié par l'IA d'une scène du film The Dark Knight de 2008, qui montre le Joker, l'ennemi de Batman, en train de faire des ravages.

La vidéo a été visionnée 420 000 fois.

La police du Bengale occidental estime qu'il s'agit d'une violation des lois indiennes sur les technologies de l'information, mais X n'a pris aucune mesure car elle "croit fermement à la défense et au respect de la voix de nos utilisateurs", selon un avis envoyé par courriel par X à l'utilisateur, que Reuters a examiné.

"Ils ne peuvent rien me faire. Je n'ai pas pris cet avis au sérieux", a déclaré l'utilisateur à Reuters par le biais de la messagerie directe de X.