C’est nouveau, ça vient de sortir. L’application CupidBot propose aux hommes hétérosexuels la drague assistée par l’intelligence artificielle. Concrètement, l’application sélectionne des profils féminins sur les sites de rencontre et entame avec elles des conversations « de qualité » – avant de passer le relais à l’utilisateur.
Comment distinguer le vrai du faux ? Tel est le problème que posent les IA, avant même celui du potentiel remplacement de nombreuses professions. Selon le site Newsguard, qui lutte contre la désinformation, GPT-4 s’avère encore plus susceptible que ses prédécesseurs de rédiger des fake news. Sam Altman, le PDG d’Open AI, reconnait lui-même être « inquiet que ces modèles puissent être utilisés pour une désinformation à grande échelle ».
Midjourney, générateur d’images s’appuyant sur l’intelligence artificielle, soulève également la polémique. Son niveau de réalisme est tel qu’il devient quasi impossible de savoir si ses visuels sont réels ou pas. Avec elle, fini le bug des mains à 6 ou 7 doigts. La plateforme a tenté de poser des règles. Elle a exclu un journaliste britannique qui avait élaboré des photos d’une pseudo-arrestation de Donald Trump. Et a bloqué les requêtes contenant le mot « arrested ». Mais on voit mal comment elle pourrait filtrer toutes les demandes douteuses.
La solution pourrait bien venir d’autres IA. Car des logiciels seraient capables de détecter des anomalies invisibles pour l’œil humain. « À chaque fois qu’une technologie apparaît, une contre-technologie va chercher à y répondre », résume Julien Giry, chercheur en sciences de l’information, dans le Parisien. Reste à savoir quelle entreprise va s’atteler à la tâche.