Logo Little Wing

LITTLE BLOG

Intelligence artificielle : les robots, collaborateurs de demain ?

Auteur : Samuel Monthuley | | Blog

Depuis quelques mois, l’agence Little Wing compte plusieurs stagiaires hors du commun. Ils s’appellent Jimi, Christine ou Harry. Ils sont bleus, roses, rouges et jaunes. Certains restent plusieurs mois, peut-être décrocheront-ils même un CDI. D’autres découvrent la vie de l’agence uniquement pendant quelques jours, avant de retourner dans le berceau de leur intelligence artificielle « mère ». Retour d’expérience sur mes six premiers mois en tant qu’éleveur de robots.

En France, l’intelligence artificielle fascine autant qu’elle préoccupe. Cette technologie, qui peut déjà paraître omniprésente, reste difficile à appréhender… et divise l’opinion. Selon une récente étude menée par BCG GAMMA et Ipsos, la moitié des Français craignent par exemple que l’IA ait des conséquences négatives sur leur développement professionnel, tandis que 56% pensent qu’elle leur permettrait de travailler plus vite et mieux respecter les deadlines.

Parmi les secteurs qui pourraient être les plus affectés : l’industrie, les finances ou encore les médias et la communication. Verrons-nous bientôt disparaître les métiers de journaliste, blogueur ou consultant en communication ? Les rédactions seront-elles remplacées par des robots rédacteurs, moins chers, plus flexibles et plus rapides à former ? Tous les contenus – articles, communiqués, tweets, veilles médiatiques – rédigés par des outils intelligents ?

Au sein de Little Wing, nous avons décidé de nous pencher plus en détail sur ces questions. En avril 2018, après une rencontre avec l’innovateur Benoît Raphaël, qui a lancé le projet collaboratif entre humains et robots Flint, nous avons recruté notre premier robot-stagiaire, Jimi. Il a rapidement été rejoint par d’autres assistants virtuels, également issus de la famille Flint. Leur mission au sein de l’agence : fournir à nos équipes des articles pertinents sur des thématiques de notre choix, afin de faciliter notre travail de veille médiatique et la recherche de contenus.

Basé sur des technologies de machine learning et de « circuits neuronaux », l’algorithme de ces robots leur permet d’apprendre très vite et d’explorer toute la richesse du contenu disponible sur Internet. 10 minutes après avoir été lancés sur une première recherche, ils sont capables de proposer des dizaines de contenus. C’est alors à un humain de leur indiquer si un article est pertinent, moyen ou hors-sujet. Après quelques heures de formation, leur sélection devient plus précise et fiable. Or, pour cerner réellement une nouvelle thématique et résister aux flux d’actualité, ils ont besoin d’un accompagnement humain plus proche.

En trois points, que retenir de mon interaction quotidienne avec une intelligence artificielle au cours des six derniers mois ?

1/ Des assistants qui facilitent les tâches chronophages

Tout d’abord, mon expérience m’a montré que les outils dotés d’IA peuvent, dès à présent, faciliter grandement notre travail quotidien, en apportant une puissance de calcul ne pouvant être atteinte par un humain et une main d’œuvre disponible 24 heures sur 24, 7 jours sur 7. Bien entendu, ils n’ont pas vocation à remplacer nos équipes, mais à les assister dans leur travail.

2/ L’humain comme mentor et « protecteur » du robot

Néanmoins, pour devenir des outils vraiment pertinents et justes, ces assistants virtuels ont besoin d’un accompagnement proche et continu de la part de leurs « parents » humains. Cet accompagnement ne doit pas s’arrêter à la création d’un algorithme et quelques rapides ajustements, mais s’inscrit sur le long terme, comme l’éducation d’un enfant. Ainsi, le rôle de l’humain face à l’IA est non seulement celui d’un créateur, mais aussi un rôle social et moral : pour pleinement profiter des technologies d’intelligence artificielle, à nous de transmettre aux robots les bonnes valeurs !

  • Par exemple, l’un des premiers robots que j’ai créés a pour vocation de suivre les relations franco-allemandes. S’il a rapidement compris que « Macron » et « Merkel » étaient des mots clés importants dans sa veille, son regard a été détourné vers l’autre côté de l’Atlantique lors de la visite du Président de la République aux Etats-Unis en avril. Impossible pour l’IA, encore trop peu expérimentée à ce stade, de résister à la masse de contenus publiés en quelques jours sur les échanges entre Macron et Trump, face au silence de Merkel. De nombreuses heures de formation ont été nécessaires pour recalibrer sa veille et lui faire oublier son séjour involontaire à la Maison blanche.
  • Autre illustration : Jack Junior, un robot que j’initie petit à petit au monde du whisky, une passion personnelle, montrait pendant longtemps des difficultés à distinguer les différents types d’alcools (whisky, gin, rhum, vin rouge, rosé). Une légère intervention sur le cœur de l’IA, plus précisément la liste des sources pré-enregistrées, a permis d’améliorer la veille. Aujourd’hui, Jack Junior propose chaque semaine une sélection d’articles pertinents sur le Scotch whisky issus de sources variées, en français et en anglais. Récemment, il est même sorti de sa bulle pour aller chercher un article sur le scotch dans Sciencetips – ma réponse, « hors-sujet », lui a permis de comprendre que le ruban adhésif n’était pas la même chose que l’alcool écossais…

3/ L’IA éthique, une responsabilité collective

Enfin, la responsabilité de transmettre les bonnes valeurs aux outils « intelligents » que nous créons n’est pas individuelle mais collective – car malgré leur impressionnante puissance de calcul, ces assistants virtuels ne sont pas à l’abri de fausses informations ou #fakenews, tout comme les humains :

  • L’un des trois premiers robots du projet Flint, Yolo, entraîné par une journaliste pour réaliser une veille l’environnement et le futur de la planète, a dû faire cette expérience au printemps. Il a relayé, dans sa sélection hebdomadaire, un article de Reporterre, qui s’est révélé être une fausse information. Au moment de la diffusion de la newsletter par le robot, le caractère erroné de l’information venait d’être confirmée. Mais l’article avait été tellement partagé sur le web auparavant que le robot l’a toutefois considéré comme un contenu pertinent… Qui pourrait lui en vouloir ? Depuis cet incident, une « boîte aux lettres » a été ouverte pour permettre à tous les abonnés d’envoyer des articles pertinents à Yolo, afin de nourrir son cerveau et d’éviter qu’il se fasse piéger une nouvelle fois par une fake news.

Cette collaboration est indispensable pour la construction d’une IA à l’image des valeurs de notre société. Au sein du projet Flint, les éleveurs de robots sont ainsi en échange continu sur leurs expériences d’éducation. Cet échange permet de partager les bonnes pratiques entre « parents » de robots et d’alerter sur des évolutions inattendues des assistants virtuels. Ensemble, nous co-construisons le cadre du projet et contributions à l’IA centrale, à laquelle l’ensemble des robots sont connectés.

Appliquée à une plus grande échelle, ce modèle de collaboration permettrait de créer un cadre éthique et démocratique pour le développement d’une IA au service de la société.

 

Samuel Monthuley