À quel point les AI sont-elles dangereuses ?
Juin 2022mini intro sur la nature humaine
L’objectif d’un réseau social est de maximiser le temps que les utilisateurs passent à voir de la publicité. Donc les algorithmes de recommandation sont programmés pour “comprendre” quels sont les contenus les plus susceptibles de faire réagir l’utilisateur, de façon à ce qu’il passe du temps à partager, commenter, ou regarder les contenus similaires.
Il se fait que les contenus les plus susceptibles de faire rester l’utilisateur sont les contenus agressifs, de désinformation ou appelant à la haine. Ou tout au moins, ce sont ces contenus-là que les algorithme de recommandation ont déterminé être les “meilleurs” pour devenir viraux.
De la notion de responsabilité
Dans la suite, je vais parler de «responsabilité» dans un sens purement technique, comme on dirait qu’un frein mal entretenu peut être «responsable» d’un accident, ou que le vent peut être «responsable» de débats. Je ne sous-entends donc pas de responsabilité au sens moral ou juridique.
À quel point l’AI de Twitter est-elle responsable de l’attaque du Capitole ?
L’AI de Twitter a déterminé que les messages de Trump sur le «vol» des élections par les démocrates étaient des messages qui étaient systématiquement lus, commentés, partagés.
L’AI de Twitter a donc, conformément à ses objectifs, systématiquement poussé les messages de Trump dans les différents canaux de recommandation à sa disposition.
Question : quelle est la part de responsabilité de l’AI de Twitter dans l’attaque du Capitole ?
Comment la corriger pour que ça n’arrive plus ?
L’AI de Facebook
Pour les mêmes raisons que l’AI de Twitter aime les messages Trump, l’AI de Facebook aime au Mynamar les messages de haine contre les Rohingya.
Résultat : un génocide, au moins 25.000 tués, plus d’un million de déplacés.
Certes, l’AI de Facebook n’est pas seule responsable de l’entièreté du massacre, pas plus que Josef Goebbels, par sa minutieuse organisation de la propagande nazie, n’est seul responsable du génocide des juifs.
Question : à quel point l’IA de Facebook est responsable du génocide Rohingya ?
Comment les réparer ?
Comment réparer ces AI pour qu’elles ne commettent plus de catastrophes ? Déjà il faut se rendre compte que l’incitation au génocide n’est pas un bug de l’IA de Facebook : c’est juste son comportement normal.
Tant que le but qu’on assignera à l’AI est de maximiser le temps passé sur le réseau social sans considération éthiques, il y aura de telles catastrophes, et des pires.
Travail de compréhension des AI
Il y a un travail de recherche à faire pour comprendre comment auditer une AI, comment comprendre ce qu’elle fait et pourquoi.
Travail politique
Il faut non seulement travailler à auditer les AI, mais également rendre ces audit possibles et obligatoires, même si à l’heure actuelle notre compréhension des AI n’est probablement pas suffisante pour faire des audits réellement efficaces.
Changer le but des AI
Il faut convaincre les réseaux sociaux de dire à leurs AI que l’objectif à maximiser n’est plus de maximiser le temps passé sur les réseaux, mais … mais quoi ?
- Quel but doit-on fixer aux AI ?
- Comment forcer les réseaux sociaux à changer le but des AI alors qu’ils ont de très bonnes raisons de penser que, d’un point de vue financier, les choses vont très bien actuellement ?
À mon avis
Il faut arrêter ou fortement calmer la recherche sur le développement de nouvelles AI. Le grand public doit arrêter de s’extasier sur les prouesses des AI. La recherche publique doit cesser de financer la recherche sur l’amélioration des AI, mais financer la recherche sur la sécurisation de celles qui existent déjà.
Dès qu’un acte de violence est commit, les réseaux sociaux sur lesquels cet acte a été demandé ou félicité payent une amande de 1 euro par vue. De cette façon, clairement, Trump aurait causé la faillite de Twitter. Les ingénieurs de Twitter auraient changé les objectifs de l’AI pour quelle détecte et amplifie non les contenus viraux (qui sont souvent les contenus toxiques), mais pour qu’elle détecte et ralentisse les contenus violents.
De cette manière, Trump aurait pu écrire ce qu’il voulait, ce ne serait arrivé dans les recommandations chez personne.
Vous en voulez plus ?
Une vidéo de science4all qui parle de 5 AI particulièrement dangereuses: https://www.youtube.com/watch?v=lYXQvHhfKuM