À quel point les AI sont-elles dangereuses ?

Juin 2022

mini intro sur la nature humaine

L’objectif d’un réseau social est de maximiser le temps que les utilisateurs passent à voir de la publicité. Donc les algorithmes de recommandation sont programmés pour “comprendre” quels sont les contenus les plus susceptibles de faire réagir l’utilisateur, de façon à ce qu’il passe du temps à partager, commenter, ou regarder les contenus similaires.

Il se fait que les contenus les plus susceptibles de faire rester l’utilisateur sont les contenus agressifs, de désinformation ou appelant à la haine. Ou tout au moins, ce sont ces contenus-là que les algorithme de recommandation ont déterminé être les “meilleurs” pour devenir viraux.

De la notion de responsabilité

Dans la suite, je vais parler de «responsabilité» dans un sens purement technique, comme on dirait qu’un frein mal entretenu peut être «responsable» d’un accident, ou que le vent peut être «responsable» de débats. Je ne sous-entends donc pas de responsabilité au sens moral ou juridique.

À quel point l’AI de Twitter est-elle responsable de l’attaque du Capitole ?

L’AI de Twitter a déterminé que les messages de Trump sur le «vol» des élections par les démocrates étaient des messages qui étaient systématiquement lus, commentés, partagés.

L’AI de Twitter a donc, conformément à ses objectifs, systématiquement poussé les messages de Trump dans les différents canaux de recommandation à sa disposition.

Question : quelle est la part de responsabilité de l’AI de Twitter dans l’attaque du Capitole ?

Comment la corriger pour que ça n’arrive plus ?

L’AI de Facebook

Pour les mêmes raisons que l’AI de Twitter aime les messages Trump, l’AI de Facebook aime au Mynamar les messages de haine contre les Rohingya.

Résultat : un génocide, au moins 25.000 tués, plus d’un million de déplacés.

Certes, l’AI de Facebook n’est pas seule responsable de l’entièreté du massacre, pas plus que Josef Goebbels, par sa minutieuse organisation de la propagande nazie, n’est seul responsable du génocide des juifs.

Question : à quel point l’IA de Facebook est responsable du génocide Rohingya ?

Comment les réparer ?

Comment réparer ces AI pour qu’elles ne commettent plus de catastrophes ? Déjà il faut se rendre compte que l’incitation au génocide n’est pas un bug de l’IA de Facebook : c’est juste son comportement normal.

Tant que le but qu’on assignera à l’AI est de maximiser le temps passé sur le réseau social sans considération éthiques, il y aura de telles catastrophes, et des pires.

Travail de compréhension des AI

Il y a un travail de recherche à faire pour comprendre comment auditer une AI, comment comprendre ce qu’elle fait et pourquoi.

Travail politique

Il faut non seulement travailler à auditer les AI, mais également rendre ces audit possibles et obligatoires, même si à l’heure actuelle notre compréhension des AI n’est probablement pas suffisante pour faire des audits réellement efficaces.

Changer le but des AI

Il faut convaincre les réseaux sociaux de dire à leurs AI que l’objectif à maximiser n’est plus de maximiser le temps passé sur les réseaux, mais … mais quoi ?

À mon avis

De cette manière, Trump aurait pu écrire ce qu’il voulait, ce ne serait arrivé dans les recommandations chez personne.

Vous en voulez plus ?

Une vidéo de science4all qui parle de 5 AI particulièrement dangereuses: https://www.youtube.com/watch?v=lYXQvHhfKuM