LMi-MAG 5 Dec 2020 - Flipbook - Page 45
Cinq désastres fameux
en IA et analytiques
Les données et les algorithmes d’apprentissage automatique sont des biens précieux
qui facilitent la tâche des grandes entreprises. Or il arrive que leur utilisation provoque
de graves erreurs : chatbot raciste, écart de comptage des cas Covid, sexisme au recrutement, etc.
Voici cinq échecs médiatisés de l’intelligence artificielle ou des technologies analytiques
de ces dix dernières années.
E
Thor Olavsrud, CIO États-Unis (adapté par Aurélie Chandèze)
n 2017, le journal The Economist déclarait que les données étaient devenues
le bien le plus précieux dans le monde,
devant le pétrole. Cette information est
devenue depuis un refrain que l’on entend partout. C’est pourquoi les organisations de tous secteurs continuent
d’investir en masse dans les données et
technologies analytiques. Cependant, tout comme le pétrole, données et outils analytiques ont leur côté obscur.
Selon l’enquête d’IDG State of the CIO 2020, pour 37 %
des leaders IT interrogés, l’analyse de données va prédominer dans leurs investissements IT cette année. Les
éclairages apportés par les analyses et les actions pilotées
par des algorithmes de machine learning peuvent fournir un avantage compétitif aux organisations, mais les
erreurs peuvent coûter cher, qu’il s’agisse de réputation
ou de chiffre d’affaires.
Comprendre les données et ce qu’elles disent est important, mais il faut aussi appréhender ses outils et les données qu’on utilise, tout en gardant bien en tête les valeurs
de son organisation. Voici quelques exemples d’échecs
notoires de ces dix dernières années, qui illustrent ce qui
peut mal tourner avec l’intelligence artificielle (IA) ou les
technologies analytiques.
Le Royaume-Uni perd des milliers de cas de
Covid en dépassant la limite des feuilles Excel
En octobre 2020, Public Health England (PHE), l’agence de
santé publique du Royaume-Uni, chargée de pointer les
nouvelles infections au coronavirus, a révélé que près de
16 000 cas de Covid-19 étaient passés à la trappe entre le
25 septembre et le 2 octobre. Le coupable ? Les limitations
de données de Microsoft Excel.
PHE a recours à un processus automatisé pour transférer les résultats de tests Covid-19 positifs, sous forme
de fichier CSV, dans des modèles Excel utilisés pour les
tableaux de bord et le traçage des cas contacts. Malheureusement, les fichiers Excel peuvent contenir un maximum de 1 048 576 lignes et 16 384 colonnes par feuille.
Qui plus est, PHE listait les cas en colonnes plutôt que
par lignes. Quand le nombre de cas a dépassé le seuil
de 16 384, Excel a supprimé les 15 841 cas en fin de liste.
Ce souci n’a pas empêché les personnes testées de recevoir leurs résultats, mais il a entravé les efforts de traçage
des cas contacts, rendant plus difficile la mission du UK
National Health Service (NHS), chargé d’identifier et
de prévenir les individus ayant été en contact rapproché avec des patients infectés. Dans une déclaration du
4 octobre, Michael Brodie, directeur exécutif par intérim
du NHE, a indiqué que le service Test and Trace du NHS et
la PHE avaient rapidement résolu le problème et transmis
immédiatement tous les cas en attente au système de traçage des contacts NHS Test and Trace. PHE a mis en place
« un correctif rapide » qui subdivise les gros fichiers et a
effectué un passage en revue complet de tous les systèmes
pour prévenir des incidents similaires dans le futur.
Un algorithme à visée médicale incapable
de remonter les patients noirs
En 2019, une étude parue dans le magazine Science a
révélé qu’un algorithme prédictif médical, utilisé
45