LMi-MAG 5 Dec 2020 - Flipbook - Page 46
RETOUR D’EXPÉRIENCE
Logiciels
par des hôpitaux et des sociétés d’assurance dans
l’ensemble des États-Unis pour identifier des patients à
haut risque et requérant des programmes de soins adaptés, avait bien moins de chance de remonter les patients
noirs.
L’étude a découvert que l’algorithme utilisait les dépenses médicales comme critère pour déterminer les
besoins médicaux d’un individu. Mais selon le magazine
Scientific American, les dépenses médicales des patients
noirs les plus malades équivalent aux dépenses des patients blancs en bonne santé, ce qui signifie qu’ils recevaient des scores de risques plus faibles même quand
leur besoin était plus grand. Les auteurs de l’étude ont
suggéré quelques facteurs qui pouvaient expliquer ce
constat. Tout d’abord, les personnes issues de la diversité sont plus susceptibles d’avoir des revenus plus faibles,
ce qui réduit leur chance d’accès aux soins, même quand
elles disposent d’une assurance santé. Si l’étude n’a pas
nommément désigné l’algorithme ni son développeur,
les auteurs ont indiqué à Scientific American qu’ils travaillaient avec ce dernier pour remédier à cette situation.
© Metamorworks - iStock
Les programmes de soins pour les personnes à haut
risque mettent à la disposition de patients souffrant de
maladies chroniques des personnels médicaux formés
et un suivi médical de base, dans le but de prévenir les
complications sérieuses. Cependant, la probabilité que
l’algorithme recommande ce programme aux patients
blancs était bien plus élevée que pour les patients noirs.
L’analyse prédictive et le marketing ciblé que pratique le géant
de la distribution Target ont amené l’entreprise à révéler à la famille
d’une adolescente que celle-ci était enceinte.
publiques anonymisées et certains contenus écrits par
des comédiens, puis lui a lâché la bride afin de le laisser
apprendre et évoluer à partir de ses interactions sur le
réseau social.
En seize heures, le chatbot a posté plus de 95 000 tweets,
et ceux-ci sont vite devenus ouvertement racistes, misogynes et antisémites. Microsoft a rapidement suspendu le service pour ajustements, puis l’a finalement
Le chatbot de Microsoft entraîné par machine
débranché. « Nous sommes profondément désolés pour
learning à recracher des tweets racistes
les tweets involontairement offensants et blessants
de Tay, qui ne représentent ni ce que nous sommes,
En mars 2016, Microsoft a appris à ses dépens qu’utilini ce pour quoi nous nous battons, ni la manière dont
ser les interactions sur Twitter pour entraîner des algonous avons conçu Tay », a écrit Peter Lee, vice-prérithmes de machine learning pouvait déboucher sur des
sident corporate de Microsoft Research & Incubations
résultats consternants.
(puis vice-président corporate de Microsoft Healthcare), dans un post sur
Microsoft a déployé Tay, un chatbot
L’INTELLIGENCE CONNECTÉE
le blog officiel de Microsoft faisant suite
basé sur l’IA, sur la plateforme du
TRANSFORMEZ VOS
à l’incident.
média social. L’éditeur a décrit ce
DONNÉES EN ACTIONS
projet comme une expérience sur la
Livre Blanc
« compréhension des conversations ».
Peter Lee a indiqué qu’un prédécesseur
L’idée était que le chatbot endosse
de Tay, Xiaoice, déployé par Microsoft en
la personnalité d’une adolescente et
Chine en 2014, avait réussi à converser
interagisse avec des individus sur
avec plus de 40 millions de personnes
Twitter en employant une combinaison
dans les deux ans qui avaient précécutt.ly/desk-tibco
de machine learning et de traitement
dé la sortie de Tay. Ce que Microsoft
Sponsorisé par Tibco Software
du langage naturel. Microsoft l’a
n’avait pas envisagé était qu’un groupe
initialisé en utilisant des données
d’utilisateurs de Twitter commencerait
46 / décembre 2020 / janvier / février 2021