LMi-MAG23 Sept - Flipbook - Page 29
© Franck Reporter - iStock
QUELLES SOLUTIONS POUR
LA PROTECTION DES DONNÉES ?
Cahier des charges
tinyurl.com/reagir-solution
Le concepteur et distributeur de vêtements de plein air
Patagonia exploiterait l’IA générative de l’éditeur Talkdesk
pour intercepter, enregistrer et analyser les conversations
avec des clients sans leur permission.
et fauteur de troubles. Si des centaines d’autres retailers
et entreprises utilisent ensuite le même logiciel, que se
passe-t-il si celui-ci décide de conseiller aux call centers
de ces organisations de couper court aux conversations
avec ce client si elles durent trop longtemps ? Ou s’il
recommande que toutes les demandes de remboursement de ce client soient rejetées ?
L’absence totale de transparence de la GenAI
« Avec l’IA, personne ne peut dire avec certitude comment les données sont utilisées ou comment elles seront
utilisées à l’avenir, rappelle Mark Rasch. Cela signifie
qu’il est probablement impossible de démontrer le lien
de cause à effet. » Pour l’avocat, la racine du problème
se trouve dans l’imprévisibilité de l’IA elle-même, en
particulier de la GenAI. Il ne s’agit pas seulement ici des
hallucinations.
L’IA apprend et s’ajuste en permanence, ce qui signifie que
personne ne peut savoir précisément comment elle va réagir, quelles données elle va recueillir, quelles informations
elle va en déduire et comment elle va exploiter ces data.
Or, comme le souligne Mark Rasch, « chaque fois qu’une
entreprise collecte des données à quelque fin que ce soit,
elle doit informer le client non seulement de ce qui est
collecté, mais aussi de toutes les utilisations prévues.
C’est particulièrement vrai lorsque les données sont
exploitées à des fins d’IA ». Sauf qu’encore une fois, l’incertitude liée à l’IA peut rendre les deux tâches pratiquement impossibles.
façon ce recueil est assuré, et, d’autre
part, celle que l’IA collecte et comment elle va l’utiliser plus tard. Les DSI
doivent s’en tenir strictement à ce qu’ils
connaissent.
L’avocat précise qu’il ne s’agit pas ici uniquement des mots
utilisés, mais aussi de la façon dont ils sont prononcés, du
numéro de téléphone et de l’adresse IP utilisés, de l’heure
de la journée, des bruits de fond et de tout ce que l’IA
peut détecter pour analyser la situation. Les consommateurs « abandonnent volontairement beaucoup de choses
lorsqu’ils passent un appel téléphonique », explique Mark
Rasch. « Quand la plupart des entreprises rédigent une
politique de confidentialité, elles ne tiennent pas vraiment
compte de la quantité d’informations qu’elles collectent. »
Un champ de mines juridique
L’avocate Shavon Jones, spécialisée dans les stratégies
d’IA au service du développement économique, précise
de son côté que la législation actuelle n’a encore pas
sérieusement compris l’IA, ce qui place les DSI dans une
position précaire. « Où tracer la limite de la responsabilité civile de l’IA ? Je pense que nous ne le saurons pas
avant de nombreuses années. Les litiges en la matière
ne sont encore qu’une sous-spécialité émergente du
droit », ajoute-t-elle. [Lire l’intégralité de l’article sur
lemondeinformatique.fr]
APPROFONDIR
ÉCOUTER EN LIGNE
Podcast
tinyurl.com/pod-Patagonia
Tracer une limite claire
Cela oblige les DSI à distinguer clairement d’une part la
data que leur équipe collecte délibérément et de quelle
LIRE EN LIGNE
Article
tinyurl.com/article-Patagonia
29