En matière d'IA éthique, il est préférable de se concentrer sur l'éthique et non sur l'IA.
Malgré son potentiel d'accélération des processus commerciaux et d'amélioration de l'efficacité, l'intelligence artificielle (IA) peut causer des dommages graves et irréparables à notre société si elle n'est pas utilisée avec prudence.
L'IA contraire à l'éthique que l'on trouve dans les modèles mathématiques utilisés par les organisations peut représenter aujourd'hui des menaces imminentes, mais moins visibles. Ce qui soulève la question suivante : que signifie utiliser l'IA de manière responsable, équitable et éthique ?
Nous nous sommes entretenus avec Julien Theys, associé directeur de Agilytic, pour discuter des dangers d'une mauvaise utilisation de l'IA et de la manière de développer l'IA pour le bien. Agilytic aide les entreprises à faire un usage plus intelligent de leurs données, conceptualisant et développant des projets d'IA pour diverses industries depuis 2015.
Qu'est-ce que l'IA éthique ?
L'IA automatise la prise de décision et se retrouve dans les technologies que nous utilisons tous les jours, d'Azure à Amazon, en passant par Facebook et Google. En informatisant des tâches qui nécessiteraient autrement l'intelligence humaine, l'IA nous aide à acquérir de nouvelles connaissances, à trouver des modèles et à résoudre des problèmes en automatisant totalement ou partiellement le processus de prise de décision.
L'IA comprend plusieurs sous-domaines dont vous avez peut-être déjà entendu parler, notamment l'apprentissage automatique, l'apprentissage profond, les réseaux neuronaux, les données massives (Big Data) et le traitement du langage naturel.
En grande partie en raison du tristement célèbre scandale Cambridge Analytica de Facebook, le concept d'IA éthique a gagné en popularité année après année, émergeant dans nos fils sociaux et nos cercles de conférence.
Éthique - L'étude de ce qui est moralement bien ou mal, ou un ensemble de croyances sur ce qui est moralement bien ou mal. - Dictionnaire de Cambridge
Dans ce domaine naissant, il n'y a guère de consensus sur la définition d'une IA éthique et digne de confiance. "Nous devons impliquer l'éthique dans l'IA en considérant l'aspect humain, les personnes qui développent la technologie. Les intentions malveillantes, lorsque des personnes utilisent des données pour faire du mal, font la une des journaux et frappent l'imagination, mais elles ne représentent sans doute qu'une petite partie du problème. Le plus souvent, c'est l'incompétence et l'incompréhension qui se cachent derrière l'IA contraire à l'éthique, lorsque de bonnes personnes animées de bonnes intentions utilisent de mauvaises données, ou les utilisent mal", explique Julien,
Il y a cette citation : "Ne jamais attribuer à la malveillance ce qui peut être attribué à la stupidité". Alors que le débat se concentre en grande partie sur la malveillance, nous ne devrions pas oublier nos propres limites et mettre en place des contrôles au cours du processus.
Les causes profondes d'une IA contraire à l'éthique
Lorsque l'IA "tourne mal", c'est généralement le résultat d'un processus de développement mal pensé et d'une définition du problème contraire à l'éthique, d'un manque de données de qualité pour représenter équitablement un groupe de personnes, de l'utilisation d'une boucle de rétroaction discriminatoire, d'une mauvaise utilisation des résultats au fil du temps, ou d'une combinaison de ces problèmes. Si nous examinons le tableau d'ensemble des systèmes d'IA, la réponse devient claire :
"Nous devons minimiser les préjugés inhérents à ceux qui développent l'IA, car l'IA contraire à l'éthique est souvent le résultat d'une erreur humaine. Il y a toujours quelqu'un derrière l'algorithme. Déshumaniser l'IA et blâmer les outils n'est pas une façon d'aller de l'avant", déclare Julien.
"Dans ce débat, la presse joue également un rôle éducatif important. Il est très facile d'attirer l'attention en affirmant qu'un algorithme a privé 500 000 personnes d'eau courante. Il serait plus correct d'expliquer que 'des personnes engagées pour améliorer l'écoulement de l'eau ont manifestement commis une erreur qui a eu des conséquences dramatiques'. Vous racontez la même histoire, mais l'acteur et l'intention sont exactement opposés".
Si beaucoup d'entre nous ne sont pas conscients de leurs véritables motivations et de leurs préjugés inconscients, la discussion sur l'IA éthique ne devrait pas être de nature purement technique, mais devrait porter sur ce qui est juste et digne de confiance. Et comment traduire l'équité en chiffres pour éliminer les biais ?
Les cas d'IA contraire à l'éthique
De nombreux cas d'IA bien connus ont été révélés comme étant contraires à l'éthique, ce qui a jeté de l'huile sur le feu de la discrimination, de l'inégalité et de la désinformation.
L'IA a trouvé sa place dans l'évaluation du crédit, le traitement des demandes de prêt et d'emploi, la reconnaissance faciale et d'autres cas d'utilisation sensibles. Elle a également été utilisée pour diffuser des messages haineux par chatbot, des fausses nouvelles, des voix, des vidéos, des images ou des "deepfakes".
"Ce qui se passe souvent, c'est que l'on assiste à un double usage des technologies. Des technologies qui peuvent être utilisées à la fois pour le bien et pour le mal. Dans ce cas, ce n'est pas la faute d'une technologie mal conçue, mais de mauvaises intentions et d'une mauvaise utilisation. Ces technologies présentent des vulnérabilités qui font que les développeurs ne connaissent pas forcément la bête qu'ils créent. Nous avons déjà refusé un projet en raison de ses implications contraires à l'éthique, alors que le prospect n'avait pas réalisé qu'il était contraire à l'éthique au départ, car parfois ce n'est pas évident", remarque Julien.
Évaluer le danger des modèles d'IA
Le livre de Cathy O'Neil "Weapons of Math Destruction" est souvent cité en référence pour déterminer les trois principaux facteurs qui rendent les modèles d'IA dangereux et défectueux :
1. Le secret - Il est en partie justifié, par exemple pour éviter qu'un algorithme ne soit vulnérable, ce qui peut conduire à des résultats désastreux. Mais sans transparence, comment savoir s'il n'y a pas de manipulation pour des intérêts personnels ? Comment pouvons-nous enquêter sur le processus de décision qui sous-tend les systèmes d'automatisation ? Les règles éthiques de la Commission européenne en matière d'IA encouragent la transparence.
2. Échelle - Combien de personnes les algorithmes peuvent-ils toucher, et l'IA peut-elle établir des normes et amplifier les préjugés ? Peut-elle s'étendre et croître de manière exponentielle ?
3. Potentiel de nuisance - L'impact social et sociétal doit être soigneusement pris en compte. De nombreux modèles existent avec des hypothèses intégrées, souvent biaisées et injustes, et peuvent avoir un impact significatif sur de larges groupes de personnes.
L'IA a un énorme potentiel d'impact social et sociétal. Par conséquent, nous devons veiller à ce que les systèmes d'IA n'utilisent pas des données biaisées pour renforcer une boucle de rétroaction qui exacerbe les inégalités actuelles. Au contraire, nous pouvons utiliser les algorithmes et les systèmes d'IA pour remédier aux inégalités et les transformer en opportunités de faire le bien.
Comment construire une IA en laquelle nous pouvons avoir confiance ?
"Il peut être inutile de réglementer un algorithme ou un système d'IA, et nous devons veiller à ne pas réglementer au point d'entraver l'innovation. Mais cela ne veut pas dire que nous ne pouvons pas prendre des mesures pour développer une IA plus éthique", note Julien.
Face à la fumée et aux miroirs de l'autorégulation, Facebook a demandé une réglementation gouvernementale plus claire des géants des médias sociaux. Après le scandale de Cambridge Analytica, Facebook a mis en place une équipe d'IA responsable pour s'attaquer aux biais de l'IA et examiner l'impact de leurs algorithmes sur la désinformation, la polarisation politique et l'extrémisme. Joaquin Quiñonero Candela, directeur de l'IA chez Facebook, a détaillé leurs luttes avec Karen Hao de la MIT Technology Review.
Karen a déclaré sur LinkedIn : "Il ne s'agit pas de personnes corrompues faisant des choses corrompues. Ce serait simple. Il s'agit de bonnes personnes qui essaient sincèrement de faire ce qu'il faut. Mais ils sont pris au piège d'un système pourri, faisant de leur mieux pour faire avancer le statu quo qui ne bougera pas. Ce reportage m'a profondément convaincu que l'autorégulation ne fonctionne pas, ne peut pas fonctionner".
Quel est donc le rôle de la réglementation ?
En Europe, des organisations ont appelé à la mise en place d'un cadre réglementaire complet en matière d'IA, et une législation est en cours d'élaboration. Le 21 avril 2021, la Commission a présenté une proposition réglementaire horizontale sur l'IA afin de proposer des mesures concrètes de mise en œuvre dans tous les secteurs. Selon le site web de la Commission, "cette initiative garantira que l'IA est sûre, légale et conforme aux droits fondamentaux de l'UE. L'objectif global est de stimuler l'adoption d'une IA digne de confiance dans l'économie de l'UE." Cependant, une approche unique pourrait ne pas refléter les avantages et les risques uniques de l'application de l'IA à différents secteurs.
"Une grande partie de la réglementation et des cadres nécessaires existe déjà et est mise en pratique depuis longtemps dans de nombreux secteurs avec lesquels nous travaillons. La réglementation décrivant les pratiques éthiques et équitables reste généralement la même lorsque vous appliquez l'IA. Par exemple, si vous travaillez pour une banque et que vous ne refusez pas un prêt à quelqu'un simplement parce que la valeur de sa propriété est faible selon votre base de données, pourquoi demanderiez-vous à un système d'IA de le faire ? C'est contraire à l'éthique, car cela risque d'exclure de nombreuses personnes déjà désavantagées. L'éthique de la réglementation existante se résume toujours aux utilisations, et non à la technologie", explique Julien.
Élaborer un cadre éthique pour les risques liés à l'IA
Pour commencer, les organisations devraient promouvoir des pratiques éthiques en matière d'IA dès la phase de conception initiale d'un algorithme.
L'étape suivante consiste à attribuer des niveaux d'intervention. Cela pourrait dépendre des trois facteurs mentionnés précédemment : le secret, l'échelle et le potentiel de nuisance. Un exemple d'intervention consiste à formuler et à suivre une "liste de contrôle éthique" contre les préjugés implicites liés au sexe, à la race, à la religion, à la classe sociale, au code postal et à d'autres domaines de risque éthique - et à surveiller toute déviation au fil du temps.
Julien précise : "Pour développer des algorithmes qui prennent des décisions éthiques, nous devons à tout prix éviter de perpétuer les préjugés, prévoir le potentiel d'intentions négatives et effectuer des tests de résistance aux conséquences négatives non désirées. Une liste de contrôle peut explicitement systématiser l'éthique derrière le développement d'algorithmes. En intégrant de meilleures valeurs dans nos algorithmes, il y a une interprétation plus claire de l'utilisation de la technologie et de la façon dont elle pourrait être maltraitée".
Le plus souvent, ce n'est pas la technologie qui est perturbatrice, mais la façon dont les organisations utilisent la technologie pour perturber les modèles d'entreprise existants, permettre de nouveaux modèles, et si elles s'engagent à surveiller continuellement. Dans le cas de l'IA, il s'agira de faire passer l'éthique avant le profit.
Dernières réflexions
"Nous devons nous rappeler que l'histoire ne se répète peut-être pas, mais qu'elle rime. Cela fait plus de quarante ans que nous voyons des erreurs dans les machines, depuis que les bases de données ont fait leurs grands débuts. À l'époque, les intentions qui sous-tendaient les systèmes de bases de données étaient rarement remises en question au cours de leur développement. Il est donc bon de voir que le sujet de l'IA éthique est de plus en plus au centre des préoccupations de nombreuses organisations, entreprises technologiques et institutions", ajoute Julien.
Il est essentiel d'impliquer non seulement les développeurs, mais aussi les juristes, les citoyens et les autres décideurs autour de la table pour mettre en œuvre des cadres éthiques pour l'IA. Aujourd'hui, il existe trop de zones d'ombre entre le bien et le mal que l'on peut faire avec l'IA. Nous devons nous rappeler que l'éthique de l'IA se résume à l'éthique de ceux qui en sont à l'origine.