Pourquoi l’intelligence artificielle peut être aveugle aux préjugés
L’explosion de l’IA générative a permis au grand public de découvrir les possibilités de l’intelligence artificielle. Et si elle peut aider à obtenir des idées pour des documents d’entreprise ou certains angles de vue, elle est tout aussi souvent moins innocente, notamment lorsque des préjugés ou biais sont impliqués à grande échelle.
«Il y a énormément de préjugés dans les systèmes d’IA», que nous devons à tout prix essayer de limiter», déclare Véronique van Vlasselaer, data scientist chez le fournisseur de logiciels SAS. «Lorsque vous vous rendez à la banque pour un produit bancaire tel qu’un prêt ou une carte de crédit, un modèle d’IA est généralement appliqué à votre demande. Il a été prouvé à plusieurs reprises que les personnes appartenant à des groupes minoritaires, comme une certaine origine ethnique ou un genre, obtiennent souvent plus difficilement un prêt ou un autre plafond de crédit. Aux Pays-Bas, nous avons également eu cette affaire des allocations, où un modèle de détection de fraude basé sur l’IA était clairement entraîné pour cibler certains groupes sociaux et démographiques. Mais nous ne devons pas blâmer l’IA : le directeur de banque qui accordait autrefois les prêts le faisait souvent également sur la base de préjugés. L’IA fonctionne sur la base de certains ensembles de données, qui sont souvent ‘contaminés’.»
Lavage des données
Un exemple bien connu de données contaminées est Amazon. Leur bot a été formé sur des données historiques de recrutement, datant de décennies où les hommes blancs d’âge moyen faisaient carrière et les femmes restaient à la maison pour s’occuper des enfants. Avec toutes les conséquences pour la politique de recrutement intelligente : les CV féminins étaient par défaut et de manière intrinsèque suspects, car les femmes, selon l’algorithme, ne pouvaient ou ne voulaient pas faire carrière. Alors, est-il judicieux de purifier les ensembles de données ? Filip Van den Abeele, auteur du livre Technologie et spécialiste de l’Industrie 4.0, des big data et de l’intelligence artificielle, n’est pas un fan.
«Les préjugés sont profondément enracinés dans notre société», dit-il. «Est-il alors moralement souhaitable de laver ou de censurer ces énormes ensembles de données, qui reflètent pourtant notre nature humaine ? Je ne le pense pas, car cela modifie la réalité et vous choisissez vous-même les données avec lesquelles vous formez l’intelligence artificielle. Un dilemme moral en soi : quels ensembles de données choisir pour former vos modèles ?»
Égalité démographique
Nous voulons savoir si ces préjugés peuvent également nuire à la crédibilité de l’IA. ‘‘Absolument’’, affirme van Vlasselaer. «Beaucoup de gens plaident pour ne plus utiliser les systèmes d’IA, car certaines personnes en perdent des opportunités. Cependant, je vois une opportunité : l’IA rend les biais implicites dans notre société très explicites : elle nous met le nez sur les faits. Cela permet de mieux contrôler et d’examiner comment rendre les systèmes d’IA plus neutres. Par exemple, en créant une égalité démographique dans votre modèle. Ainsi, il traite les personnes avec des origines, des genres, des couleurs de peau différentes de la même manière. Vous pouvez effectivement exiger cela de votre système. Et cela aide aussi si vos équipes de développement et vos data scientists sont aussi divers que possible, bien sûr.»
« Je plaide pour une équipe de conception cognitivement diverse, avec également des philosophes moraux et des éthiciens. »
Équipe de conception avec un philosophe moral
Filip Van den Abeele plaide également pour plus de diversité et de prudence. «Nous ne devons pas gaspiller le potentiel de l’IA, nous devons donc rester conscients du problème des biais. Surtout parce que les gens ont une peur du changement quand il s’agit d’innovation : s’ils entendent des histoires comme celle d’Amazon, ils accepteront plus difficilement les réseaux neuronaux. Comment y remédier ? En invitant des philosophes moraux et des éthiciens à la table de conception. Kathleen Gabriels, auteur du livre Règles pour robots et experte en éthique dans le domaine de l’informatique, plaide également pour cela. Les ingénieurs et les programmeurs aiment créer des choses, mais réfléchissent trop peu aux implications éthiques. En d’autres termes, je plaide pour une équipe de conception cognitivement diverse, où un éthicien peut signaler le danger, par exemple, d’une application. Les choses sophistiquées brillent toujours, donc une équipe de conception avec une diversité d’opinions et de points de vue qui ose se défier et faire s’affronter les idées pourra probablement exclure ou désamorcer beaucoup de problèmes désagréables à l’avance.»