
ÉTHIQUE ET ALGORITHMES
Mardi 6 mars 2018
Par Lise Parent, citoyenne
Il ne se passe plus une semaine sans qu’on nous annonce encore une nouvelle avancée de l’intelligence artificielle (IA) ou qu’on nous mette en garde contre ses possibles dérives[1]. Des applications transformatrices, pour ne pas dire perturbatrices, utilisant des algorithmes d’apprentissage profond ont déjà un impact certain sur nos vies : travail, communication, transport, médecine diagnostique, affaires et finances, justice et armée. Même chez les spécialistes, l’excitation et l’anxiété sont palpables. Aucun domaine qui s’alimente à des masses de données pour prévoir des issus ne sera oublié.
Il est grand temps que les citoyens s’emparent de la question et s’y familiarisent pour en acquérir la maîtrise. Au Québec, les citoyens ont une occasion unique et privilégiée de le faire. Nos universités sont à l’avant-garde de la recherche. IBM, Microsoft, Google et Facebook ont toutes répondu à l’appel et investi localement. Des entreprises comme les montréalaises Imagia et Element AI se mettent au service des secteurs public et privé pour y intégrer l’IA en « valorisant leurs données ». Et voici que, sous l’égide de l’Université de Montréal, le public est aujourd’hui invité à participer à la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle (la « Déclaration de Montréal »).
Les principes éthiques, d’équité, de sécurité et de responsabilité qui inspirent la Déclaration de Montréal, tout comme ceux qui drainent les Asilomar A.I. Principles[2] ou le Partnership on Artificial Intelligence to Benefit People and Society[3], sans compléments adaptés, ne feront pas long feu devant les intérêts financiers et politiques qui affluent vers le domaine. Ces compléments, sur lesquels les recommandations suivantes portent, comprennent une formation adaptée, des obligations d’impartialité, de transparence et d’imputabilité et la facilitation d’un organe consultatif.
Question de valeurs
Les valeurs sont des caractères désirables auxquels une personne ou un groupe aspire, par exemple la non-discrimination ou la démocratie. Tous ne partagent pas les mêmes valeurs et peu sont innées. C’est pourquoi les codes de déontologie, les déclarations de responsabilité des entreprises, les chartes nationales de droits et libertés et les pactes internationaux sur les droits humains et le droit humanitaire existent. Ils ont une vertu pédagogique et visent à armer contre les préjugés acquis ou systémiques. Même capable d’apprentissage profond, l’IA ne peut pas combattre les jugements implicites incorporés aux algorithmes dont elle est construite et aux données dont elle est alimentée. Les systèmes de prise de décisions assistée voire automatisée, en médecine, finance, défense ou justice, donneront des résultats biaisés si leurs intrants sont biaisés. Il est essentiel que les intervenants du secteur soient outillés pour débusquer ces distorsions et améliorer la valeur prédictive objective des extrants.
Recommandation 1 :
Tous les étudiants et praticiens en IA doivent recevoir une formation avancée en éthique comprenant un cursus formel sur les droits et devoirs consacrés par les lois et les instruments internationaux pertinents dans leur domaine, ainsi que des séminaires de résolutions de dilemmes éthiques.
Impartialité dès la conception
Cependant l’éthique ne suffit pas. Le développement de systèmes conçus pour dépouiller de biais et anonymiser les données des intrants massifs en vue de protéger les droits des personnes concernées est fondamental. Notamment :
Recommandation 2 :
Les algorithmes prédictifs doivent être audités à la conception pour débusquer les biais intégrés aux règles opératoires et aux données utilisées pour l’apprentissage[4].
Recommandation 3 :
La protection des données personnelles et sensibles (santé, justice) doit être intégrée à la conception algorithmique, de même que la vérification du consentement explicite à la cueillette et à l’utilisation des données privées, et la sécurité des systèmes d’IA doit être assurée par défaut[5].
Transparence et imputabilité
L’IA fonctionne entre autres par corrélation, établissant des liens statistiques et non des rapports de cause à effet entre les variables. Les praticiens peinent à expliquer par raisonnement causal les résultats prédictifs des systèmes.
Recommandation 4 :
Les IA prédictives ou de prise de décisions automatisée, notamment dans les domaines de la justice, de la police, des transports et de la défense, doivent être conçues pour être assistées par des personnes imputables capables de valider les décisions et d’en répondre.
Recommandation 5 :
Les principales variables utilisées dans les IA prédictives ou de prise de décisions automatisée doivent être documentées par les concepteurs ou les promoteurs pour être compréhensibles et communiquées à toute personne faisant l’objet d’une décision assistée par IA qui en fait la demande.
Recommandation 6 :
Toute IA qui interfère avec la vie (humaine, animale ou environnementale) doit faire l’objet d’audits et d’essais, y compris par des tiers indépendants, avant la mise en service pour évaluer la conformité des résultats avec les recommandations précédentes.
La problématique des IA développées par l’entreprise privée demande des solutions adaptées si les promoteurs considèrent leurs algorithmes comme des secrets industriels. Les chercheurs aujourd’hui à l’avant-garde du secteur dans nos institutions publiques universitaires doivent garder leur indépendance face à l’entreprise privée et travailler non seulement à sensibiliser les citoyens et les gouvernements aux enjeux de l’IA, mais aussi à définir un cadre réglementaire adaptée dont le besoin est urgent.
Recommandation 7 :
L’avant-garde du secteur à Montréal doit faciliter la mise sur pied d’un organe consultatif indépendant composé de spécialistes en IA, éthique et droit, et de citoyens d’intérêts divers, chargé de proposer des normes et processus de vérification, validation et certification des IA par tiers indépendants, ainsi que des améliorations aux règles de droit existantes pour encadrer le secteur et protéger le public.
Enfin, en matière d’éthique, il semble indispensable que les chercheurs en IA travaillent de concert avec les secteurs convergents des biotechnologies, cognitique, robotique et nanotechnologies qui ont à relever des dilemmes similaires[6].
[1] Sur ce point, les exemples sont multiples, mais voir entre autres dans The Guardian Computer says no.
[2] https://futureoflife.org/ai-principles/
[3] https://www.partnershiponai.org/tenets/
[4] Voir à ce sujet Fairness Testing: Testing Software for Discrimination (http://people.cs.umass.edu/~brun/pubs/pubs/Galhotra17fse.pdf) ainsi que (F)airness, (A)ccountability, (T)ransparency and (E)xplainability in Data-driven Decision Systems (http://fate-computing.mpi-sws.org/) et, aussi, Forget Killer Robots—Bias Is the Real AI Danger (https://www.technologyreview.com/s/608986/forget-killer-robotsbias-is-the-real-ai-danger/)
[5] Voir à ce sujet le Règlement général sur la protection des données qui entrera en vigueur en Europe fin mai (http://eur-lex.europa.eu/legal-content/FR/ALL/?uri=CELEX%3A32016R0679)
[6] Pour plus d’information relative à l’éthique et l’IA, voir Quelques ressources utiles sur les algorithmes et l’intelligence artificielle (https://www.cnil.fr/en/node/23120)