LA DÉCLARATION DE MONTRÉAL POUR UN DÉVELOPPEMENT RESPONSABLE DE L'INTELLIGENCE ARTIFICIELLE

LIRE LA DÉCLARATION DE MONTRÉAL

IA RESPONSABLE

UNE DÉCLARATION, POUR QUOI FAIRE?

La Déclaration de Montréal pour un développement responsable de l’intelligence artificielle poursuit
trois objectifs :

1. Élaborer un cadre éthique pour le développement et le déploiement de l’IA ;


2. Orienter la transition numérique afin que tous puissent bénéficier de cette révolution technologique ;


3. Ouvrir un espace de dialogue national et international pour réussir collectivement un développement inclusif, équitable et écologiquement soutenable de l’IA.


 

UNE DÉCLARATION DE QUOI ?

DES PRINCIPES

Le premier objectif de la Déclaration consiste à identifier les principes et les valeurs éthiques qui promeuvent les intérêts fondamentaux des personnes et des groupes. Ces principes appliqués au domaine du numérique et de l’intelligence artificielle restent généraux et abstraits. Pour les lire adéquatement, il convient de garder à l’esprit les points suivants :

  • Bien qu’ils soient présentés sous forme de liste, ils ne sont pas hiérarchisés. Le dernier principe n’est pas moins important que le premier. Mais il est possible, selon les circonstances, d’attribuer plus de poids à un principe qu’à un autre, ou de considérer qu’un principe est plus pertinent qu’un autre.

  • Bien qu’ils soient divers, ils doivent faire l’objet d’une interprétation cohérente afin d’éviter tout conflit qui empêche leur application. D’une manière générale, les limites de l’application d’un principe sont tracées par le domaine d’application d’un autre principe.

  • Bien qu’ils reflètent la culture morale et politique de la société dans laquelle ils ont été élaborés, ils constituent une base pour un dialogue interculturel et international.

  • Bien qu’ils puissent être interprétés de diverses manières, ils ne peuvent pas être interprétés de n’importe quelle manière. Il est impératif que l’interprétation soit cohérente.

  • Bien que ce soit des principes éthiques, ils peuvent être traduits en langage politique et interprétés de manière juridique.

De ces principes ont été élaborées des recommandations dont l’objectif est de proposer des lignes directrices pour réaliser la transition numérique dans le cadre éthique de la Déclaration. Elles couvrent quelques thèmes intersectoriels clés pour penser la transition vers une société dans laquelle l’IA permet de promouvoir le bien commun : la gouvernance algorithmique, la littératie numérique, l’inclusion numérique de la diversité et la soutenabilité écologique.

UNE DÉCLARATION POUR QUI ?

La Déclaration de Montréal est adressée à toute personne, toute organisation de la société civile et toute compagnie désireuses de participer au développement de l’intelligence artificielle de manière responsable, que ce soit pour y contribuer scientifiquement et technologiquement, pour développer des projets sociaux, pour élaborer des règles (règlements, codes) qui s’y appliquent, pour pouvoir en contester les orientations mauvaises ou imprudentes, ou encore pour être en mesure de lancer des alertes à l’opinion publique quand cela est nécessaire.


Elle s’adresse également aux responsables politiques, élus ou nommés, dont les citoyens attendent qu’ils prennent la mesure des changements sociaux en gestation, qu’ils mettent en place rapidement les cadres permettant la transition numérique pour le bien de tous, et qu’ils anticipent les risques sérieux que présente le développement de l’IA.

UNE DÉCLARATION SELON QUELLE MÉTHODE ?

La Déclaration est issue d’un processus délibératif inclusif qui met en dialogue citoyens, experts, responsables publics, parties prenantes de l’industrie, des organisations de la société civile et des ordres professionnels. L’intérêt de cette démarche est triple :


1. Arbitrer collectivement les controverses éthiques et sociétales sur l’IA ;


2. Améliorer la qualité de la réflexion sur l’IA responsable ;


3. Renforcer la légitimité des propositions pour une IA responsable.


L’élaboration de principes et des recommandations est un travail de coconstruction qui a impliqué une diversité de participants dans des lieux publics, dans des salles de réunion d’organisations professionnelles, autour de tables rondes d’experts internationaux, dans des bureaux de chercheurs, dans des salles de cours ou en ligne sur internet, toujours avec la même rigueur.

APRÈS LA DÉCLARATION ?

Parce que la Déclaration porte sur une technologie qui n’a cessé de progresser depuis les années 1950 et dont le rythme des innovations majeures s’accélère de manière exponentielle, il est essentiel de concevoir la Déclaration comme un document d’orientation ouvert, révisable et adaptable en fonction de l’évolution des connaissances et des techniques, et des retours d’expériences sur l’utilisation de l’IA dans la société. À la fin du processus d’élaboration de la Déclaration, nous sommes arrivés au point de départ d’une conversation ouverte et inclusive sur l’avenir de l’humanité servie par les technologies de l’intelligence artificielle.

 
 

Je souhaite signer la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle

PRÉAMBULE

Pour la première fois dans l’histoire de l’humanité, il est possible de créer des systèmes autonomes capables d’accomplir des tâches complexes que l’on croyait réservées à l’intelligence naturelle : traiter de grandes quantités d’informations, calculer et prédire, apprendre et adapter ses réponses aux situations changeantes, et reconnaître et classer des objets.


En raison de la nature immatérielle de ces tâches qu’ils réalisent, et par analogie avec l’intelligence humaine, on désigne ces systèmes très divers par le terme général d’intelligence artificielle. L’intelligence artificielle constitue un progrès scientifique et technologique majeur qui peut engendrer des bénéfices sociaux considérables en améliorant les conditions de vie, la santé et la justice, en créant de la richesse, en renforçant la sécurité publique ou en maîtrisant l’impact des activités humaines sur l’environnement et le climat. Les machines intelligentes ne se contentent pas de mieux calculer que les êtres humains, elles peuvent interagir avec les êtres sensibles, leur tenir compagnie et s’occuper d’eux.


Le développement de l’intelligence artificielle présente cependant des défis éthiques et des risques sociaux majeurs. En effet, les machines intelligentes peuvent contraindre les choix des individus et des groupes, abaisser la qualité de vie, bouleverser l’organisation du travail et le marché de l’emploi, influencer la vie politique, entrer en tension avec les droits fondamentaux, exacerber les inégalités économiques et sociales, et affecterles écosystèmes, l’environnement et le climat. Bien qu’il n’y ait pas de progrès scientifique ni de vie sociale sans risque, il appartient aux citoyennes et aux citoyens de déterminer les finalités morales et politiques qui donnent un sens aux risques encourus dans un monde incertain.


Les bénéfices de l’intelligence artificielle seront d’autant plus grands que les risques liés à son déploiement seront faibles. Or le premier danger que présente le développement de l’intelligence artificielle consiste à donner l’illusion que l’on maîtrise l’avenir par le calcul. Réduire la société à des nombres et la gouverner par des procédures algorithmiques est un vieux rêve qui nourrit encore les ambitions humaines. Mais dans les affaires humaines, demain ressemble rarement à aujourd’hui, et les nombres ne disent pas ce qui a une valeur morale, ni ce qui est socialement désirable.

 

Les principes de la présente Déclaration sont les directions d’une boussole éthique qui permet d’orienter le développement de l’intelligence artificielle vers des finalités moralement et socialement désirables. Ils offrent aussi un cadre éthique qui permet de promouvoir les droits humains reconnus internationalement dans les domaines concernés par le déploiement de l’intelligence artificielle. Pris dans leur ensemble, les principes formulés posent enfin les bases de la confiance sociale envers les systèmes artificiellement intelligents.


Les principes de la présente Déclaration reposent sur l’idée commune que les êtres humains cherchent à s’épanouir comme êtres sociaux doués de sensations, d’émotions et de pensées, et qu’ils s’efforcent de réaliser leurs potentialités en exerçant librement leurs capacités affectives, morales et intellectuelles. Il incombe aux différents acteurs et décideurs publics et privés, au niveau local, national et international, de s’assurer que le développement et le déploiement de l’intelligence artificielle sont compatibles avec la protection et l’épanouissement des capacités humaines fondamentales. C’est en fonction de cet objectif que les principes proposés doivent être interprétés de manière cohérente, en tenant compte de la spécificité des contextes sociaux, culturels, politiques et juridiques de leur application.

1- PRINCIPE DE BIEN-ÊTRE

 

Toutes les personnes impliquées dans le développement des SIA doivent faire preuve de prudence en anticipant autant que possible les conséquences néfastes de l’utilisation des SIA et en prenant des mesures appropriées pour les éviter.


1) Il est nécessaire de développer des mécanismes qui tiennent compte du potentiel de double-usage (bénéfique et néfaste) de la recherche en IA (qu’elle soit publique ou privée) et du développement des SIA afin d’en limiter les usages néfastes. 2) Lorsque l’utilisation détournée d’un SIA peut représenter un danger sérieux pour la sécurité ou la santé publique, avec une probabilité élevée, il est prudent de restreindre la diffusion publique ou l’accès libre à son algorithme. 3) Avant d’être mis sur le marché, qu’ils soient payants ou gratuits, les SIA doivent satisfaire des critères rigoureux de fiabilité, de sécurité et d’intégrité, et faire l’objet de tests qui ne mettent pas en danger la vie des personnes, ne nuisent pas à leur qualité de vie et ne portent pas atteinte à leur réputation ou leur intégrité psychologique. Ces tests doivent être ouverts aux autorités publiques compétentes et aux parties prenantes concernées. 4) Le développement des SIA doit prévenir les risques d’une utilisation néfaste des données d’utilisateurs et protéger l’intégrité et la confidentialité des données personnelles. 5) Les erreurs et les failles découvertes dans les SIA et SAAD devraient être partagées publiquement par les institutions publiques et les entreprises dans les secteurs qui présentent un danger important pour l’intégrité personnelle et l’organisation sociale, et ce, à l’échelle mondiale.





 2- PRINCIPE DE RESPECT DE L’AUTONOMIE

 

Toutes les personnes impliquées dans le développement des SIA doivent faire preuve de prudence en anticipant autant que possible les conséquences néfastes de l’utilisation des SIA et en prenant des mesures appropriées pour les éviter.


1) Il est nécessaire de développer des mécanismes qui tiennent compte du potentiel de double-usage (bénéfique et néfaste) de la recherche en IA (qu’elle soit publique ou privée) et du développement des SIA afin d’en limiter les usages néfastes. 2) Lorsque l’utilisation détournée d’un SIA peut représenter un danger sérieux pour la sécurité ou la santé publique, avec une probabilité élevée, il est prudent de restreindre la diffusion publique ou l’accès libre à son algorithme. 3) Avant d’être mis sur le marché, qu’ils soient payants ou gratuits, les SIA doivent satisfaire des critères rigoureux de fiabilité, de sécurité et d’intégrité, et faire l’objet de tests qui ne mettent pas en danger la vie des personnes, ne nuisent pas à leur qualité de vie et ne portent pas atteinte à leur réputation ou leur intégrité psychologique. Ces tests doivent être ouverts aux autorités publiques compétentes et aux parties prenantes concernées. 4) Le développement des SIA doit prévenir les risques d’une utilisation néfaste des données d’utilisateurs et protéger l’intégrité et la confidentialité des données personnelles. 5) Les erreurs et les failles découvertes dans les SIA et SAAD devraient être partagées publiquement par les institutions publiques et les entreprises dans les secteurs qui présentent un danger important pour l’intégrité personnelle et l’organisation sociale, et ce, à l’échelle mondiale.





 

3- PRINCIPE DE PROTECTION DE L'INTIMITÉ ET DE LA VIE PRIVÉE

Toutes les personnes impliquées dans le développement des SIA doivent faire preuve de prudence en anticipant autant que possible les conséquences néfastes de l’utilisation des SIA et en prenant des mesures appropriées pour les éviter.


1) Il est nécessaire de développer des mécanismes qui tiennent compte du potentiel de double-usage (bénéfique et néfaste) de la recherche en IA (qu’elle soit publique ou privée) et du développement des SIA afin d’en limiter les usages néfastes. 2) Lorsque l’utilisation détournée d’un SIA peut représenter un danger sérieux pour la sécurité ou la santé publique, avec une probabilité élevée, il est prudent de restreindre la diffusion publique ou l’accès libre à son algorithme. 3) Avant d’être mis sur le marché, qu’ils soient payants ou gratuits, les SIA doivent satisfaire des critères rigoureux de fiabilité, de sécurité et d’intégrité, et faire l’objet de tests qui ne mettent pas en danger la vie des personnes, ne nuisent pas à leur qualité de vie et ne portent pas atteinte à leur réputation ou leur intégrité psychologique. Ces tests doivent être ouverts aux autorités publiques compétentes et aux parties prenantes concernées. 4) Le développement des SIA doit prévenir les risques d’une utilisation néfaste des données d’utilisateurs et protéger l’intégrité et la confidentialité des données personnelles. 5) Les erreurs et les failles découvertes dans les SIA et SAAD devraient être partagées publiquement par les institutions publiques et les entreprises dans les secteurs qui présentent un danger important pour l’intégrité personnelle et l’organisation sociale, et ce, à l’échelle mondiale.





 

4- PRINCIPE DE SOLIDARITÉ

Toutes les personnes impliquées dans le développement des SIA doivent faire preuve de prudence en anticipant autant que possible les conséquences néfastes de l’utilisation des SIA et en prenant des mesures appropriées pour les éviter.


1) Il est nécessaire de développer des mécanismes qui tiennent compte du potentiel de double-usage (bénéfique et néfaste) de la recherche en IA (qu’elle soit publique ou privée) et du développement des SIA afin d’en limiter les usages néfastes. 2) Lorsque l’utilisation détournée d’un SIA peut représenter un danger sérieux pour la sécurité ou la santé publique, avec une probabilité élevée, il est prudent de restreindre la diffusion publique ou l’accès libre à son algorithme. 3) Avant d’être mis sur le marché, qu’ils soient payants ou gratuits, les SIA doivent satisfaire des critères rigoureux de fiabilité, de sécurité et d’intégrité, et faire l’objet de tests qui ne mettent pas en danger la vie des personnes, ne nuisent pas à leur qualité de vie et ne portent pas atteinte à leur réputation ou leur intégrité psychologique. Ces tests doivent être ouverts aux autorités publiques compétentes et aux parties prenantes concernées. 4) Le développement des SIA doit prévenir les risques d’une utilisation néfaste des données d’utilisateurs et protéger l’intégrité et la confidentialité des données personnelles. 5) Les erreurs et les failles découvertes dans les SIA et SAAD devraient être partagées publiquement par les institutions publiques et les entreprises dans les secteurs qui présentent un danger important pour l’intégrité personnelle et l’organisation sociale, et ce, à l’échelle mondiale.





 

5- PRINCIPE DE PARTICIPATION DÉMOCRATIQUE

Les SIA doivent satisfaire les critères d’intelligibilité, de justifiabilité et d’accessibilité, et doivent pouvoir être soumis à un examen, un débat et un contrôle démocratiques.


1) Le fonctionnement des SIA qui prennent des décisions affectant la vie, la qualité de la vie ou la réputation des personnes doit être intelligible pour leurs concepteurs. 2) Les décisions des SIA affectant la vie, la qualité de la vie ou la réputation des personnes, devraient toujours être justifiables dans un langage compréhensible aux personnes qui les utilisent ou qui subissent les conséquences de leur utilisation. La justification consiste à exposer les facteurs et les paramètres les plus importants de la décision et doit être semblable aux justifications qu’on exigerait d’un être humain prenant le même type de décision. 3) Le code des algorithmes, publics ou privés, doit toujours être accessible aux autorités publiques compétentes et aux parties prenantes concernées à des fins de vérification et de contrôle. 4) La découverte d’erreurs de fonctionnement des SIA, d’effets imprévus ou indésirables, de failles de sécurité et de fuites de données doit être impérativement signalée aux autorités publiques compétentes, aux parties prenantes concernées et aux personnes affectées par la situation. 5) En vertu de l’exigence de transparence des décisions publiques, le code des algorithmes de décision utilisé par les pouvoirs publics doit être accessible à tous, à l’exception des algorithmes présentant, en cas d’usage détourné, un danger sérieux avec une probabilité élevée. 6) Pour les SIA publics ayant un impact important sur la vie des citoyens, ces derniers devraient avoir la possibilité et la compétence de délibérer sur les paramètres sociaux de ces SIA, leurs objectifs et les limites de leur utilisation. 7) On doit pouvoir s’assurer en tout temps que les SIA font ce pour quoi ils ont été programmés et ce pour quoi ils sont utilisés. 8) Tout utilisateur d’un service devrait savoir si une décision le concernant ou l’affectant a été prise par un SIA. 9) Tout utilisateur d’un service qui recourt à des agents conversationnels doit pouvoir identifier facilement s’il interagit avec un SIA ou une personne. 10) La recherche dans le domaine de l’intelligence artificielle devrait rester ouverte et accessible à tous.





 

6- PRINCIPE D'ÉQUITÉ

Définition des termes utilisés dans ce document


ACTIVITÉ NUMÉRIQUE : On entend par activité numérique l’ensemble des actions posées par un individu dans un environnement numérique, que ce soit sur un ordinateur, un téléphone ou tout autre objet connecté.

AGENT CONVERSATIONNEL (chatbot) : Un agent conversationnel est un système d’IA qui peut dialoguer avec son utilisateur en langage naturel.

APPRENTISSAGE MACHINE (machine learning) : L’apprentissage machine est la branche de l’intelligence artificielle qui consiste à programmer un algorithme à apprendre par lui-même. Parmi la multitude de techniques, on distingue trois types majeurs d’apprentissage machine : 1) En apprentissage supervisé, le système d’intelligence artificielle (SIA) apprend à prédire une valeur à partir d’une donnée entrée. Cela nécessite d’avoir des couples entrée-valeur annotés lors de l’entrainement. Par exemple, un système peut apprendre à reconnaître l’objet présent sur une photo ; 2) En apprentissage non supervisé, le SIA apprend à trouver des similitudes entre des données qui n’ont pas été annotées, par exemple afin de les diviser en différentes partitions homogènes. Ainsi, un système peut reconnaître des communautés d’utilisateurs de réseaux sociaux ; 3) En apprentissage par renforcement, le SIA apprend à agir sur son environnement de façon à maximiser une récompense qui lui est donnée lors de l’entrainement. C’est la technique avec laquelle des SIA ont pu battre des humains au jeu de Go ou au jeu vidéo Dota2.

APPRENTISSAGE PROFOND (deep learning) : L’apprentissage profond est la branche de l’apprentissage machine qui utilise des réseaux de neurones artificiels à plusieurs niveaux. C’est la technologie qui est derrière les plus récentes avancées en IA.

BIENS COMMUNS NUMÉRIQUES (digital commons) : Les biens communs numériques sont les applications ou les données produites par une communauté. Contrairement aux biens matériels, ils sont facilement partageables et ne se détériorent pas lorsqu’ils sont utilisés. Ainsi, par opposition aux logiciels propriétaires, les logiciels open source – qui résultent souvent d’une collaboration entre programmeurs – constituent des biens communs numériques puisque leur code source est ouvert, c’est-à-dire accessible à tous.

BULLE DE FILTRE (filter bubble) : L’expression bulle de filtre (ou bulle filtrante) désigne l’information « filtrée » qui parvient à un individu lorsqu’il est sur internet. En effet, divers services comme les réseaux sociaux ou les moteurs de recherche offrent des résultats personnalisés à leurs utilisateurs. Ceci peut avoir pour effet d’isoler les individus (dans des « bulles ») puisqu’ils n’accèdent plus à une information commune.

DÉCONNEXION NUMÉRIQUE : On entend par déconnexion numérique l’arrêt temporaire ou permanent par un individu de son activité numérique.

DÉPENDANCE DE SENTIER : Mécanisme social par lequel des décisions technologiques, organisationnelles ou institutionnelles, jugées rationnelles à une époque mais devenues sous-optimales aujourd’hui, continuent malgré tout d’influencer la prise de décision. Un mécanisme maintenu à cause d’un biais cognitif ou parce que son changement conduirait à un coût ou un effort trop élevé. C’est par exemple le cas des infrastructures routières urbaines lorsqu’elles conduisent à des programmes d’optimisation de la circulation, au lieu d’envisager un changement pour organiser une mobilité à très faibles émissions de carbone. Ce mécanisme doit être connu lors de l’utilisation de l’IA pour des projets sociaux, car les données d’entrainement en apprentissage supervisé peuvent parfois renforcer d’anciens paradigmes organisationnels dont la pertinence fait débat aujourd’hui.

DÉVELOPPEMENT SOUTENABLE (sustainable) : Le développement soutenable (ou durable) désigne un développement des sociétés humaines qui est compatible avec la capacité des systèmes naturels à offrir les ressources et les services nécessaires à ces sociétés. Il s’agit d’un développement économique et social qui répond aux besoins des personnes actuelles sans compromettre l’existence des générations futures.

DONNÉES OUVERTES (open data) : Les données ouvertes désignent les données numériques auxquelles les usagers peuvent accéder librement. C’est par exemple le cas pour la plupart des résultats de recherche publiés en IA.

DONNÉES PERSONNELLES : Les données personnelles sont celles qui permettent d’identifier directement ou indirectement un individu.

EFFET REBOND : L’effet rebond est le mécanisme par lequel une plus grande efficacité énergétique ou une meilleure performance environnementale des biens, équipements et services, conduit à une augmentation plus que proportionnelle de leur consommation. Par exemple, la taille des écrans augmente, la quantité des appareils électroniques augmente dans les ménages, et on parcourt de plus grandes distances en voiture ou en avion. Il en résulte globalement une plus grande pression sur les ressources et l’environnement.

ENTRAINEMENT : L’entrainement est le processus de l’apprentissage machine pendant lequel le SIA construit un modèle à partir de données. Les performances du SIA dépendront de la qualité du modèle, lui-même dépendant de la quantité et de la qualité des données utilisées durant l’entrainement.

FIABILITÉ : Un système d’IA est fiable lorsqu’il effectue la tâche pour laquelle il a été conçu de manière attendue. La fiabilité est la probabilité de succès qui varie entre 51% et 100%, c’est-à-dire qui est strictement supérieur au hasard. Plus un système est fiable, plus son comportement est prévisible.

GAN : Acronyme de Generative Adversarial Network, en français Réseaux antagonistes génératifs. Dans un GAN, deux réseaux antagonistes sont en compétition pour générer une image. Ils peuvent être par exemple utilisés pour créer une image, un enregistrement ou une vidéo paraissant quasi réels pour un humain.

INTELLIGENCE ARTIFICIELLE (IA) : L’intelligence artificielle (IA) désigne l’ensemble des techniques qui permettent à une machine de simuler l’intelligence humaine, notamment pour apprendre, prédire, prendre des décisions et percevoir le monde environnant. Dans le cas d’un système informatique, l’intelligence artificielle est appliquée à des données numériques.

INTELLIGIBILITÉ : Un système d’IA est intelligible lorsqu’un être humain doté des connaissances nécessaires peut comprendre son fonctionnement, c’est-à-dire son modèle mathématique et les processus qui le déterminent.

JUSTIFIABILITÉ D'UNE DÉCISION : La décision d’un système d’IA est justifiée lorsqu’il existe des raisons non triviales qui motivent cette décision et que ces raisons sont communicables en langage naturel.

LITTÉRATIE NUMÉRIQUE : La littératie numérique d’un individu désigne son habilité à gérer, à comprendre, à intégrer, à communiquer, à évaluer à créer de l’information et à y accéder de façon sécuritaire et appropriée au moyen des outils numériques et des technologies en réseaux pour participer à la vie économique et sociale.

SOUTENABILITÉ ÉCOLOGIQUE FORTE : La notion de soutenabilité (ou durabilité) écologique forte renvoie à l’idée que pour être soutenable, le rythme de consommation des ressources naturelles et d’émissions de polluants doit être compatible avec les limites environnementales planétaires, le rythme de renouvellement des ressources et des écosystèmes, ainsi que la stabilité du climat. Contrairement à la soutenabilité faible, moins exigeante, la soutenabilité forte n’admet pas qu’on substitue des pertes de ressources naturelles à du capital artificiel.

SYSTÈME D'ACQUISITION ET D'ARCHIVAGE DES DONNÉES (SAAD) : Un SAAD désigne tout système informatique pouvant collecter et enregistrer des données. Celles-ci seront éventuellement utilisées pour l’entrainement d’un système d’IA ou comme paramètres pour une prise de décision.

SYSTÈME D'INTELLIGENCE ARTIFICIELLE (SIA) : Un système d’IA désigne tout système informatique utilisant des algorithmes d’intelligence artificielle, que ce soit un logiciel, un objet connecté ou un robot.





7- PRINCIPE D'INCLUSION DE LA DIVERSITÉ

 

Les SIA doivent satisfaire les critères d’intelligibilité, de justifiabilité et d’accessibilité, et doivent pouvoir être soumis à un examen, un débat et un contrôle démocratiques.


1) Le fonctionnement des SIA qui prennent des décisions affectant la vie, la qualité de la vie ou la réputation des personnes doit être intelligible pour leurs concepteurs. 2) Les décisions des SIA affectant la vie, la qualité de la vie ou la réputation des personnes, devraient toujours être justifiables dans un langage compréhensible aux personnes qui les utilisent ou qui subissent les conséquences de leur utilisation. La justification consiste à exposer les facteurs et les paramètres les plus importants de la décision et doit être semblable aux justifications qu’on exigerait d’un être humain prenant le même type de décision. 3) Le code des algorithmes, publics ou privés, doit toujours être accessible aux autorités publiques compétentes et aux parties prenantes concernées à des fins de vérification et de contrôle. 4) La découverte d’erreurs de fonctionnement des SIA, d’effets imprévus ou indésirables, de failles de sécurité et de fuites de données doit être impérativement signalée aux autorités publiques compétentes, aux parties prenantes concernées et aux personnes affectées par la situation. 5) En vertu de l’exigence de transparence des décisions publiques, le code des algorithmes de décision utilisé par les pouvoirs publics doit être accessible à tous, à l’exception des algorithmes présentant, en cas d’usage détourné, un danger sérieux avec une probabilité élevée. 6) Pour les SIA publics ayant un impact important sur la vie des citoyens, ces derniers devraient avoir la possibilité et la compétence de délibérer sur les paramètres sociaux de ces SIA, leurs objectifs et les limites de leur utilisation. 7) On doit pouvoir s’assurer en tout temps que les SIA font ce pour quoi ils ont été programmés et ce pour quoi ils sont utilisés. 8) Tout utilisateur d’un service devrait savoir si une décision le concernant ou l’affectant a été prise par un SIA. 9) Tout utilisateur d’un service qui recourt à des agents conversationnels doit pouvoir identifier facilement s’il interagit avec un SIA ou une personne. 10) La recherche dans le domaine de l’intelligence artificielle devrait rester ouverte et accessible à tous.





 

8- PRINCIPE DE PRUDENCE

Toutes les personnes impliquées dans le développement des SIA doivent faire preuve de prudence en anticipant autant que possible les conséquences néfastes de l’utilisation des SIA et en prenant des mesures appropriées pour les éviter.


1) Il est nécessaire de développer des mécanismes qui tiennent compte du potentiel de double-usage (bénéfique et néfaste) de la recherche en IA (qu’elle soit publique ou privée) et du développement des SIA afin d’en limiter les usages néfastes. 2) Lorsque l’utilisation détournée d’un SIA peut représenter un danger sérieux pour la sécurité ou la santé publique, avec une probabilité élevée, il est prudent de restreindre la diffusion publique ou l’accès libre à son algorithme. 3) Avant d’être mis sur le marché, qu’ils soient payants ou gratuits, les SIA doivent satisfaire des critères rigoureux de fiabilité, de sécurité et d’intégrité, et faire l’objet de tests qui ne mettent pas en danger la vie des personnes, ne nuisent pas à leur qualité de vie et ne portent pas atteinte à leur réputation ou leur intégrité psychologique. Ces tests doivent être ouverts aux autorités publiques compétentes et aux parties prenantes concernées. 4) Le développement des SIA doit prévenir les risques d’une utilisation néfaste des données d’utilisateurs et protéger l’intégrité et la confidentialité des données personnelles. 5) Les erreurs et les failles découvertes dans les SIA et SAAD devraient être partagées publiquement par les institutions publiques et les entreprises dans les secteurs qui présentent un danger important pour l’intégrité personnelle et l’organisation sociale, et ce, à l’échelle mondiale.





 

9- PRINCIPE DE RESPONSABILITÉ

Toutes les personnes impliquées dans le développement des SIA doivent faire preuve de prudence en anticipant autant que possible les conséquences néfastes de l’utilisation des SIA et en prenant des mesures appropriées pour les éviter.


1) Il est nécessaire de développer des mécanismes qui tiennent compte du potentiel de double-usage (bénéfique et néfaste) de la recherche en IA (qu’elle soit publique ou privée) et du développement des SIA afin d’en limiter les usages néfastes. 2) Lorsque l’utilisation détournée d’un SIA peut représenter un danger sérieux pour la sécurité ou la santé publique, avec une probabilité élevée, il est prudent de restreindre la diffusion publique ou l’accès libre à son algorithme. 3) Avant d’être mis sur le marché, qu’ils soient payants ou gratuits, les SIA doivent satisfaire des critères rigoureux de fiabilité, de sécurité et d’intégrité, et faire l’objet de tests qui ne mettent pas en danger la vie des personnes, ne nuisent pas à leur qualité de vie et ne portent pas atteinte à leur réputation ou leur intégrité psychologique. Ces tests doivent être ouverts aux autorités publiques compétentes et aux parties prenantes concernées. 4) Le développement des SIA doit prévenir les risques d’une utilisation néfaste des données d’utilisateurs et protéger l’intégrité et la confidentialité des données personnelles. 5) Les erreurs et les failles découvertes dans les SIA et SAAD devraient être partagées publiquement par les institutions publiques et les entreprises dans les secteurs qui présentent un danger important pour l’intégrité personnelle et l’organisation sociale, et ce, à l’échelle mondiale.





10- PRINCIPE DE DÉVELOPPEMENT SOUTENABLE

 

Définition des termes utilisés dans ce document


ACTIVITÉ NUMÉRIQUE : On entend par activité numérique l’ensemble des actions posées par un individu dans un environnement numérique, que ce soit sur un ordinateur, un téléphone ou tout autre objet connecté.

AGENT CONVERSATIONNEL (chatbot) : Un agent conversationnel est un système d’IA qui peut dialoguer avec son utilisateur en langage naturel.

APPRENTISSAGE MACHINE (machine learning) : L’apprentissage machine est la branche de l’intelligence artificielle qui consiste à programmer un algorithme à apprendre par lui-même. Parmi la multitude de techniques, on distingue trois types majeurs d’apprentissage machine : 1) En apprentissage supervisé, le système d’intelligence artificielle (SIA) apprend à prédire une valeur à partir d’une donnée entrée. Cela nécessite d’avoir des couples entrée-valeur annotés lors de l’entrainement. Par exemple, un système peut apprendre à reconnaître l’objet présent sur une photo ; 2) En apprentissage non supervisé, le SIA apprend à trouver des similitudes entre des données qui n’ont pas été annotées, par exemple afin de les diviser en différentes partitions homogènes. Ainsi, un système peut reconnaître des communautés d’utilisateurs de réseaux sociaux ; 3) En apprentissage par renforcement, le SIA apprend à agir sur son environnement de façon à maximiser une récompense qui lui est donnée lors de l’entrainement. C’est la technique avec laquelle des SIA ont pu battre des humains au jeu de Go ou au jeu vidéo Dota2.

APPRENTISSAGE PROFOND (deep learning) : L’apprentissage profond est la branche de l’apprentissage machine qui utilise des réseaux de neurones artificiels à plusieurs niveaux. C’est la technologie qui est derrière les plus récentes avancées en IA.

BIENS COMMUNS NUMÉRIQUES (digital commons) : Les biens communs numériques sont les applications ou les données produites par une communauté. Contrairement aux biens matériels, ils sont facilement partageables et ne se détériorent pas lorsqu’ils sont utilisés. Ainsi, par opposition aux logiciels propriétaires, les logiciels open source – qui résultent souvent d’une collaboration entre programmeurs – constituent des biens communs numériques puisque leur code source est ouvert, c’est-à-dire accessible à tous.

BULLE DE FILTRE (filter bubble) : L’expression bulle de filtre (ou bulle filtrante) désigne l’information « filtrée » qui parvient à un individu lorsqu’il est sur internet. En effet, divers services comme les réseaux sociaux ou les moteurs de recherche offrent des résultats personnalisés à leurs utilisateurs. Ceci peut avoir pour effet d’isoler les individus (dans des « bulles ») puisqu’ils n’accèdent plus à une information commune.

DÉCONNEXION NUMÉRIQUE : On entend par déconnexion numérique l’arrêt temporaire ou permanent par un individu de son activité numérique.

DÉPENDANCE DE SENTIER : Mécanisme social par lequel des décisions technologiques, organisationnelles ou institutionnelles, jugées rationnelles à une époque mais devenues sous-optimales aujourd’hui, continuent malgré tout d’influencer la prise de décision. Un mécanisme maintenu à cause d’un biais cognitif ou parce que son changement conduirait à un coût ou un effort trop élevé. C’est par exemple le cas des infrastructures routières urbaines lorsqu’elles conduisent à des programmes d’optimisation de la circulation, au lieu d’envisager un changement pour organiser une mobilité à très faibles émissions de carbone. Ce mécanisme doit être connu lors de l’utilisation de l’IA pour des projets sociaux, car les données d’entrainement en apprentissage supervisé peuvent parfois renforcer d’anciens paradigmes organisationnels dont la pertinence fait débat aujourd’hui.

DÉVELOPPEMENT SOUTENABLE (sustainable) : Le développement soutenable (ou durable) désigne un développement des sociétés humaines qui est compatible avec la capacité des systèmes naturels à offrir les ressources et les services nécessaires à ces sociétés. Il s’agit d’un développement économique et social qui répond aux besoins des personnes actuelles sans compromettre l’existence des générations futures.

DONNÉES OUVERTES (open data) : Les données ouvertes désignent les données numériques auxquelles les usagers peuvent accéder librement. C’est par exemple le cas pour la plupart des résultats de recherche publiés en IA.

DONNÉES PERSONNELLES : Les données personnelles sont celles qui permettent d’identifier directement ou indirectement un individu.

EFFET REBOND : L’effet rebond est le mécanisme par lequel une plus grande efficacité énergétique ou une meilleure performance environnementale des biens, équipements et services, conduit à une augmentation plus que proportionnelle de leur consommation. Par exemple, la taille des écrans augmente, la quantité des appareils électroniques augmente dans les ménages, et on parcourt de plus grandes distances en voiture ou en avion. Il en résulte globalement une plus grande pression sur les ressources et l’environnement.

ENTRAINEMENT : L’entrainement est le processus de l’apprentissage machine pendant lequel le SIA construit un modèle à partir de données. Les performances du SIA dépendront de la qualité du modèle, lui-même dépendant de la quantité et de la qualité des données utilisées durant l’entrainement.

FIABILITÉ : Un système d’IA est fiable lorsqu’il effectue la tâche pour laquelle il a été conçu de manière attendue. La fiabilité est la probabilité de succès qui varie entre 51% et 100%, c’est-à-dire qui est strictement supérieur au hasard. Plus un système est fiable, plus son comportement est prévisible.

GAN : Acronyme de Generative Adversarial Network, en français Réseaux antagonistes génératifs. Dans un GAN, deux réseaux antagonistes sont en compétition pour générer une image. Ils peuvent être par exemple utilisés pour créer une image, un enregistrement ou une vidéo paraissant quasi réels pour un humain.

INTELLIGENCE ARTIFICIELLE (IA) : L’intelligence artificielle (IA) désigne l’ensemble des techniques qui permettent à une machine de simuler l’intelligence humaine, notamment pour apprendre, prédire, prendre des décisions et percevoir le monde environnant. Dans le cas d’un système informatique, l’intelligence artificielle est appliquée à des données numériques.

INTELLIGIBILITÉ : Un système d’IA est intelligible lorsqu’un être humain doté des connaissances nécessaires peut comprendre son fonctionnement, c’est-à-dire son modèle mathématique et les processus qui le déterminent.

JUSTIFIABILITÉ D'UNE DÉCISION : La décision d’un système d’IA est justifiée lorsqu’il existe des raisons non triviales qui motivent cette décision et que ces raisons sont communicables en langage naturel.

LITTÉRATIE NUMÉRIQUE : La littératie numérique d’un individu désigne son habilité à gérer, à comprendre, à intégrer, à communiquer, à évaluer à créer de l’information et à y accéder de façon sécuritaire et appropriée au moyen des outils numériques et des technologies en réseaux pour participer à la vie économique et sociale.

SOUTENABILITÉ ÉCOLOGIQUE FORTE : La notion de soutenabilité (ou durabilité) écologique forte renvoie à l’idée que pour être soutenable, le rythme de consommation des ressources naturelles et d’émissions de polluants doit être compatible avec les limites environnementales planétaires, le rythme de renouvellement des ressources et des écosystèmes, ainsi que la stabilité du climat. Contrairement à la soutenabilité faible, moins exigeante, la soutenabilité forte n’admet pas qu’on substitue des pertes de ressources naturelles à du capital artificiel.

SYSTÈME D'ACQUISITION ET D'ARCHIVAGE DES DONNÉES (SAAD) : Un SAAD désigne tout système informatique pouvant collecter et enregistrer des données. Celles-ci seront éventuellement utilisées pour l’entrainement d’un système d’IA ou comme paramètres pour une prise de décision.

SYSTÈME D'INTELLIGENCE ARTIFICIELLE (SIA) : Un système d’IA désigne tout système informatique utilisant des algorithmes d’intelligence artificielle, que ce soit un logiciel, un objet connecté ou un robot.





 

LEXIQUE

Définition des termes utilisés dans ce document


ACTIVITÉ NUMÉRIQUE : On entend par activité numérique l’ensemble des actions posées par un individu dans un environnement numérique, que ce soit sur un ordinateur, un téléphone ou tout autre objet connecté.

AGENT CONVERSATIONNEL (chatbot) : Un agent conversationnel est un système d’IA qui peut dialoguer avec son utilisateur en langage naturel.

APPRENTISSAGE MACHINE (machine learning) : L’apprentissage machine est la branche de l’intelligence artificielle qui consiste à programmer un algorithme à apprendre par lui-même. Parmi la multitude de techniques, on distingue trois types majeurs d’apprentissage machine : 1) En apprentissage supervisé, le système d’intelligence artificielle (SIA) apprend à prédire une valeur à partir d’une donnée entrée. Cela nécessite d’avoir des couples entrée-valeur annotés lors de l’entrainement. Par exemple, un système peut apprendre à reconnaître l’objet présent sur une photo ; 2) En apprentissage non supervisé, le SIA apprend à trouver des similitudes entre des données qui n’ont pas été annotées, par exemple afin de les diviser en différentes partitions homogènes. Ainsi, un système peut reconnaître des communautés d’utilisateurs de réseaux sociaux ; 3) En apprentissage par renforcement, le SIA apprend à agir sur son environnement de façon à maximiser une récompense qui lui est donnée lors de l’entrainement. C’est la technique avec laquelle des SIA ont pu battre des humains au jeu de Go ou au jeu vidéo Dota2.

APPRENTISSAGE PROFOND (deep learning) : L’apprentissage profond est la branche de l’apprentissage machine qui utilise des réseaux de neurones artificiels à plusieurs niveaux. C’est la technologie qui est derrière les plus récentes avancées en IA.

BIENS COMMUNS NUMÉRIQUES (digital commons) : Les biens communs numériques sont les applications ou les données produites par une communauté. Contrairement aux biens matériels, ils sont facilement partageables et ne se détériorent pas lorsqu’ils sont utilisés. Ainsi, par opposition aux logiciels propriétaires, les logiciels open source – qui résultent souvent d’une collaboration entre programmeurs – constituent des biens communs numériques puisque leur code source est ouvert, c’est-à-dire accessible à tous.

BULLE DE FILTRE (filter bubble) : L’expression bulle de filtre (ou bulle filtrante) désigne l’information « filtrée » qui parvient à un individu lorsqu’il est sur internet. En effet, divers services comme les réseaux sociaux ou les moteurs de recherche offrent des résultats personnalisés à leurs utilisateurs. Ceci peut avoir pour effet d’isoler les individus (dans des « bulles ») puisqu’ils n’accèdent plus à une information commune.

DÉCONNEXION NUMÉRIQUE : On entend par déconnexion numérique l’arrêt temporaire ou permanent par un individu de son activité numérique.

DÉPENDANCE DE SENTIER : Mécanisme social par lequel des décisions technologiques, organisationnelles ou institutionnelles, jugées rationnelles à une époque mais devenues sous-optimales aujourd’hui, continuent malgré tout d’influencer la prise de décision. Un mécanisme maintenu à cause d’un biais cognitif ou parce que son changement conduirait à un coût ou un effort trop élevé. C’est par exemple le cas des infrastructures routières urbaines lorsqu’elles conduisent à des programmes d’optimisation de la circulation, au lieu d’envisager un changement pour organiser une mobilité à très faibles émissions de carbone. Ce mécanisme doit être connu lors de l’utilisation de l’IA pour des projets sociaux, car les données d’entrainement en apprentissage supervisé peuvent parfois renforcer d’anciens paradigmes organisationnels dont la pertinence fait débat aujourd’hui.

DÉVELOPPEMENT SOUTENABLE (sustainable) : Le développement soutenable (ou durable) désigne un développement des sociétés humaines qui est compatible avec la capacité des systèmes naturels à offrir les ressources et les services nécessaires à ces sociétés. Il s’agit d’un développement économique et social qui répond aux besoins des personnes actuelles sans compromettre l’existence des générations futures.

DONNÉES OUVERTES (open data) : Les données ouvertes désignent les données numériques auxquelles les usagers peuvent accéder librement. C’est par exemple le cas pour la plupart des résultats de recherche publiés en IA.

DONNÉES PERSONNELLES : Les données personnelles sont celles qui permettent d’identifier directement ou indirectement un individu.

EFFET REBOND : L’effet rebond est le mécanisme par lequel une plus grande efficacité énergétique ou une meilleure performance environnementale des biens, équipements et services, conduit à une augmentation plus que proportionnelle de leur consommation. Par exemple, la taille des écrans augmente, la quantité des appareils électroniques augmente dans les ménages, et on parcourt de plus grandes distances en voiture ou en avion. Il en résulte globalement une plus grande pression sur les ressources et l’environnement.

ENTRAINEMENT : L’entrainement est le processus de l’apprentissage machine pendant lequel le SIA construit un modèle à partir de données. Les performances du SIA dépendront de la qualité du modèle, lui-même dépendant de la quantité et de la qualité des données utilisées durant l’entrainement.

FIABILITÉ : Un système d’IA est fiable lorsqu’il effectue la tâche pour laquelle il a été conçu de manière attendue. La fiabilité est la probabilité de succès qui varie entre 51% et 100%, c’est-à-dire qui est strictement supérieur au hasard. Plus un système est fiable, plus son comportement est prévisible.

GAN : Acronyme de Generative Adversarial Network, en français Réseaux antagonistes génératifs. Dans un GAN, deux réseaux antagonistes sont en compétition pour générer une image. Ils peuvent être par exemple utilisés pour créer une image, un enregistrement ou une vidéo paraissant quasi réels pour un humain.

INTELLIGENCE ARTIFICIELLE (IA) : L’intelligence artificielle (IA) désigne l’ensemble des techniques qui permettent à une machine de simuler l’intelligence humaine, notamment pour apprendre, prédire, prendre des décisions et percevoir le monde environnant. Dans le cas d’un système informatique, l’intelligence artificielle est appliquée à des données numériques.

INTELLIGIBILITÉ : Un système d’IA est intelligible lorsqu’un être humain doté des connaissances nécessaires peut comprendre son fonctionnement, c’est-à-dire son modèle mathématique et les processus qui le déterminent.

JUSTIFIABILITÉ D'UNE DÉCISION : La décision d’un système d’IA est justifiée lorsqu’il existe des raisons non triviales qui motivent cette décision et que ces raisons sont communicables en langage naturel.

LITTÉRATIE NUMÉRIQUE : La littératie numérique d’un individu désigne son habilité à gérer, à comprendre, à intégrer, à communiquer, à évaluer à créer de l’information et à y accéder de façon sécuritaire et appropriée au moyen des outils numériques et des technologies en réseaux pour participer à la vie économique et sociale.

SOUTENABILITÉ ÉCOLOGIQUE FORTE : La notion de soutenabilité (ou durabilité) écologique forte renvoie à l’idée que pour être soutenable, le rythme de consommation des ressources naturelles et d’émissions de polluants doit être compatible avec les limites environnementales planétaires, le rythme de renouvellement des ressources et des écosystèmes, ainsi que la stabilité du climat. Contrairement à la soutenabilité faible, moins exigeante, la soutenabilité forte n’admet pas qu’on substitue des pertes de ressources naturelles à du capital artificiel.

SYSTÈME D'ACQUISITION ET D'ARCHIVAGE DES DONNÉES (SAAD) : Un SAAD désigne tout système informatique pouvant collecter et enregistrer des données. Celles-ci seront éventuellement utilisées pour l’entrainement d’un système d’IA ou comme paramètres pour une prise de décision.

SYSTÈME D'INTELLIGENCE ARTIFICIELLE (SIA) : Un système d’IA désigne tout système informatique utilisant des algorithmes d’intelligence artificielle, que ce soit un logiciel, un objet connecté ou un robot.





CRÉDITS

 

Toutes les personnes impliquées dans le développement des SIA doivent faire preuve de prudence en anticipant autant que possible les conséquences néfastes de l’utilisation des SIA et en prenant des mesures appropriées pour les éviter.


1) Il est nécessaire de développer des mécanismes qui tiennent compte du potentiel de double-usage (bénéfique et néfaste) de la recherche en IA (qu’elle soit publique ou privée) et du développement des SIA afin d’en limiter les usages néfastes. 2) Lorsque l’utilisation détournée d’un SIA peut représenter un danger sérieux pour la sécurité ou la santé publique, avec une probabilité élevée, il est prudent de restreindre la diffusion publique ou l’accès libre à son algorithme. 3) Avant d’être mis sur le marché, qu’ils soient payants ou gratuits, les SIA doivent satisfaire des critères rigoureux de fiabilité, de sécurité et d’intégrité, et faire l’objet de tests qui ne mettent pas en danger la vie des personnes, ne nuisent pas à leur qualité de vie et ne portent pas atteinte à leur réputation ou leur intégrité psychologique. Ces tests doivent être ouverts aux autorités publiques compétentes et aux parties prenantes concernées. 4) Le développement des SIA doit prévenir les risques d’une utilisation néfaste des données d’utilisateurs et protéger l’intégrité et la confidentialité des données personnelles. 5) Les erreurs et les failles découvertes dans les SIA et SAAD devraient être partagées publiquement par les institutions publiques et les entreprises dans les secteurs qui présentent un danger important pour l’intégrité personnelle et l’organisation sociale, et ce, à l’échelle mondiale.





© 2018 Déclaration de Montréal pour le développement responsable de l'IA

Université de Montréal

Suivez-nous!

  • Grey Twitter Icon
  • Grey Flickr Icon