LA DÉCLARATION DE MONTRÉAL POUR UN DÉVELOPPEMENT RESPONSABLE DE L'INTELLIGENCE ARTIFICIELLE

Télécharger la version PDF

LIRE LA DÉCLARATION DE MONTRÉAL IA RESPONSABLE

UNE DÉCLARATION, POUR QUOI FAIRE?

La Déclaration de Montréal pour un développement responsable de l’intelligence artificielle poursuit pour
3 objectifs :

1. Élaborer un cadre éthique pour le développement et ledéploiement de l’IA ;


2. Orienter la transition numérique afin que tous puissent bénéficier de cette révolution technologique ;


3. Ouvrir un espace de dialogue national et international pour réussir collectivement un développement inclusif, équitable et écologiquement soutenable de l’IA.


 

UNE DÉCLARATION, DE QUOI ?

DES PRINCIPES

Le premier objectif de la Déclaration consiste à identifier les principes et les valeurs éthiques
qui promeuvent les intérêts fondamentaux des personnes et des groupes. Ces principes appliqués au domaine du numérique et de l’intelligenceartificielle restent généraux et abstraits. Pour les lire adéquatement, il convient de garder à l’esprit les points suivants :

  • Bien qu’ils soient présentés sous forme de liste, ils ne sont pas hiérarchisés. Le dernier principe n’est pas moins important que le premier. Mais il est possible, selon les circonstances, d’attribuer plus de poids à un principe qu’à un autre, ou de considérer qu’un principe est plus pertinent qu’un autre.

  • Bien qu’ils soient divers, ils doivent faire l’objet d’une interprétation cohérente afin d’évitertout conflit qui empêche leur application. D’une manière générale, les limites de l’application d’un principe sont tracées par le domaine d’application d’un autre principe.

  • Bien qu’ils reflètent la culture morale et politique de la société dans laquelle ils ont été élaborés, ils constituent une base pour un dialogue interculturel et international.

  • Bien qu’ils puissent être interprétés de diverses manières, ils ne peuvent pas être interprétés de n’importe quelle manière. Il est impératif que l’interprétation soit cohérente.

  • Bien que ce soit des principes éthiques, ils peuvent être traduits en langage politique et interprétés de manière juridique.

De ces principes ont été élaborées des recommandations dont l’objectif est de proposer des lignes directrices pour réaliser la transitionnumérique dans le cadre éthique de la Déclaration. Elles couvrent quelques thèmes intersectoriels clés pour penser la transition vers une société dans laquelle l’IA permet de promouvoir le bien commun : la gouvernance algorithmique, la littératie numérique, l’inclusion numérique de la diversité
et la soutenabilité écologique.

UNE DÉCLARATION, DE QUOI ?

La Déclaration de Montréal est adressée à toute personne, toute organisation de la société civile
et toute compagnie désireuses de participer audéveloppement de l’intelligence artificielle demanière responsable, que ce soit pour y contribuer scientifiquement et technologiquement, pourdévelopper des projets sociaux, pour élaborer desrègles (règlements, codes) qui s’y appliquent, pour pouvoir en contester les orientations mauvaises ou imprudentes, ou encore pour être en mesure de lancer des alertes à l’opinion public quand cela estnécessaire.


Elle s’adresse également aux responsables politiques, élus ou nommés, dont les citoyens attendent qu’ils prennent la mesure des changements sociaux en gestation, qu’ils mettent en place rapidement les cadres permettant la transition numérique pour le bien de tous, et qu’ils anticipent les risques sérieux que présente le développement de l’IA.

UNE DÉCLARATION SELON QUELLE MÉTHODE ?

La Déclaration est issue d’un processus délibératif inclusif qui met en dialogue citoyens, experts, responsables publics, parties prenantes de l’industrie, des organisations de la société civile et des ordres professionnels. L’intérêt de cettedémarche est triple :


1. Arbitrer collectivement les controverses éthiques et sociétales sur l’IA ;


2. Améliorer la qualité de la réflexion sur l’IA responsable ;


3. Renforcer la légitimité des propositions pour une IA responsable.


L’élaboration de principes et des recommandations est un travail de coconstruction qui a impliqué une diversité de participants dans des lieuxpublics, dans des salles de réunion d’organisations professionnelles, autour de tables rondes d’experts internationaux, dans des bureaux de chercheurs, dans des salles de cours ou en ligne sur internet, toujours avec la même rigueur.

APRÈS LA DÉCLARATION ?

Parce que la Déclaration porte sur une technologie qui n’a cessé de progresser depuis les années
1950 et dont le rythme des innovations majeures s’accélère de manière exponentielle, il est essentiel de concevoir la Déclaration comme un document d’orientation ouvert, révisable et adaptable en fonction de l’évolution des connaissances et des techniques, et des retours d’expériences sur l’utilisation de l’IA dans la société. À la fin du processus d’élaboration de la Déclaration, nous sommes arrivés au point de départ d’une conversation ouverte et inclusive sur l’avenir de l’humanité servie par les technologies de l’intelligence artificielle.

 
 

PRÉAMBULE

Pour la première fois dans l’histoire de l’humanité, il est possible de créer des systèmes autonomes capables d’accomplir des tâches complexes que l’on croyait réservées à l’intelligence naturelle : traiter de grandes quantités d’informations, calculer et prédire, apprendre et adapter ses réponses aux situations changeantes, et reconnaître et classer des objets.


En raison de la nature immatérielle de ces tâches qu’ils réalisent, et par analogie avec l’intelligence humaine, on désigne ces systèmes très divers par le terme général d’intelligence artificielle. L’intelligence artificielle constitue un progrès scientifique et technologique majeur qui peut engendrer des bénéfices sociaux considérables en améliorant les conditions de vie, la santé et la justice, en créant de la richesse, en renforçant la sécurité publique ou en maîtrisant l’impact des activités humaines sur l’environnement et le climat. Les machines intelligentes ne se contentent pas de mieux calculer que les êtres humains, elles peuvent interagir avec les êtres sensibles, leur tenir compagnie et s’occuper d’eux.


Le développement de l’intelligence artificielleprésente cependant des défis éthiques et des risques sociaux majeurs. En effet, les machines intelligentes peuvent contraindre les choix des individus et des groupes, abaisser la qualité de vie, bouleverser l’organisation du travail et le marché de l’emploi, influencer la vie politique, entrer en tension avec les droits fondamentaux, exacerber les inégalités économiques et sociales, et affecterles écosystèmes, l’environnement et le climat. Bien qu’il n’y ait pas de progrès scientifique ni de vie sociale sans risque, il appartient aux citoyennes et aux citoyens de déterminer les finalités morales et politiques qui donnent un sens aux risques encourus dans un monde incertain.


Les bénéfices de l’intelligence artificielle seront d’autant plus grands que les risques liés à sondéploiement seront faibles. Or le premier danger que présente le développement de l’intelligenceartificielle consiste à donner l’illusion que l’onmaîtrise l’avenir par le calcul. Réduire la société àdes nombres et la gouverner par des procédures algorithmiques est un vieux rêve qui nourrit encore les ambitions humaines. Mais dans les affaires humaines, demain ressemble rarement à aujourd’hui, et les nombres ne disent pas ce qui a une valeur morale, ni ce qui est socialement désirable.

 

Les principes de la présente Déclaration sont les directions d’une boussole éthique qui permet d’orienter le développement de l’intelligenceartificielle vers des finalités moralement et socialement désirables. Ils offrent aussi un cadre éthique qui permet de promouvoir les droits humains reconnus internationalement dans les domaines concernés par le déploiement de l’intelligenceartificielle. Pris dans leur ensemble, les principes formulés posent enfin les bases de la confiance sociale envers les systèmes artificiellement intelligents.


Les principes de la présente Déclaration reposentsur l’idée commune que les êtres humains cherchent à s’épanouir comme êtres sociaux doués de sensations, d’émotions et de pensées, et qu’ils s’efforcent de réaliser leurs potentialités en exerçant librement leurs capacités affectives, morales et intellectuelles. Il incombe aux différents acteurs etdécideurs publics et privés, au niveau local, national et international, de s’assurer que le développement et le déploiement de l’intelligence artificielle soient compatibles avec la protection et l’épanouissement des capacités humaines fondamentales. C’est en fonction de cet objectif que les principes proposés doivent être interprétés de manière cohérente, en tenant compte de la spécificité des contextes sociaux, culturels, politiques et juridiques de leur application.

1- PRINCIPE DE BIEN-ÊTRE

 

Le développement et l’utilisation des SIA ne doivent pas contribuer à une déresponsabilisation des êtres humains quand une décision doit être prise.


1) Seuls des êtres humains peuvent être tenus responsables de décisions issues de recommandations faites par des SIA et des actions qui en découlent. 2) Dans tous les domaines où une décision qui affecte la vie, la qualité de la vie ou la réputation d’une personne doit être prise, la décision finale devrait revenir à un être humain et cette décision devrait être libre et éclairée 3) La décision de tuer doit toujours être prise par des êtres humains et la responsabilité de cette décision ne peut être transférée à un SIA. 4) Les personnes qui autorisent des SIA à commettre un crime ou un délit, ou qui font preuve de négligence en les laissant en commettre, sont responsables de ce crime ou de ce délit. 5) Dans le cas où un tort a été infligé par un SIA, et que le SIA s’avère fiable et a fait l’objet d’un usage normal, il n’est pas raisonnable d’en imputer la faute aux personnes impliquées dans son développement ou son utilisation.





 2- PRINCIPE DE RESPECT DE L’AUTONOMIE

 

Les SIA doivent être développés et utilisés dans le respect de l’autonomie des
personnes et dans le but d’accroître le contrôle des individus sur leur vie et leur
environnement.


1) Les SIA doivent permettre aux individus de réaliser leurs propres objectifs moraux et leur conception de la vie digne d’être vécue. 2) Les SIA ne doivent pas être développés ni utiliséspour prescrire aux individus un mode de vie particulier, soit directement, soit indirectement en mettant en œuvre des mécanismes de surveillance, d’évaluationou d’incitation contraignants. 3) Les institutions publiques ne doivent pas utiliser les SIA pour promouvoir ni défavoriser une conception de la vie bonne. 4) Il est indispensable d’encapaciter les citoyennes et les citoyens face aux technologies du numérique en assurant l’accès à différents types de savoir pertinents,le développement de compétences structurantes(la littératie numérique et médiatique) et la formationde la pensée critique. 5) Les SIA ne doivent pas être développés pour propager des informations peu fiables, des mensonges et de la propagande, et devraient être conçus dans le butd’en réduire la propagation. 6) Le développement des SIA doit éviter de créer desdépendances par les techniques de captation de l’attention et par l’imitation de l’apparence humaine qui induit une confusion entre les SIA et les humains.





 

3- PRINCIPE DE PROTECTION DE L'INTIMITÉ ET DE LA VIE PRIVÉE

Les SIA doivent être développés et utilisés dans le respect de l’autonomie des
personnes et dans le but d’accroître le contrôle des individus sur leur vie et leur
environnement.


1) Les SIA doivent permettre aux individus de réaliser leurs propres objectifs moraux et leur conception de la vie digne d’être vécue. 2) Les SIA ne doivent pas être développés ni utiliséspour prescrire aux individus un mode de vie particulier, soit directement, soit indirectement en mettant en œuvre des mécanismes de surveillance, d’évaluationou d’incitation contraignants. 3) Les institutions publiques ne doivent pas utiliser les SIA pour promouvoir ni défavoriser une conception de la vie bonne. 4) Il est indispensable d’encapaciter les citoyennes et les citoyens face aux technologies du numérique en assurant l’accès à différents types de savoir pertinents,le développement de compétences structurantes(la littératie numérique et médiatique) et la formationde la pensée critique. 5) Les SIA ne doivent pas être développés pour propager des informations peu fiables, des mensonges et de la propagande, et devraient être conçus dans le butd’en réduire la propagation. 6) Le développement des SIA doit éviter de créer desdépendances par les techniques de captation de l’attention et par l’imitation de l’apparence humaine qui induit une confusion entre les SIA et les humains.





 

4- PRINCIPE DE SOLIDARITÉ

Le développement de SIA doit être compatible avec le maintien de liens de solidarité entre les personnes et les générations.


1) Les SIA ne doivent pas nuire au maintien de relations humaines affectives et morales épanouissantes, et devraient être développés dans le but de favoriser ces relations et de réduire la vulnérabilité et l’isolement des personnes. 2) Les SIA doivent être développés dans le but de collaborer avec les humains sur des tâches complexes et devraient favoriser le travail collaboratif entre les humains. 3) Les SIA ne devraient pas être mis en œuvre pour remplacer des personnes sur des tâches qui requièrent une relation humaine de qualité, mais devraient être développés pour faciliter cette relation. 4) Les systèmes de santé qui recourent aux SIA doivent prendre en considération l’importance pour les patients des relations avec le personnel médical et la famille. 5) Le développement des SIA ne devrait pas stimuler des comportements cruels avec des robots qui prennent l’apparence d’êtres humains ou d’animaux et semblent agir comme eux. 6) Les SIA devraient permettre d’améliorer la gestion des risques et créer les conditions d’une société de mutualisation des risques individuels et collectifs plus efficace.





 

5- PRINCIPE DE PARTICIPATION DÉMOCRATIQUE

Les SIA doivent satisfaire les critères d’intelligibilité, de justifiabilité et d’accessibilité, et doivent pouvoir être soumis à un examen, un débat et un contrôle démocratiques.


1) Le fonctionnement des SIA qui prennent des décisions affectant la vie, la qualité de la vie ou la réputation des personnes doit être intelligible pour leurs concepteurs 2) Les décisions des SIA affectant la vie, la qualité de la vie ou la réputation des personnes, devraient toujours être justifiables dans un langage compréhensible aux personnes qui les utilisent ou qui subissent les conséquences de leur utilisation. La justification consiste à exposer les facteurs et les paramètres les plus importants de la décision et doit être semblable aux justifications qu’on exigerait d’un être humain prenant le même type de décision. 3) Le code des algorithmes, publics ou privés, doit toujours être accessible aux autorités publiques compétentes et aux parties prenantes concernées à des fins de vérification et de contrôle. 4) La découverte d’erreurs de fonctionnement des SIA, d’effets imprévus ou indésirables, de failles de sécurité et de fuites de données doit être impérativement signalée aux autorités publiques compétentes, aux parties prenantes concernées et aux personnes affectées par la situation. 5) En vertu de l’exigence de transparence des décisions publiques, le code des algorithmes de décision utilisé par les pouvoirs publics doit être accessible à tous, à l’exception des algorithmes présentant, en cas d’usage détourné, un danger sérieux avec une probabilité élevée. 6) Pour les SIA publics ayant un impact important sur la vie des citoyens, ces derniers devraient avoir la possibilité et la compétence de délibérer sur les paramètres sociaux de ces SIA, leurs objectifs et les limites de leur utilisation. 7) On doit pouvoir s’assurer en tout temps que les SIA font ce pour quoi ils ont été programmés et ce pour quoi ils sont utilisés. 8) Tout utilisateur d’un service devrait savoir si une décision le concernant ou l’affectant a été prise par un SIA. 9) Tout utilisateur d’un service qui recourt à des agents conversationnels doit pouvoir identifier facilement s’il interagit avec un SIA ou une personne. 10) La recherche dans le domaine de l’intelligence artificielle devrait rester ouverte et accessible à tous.





 

6- PRINCIPE D'ÉQUITÉ

Les SIA doivent être développés et utilisés dans le respect de l’autonomie des
personnes et dans le but d’accroître le contrôle des individus sur leur vie et leur
environnement.


1) Les SIA doivent permettre aux individus de réaliser leurs propres objectifs moraux et leur conception de la vie digne d’être vécue. 2) Les SIA ne doivent pas être développés ni utiliséspour prescrire aux individus un mode de vie particulier, soit directement, soit indirectement en mettant en œuvre des mécanismes de surveillance, d’évaluationou d’incitation contraignants. 3) Les institutions publiques ne doivent pas utiliser les SIA pour promouvoir ni défavoriser une conception de la vie bonne. 4) Il est indispensable d’encapaciter les citoyennes et les citoyens face aux technologies du numérique en assurant l’accès à différents types de savoir pertinents,le développement de compétences structurantes(la littératie numérique et médiatique) et la formationde la pensée critique. 5) Les SIA ne doivent pas être développés pour propager des informations peu fiables, des mensonges et de la propagande, et devraient être conçus dans le butd’en réduire la propagation. 6) Le développement des SIA doit éviter de créer desdépendances par les techniques de captation de l’attention et par l’imitation de l’apparence humaine qui induit une confusion entre les SIA et les humains.





7- PRINCIPE D'INCLUSION DE LA DIVERSITÉ

 

Les SIA doivent satisfaire les critères d’intelligibilité, de justifiabilité et d’accessibilité, et doivent pouvoir être soumis à un examen, un débat et un contrôle démocratiques.


1) Le fonctionnement des SIA qui prennent des décisions affectant la vie, la qualité de la vie ou la réputation des personnes doit être intelligible pour leurs concepteurs 2) Les décisions des SIA affectant la vie, la qualité de la vie ou la réputation des personnes, devraient toujours être justifiables dans un langage compréhensible aux personnes qui les utilisent ou qui subissent les conséquences de leur utilisation. La justification consiste à exposer les facteurs et les paramètres les plus importants de la décision et doit être semblable aux justifications qu’on exigerait d’un être humain prenant le même type de décision. 3) Le code des algorithmes, publics ou privés, doit toujours être accessible aux autorités publiques compétentes et aux parties prenantes concernées à des fins de vérification et de contrôle. 4) La découverte d’erreurs de fonctionnement des SIA, d’effets imprévus ou indésirables, de failles de sécurité et de fuites de données doit être impérativement signalée aux autorités publiques compétentes, aux parties prenantes concernées et aux personnes affectées par la situation. 5) En vertu de l’exigence de transparence des décisions publiques, le code des algorithmes de décision utilisé par les pouvoirs publics doit être accessible à tous, à l’exception des algorithmes présentant, en cas d’usage détourné, un danger sérieux avec une probabilité élevée. 6) Pour les SIA publics ayant un impact important sur la vie des citoyens, ces derniers devraient avoir la possibilité et la compétence de délibérer sur les paramètres sociaux de ces SIA, leurs objectifs et les limites de leur utilisation. 7) On doit pouvoir s’assurer en tout temps que les SIA font ce pour quoi ils ont été programmés et ce pour quoi ils sont utilisés. 8) Tout utilisateur d’un service devrait savoir si une décision le concernant ou l’affectant a été prise par un SIA. 9) Tout utilisateur d’un service qui recourt à des agents conversationnels doit pouvoir identifier facilement s’il interagit avec un SIA ou une personne. 10) La recherche dans le domaine de l’intelligence artificielle devrait rester ouverte et accessible à tous.





 

8- PRINCIPE DE PRUDENCE

Le développement et l’utilisation des SIA ne doivent pas contribuer à une déresponsabilisation des êtres humains quand une décision doit être prise.


1) Seuls des êtres humains peuvent être tenus responsables de décisions issues de recommandations faites par des SIA et des actions qui en découlent. 2) Dans tous les domaines où une décision qui affecte la vie, la qualité de la vie ou la réputation d’une personne doit être prise, la décision finale devrait revenir à un être humain et cette décision devrait être libre et éclairée 3) La décision de tuer doit toujours être prise par des êtres humains et la responsabilité de cette décision ne peut être transférée à un SIA. 4) Les personnes qui autorisent des SIA à commettre un crime ou un délit, ou qui font preuve de négligence en les laissant en commettre, sont responsables de ce crime ou de ce délit. 5) Dans le cas où un tort a été infligé par un SIA, et que le SIA s’avère fiable et a fait l’objet d’un usage normal, il n’est pas raisonnable d’en imputer la faute aux personnes impliquées dans son développement ou son utilisation.





9- PRINCIPE DE RESPONSABILITÉ

 

Le développement et l’utilisation des SIA ne doivent pas contribuer à une déresponsabilisation des êtres humains quand une décision doit être prise.


1) Seuls des êtres humains peuvent être tenus responsables de décisions issues de recommandations faites par des SIA et des actions qui en découlent. 2) Dans tous les domaines où une décision qui affecte la vie, la qualité de la vie ou la réputation d’une personne doit être prise, la décision finale devrait revenir à un être humain et cette décision devrait être libre et éclairée 3) La décision de tuer doit toujours être prise par des êtres humains et la responsabilité de cette décision ne peut être transférée à un SIA. 4) Les personnes qui autorisent des SIA à commettre un crime ou un délit, ou qui font preuve de négligence en les laissant en commettre, sont responsables de ce crime ou de ce délit. 5) Dans le cas où un tort a été infligé par un SIA, et que le SIA s’avère fiable et a fait l’objet d’un usage normal, il n’est pas raisonnable d’en imputer la faute aux personnes impliquées dans son développement ou son utilisation.





10- PRINCIPE DE DÉVELOPPEMENT SOUTENABLE

 

Le développement et l’utilisation des SIA ne doivent pas contribuer à une déresponsabilisation des êtres humains quand une décision doit être prise.


1) Seuls des êtres humains peuvent être tenus responsables de décisions issues de recommandations faites par des SIA et des actions qui en découlent. 2) Dans tous les domaines où une décision qui affecte la vie, la qualité de la vie ou la réputation d’une personne doit être prise, la décision finale devrait revenir à un être humain et cette décision devrait être libre et éclairée 3) La décision de tuer doit toujours être prise par des êtres humains et la responsabilité de cette décision ne peut être transférée à un SIA. 4) Les personnes qui autorisent des SIA à commettre un crime ou un délit, ou qui font preuve de négligence en les laissant en commettre, sont responsables de ce crime ou de ce délit. 5) Dans le cas où un tort a été infligé par un SIA, et que le SIA s’avère fiable et a fait l’objet d’un usage normal, il n’est pas raisonnable d’en imputer la faute aux personnes impliquées dans son développement ou son utilisation.





LEXIQUE

 

Les SIA doivent satisfaire les critères d’intelligibilité, de justifiabilité et d’accessibilité, et doivent pouvoir être soumis à un examen, un débat et un contrôle démocratiques.


1) Le fonctionnement des SIA qui prennent des décisions affectant la vie, la qualité de la vie ou la réputation des personnes doit être intelligible pour leurs concepteurs 2) Les décisions des SIA affectant la vie, la qualité de la vie ou la réputation des personnes, devraient toujours être justifiables dans un langage compréhensible aux personnes qui les utilisent ou qui subissent les conséquences de leur utilisation. La justification consiste à exposer les facteurs et les paramètres les plus importants de la décision et doit être semblable aux justifications qu’on exigerait d’un être humain prenant le même type de décision. 3) Le code des algorithmes, publics ou privés, doit toujours être accessible aux autorités publiques compétentes et aux parties prenantes concernées à des fins de vérification et de contrôle. 4) La découverte d’erreurs de fonctionnement des SIA, d’effets imprévus ou indésirables, de failles de sécurité et de fuites de données doit être impérativement signalée aux autorités publiques compétentes, aux parties prenantes concernées et aux personnes affectées par la situation. 5) En vertu de l’exigence de transparence des décisions publiques, le code des algorithmes de décision utilisé par les pouvoirs publics doit être accessible à tous, à l’exception des algorithmes présentant, en cas d’usage détourné, un danger sérieux avec une probabilité élevée. 6) Pour les SIA publics ayant un impact important sur la vie des citoyens, ces derniers devraient avoir la possibilité et la compétence de délibérer sur les paramètres sociaux de ces SIA, leurs objectifs et les limites de leur utilisation. 7) On doit pouvoir s’assurer en tout temps que les SIA font ce pour quoi ils ont été programmés et ce pour quoi ils sont utilisés. 8) Tout utilisateur d’un service devrait savoir si une décision le concernant ou l’affectant a été prise par un SIA. 9) Tout utilisateur d’un service qui recourt à des agents conversationnels doit pouvoir identifier facilement s’il interagit avec un SIA ou une personne. 10) La recherche dans le domaine de l’intelligence artificielle devrait rester ouverte et accessible à tous.





CRÉDITS

 

Les SIA doivent être développés et utilisés dans le respect de l’autonomie des
personnes et dans le but d’accroître le contrôle des individus sur leur vie et leur
environnement.


1) Les SIA doivent permettre aux individus de réaliser leurs propres objectifs moraux et leur conception de la vie digne d’être vécue. 2) Les SIA ne doivent pas être développés ni utiliséspour prescrire aux individus un mode de vie particulier, soit directement, soit indirectement en mettant en œuvre des mécanismes de surveillance, d’évaluationou d’incitation contraignants. 3) Les institutions publiques ne doivent pas utiliser les SIA pour promouvoir ni défavoriser une conception de la vie bonne. 4) Il est indispensable d’encapaciter les citoyennes et les citoyens face aux technologies du numérique en assurant l’accès à différents types de savoir pertinents,le développement de compétences structurantes(la littératie numérique et médiatique) et la formationde la pensée critique. 5) Les SIA ne doivent pas être développés pour propager des informations peu fiables, des mensonges et de la propagande, et devraient être conçus dans le butd’en réduire la propagation. 6) Le développement des SIA doit éviter de créer desdépendances par les techniques de captation de l’attention et par l’imitation de l’apparence humaine qui induit une confusion entre les SIA et les humains.





 

© 2018 Déclaration de Montréal pour le développement responsable de l'IA

Université de Montréal

Suivez-nous!

  • Grey Twitter Icon
  • Grey Flickr Icon