top of page

MÉTHODOLOGIES DE LA COCONSTRUCTION

Méthodologie en éthique : L'éthique publique de l'intelligence artificielle

Par Marc-Antoine Dilhac

Professeur au Département de philosophie, Université de Montréal

Directeur de l’axe Éthique et politique, Centre de recherche en éthique

Titulaire de la Chaire de recherche du Canada en Éthique publique et théorie politique

 

Méthodologie des ateliers de coconstruction

Par Christophe Abrassart

Professeur adjoint à l’École de design de l’Université de Montréal et codirecteur du DESS en éco-design stratégique, Polytechnique Montréal

Professeur associé au CIRAIG, Polytechnique Montréal

Chercheur au groupe Design et Société, École de design, UdeM, et au Centre de recherche en éthique

Chercheur-associé au groupe Mosaic, HEC Montréal

L'ÉTHIQUE PUBLIQUE DE L'INTELLIGENCE ARTIFICIELLE

Par Marc-Antoine Dilhac, professeur au département de philosophie de l’Université de Montréal

 

La Déclaration de Montréal pour un développement responsable de l’IA est une œuvre collective qui a pour objectifs de mettre le développement de l’intelligence artificielle au service du bien de tous et de chacun, et d’orienter le changement social en élaborant des recommandations ayant une forte légitimité démocratique. La méthode retenue est celle de la coconstruction citoyenne avec différentes phases d’élaboration. Cette coconstruction s’appuie sur une déclaration de principes éthiques généraux qui articulent des valeurs fondamentales : bien-être, autonomie, justice, vie privée, connaissance, démocratie, responsabilité. Le travail initial de repérage de ces valeurs et de ces principes permet de lancer un processus de participation qui précisera les principes éthiques d’un développement responsable de l’IA et les recommandations à mettre en œuvre pour s’assurer que l’IA promeuve les intérêts fondamentaux des personnes et des groupes.

L'ÉTHIQUE PUBLIQUE DE L'IA
Prendre au sérieux les dilemmes éthiques de l'IA

La révolution de l’intelligence artificielle et plus particulièrement de l’apprentissage profond (deep learning) ouvre des perspectives de développement technologique inédites qui permettront d’améliorer les prises de décision, de réduire certains risques et d’offrir une assistance aux personnes les plus vulnérables. Mais l’espoir que l’intelligence artificielle soit porteuse de progrès sociaux est suivi par l’ombre d’une crainte : mise entre de mauvaises mains, l’intelligence artificielle pourrait devenir une arme de domination massive (contrôle de la vie privée, concentration de capitaux, nouvelles discriminations).

Nombreuses sont les personnes qui émettent des doutes sur les buts qui animent les chercheurs, les développeurs, les entrepreneurs et les représentants politiques. Si les progrès de l’intelligence artificielle suscitent l’étonnement et même l’émerveillement, ils éveillent aussi la crainte de voir les relations humaines s’appauvrir par le recours aux robots dans les domaines des soins médicaux, de la prise en charge des personnes âgées, de la représentation juridique ou encore de l’enseignement. Les réactions face au développement de l’intelligence artificielle peuvent même être hostiles notamment quand il est mis au service d’un contrôle accru des individus et de la société, une perte d’autonomie et une réduction des libertés publiques.

Le développement de l’intelligence artificielle et ses applications mettent en jeu des valeurs morales fondamentales qui peuvent entrer en conflit et engendrer des dilemmes éthiques graves ainsi que de profondes controverses sociales et politiques : doit-on privilégier la sécurité publique par l’accroissement des moyens de surveillance intelligente (reconnaissance faciale, anticipation des comportements violents) au détriment des libertés individuelles? Améliorer objectivement le bien-être des individus, notamment en incitant les personnes à adopter des comportements normalisés par les appareils intelligents (comportements alimentaires, gestion du travail, organisation de la journée), peut-il se faire sans respecter leur autonomie? L’objectif de performance économique doit-il l’emporter sur la préoccupation pour une répartition équitable des bénéfices du marché de l’intelligence artificielle?

Ces dilemmes parmi tant d’autres opposent des intérêts et des valeurs fondamentales et ne peuvent être résolus par une simple hiérarchisation des valeurs. Pour le dire autrement, il ne s’agit pas de choisir entre les valeurs et d’en privilégier certaines en ignorant les autres (la sécurité aux dépens de la liberté, l’efficacité sans la justice sociale). Il est également exclu d’espérer que des solutions uniques puissent être élaborées de manière définitive. Il convient donc de prendre au sérieux les dilemmes éthiques causés par le développement de l’intelligence artificielle et de construire un cadre éthique, politique et juridique qui nous permette d’y faire face en respectant les différentes valeurs fondamentales auxquelles nous tenons comme membres d’une société démocratique.

Prendre a sérieux les dilemmes éthiques de l'IA
Rendre à la démocratie la compétence d'encadrer une IA responsable

Le développement de l’intelligence artificielle et de ces applications fait intervenir un grand nombre d’acteurs et de professions (chercheurs, développeurs, avocats, policiers, industriels, représentants politiques, etc.) qui sont animés par des idéaux communs comme le souci de la justice, du bien-être ou de la liberté. Mais ces acteurs ont aussi des intérêts conflictuels et parfois des buts qui entrent en contradiction avec les intérêts de la collectivité et des utilisateurs de l’intelligence artificielle comme la recherche du gain et des parts de marché, la tentation du monopole économique et du contrôle social.

La question que nous devrions, comme collectivité, nous poser n’est pas de savoir si l’intelligence artificielle est bonne ou mauvaise – cela reviendrait à se demander si l’invention de la roue est bonne ou mauvaise : tout dépend de son utilisation. La question pertinente est plutôt de se demander quel arrangement social et politique nous permettraient de tirer les plus grands bénéfices du développement de l’intelligence artificielle de manière équitable et de faire le meilleur usage des appareils intelligents pour accroître notre autonomie, que ce soient les voitures sans conducteur, les machines de détection et de surveillance, les robots-soignants ou les robots-enseignants.

Comme membres d’une société démocratique, notre souci principal est de protéger la capacité des individus et des groupes à faire des choix ayant du sens pour eux, d’accroître leur capacité d’agir et de façonner leur environnement, et de prévenir la domination exercée par ceux qui exploitent notre commune vulnérabilité. Si ces buts font consensus en démocratie, leur mise en œuvre pour encadrer le développement de l’intelligence artificielle suscite déjà de nombreuses controverses. Il n’est pas évident à première vue que l’usage des voitures autonomes accroisse l’autonomie de leurs utilisateurs ou de ceux qui voudraient faire le choix de ne pas les utiliser.

Pour résoudre les nombreuses questions concrètes que posent l’usage des machines intelligentes et faire en sorte que l’intelligence artificielle se développe « en bonne intelligence » avec la démocratie, il est nécessaire de recourir à un surplus de démocratie et de faire participer le plus grand nombre de citoyennes et de citoyens à un processus de réflexion sur les enjeux sociaux de l’intelligence artificielle. L’objectif n’est pas seulement de savoir ce que les individus pensent intuitivement de telle ou telle innovation et de sonder leurs préférences brutes et non informées. L’objectif de la démarche de coconstruction est d’ouvrir une discussion démocratique sur la manière dont on doit organiser la société pour faire un usage responsable de l’intelligence artificielle.

C’est tout le sens de la démarche initiée par la Déclaration de Montréal : rendre à la démocratie la compétence de trancher les questions morales et politiques qui concernent la société dans son ensemble. Il s’agit non seulement de réfléchir aux enjeux démocratiques mais également d’offrir des réponses crédibles aux questions pressantes et de formuler des recommandations politiques et juridiques disposant d’une forte légitimité démocratique.

Rendre à la démocratie la compétence d'encadrer une IA responsable
La participation citoyenne

Dès lors que l’on fait intervenir le public dans un processus de consultation et de participation (coconstruction) sur des objets sociaux controversés, il faut s’assurer que ce processus soit conduit de sorte à éviter les risques habituellement associés à l’exercice démocratique. Or, on fait traditionnellement deux objections pour disqualifier le recours au public:

  1. L’ignorance : selon cette objection qui est la plus fréquente, le public serait ignorant et n’aurait pas la capacité à comprendre des enjeux techniques qui requièrent un savoir scientifique, une maîtrise des formes logiques de l’argumentation et une connaissance de processus politiques et juridiques.

  2. Le populisme : selon cette objection qui suscite l’effroi, la participation du public non qualifié peut être l’occasion d’une manipulation démagogique qui flatte les préjugés populaires et peut conduire à l’adoption de propositions déraisonnables, hostiles au progrès social, voire tyranniques à l’égard des minorités. 

 

Nous ne partageons pas l’idée que le public soit si ignorant qu’il faille éviter de le consulter. Nous ne soutenons pas la thèse selon laquelle les membres non experts de la société aient des préjugés insurmontables et que leur supposée irrationalité les conduisent à faire des erreurs systématiques. L’ignorance est certainement un problème important, mais nous estimons au contraire qu’ils sont capables d’éclairer des aspects négligés des controverses sociales, parce qu’ils sont des concernés par les enjeux discutés, et qu’ils peuvent contribuer significativement à trouver des solutions auxquels les experts n’avaient pas pensé ou qu’ils n’étaient pas en mesure de soutenir publiquement.

Si, chez certains individus, les préjugés et une tendance à l’irrationalité ne peuvent pas être complètement éliminés, il est possible de surmonter ces biais collectivement. Dans des conditions favorables, les individus non experts peuvent participer à des débats complexes sur les problèmes sociaux, comme ceux que présentent aujourd’hui la recherche en intelligence artificielle et ses applications industrielles. Les experts dans les différents domaines de recherche pertinents pour la participation citoyenne sur l’intelligence artificielle peuvent aider à mettre en œuvre ces conditions favorables.

Nous avons identifié 4 conditions nécessaires à ce processus de coconstruction : la diversité épistémique, l’accès à une information pertinente, la modération, l’itération.

a. La diversité épistémique

Il faut tout d’abord s’assurer que les groupes délibérants manifestent la plus grande diversité interne, en termes de milieu social, de genre, de génération, ou d’origine ethnique. Cette diversité n’est pas seulement requise par l’idée que l’on se fait d’une démocratie inclusive, elle est aussi nécessaire pour augmenter la qualité épistémique des débats. Cela signifie simplement que chacun apporte une perspective différente sur le sujet débattu et enrichit la discussion.

b. L’accès à une information pertinente

Mais nous savons cependant que la diversité épistémique ne suffit pas et que si les participants n’ont aucune une compétence ou aucune connaissance relative au domaine envisagé, ils ne peuvent produire aucune connaissance nouvelle ni s’orienter dans la discussion. Ils risquent alors collectivement d’amplifier les erreurs individuelles. Il faut donc préparer les participants en leur fournissant une information pertinente et de qualité, à la fois accessible et fiable. La délibération doit donc être précédée par une phase d’information.

c. La modération

Outre le fait de disposer d’une information de qualité, il est nécessaire que les participants raisonnent librement c’est-à-dire d’abord sans être entravés par des biais cognitifs. On appelle biais cognitifs, les distorsions de la pensée rationnelle par des mécanismes intuitifs. L’un des plus communs et des plus problématiques dans une délibération est le biais de confirmation : on a tendance à n’admettre que les opinions qui confirment nos propres croyances, et à rejeter celles qui vont à l’encontre de ce que nous croyons déjà. Il y a des dizaines de biais cognitifs qui peuvent déformer le cours logique de notre réflexion.

 

Mais il existe aussi des biais propres à la délibération elle-même comme la tendance à adopter des positions de plus en plus radicales : si le groupe qui délibère est initialement méfiant à l’égard des innovations en intelligence artificielle, il est probable qu’il y soit tout à fait hostile à la fin du processus de délibération. C’est pour éviter ce genre de résultat mécanique qu’il est important de s’assurer de la diversité épistémique du groupe délibérant et de mettre en place une instance de modération.

 

Celle-ci ne prend pas nécessairement la forme d’une intervention personnelle d’un modérateur. Si nous ne renonçons pas à la modération personnelle, nous croyons pouvoir surmonter les biais de la délibération par d’autres moyens, comme en introduisant des événements imprévus dans les scénarios initiant les discussions.

d. L’itération

Idéalement, nous devrions pouvoir convoquer l’ensemble de la population pour participer à la réflexion sur le développement responsable de l’intelligence artificielle. Mais les conditions que nous avons décrites ne peuvent pas être mises en œuvre pour de très grands groupes, encore moins pour une société de plusieurs millions de personnes. Il est donc important de conduire la participation citoyenne dans des groupes restreints et de multiplier les rencontres. C’est la phase d’itération de la coconstruction.

Les raisons pour procéder ainsi sont techniques mais peuvent facilement comprises. Le mathématicien et acteur de la Révolution française, le marquis de Condorcet, avait montré que le jugement des groupes est toujours plus exact que celui des individus pris séparément, et que son exactitude augmente à mesure que le groupe est grand. Mais il y a deux conditions pour ce soit le cas: il faut que les individus dans le groupe aient plus d’une chance sur deux (1/2) d’avoir raison, et il ne faut pas qu’ils communiquent entre eux (Condorcet craignait à juste titre les risques de manipulation).

Or on ne peut pas s’assurer pour les très grands groupes que les individus aient la compétence requise et que chaque individu ait plus d’une chance sur deux d’avoir une opinion adéquate. Permettre la délibération (la communication entre eux) est un des moyens d’augmenter la compétence des participants pourvu qu’elle soit encadrée comme nous proposons de le faire. Certes, cela ne satisfait pas la 2e condition de Condordet, mais cela permet de garantir la 1e condition. Et pour accroître la qualité des opinions, il convient alors de multiplier les groupes qui délibèrent : puisque l’on ne peut pas accroître la taille du groupe, il faut accroître le nombre de participants en procédant à une itération des sessions de participation.

Pour toutes ces raisons, nous avons retenu la forme de l’atelier de coconstruction qui réunit des citoyennes et des citoyens non experts, des experts, des parties prenantes (associations, syndicats, représentants professionnels, entreprises) et des actrices et acteurs de la vie politique. Ces ateliers sont organisés selon des formats différents qui sont adaptés aux lieux de délibération et permettent de satisfaire aux conditions d’une participation citoyenne féconde et robuste. C’est ainsi que nous conjurerons le spectre de l’ignorance et celui du populisme.

La participation citoyenne
Le rôle des experts

Le rôle des experts n’est pas de résoudre eux-mêmes les dilemmes éthiques que pose l’intelligence artificielle ni de se transformer en législateurs. Il est important de rappeler que les dilemmes éthiques ne sauraient trouver une solution unique, sans quoi ils ne seraient pas d’authentiques dilemmes. Parfois les éthiciens donnent l’impression de vouloir donner des leçons de morale, de connaître les réponses aux questions épineuses que se pose le public, et même de pouvoir régler d’avance les défis de demain.

Il faut aussi ajouter que même lorsque nous ne sommes pas en présence d’un dilemme au sens strict, les questions d’éthique publique ne peuvent être tranchées sans faire des choix qui valorisent certains intérêts moraux au détriment d’autres intérêts moraux, sans pour autant les négliger. C’est le résultat du pluralisme des valeurs qui définit le contexte moral et politique des sociétés démocratiques modernes. Il est ainsi possible que l’on valorise le bien-être en contestant la priorité du consentement : pensons à une application médicale qui aurait un accès à des données personnelles pour lequel on n’a pas consenti mais qui permettrait de guérir plus efficacement des maladies graves grâce à ces données.

Ce genre de choix éthique et social revient à l’ensemble des membres de notre société démocratique et non à une partie, à une minorité, fût-elle experte. Les éthiciens ont trois tâches à la fois modestes et cruciales :

  • ils doivent s’assurer des conditions favorables de la participation citoyenne ;

  • ils doivent clarifier les enjeux éthiques qui sous-tendent les controverses autour de l’intelligence artificielle ;

  • ils doivent rationnaliser les arguments défendus par les participants en leur indiquant les arguments que l’on sait erronés ou biaisés et en leur expliquant les raisons pour lesquels ils sont erronés.

 

Le rôle des éthiciens est donc celui d’un accompagnement éclairé. Les experts dans les autres domaines de recherche (en informatique, en santé, en sécurité, etc.) ont aussi un rôle d’accompagnement en fournissant aux participants les informations les plus utiles et les plus fiables sur l’objet de la controverse (Comment fonctionne un algorithme qui apprend à établir des diagnostics? Le médecin peut-il être remplacé par un robot programmé pour le diagnostic? Quelle sont les protections que nous pouvons opposer aux tentatives de piratage de nos données médicales? etc.)

Nous n’avons donc pas l’intention de raisonner à la place des citoyennes et des citoyens pour construire un cadre éthique et légal que l’on proposerait ensuite au public afin qu’il le valide.  Il est possible que les questions d’éthique publique sur l’IA soient tranchées de manière différente d’une société démocratique à l’autre. Mais on peut aussi espérer une convergence des solutions proposées. La Déclaration de Montréal se propose de fournir ce cadre éthique pour une réflexion à l’échelle internationale. 

Nous devrions atteindre à la fin du processus une forme d’équilibre réfléchi entre les principes éthiques qui servent de point de départ à la délibération (les 7 principes de la Déclaration initiale) et les recommandations éthiques et politiques qui seront élaborées tout au long du processus de participation jusqu’à la synthèse finale.

Le rôle des experts
De la coconstruction à l'action sociale

Un des objectifs du processus de coconstruction de la Déclaration de Montréal est d’affiner les principes éthiques que nous avons proposons dans la version préliminaire de la Déclaration. L’objectif le plus important reste d’élaborer des recommandations pour encadrer la recherche en intelligence artificielle et son développement technologique et industriel. Cependant, il est trop fréquent de voir les rapports d’analyse et de recommandation oubliés aussitôt publié : l’action de transformation sociale requiert encore de l’énergie collective qui se perd trop souvent dans la phase de participation. Il est donc crucial de ne pas perdre l’élan public qui se sera manifesté au cours de la période de coconstruction.

Une fois le processus de coconstruction achevé, doit s’ouvrir alors une période d’animation d’un débat public qui devra avoir lieu dans les lieux où les décisions politiques, juridiques et professionnelles sont prises. Afin d’engager ce débat, nous devons offrir une déclaration aussi accessible que possible, qui contient une liste courte de recommandations ciblées recueillant le plus grand soutien des participants. Ces recommandations ne sont pas seulement légales, et quand elles le sont, elles n’impliquent nécessairement une modification de la loi. Mais elles peuvent, et doivent dans certains domaines appeler à une modification du cadre légal. Dans d’autres cas, les recommandations auront pour objectif de nourrir et d’orienter la réflexion des organisations professionnelles afin qu’elles modifient leur code d’éthique ou de déontologie, ou qu’elles adoptent un nouveau cadre éthique.

Cette étape est donc le but final du processus de coconstruction. Il faut toutefois préciser que face à une technologie qui n’a cessé de progresser depuis 70 ans et dont les innovations majeures se succèdent à présent tous les 5 ans en moyenne, il serait déraisonnable de présenter la Déclaration de Montréal sur le développement responsable de l’intelligence artificielle comme définitive et complète. Nous croyons qu’il est essentiel de penser la coconstruction comme un processus ouvert, avec des phases successives et cycliques de délibération, de participation et de production de recommandations, et de concevoir la Déclaration elle-même comme un document d’orientation révisable et adpatable en fonction de l’évolution de l’intelligence artificielle.

De la coconstruction à l'action sociale
L'éthique à l'appui de la démarche de coconstruction

La démarche de coconstruction est appuyée par l’expertise développée au Centre de Recherche en éthique (CRÉ), au LabVille et à la Chaire de recherche du Canada en Éthique publique et théorie politique.

Le Centre de Recherche en éthique (CRÉ)

Le CRÉ est regroupement stratégique du Fonds de la Recherche du Québec qui regroupe 40 membres réguliers (affiliés à 7 universités plus une école affiliée) et 30 membres collaborateurs. La mission du CRÉ est de contribuer à l’avancement des connaissances et à la formation dans le champ de l’éthique entendu au sens large pour comprendre l’étude de ses fondements et de ses principaux concepts, autant que celle des dimensions normatives des politiques publiques adoptées dans divers domaines, tels que la médecine, la gestion de l’environnement naturel et humain, la redistribution des richesses, ou la diversité sociale et culturelle.

Le CRÉ se donne également comme objectif de diffuser les résultats des travaux de ses chercheurs au sein de la société civile et d’informer les décideurs en matière de politiques publiques pouvant affecter le bien-être des citoyennes et des citoyens, ou encore la justice sociale. Le CRÉ est divisé en 5 axes de recherche – éthique fondamentale ; éthique et politique ; éthique et économie ; éthique et environnement ; éthique et santé – chacun doté de sa propre une équipe de travail.

En collaboration avec IVADO, le CRÉ a développé une expertise éthique de l’intelligence artificielle. Le CRÉ se positionne comme le chef de file dans ce domaine au Canada.

 

La CRC en éthique publique

La Chaire de recherche du Canada en Éthique publique et théorie politique est associée au Centre de Recherche en Éthique et a pour objectif d’avancer les connaissances dans le domaine des théories de la démocratie. L’équipe de la CRC dirigée par Marc-Antoine Dilhac, professeur au département de philosophie, regroupe une dizaine d’étudiantes et d’étudiants, et s’appuie sur des collaborations internationales avec des institutions académiques et des organisations non gouvernementales.

L'éthique à l'appui de la démarche de coconstruction
Objectif de la démarche de coconstruction

La première version de la Déclaration de Montréal sur l’IA Responsable, présentée le 03 novembre 2017 lors du Forum IA responsable, sert d’assises au processus de coconstruction. Schématiquement, après avoir statué sur le "quoi ?" (« quels principes éthiques souhaitables devraient être rassemblés dans une déclaration sur l'éthique de l'intelligence artificielle ? »), il s'agit dans cette nouvelle phase d'anticiper avec les citoyens et parties prenantes comment des controverses éthiques pourraient surgir dans les prochaines années à propos de l'IA (dans les secteurs de la santé, de la justice, de la ville intelligente, de l'éducation et de la culture, du monde du travail, des services publiques), pour imaginer ensuite comment on pourrait y répondre (par exemple, par un dispositif comme une certification sectorielle, un nouvel acteur-médiateur, un formulaire ou une norme, par une politique publique ou un programme de recherche).

 

L’objectif de la démarche de coconstruction et de ses ateliers est notamment permettre d’exemplifier et de mettre à l’épreuve les principes de la Déclaration de Montréal IA Responsable à l’aide de scénarios prospectifs en 2025 permettant de préciser des enjeux éthiques sectoriels, puis de formuler des recommandations prioritaires auprès des gouvernements québécois et canadiens, des parties prenantes et de la communauté de recherche universitaire. À l’issu de ce processus qui aura lieu au premier semestre 2018, des compléments à la Déclaration pourront également être formulés en cas d’identification d’enjeux éthiques orphelins, i.e. sans principe éthique correspondant dans la Déclaration.

LA MÉTHODOLOGIE DES ATELIERS DE COCONSTRUCTION
Objectif de la démarche de coconstruction

LA MÉTHODOLOGIE DES ATELIERS DE COCONSTRUCTION

Par Christophe Abrassart – Professeur Faculté de l’Aménagement – UdeM - Lab Ville Prospective

Déclaration de Montréal IA Responsable

(3 novembre 2017)

 

7 principes pour un déploiement responsable de l’IA dans la société

Ateliers de coconstruction

(février-mai 2018)

Scénarios sectoriels 2025 et principes de la Déclaration

Enjeux éthiques sectoriels

Recommandations prioritaires

Recommandations au Gouvernement du Québec et aux parties prenantes

 

Déclaration de Montréal IA Responsable validée

(fin 2018)

Plus de dix ateliers de coconstruction sont prévus de février à mai : des cafés citoyens de 3 heures dans des bibliothèques publiques, et trois grandes journées de coconstruction avec des citoyens et des parties prenantes variées (à Montréal, puis à Québec et Ottawa).

 

Le choix d’organiser des cafés citoyens en bibliothèques publiques est explicitement lié à la dynamique de réinvention actuelle de ces services publics au Québec et au Canada. En passant du modèle de l’espace de prêt documentaire à celui de la « bibliothèque tiers-lieux » inclusive et cherchant à renforcer les capabiltés de tous les citoyens (ex. avec des services de littératie numérique, de soutien aux citoyens, des espaces de discussion et de médiation culturelle, le prêts d’outils et la création de Fab Labs), les bibliothèques publiques auront très certainement un rôle clé à jouer dans le déploiement responsable de l’IA au Québec et au Canada.

 

Les journées de coconstruction se dérouleront dans des lieux emblématiques (Société des arts technologiques à Montréal, Musée de la civilisation à Québec) et mettront notamment l’accent sur la rencontre entre les parties prenantes et les disciplines très variées qui doivent collaborer pour imaginer un déploiement responsable de l’IA dans la société.

Originalité de la démarche de coconstruction

Au regard des autres initiatives en éthiques de l’IA actuellement en cours dans le monde, cette démarche de coconstruction présentera en particulier quatre dimensions originales et innovantes :

 

  • Le recours aux méthodes de prospective stratégique (« foresight »), avec des scénarios sectoriels en 2025 exemplifiant par de courts récits comment des controverses éthiques sur l’IA pourraient surgir ou s’amplifier dans les prochaines années (dans les secteurs de la santé, de la justice, de la ville intelligente, de l'éducation et de la culture, du monde du travail). Ces scénarios 2025, qui présentent une variété de situations possibles face à un avenir très ouvert, seront utilisés comme déclencheurs de débats, pour identifier, préciser ou anticiper des enjeux éthiques sectoriels sur le déploiement de l’IA dans les prochaines années. Ces discussions à l’horizon 2025 permettront ensuite de formuler rétrospectivement des recommandations concrètes pour 2018-2020, pour nous diriger vers les situations collectivement souhaitables.

  • Le recours à des méthodes d’animation de design participatif en « forum hybride » pluridisciplinaire, incluant les citoyens et les parties prenantes, dans un contexte d’incertitude partagée face aux futurs possibles (pour approfondir un scénario, concevoir des dispositifs de réponse à un risque éthique, proposer un complément à la déclaration en cas d’enjeu orphelin, i.e. sans principe éthique correspondant).

  • Une attention aux « biais de paradigmes » qui ont des effets de cadrage très puissants dans la manière de poser les problèmes (ex. aborder les enjeux éthique de la voiture autonome uniquement sous l’angle du dilemme du tramway (ex. site Moral Machine du MIT) et dans le cadre du paradigme de la « vitesse-distance » en design des transports), dans le but d’assurer un pluralisme des enjeux et de rendre visible des situations encore inconnues ou très émergentes dans un contexte de changement rapide.

 

Une trajectoire apprenante pour concevoir, au fil des évènements, une trousse d’animation reproductible et convivial (ex. jeu de cartes), adaptable et ouvert, qui pourra être publié en « open source » à l’issue de la démarche de coconstruction.

Originalité de la démarche de coconstruction
Les cafés citoyens

Les cafés citoyens sont des rencontres de 3 heures en bibliothèques publiques. Inclusives, ces rencontres sont ouvertes à tous les citoyens, et se déroulent de manière conviviale. Ces rencontres s’appuieront sur le modèle du Café citoyen.

Cafés citoyens

Le Café citoyen (« world café ») est un dispositif de conversation convivial visant à faciliter le dialogue constructif et le partage d’idées. On recherche l’ambiance d’un café où les participants débattent d’une question en petits groupes. À intervalles réguliers, les participants changent de table. Un hôte reste à la table et résume la conversation précédente aux nouveaux arrivés. Les conversations en cours sont alors « fécondées » par les idées issues de la conversation précédente. Au terme du processus, les principales idées sont résumées lors d’une assemblée plénière, et les possibilités de suivi sont soumises à la discussion.

Source : Institut du nouveau monde

Cette méthode sera enrichie par trois éléments :

  1. la lecture de scénarios prospectifs sectoriels en 2025 pour déclencher la discussion ;

  2. l’utilisation d’une affiche pour documenter les discussions ;

  3. la distribution d’un cahier du participant présentant les principes de la Déclaration de Montréal IA responsable, un lexique, ainsi qu’une typologie exemplifiée des recommandations possibles.

Ci-dessous, le déroulement type des cafés citoyens :

ACCUEIL

13 h à 13 h 30

Cafés et collations

DÉCOUVERTE DE L'IA ET DE SES ENJEUX ÉTHIQUES ET SOCIAUX

13 h 30 à 14 h

Introduction pédagogique : introduction aux enjeux éthiques et sociaux de l’Intelligence artificielle (Déclaration Montréal IA responsable), présentation des scénarios en 2025 et du déroulement de l’activité.

CAFÉ CITOYEN

14 h à 16 h

Quatre îlots thématiques (sur l’IA en santé, en justice, en éducation, dans la ville, dans le monde du travail) sont animés par un.e facilitateur.trice. Chaque îlot accueille un petit groupe de participants (6 à 10) pour deux discussions de 50 minutes à partir d’un scénario sur l’IA en 2025.

 

Chaque participant contribue à deux discussions de 50 minutes (à deux îlots thématiques avec des personnes différentes). Pour assurer un suivi de la discussion, le.la facilitateur.trice de l’îlot remplit une affiche avec les enjeux et recommandations formulés par les participants.

- Lors de la seconde discussion, les participants sont invités à imaginer la « une du journal en 2020 » (titre et premier paragraphe) sur une initiative importante adoptée au Québec pour un déploiement responsable de l’IA.

SYNTHÈSE EN SÉANCE PLÉNIÈRE

16 h à 16 h 30

Synthèse des discussions en plénière par les animateurs.trices des affiches des différents îlots thématiques et discussion collective.

Les journées de coconstruction

Ces rencontres d’une journée mobiliseront des citoyens, parties prenantes et experts, qui chercheront à approfondir leurs enjeux sectoriels et à formuler des recommandations. Elles s’appuieront sur le modèle du co-design prospectif, développé au Lab Ville Prospective de l’Université de Montréal.

Journées de coconstruction

La méthode du co-design prospectif s’appuie sur plusieurs principes, au croisement du design, de la

participation et de la prospective : la mobilisation de scénarios d’usages et de prototypes inconnus comme déclencheurs de discussions, moyen de défixation cognitive et véhicules d’exploration (c’est la dimension «design») ; des dispositifs de participation collective mobilisant des acteurs issus de multiples horizons, citoyens, organismes comme experts (pour la dimension collective du « co ») ; enfin, l’approche prospective qui consiste à se projeter dans un futur possible à 10 ans ou 20 ans pour opérer un détour imaginaire et penser ensuite rétrospectivement des chemins innovants pour relier le présent aux futurs les plus souhaitables. Michel De Certeau, dans son ouvrage La culture au pluriel (1993, p. 223) souligne bien le jeu avec l’altérité de la prospective : c’est, dit-il, « le futur interpelle le présent sur le mode de l’altérité ». Et Georges Amar, dans un article sur la Prospective conceptive (dans la revue Futuribles, 2015, p. 21) insiste sur l’importance de la mise en récit de l’inconnu pour construire un futur ouvert : « Nous préférons du connu inefficace à un inconnu prometteur. La fonction de la prospective est de travailler l’inconnu, de lui donner des mots, des concepts, du langage. Afin que tout en demeurant inconnu, il devienne plus abordable, qu’il donne prise à la réflexion, à l’action ».

Abrassart et al, 2017 ; www.labvilleprospective.org

Ci-dessous, le déroulement type des journées de coconstruction :

8 h 30 à 9 h

Accueil

Café et viennoiseries

9 h à 10 h

Mot de bienvenue et salon de découverte de l'IA

Introductions : principes de l’intelligence artificielle, les enjeux éthiques de l’IA (Déclaration de Montréal) et les scénarios prospectifs

10 h à 11 h 30

Prospective en équipe

Prospective en équipe : à partir d’un scénario déclencheur, et d’une variante, explorer comment une controverse éthique pourrait surgir ou s’amplifier.

11 h 30 à 12 h 30

Plénière

Exposés en plénière des affiches des équipes et discussion avec l’ensemble des participants.

12 h 30 à 13 h 30

Repas sur place

Repas

13 h 30 à 14 h 45

Formulation de recommandations

Travaux en équipes : à partir des enjeux éthiques identifiés le matin, formuler des recommandations (règlements, codes sectoriels, labels, politiques publiques, programmes de recherche etc.)

15 h à 16 h

Exposés en plénière

Exposés en plénière des équipes et discussion collective

16 h à 16 h 30

Conclusion

Retour et observations sur la journée

Please reload

Le Lab Ville Prospective

www.labvilleprospective.org

 

Le Lab Ville Prospective a été créé en 2015 par les professeurs Christophe Abrassart et Franck Scherrer. Inspirée par l’urbanisme participatif, le design social et les savoirs de l’innovation et de la prospective stratégique, l’équipe de recherche se donne pour objectif de concevoir et d’expérimenter des méthodes et des connaissances rigoureuses et novatrices sur l’action de coproduire collectivement les devenirs de la ville, que ce soit pour imaginer la transition énergétique et la ville post-carbone, la ville circulaire, la ville intelligente et la gestion des Big Data, la ville comme écosystème de savoirs, la ville des tiers-lieux inclusifs ou la ville comme écosystème entrepreneurial.

 

Son programme de recherche se décline en deux axes. En premier lieu, l’instrumentation de la prospective urbaine et de la conception innovante en urbanisme (ex. méthode du co-design prospectifs, transfert des méthodes de conception innovante du monde industriel à la ville, méthodes de cartographie de controverses urbaines). Le Lab Ville prospective a ainsi accompagné en 2017 l’arrondissement de Rosemont à Montréal pour explorer des manières d’y « vivre, travailler et se divertir en 2037 ».

 

Le deuxième axe porte sur une étude du récit comme matrice de l’action collective urbaine, à travers l’étude des modèles de mise en récit (planification, projet, fiction prospective, mythes rationnels), des langages prospectifs (les mots, les cartes, les prototypes) et de leur performativité, et la question de la figuration par le récit des échelles et des temps urbains vécus (réversibilité-irréversibilité, polyrythmie). La Lab Ville Prospective a ainsi co-organisé un colloque ACFAS interdisciplinaire en 2015 sur « Les récits de la prospective : design, urbanisme, littérature et arts actuels ».

Lab Ville Prospectie
bottom of page