top of page

LA DÉCLARATION (VERSION PRÉLIMINAIRE)

PRÉAMBULE

Qu’elle soit naturelle ou artificielle, l’intelligence n’a pas de valeur en soi. L’intelligence d’un individu ne nous dit rien de sa valeur morale; c’est aussi le cas pour toute autre entité intelligente. L’intelligence peut néanmoins avoir une valeur instrumentale: c’est un outil qui peut nous éloigner ou nous rapprocher d’un objectif que nous valorisons. Ainsi, l’intelligence artificielle (IA) peut créer de nouveaux risques et exacerber les inégalités économiques et sociales. Mais elle peut aussi contribuer au bien-être, à la liberté ou à la justice.

 

D’un point de vue éthique, le développement de l’IA pose des défis inédits. Pour la première fois dans l’histoire, nous avons la possibilité de créer des agents non humains, autonomes et intelligents, qui n’ont pas besoin de leurs concepteurs pour accomplir des tâches que l’on croyait réservées à l’esprit humain. Ces machines intelligentes ne se contentent pas de mieux calculer que les êtres humains, elles cherchent, traitent et diffusent des informations. Elles interagissent avec des êtres sensibles, humains ou non humains. Bientôt, elles pourront même leur tenir compagnie, comme un parent ou un ami.

 

Ces agents artificiels vont donc être amenés à influencer directement nos vies. À long terme, on pourrait créer des « machines éthiques », c’est-à-dire capables de prendre des décisions en se conformant à des principes éthiques. Il faut se demander si ces développements sont responsables et souhaitables. Et il est permis d’espérer que l’IA rende nos sociétés meilleures, dans l’intérêt de tous et le respect de chacun.

 

Les principes et les recommandations que nous vous invitons à élaborer collectivement sont des orientations éthiques pour le développement de l’intelligence artificielle. Pour cette première phase de la déclaration, nous avons identifié sept valeurs: bien-être, autonomie, justice, vie privée, connaissance, démocratie et responsabilité. Pour chacune d’entre elles, vous trouverez une série de questions qui visent à explorer sa relation avec le développement de l’IA. Nous proposons ensuite un principe général, qui ne répond toutefois pas directement aux questions soulevées. 

Préambule
Autonomie
Vie privée
Valeurs, questions et principes
VALEURS, QUESTIONS ET PRINCIPES
Bien-être
  • Comment l’IA peut-elle contribuer au bien-être ?

  • Est-il acceptable qu’une arme autonome puisse tuer un être humain ? Un animal?

  • Est-il acceptable qu’une IA contrôle un abattoir ?

  • Devrait-on confier la gestion d’un lac, d’une forêt ou de l’atmosphère terrestre à une IA?

  • Devrait-on développer des IA capables de ressentir du bien-être ?

Principe proposé:

Le développement de l’IA devrait ultimement viser le bien-être de tous les êtres sentients.

Je veux donner mon opinion >>

Autonomie
  • Comment l’IA peut-elle contribuer à l’autonomie des êtres humains?

  • Faut-il lutter contre le phénomène de capture de l’attention dont s’accompagnent les avancées de l’IA ?

  • Faut-il s’inquiéter de ce que des humains préfèrent la compagnie des IA à celle d’autres humains ou d’animaux ?

  • Peut-on donner son consentement éclairé face à des technologies autonomes de plus en plus complexes?

  • Faut-il limiter l’autonomie des systèmes informatiques intelligents? Un humain devrait-il toujours avoir la décision finale?

Principe proposé:

Le développement de l’IA devrait favoriser l’autonomie de tous les êtres humains et contrôler, de manière responsable, celle des systèmes informatiques.

 

Je veux donner mon opinion >>

Justice
  • Comment s’assurer que les bénéfices de l’IA soient accessibles à toutes et à tous?

  • Faut-il lutter contre la concentration du pouvoir et de la richesse au sein d’un petit nombre d’entreprises en IA?

  • Quelles sont les discriminations que l’IA pourrait créer ou exacerber ?

  • Le développement de l’IA devrait-il être neutre ou chercher à réduire les inégalités économiques et sociales?

  • Quels types de décisions de justice pourrait-on déléguer à une IA?

Principe proposé:

Le développement de l’IA devrait promouvoir la justice et viser à éliminer les discriminations, notamment celles liées au genre, à l’âge, aux capacités mentales et physiques, à l’orientation sexuelle, aux origines ethniques et sociales et aux croyances religieuses.

Je veux donner mon opinion >>

Vie privée
  • Comment l’IA peut-elle garantir le respect de la vie privée ?

  • Nos données personnelles nous appartiennent-elles et devrait-on avoir le droit de les effacer?

  • Devrait-on savoir à qui nos données personnelles sont transmises et, plus généralement, qui les utilise ?

  • Est-il contraire aux règles d’éthique ou d’étiquette qu’une IA réponde à votre place à vos courriels ?

  • Qu’est-ce qu’une IA pourrait faire en votre nom?

Principe proposé:

Le développement de l’IA devrait offrir des garanties sur le respect de la vie privée et permettre aux personnes qui l’utilisent d’accéder à leurs données personnelles ainsi qu’aux types d’informations que mobilise un algorithme.

Je veux donner mon opinion >>

Connaissance
  • Le développement de l’IA fait-il courir un risque à la pensée critique?

  • Comment minimiser la circulation de fausses nouvelles ou d’informations mensongères?

  • Les résultats des recherches (positifs ou négatifs) en IA doivent-ils être disponibles et accessibles?

  • Est-il acceptable de ne pas être informé que des conseils médicaux ou légaux sont donnés par un chatbot?

  • En quel sens les algorithmes devraient-ils être transparents quant à leur processus de décision? 

Principe proposé:

Le développement de l’IA devrait promouvoir la pensée critique et nous prémunir contre la propagande et la manipulation.

Je veux donner mon opinion >>

Démocratie
  • Faut-il contrôler institutionnellement la recherche et les applications de l’IA?

  • Dans quels domaines est-ce le plus pertinent?

  • Qui devrait décider - et selon quelles modalités - des normes et valeurs morales déterminant ce contrôle ? 

  • Qui devrait choisir les « réglages moraux » des voitures autonomes ?

  • Faudrait-il développer un ou des labels « éthiques » pour les IA, les site web ou les entreprises qui respectent certains standards ?

Principe proposé:

Le développement de l’IA devrait favoriser la participation éclairée à la vie publique, la coopération et le débat démocratique.

Je veux donner mon opinion >>

Responsabilité
  • Qui sont les acteurs responsables des conséquences du développement de l’IA?

  • Comment définir un développement progressiste ou conservateur de l’IA ?

  • Comment réagir devant les conséquences prévisibles sur le marché du travail?

  • Est-il acceptable de confier une personne vulnérable aux bons soins d’une IA ? (par exemple, avec un « robot-nanny »)

  • Un agent artificiel comme Tay, le chatbot « raciste » de Microsoft, peut-il être moralement blâmable et responsable?

Principe proposé:

Les différents acteurs du développement de l’IA devraient assumer leur responsabilité en œuvrant contre les risques de ces innovations technologiques.

Je veux donner mon opinion >>

Bien-être
Justice
Connaissance
Démocratie
Responsabilité

Bien-être

Définitions
DÉFINITIONS
Êtres sentients

Ce sont des êtres capables d’éprouver du plaisir, de la douleur, des émotions et, plus généralement de ressentir. Dans l’état actuel des connaissances scientifiques, on peut dire que l’ensemble des vertébrés et certains invertébrés comme les poulpes sont des êtres sentients. En biologie, le développement de la sentience peut s’expliquer par la théorie de l’évolution.

 

Éthique (ou morale) 

C’est la discipline qui réfléchit à la bonne manière d’agir, individuellement ou collectivement, en cherchant à adopter un point de vue impartial. Elle s’appuie sur des normes et des valeurs morales.

 

Valeurs morales

Les valeurs morales sont relatives au bien et au mal: elle permettent, par exemple, de qualifier une action comme juste ou injuste, honnêtes ou malhonnêtes, louable ou blâmable.

 

Valeurs épistémiques

Les valeurs épistémiques sont relatives à la connaissance: elle permettent, par exemple, de qualifier un argument comme bon ou mauvais, claire ou fumeux, pertinent ou futile.  

 

Valeur intrinsèque

Une valeur est dite intrinsèque lorsqu’elle est une justification ultime, lorsqu’on peut la rechercher pour elle-même. Par exemple, le bien-être, l’autonomie ou la justice peuvent recherché pour eux-mêmes: ils ont donc une valeur intrinsèque.

 

Valeur instrumentale

Une valeur est dite instrumentale lorsqu’elle est au service d’autre chose, lorsqu’elle permet de promouvoir une valeur intrinsèque, par exemple. Ainsi l’argent ou l’intelligence sont des valeurs instrumentales qui peuvent être mise au service du bien-être, de l’autonomie ou de la justice.

 

Utopie

C'est un monde possible où s’incarne un ensemble de valeurs positives. Ainsi, on peut dire qu’une société où l’IA aurait libérée les gens de tous les travaux pénibles tandis qu’ils prendraient soins les uns des autres tout en développant leur potentiel personnel, est une société utopique.

bottom of page