NZNTV

NOYAUZERONETWORK.ORG / GENEVA, SWITZ.
L’intelligence artificielle doit-elle obéir à la loi?

ROBOT On est vraiment à la préhistoire de cette idée. En fait, aujourd’hui on est au stade où on se demande qui est responsable quand une voiture autonome provoque un accident par exemple (une fois qu’on a prouvé que le conducteur n’y est pour rien).

Tout le monde est d’accord pour dire que si un programmeur a délibérément codé des lignes qui font faire à l’automate quelque chose d’illégal, c’est lui qui doit être puni. Mais, en pratique, ça n’arrive pas trop, et s’il y a une erreur (non volontaire) qui cause des dommages… la responsabilité se dilue déjà entre le programmeur, le chef de projet, le responsable des tests, et toute la hiérarchie jusqu’au PDG.

Des machines hors-la-loi

Il y a énormément de discussions et de travaux passionnants en cours, mais vraiment pas de consensus général. Il y a des procès en cours, et on se débrouille avec nos lois actuelles, chaque partie préparant ses arguments à partir d’enquêtes. Faites une recherche internet «procès Tesla autopilot», vous verrez qu’on est en plein dedans, et que c’est au cas par cas. Et il y a des associations de consommateurs ou d’utilisateurs qui se mettent en place pour lutter contre d’éventuels abus des entreprises.

Par exemple, à la suite de récents accidents, Tesla va certainement devoir revoir sa communication et être beaucoup plus claire sur le fait que ses voitures ne pilotent pas toutes seules et qu’elles nécessitent un utilisateur attentif prêt à reprendre les commandes très, très rapidement.

Mais comprenez bien que tant que nos IA ne sont pas conscientes (et ce n’est pas pour demain!), ce sont juste des machines qui n’ont aucune existence légale. Le problème est donc le même que lorsqu’une quelconque machine est à l’origine d’un accident (crash d’avion…).

Et il n’est vraiment pas à l’ordre du jour de vouloir imposer les lois de la robotique d’Asimov, qui veulent notamment qu’«un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger». Actuellement, cela n’a aucun sens, car les IA ne sont pas à ce niveau de compréhension, et les «lois» qui les régissent sont infiniment plus explicites.

Leave comment

Your email address will not be published. Required fields are marked with *.