Intelligence artificielle : réactivité ou proactivité ?

On ne cite pas assez les propos qu’a tenus Sergey Brin à Davos en janvier dernier. Quand le co-fondateur (tout de même) de Google déclare au monde qu’il n’a pas vu venir l’intelligence artificielle (IA), qu’il n’en connaît pas les limites et que cela présente d’incroyables possibilités, marquons une pause. Quand il affirme, de surcroît, qu’il est impossible de prédire précisément où l’IA nous emmène, une sérieuse précaution oratoire s’impose à la futurologie. Et l’urgente nécessité de réguler l’incertain.

post-image-3

Comment ne pas associer la déclaration de Sergey Brin à celle faite cet été par Elon Musk devant un parterre de décideurs américains ? L’influente figure de proue de la Silicon Valley s’érige en héraut des temps futurs : si nous continuons de réguler en aval des innovations technologiques, l’intelligence artificielle pourrait présenter une menace d’extinction pour l’humanité. Paranoïaque ou visionnaire ? Peut-être un peu des deux.

La réalité est la suivante : personne ne connait « le point au-delà duquel les machines n’iront jamais » commente Jean-Gabriel Ganascia, célèbre chercheur en intelligence artificielle. Et d’ajouter eu égard aux craintes avancées par Elon Musk, Stephen Hawking et consorts : « s’ils sont honnêtes, les scientifiques ne peuvent rien répondre, car s’il n’existe aucun argument tangible qui légitime ces craintes, il n’en existe pas non plus qui soit à même de circonscrire définitivement le champ des possibles. »

Malgré ses détracteurs, avec Mark Zuckerberg en première ligne, Elon Musk le martèle : il est nécessaire que le législateur agisse proactivement en matière d’IA. Pourquoi ? Parce que la vitesse d’innovation technologique excède notre capacité à en absorber les effets.

Eric Beinhocker de l’université d’Oxford distingue l’innovation technologique de l’innovation sociale. La première entrainant la seconde. Ce que ce professeur met en exergue, c’est que le progrès scientifique et technologique se révèle exponentiel, là où le processus d’adaptation de la société au nouvel environnement qui en découle est lent et complexe. Pour corriger cette dissymétrie, Eric Beinhocker suggère que nous adaptions nos facultés d’adaptation. Autrement dit, que nous nous adaptions plus vite. C’est ce que préconise Elon Musk en matière d’IA : plus vite, c’est, entre autres, agir proactivement, poser un cadre autour de l’inconnu, de l’inexistant.

Le législateur ayant pour habitude d’opérer de façon réactive aux dilemmes juridiques (donc sociaux) nés de situations déterminées et expérimentées, le caractère imprévisible des conséquences pouvant découler des avancées rapides en intelligence artificielle n’impose-t-il pas un nouveau cadre complémentaire de régulation proactive ? N’est-il pas nécessaire de légiférer en amont sur des dilemmes juridiques propres à des contextes, certes inexistants, mais prévisibles ?

L’Estonie, connue pour son avant-gardisme numérique, s’avance en ce sens. Par l’intermédiaire de Marten Kaevats, son National Digital advisor, le pays annonce prendre les devants. L’Estonie opte pour une approche proactive visant à développer un modèle de législation spécifique à l’IA. L’objectif étant de ne pas subir des événements qui conduiraient à une jurisprudence inadaptée. Jurisprudence qui se doit d’être numérisée. Chez nous, par exemple, comment peut-on encore admettre que seules 0,47% (11) des décisions judiciaires soient disponibles en ligne sur Juridat, le portail de référence du pays ?

Le cas estonien est intéressant, mais trois dilemmes kafkaïens subsistent :

1 - La loi est de facto réactive. Elle s'appuie sur des situations connues. Dès lors, en matière d’IA, comment « anticiper ses conséquences bien en avance », comme l’a récemment rappelé Stephen Hawking, pour légiférer proactivement ?

2 - Le processus d’innovation est plus rapide que le processus législatif. Ainsi, comment adapter une approche de régulation historiquement lente pour répondre à des avancées technologiques rapides ?

3 - Les données circulent sur Internet comme les bateaux sur la mer. Tout ce qui se produit technologiquement a des implications transnationales. Néanmoins, les états continuent d'essayer de légiférer sur une base étatique, voire continentale. Par conséquent, comment peut-on réguler efficacement l'IA, dont les enjeux sont mondiaux, en l'absence d'une capacité de gouvernance adéquate ?

À la lumière de ces dilemmes, peut-on considérer que les limites du droit étatique sont atteintes avec les défis posés par l’intelligence artificielle ? Le droit international est-il en mesure de proposer un cadre adéquat ? Ne faudrait-il pas envisager une législation mondiale ou des accords internationaux contraignants, à l’image de celui de Paris sur le climat ou de la convention de Genève ? Le débat est ouvert.

 

Un article écrit par Denys Malengreau (Reputation 365)

Back to top button
Close
Close