Réguler l’intelligence artificielle : promesses et limites du cadre européen

Partager

Participation libre sur inscription. Table ronde à suivre en présentiel au Centre, suivie d’un temps convivial, ou en direct à distance.

Réguler des technologies aussi évolutives que l’IA est un défi pour le législateur. Pourtant, les enjeux soulevés par l’IA – en particulier, mais pas seulement, l’IA générative -, sont multiples : risques de biais, dilution de responsabilité humaine, relégation à la machine de décisions ayant des incidences individuelles graves, atteintes aux droits fondamentaux, tels que la vie privée, violation de droits de propriété intellectuelle…
Tous ces risques appellent à une réglementation juridique, au-delà de principes éthiques. L’Union européenne a adopté l’ « AI Act«  » (Règlement sur l’IA) en juin 2024, dont les dispositions sont progressivement applicables. En ce moment, avant même sa pleine applicabilité, un projet de simplification et de report dans le temps est à l’étude.
Quelle protection juridique peut-on espérer de cet arsenal législatif ? Quels sont les grands principes qui structurent le Règlement européen sur l’IA ? Une approche différente ou complémentaire serait-elle souhaitable ?

Diane Galbois-Lehalle est maître de conférences en droit à l’Institut catholique de Paris, établissement qu’elle a rejoint après son doctorat à l’université Paris Panthéon-Assas, portant sur la notion de contrat. À l’ICP, ses enseignements portent sur le droit civil (droit des personnes, droit des contrats, droit de la responsabilité civile) et sur le droit du numérique. En 2021, elle crée le premier Master en droit du numérique, parcours droit de l’intelligence artificielle, qu’elle dirige depuis et, en 2026, un DU en formation continue. En 2024, elle est nommée titulaire de la Chaire numérique et citoyenneté de l’ICP. Ses travaux portent sur le droit des contrats, le droit de la responsabilité civile appliqué à l’IA, et la réglementation de l’IA.