loading
x
Le droit faciliterait-il le développement et le contrôle de l’IA ?

Le sujet est à la mode. Après plusieurs années à élaborer des principes éthiques, un appel généralisé se manifeste désormais pour que ceux-ci se traduisent juridiquement. Certes, plusieurs principes mériteraient sans doute d’être formellement reconnus par le droit (responsabilité, transparence, interdiction de la réidentification, justification sociale, etc.), et ce, même si la plupart existent déjà. Mais, en matière d’IA, la difficulté est moins une question de substance que de contrôle institutionnel. Certaines instances disposent en effet de moyens trop limités et parfois même, face à la transversalité de l’IA (vie privée, discrimination, concurrence, etc.), considèrent qu’elles ne sont pas pleinement compétentes. Également, la régulation passe par des normes techniques et des politiques internes dont le droit maitrise mal l’application. En fait, au-delà des problématiques spécifiques à l’IA, cette technologie est un révélateur que le numérique en général nous invite à adapter des approches distinctes face aux nouveaux défis rencontrés (caractère occulte, complexité, difficultés interprétatives, etc.). Aussi, plutôt que de considérer un droit de l’IA, il est peut-être plus efficace d’évaluer comment le droit est susceptible de faciliter et contrôler son développement.

Ce contenu a été mis à jour le 2 mars 2022 à 18 h 05 min.