La protection de la vie privée dans l’utilisation des systèmes d’IA générative au sein de l’administration de la justice en Colombie
Catalina Castillo Triviño est étudiante dans le cadre du cours DRT6929E (Vie privée + numérique).
Avec le récent accord PCSJA24-12243 du 18 de décembre 2024, le Conseil supérieur de la magistrature colombienne a établi des lignes directrices pour l’utilisation des systèmes d’intelligence artificielle générative (dorénavant systèmes d’IA générative) dans l’administration de la justice.
1. Le précèdent qui fonde les lignes directrices adoptées
1.1 Problème juridique à l’étude
Un juge colombien a révélé avoir utilisé le Chat Generative Pre-Trained Transformer 3.5 (dorénavant ChatGPT 3.5) pour prendre sa décision dans un recours visant à protéger les droits fondamentaux à la santé et à la vie dans des conditions de dignité. En raison de l’intégration des technologies de l’information et de la communication dans les procès judiciaires prévue par la loi 2213 de 2022 en Colombie, le juge a posé à ChatGPT 3.5 certaines questions sur le problème juridique afin d’élargir les arguments de sa décision. Lors de l’étude de cet arrêt, la Cour constitutionnelle colombienne s’est interrogée : qui a pris la décision, le juge ou ChatGPT 3.5 ? et le juge a-t-il méconnu certains droits, tels que celui à un procès équitable et à la protection des renseignements personnels, connu comme le droit à l’en raison de l’utilisation d’un système d’une IA générative ? Voici les aspects pertinents de l’analyse effectuée par la Cour constitutionnelle colombienne dans son arrêt.
La Cour constitutionnelle colombienne a affirmé que l’usage de systèmes d’IA générative dans ce contexte peut affecter l’indépendance des juges, la réserve judiciaire ainsi que le droit à la vie privée.
Concernant l’indépendance des juges, la Cour constitutionnelle colombienne a affirmé que
« bien que les systèmes d’IA générative aient le potentiel de contribuer à l’identification des patrons de décision et d’améliorer la cohérence des arrêts, ils présentent d’importants risques pour les particuliers ». (notre traduction).
En particulier, le contenu généré par l’IA contient des erreurs, car les données d’entraînement sont incomplètes, dépourvues de contexte et de restrictions, ce qui crée des biais. De telle manière que, dans le cas précis, l’utilisation de ChatGPT 3.5 peut produire des
Or, la Cour constitutionnelle colombienne a signalé que l’appréciation de la preuve par le système d’IA générative pourrait méconnaitre la réserve judiciaire et le droit à la vie privée, car cela pourrait impliquer que le juge soumette la preuve afin que l’IA générative puisse fournir une réponse au juge. Étant donné qu’un particulier est propriétaire de ChatGPT 3.5, ce dernier pourrait avoir accès à la preuve ou à l’information d’un procès judiciaire, ce qui pourrait entraîner des responsabilités disciplinaires ou pénales pour le juge.
Par ailleurs, la Cour constitutionnelle colombienne a souligné que ChatGPT précise dans ses conditions d’utilisation que
Ainsi, la Cour constitutionnelle colombienne a mis en garde qu’il est interdit de saisir des données semi-privées, privées ou réservées dans un système d’IA générative appartenant à un particulier, puisqu’une telle pratique méconnaîtrait les droits à l’habeas data et à la vie privée.
1.2 L’utilisation des systèmes d’IA générative dans l’administration de la justice est possible, mais des limitations
D’après la dernière analyse, la Cour constitutionnelle colombienne a indiqué que les opérateurs juridiques doivent respecter les principes de transparence, de responsabilité et de protection de la vie privée lorsqu’ils utilisent des systèmes d’IA générative dans l’administration de la justice. Néanmoins, dans le cas d’espèce, le juge n’a pas utilisé de manière adéquate ces systèmes d’IA générative, car il n’a pas respecté les principes de transparence et de responsabilité. Voici les spécificités de ces principes :
Transparence : La Cour constitutionnelle colombienne a mis en garde que la simple signification d’utilisation d’un système d’IA générative et la transcription des questions et réponses ne sont pas suffisantes. Les juges doivent expliquer comment ils maîtrisent l’utilisation appropriée de ces outils technologiques, ainsi que leurs capacités et leurs limites. Par ailleurs, les juges doivent exposer les données utilisées, leur rôle dans la décision judiciaire et les raisons justifiant l’emploi du système d’IA générative.
Responsabilité : La Cour constitutionnelle colombienne a affirmé que les juges doivent vérifier que l’information fournie par le système d’IA générative soit réelle, conforme aux faits et à la loi, et compréhensible pour l’administration de la justice et les administrés. Les juges ont la responsabilité d’être qualifié pour la bonne gestion des technologies dans l’administration de la justice, raison pour laquelle ils doivent éviter l’utilisation d’algorithmes dont on ne connaît pas la manière de traiter l’information. Par ailleurs, les juges doivent s’assurer que le système d’IA générative est entraîné avec des données récentes, suffisantes et pertinentes pour le contexte colombien ou celui auquel il s’applique, ainsi que signaler dans l’arrêt des incohérences constatées.
Vie privée : La Cour constitutionnelle colombienne a souligné que les juges ont la responsabilité de protéger les renseignements personnels et sensibles fournis à l’administration de la justice. Étant donné que ces systèmes d’IA générative ne sont pas expressément autorisés pour la fonction judiciaire en Colombie. Il est donc nécessaire d’évaluer les risques liés à la fourniture de ces types de données à ces systèmes.
Finalement, la Cour constitutionnelle colombienne a décidé que la décision était valide, car
Étant donné que l’utilisation des systèmes d’IA générative dans l’administration de la justice n’est pas régulée, la Cour constitutionnelle colombienne a ordonné au Conseil supérieur de la magistrature colombienne l’élaboration de guides concernant l’utilisation de ChatGPT. Ainsi, le 23 de septembre de 2024 le Conseil supérieur de la magistrature colombienne a publié un guide ABC des aspects pertinents de l’arrêt.
2. Les lignes directrices additionnelles prévues dans l’accord PCSJA24-12243
Avec ce nouvel accord de décembre dernier, le Conseil supérieur de la magistrature colombienne a permis l’utilisation des systèmes d’IA générative à trois niveaux différents :
Premier niveau : Le juge peut utiliser l’outil pour la rédaction, la préparation de présentations, la traduction de documents, ainsi que pour d’autrs tâches administratives ou d’assistance dans la gestion judiciaire.
Deuxième niveau : Le juge doit examiner en profondeur les résultats obtenus lorsqu’il utilise le système d’IA générative pour rechercher, synthétiser, collecter et classifier les informations liées au cas étudié, telles que les sources de droit, la jurisprudence ou les dossiers judiciaires, entre autres.
Troisième niveau : Le juge doit respecter les principes de transparence, de responsabilité et de protection de la vie privée en utilisant le système d’IA générative pour effectuer des simulations de scénarios de décision, des opérations mathématiques et arithmétiques, des résumés de faits et de témoignages, ainsi que pour la motivation de la décision, entre autres.
Par ailleurs, le Conseil supérieur de la magistrature colombienne a précisé que les juges peuvent utiliser uniquement les systèmes d’IA générative « déterminés, fournis, validés ou habilités » par ce Conseil (notre traduction).
Plusieurs risques ont été identifié par différentes autorités à travers le monde, telles que l’Union Européenne dans l’annexe III du Règlement (UE) 2024/1689 et le Conseil canadien de la magistrature dans la guide d’utilisation d’intelligence artificielle dans les cours canadiens. Ainsi, cet accord du Conseil supérieur de la magistrature colombienne est indispensable pour que les systèmes d’IA générative deviennent un allié pour les juges colombiens, permettant une administration de la justice plus efficace, tout en respectant le droit à la vie privée et une meilleure sécurité juridique.
Note : Cet article a été illustré et révisé linguistiquement en français avec l’assistance de ChatGPT.
Ce contenu a été mis à jour le 22 janvier 2025 à 18 h 22 min.
Commentaires