L’Information Commissioner’s Office (ICO), l’autorité britannique de protection des données, a publié de nouvelles directives confirmant que les interactions en matière d’intelligence artificielle par le personnel gouvernemental sont soumises aux lois sur la liberté d’information (FOI). Cette décision précise que les invites saisies par les fonctionnaires et les textes, images ou données générés par les outils d’IA doivent être divulgués à la demande du public.
Cette évolution renforce considérablement les mesures de transparence, permettant potentiellement aux journalistes et aux citoyens d’accéder aux dossiers des ministres utilisant des plateformes comme ChatGPT pour leurs fonctions officielles.
Clarifier le paysage juridique
Depuis un certain temps, les autorités publiques sont confrontées à une ambiguïté quant à la manière dont la FOI s’applique aux technologies émergentes. Les nouvelles directives de l’ICO suppriment cette zone grise en indiquant explicitement :
“Si le personnel d’une autorité publique utilise l’IA à des fins professionnelles, les informations générées seront soumises à la FOIA ainsi que les invites utilisées.”
Les experts juridiques suggèrent que cette clarification comblera les lacunes précédemment exploitées par les organismes gouvernementaux. Jon Baines du cabinet d’avocats Mishcon de Reya note qu’il sera désormais “très difficile pour les autorités publiques de prétendre que les demandes liées à l’IA ne sont pas soumises à la FOIA.”
La logique est simple : si une information est enregistrée par un fonctionnaire dans le cadre de ses fonctions, elle relève de la FOI, qu’elle ait été écrite sur un post-it ou générée par un grand modèle linguistique. Tim Turner, un expert en protection des données, affirme que cela ne devrait pas susciter de controverse, soulignant que le support de conservation des données n’exempte pas le contenu des lois sur la transparence.
Impact sur la transparence et l’accessibilité
Ces orientations pourraient remodeler la manière dont la transparence gouvernementale fonctionne à l’ère numérique. Deux implications clés ressortent :
- Accès aux processus décisionnels : les citoyens peuvent désormais demander les invites spécifiques utilisées par les fonctionnaires, offrant un aperçu de la manière dont l’IA influence les conseils politiques ou les décisions administratives.
- Surmonter les obstacles liés aux coûts : L’ICO suggère que les organismes publics pourraient potentiellement utiliser l’IA pour résumer de grands ensembles de données lorsqu’ils répondent aux demandes de FOI. Cela pourrait permettre aux autorités de répondre à des demandes précédemment rejetées en raison de leur coût excessif, augmentant ainsi le volume d’informations accessibles.
Précédent et controverse
Cette décision fait suite à une affaire historique de l’année dernière, lorsque New Scientist a obtenu avec succès les journaux ChatGPT de l’ancien secrétaire technique britannique Peter Kyle. On pense que c’est la première fois qu’une telle demande est accordée à l’échelle mondiale. Cependant, les tentatives ultérieures d’autres médias pour accéder à des données similaires ont souvent été rejetées, les autorités qualifiant les demandes de « vexatoires » ou invoquant les coûts de traitement élevés.
Les nouvelles orientations visent à prévenir de tels refus généralisés. Cependant, cette décision a suscité un débat sur la confidentialité et l’aspect pratique. Matt Clifford, président de l’Agence britannique de recherche et d’invention avancées (ARIA), a critiqué le précédent créé par l’affaire Kyle, le qualifiant d’“absurde” et de “extrêmement corrosif”. Il a averti qu’un tel examen pourrait dissuader les ministres d’utiliser complètement les outils d’IA, étouffant ainsi l’innovation dans les opérations gouvernementales. Notamment, l’ARIA elle-même est exemptée des lois sur la liberté d’information, ce qui met en évidence l’application inégale des règles de transparence entre les différents organismes publics.
Pourquoi c’est important
L’intersection de l’IA et de la gouvernance soulève des questions cruciales sur la responsabilité et la confiance. Alors que les gouvernements s’appuient de plus en plus sur l’IA pour rédiger des communications, analyser des données et formuler des politiques, comprendre comment ces outils sont utilisés devient essentiel pour le contrôle démocratique.
Si les fonctionnaires peuvent utiliser l’IA pour produire des résultats officiels sans contrôle public, cela crée une « boîte noire » dans la gouvernance. En confirmant que les journaux d’IA sont soumis à la FOI, l’ICO garantit que l’intégration de l’intelligence artificielle dans le service public reste transparente. Cela crée un précédent vital pour d’autres pays aux prises avec la manière de réglementer l’IA dans le secteur public.
Conclusion
Les directives de l’ICO établissent une limite claire : L’utilisation de l’IA au sein du gouvernement n’est pas une sphère privée. Même si les inquiétudes concernant les effets dissuasifs sur l’innovation persistent, la décision donne la priorité au droit du public de savoir, garantissant que l’adoption rapide de l’IA ne dépasse pas la responsabilité démocratique.
