Le autorità di regolamentazione del Regno Unito confermano che i registri delle chat dell’intelligenza artificiale del governo sono soggetti a controllo pubblico

0
18

L’Information Commissioner’s Office (ICO), l’autorità per la protezione dei dati del Regno Unito, ha pubblicato nuove linee guida confermando che le interazioni con l’intelligenza artificiale da parte del personale governativo sono soggette alle leggi sulla libertà di informazione (FOI). Questa sentenza chiarisce che sia i suggerimenti inseriti dai funzionari sia i testi, le immagini o i dati risultanti generati dagli strumenti di intelligenza artificiale devono essere divulgati se richiesto dal pubblico.

Questo sviluppo rafforza in modo significativo le misure di trasparenza, consentendo potenzialmente a giornalisti e cittadini di accedere ai registri dei ministri che utilizzano piattaforme come ChatGPT per compiti ufficiali.

Chiarire il panorama giuridico

Da qualche tempo, le autorità pubbliche si trovano ad affrontare ambiguità riguardo al modo in cui la FOI si applica alle tecnologie emergenti. La nuova guida dell’ICO rimuove questa zona grigia affermando esplicitamente:

“Se il personale di un’autorità pubblica utilizza l’intelligenza artificiale per scopi lavorativi, le informazioni generate saranno soggette al FOIA insieme ai suggerimenti utilizzati.”

Gli esperti legali suggeriscono che questo chiarimento colmerà le lacune precedentemente sfruttate dagli enti governativi. Jon Baines dello studio legale Mishcon de Reya osserva che ora sarà “molto difficile per le autorità pubbliche affermare che le richieste relative all’intelligenza artificiale non sono soggette al FOIA.”

La logica è semplice: se un’informazione viene registrata da un funzionario pubblico nell’esercizio delle sue funzioni, rientra nella FOI, indipendentemente dal fatto che sia stata scritta su un post-it o generata da un modello linguistico di grandi dimensioni. Tim Turner, un esperto di protezione dei dati, sostiene che questo dovrebbe essere “non controverso”, sottolineando che il mezzo di tenuta dei registri non esonera i contenuti dalle leggi sulla trasparenza.

Impatto sulla trasparenza e sull’accessibilità

Questa guida potrebbe rimodellare il modo in cui opera la trasparenza del governo nell’era digitale. Emergono due implicazioni chiave:

  1. Accesso ai processi decisionali : i cittadini possono ora richiedere i suggerimenti specifici utilizzati dai funzionari, offrendo informazioni su come l’intelligenza artificiale sta influenzando la consulenza politica o le decisioni amministrative.
  2. Superare le barriere relative ai costi : l’ICO suggerisce che gli enti pubblici potrebbero potenzialmente utilizzare l’intelligenza artificiale per sintetizzare grandi set di dati quando rispondono alle richieste FOI. Ciò potrebbe consentire alle autorità di soddisfare richieste precedentemente respinte per motivi di costi eccessivi, aumentando così il volume di informazioni accessibili.

Precedenti e polemiche

La sentenza fa seguito a un caso storico dello scorso anno, quando New Scientist ottenne con successo i registri ChatGPT dell’ex segretario tecnologico britannico Peter Kyle. Si ritiene che questa sia la prima volta che una richiesta del genere viene accolta a livello globale. Tuttavia, i successivi tentativi da parte di altri organi di accesso a dati simili spesso sono stati respinti, con le autorità che hanno etichettato le richieste come “vessative” o citando elevati costi di elaborazione.

La nuova guida mira a prevenire tali rifiuti generalizzati. Tuttavia, la mossa ha acceso il dibattito sulla privacy e sulla praticità. Matt Clifford, presidente dell’Advanced Research and Invention Agency (ARIA) del Regno Unito, ha criticato il precedente stabilito dal caso Kyle, definendolo “assurdo” e “estremamente corrosivo.” Ha avvertito che tale controllo potrebbe dissuadere i ministri dall’utilizzare del tutto gli strumenti di intelligenza artificiale, soffocando l’innovazione nelle operazioni governative. In particolare, la stessa ARIA è esente dalle leggi FOI, evidenziando l’applicazione non uniforme delle norme sulla trasparenza tra i diversi enti pubblici.

Perché è importante

L’intersezione tra intelligenza artificiale e governance solleva questioni critiche su responsabilità e fiducia. Poiché i governi fanno sempre più affidamento sull’intelligenza artificiale per elaborare comunicazioni, analizzare dati e formulare politiche, comprendere come vengono utilizzati questi strumenti diventa essenziale per il controllo democratico.

Se i funzionari possono utilizzare l’intelligenza artificiale per generare risultati ufficiali senza il controllo pubblico, si crea una “scatola nera” nella governance. Confermando che i registri dell’IA sono soggetti alla FOI, l’ICO garantisce che l’integrazione dell’intelligenza artificiale nel servizio pubblico rimanga trasparente. Ciò costituisce un precedente vitale per altre nazioni alle prese con come regolamentare l’intelligenza artificiale nel settore pubblico.

Conclusione

Le linee guida dell’ICO stabiliscono un confine chiaro: L’utilizzo dell’IA nel governo non è una sfera privata. Sebbene persistono preoccupazioni sugli effetti scoraggianti sull’innovazione, la sentenza dà priorità al diritto pubblico all’informazione, garantendo che la rapida adozione dell’IA non superi la responsabilità democratica.