Brytyjskie organy regulacyjne potwierdziły: korespondencja między urzędnikami a sztuczną inteligencją podlega publicznemu dostępowi

0
15

Biuro Komisarza ds. Informacji (ICO), brytyjski organ ochrony danych, opublikowało nowe wyjaśnienia potwierdzające, że interakcje urzędników państwowych ze sztuczną inteligencją podlegają przepisom dotyczącym wolności informacji. W decyzji jasno określono, że na żądanie obywateli należy ujawniać zarówno zapytania wprowadzane przez urzędników, jak i odpowiedzi w formie tekstu, obrazów lub danych generowanych przez sztuczną inteligencję.

Posunięcie to znacznie wzmacnia środki przejrzystości, potencjalnie umożliwiając dziennikarzom i obywatelom dostęp do akt ministrów korzystających z platform takich jak ChatGPT w ramach swoich obowiązków służbowych.

Wyjaśnienie ram prawnych

Agencje rządowe od dawna borykają się z niepewnością co do sposobu, w jaki prawo dotyczące informacji publicznej ma zastosowanie do nowych technologii. Nowe wyjaśnienia ICO usuwają tę szarą strefę, wyraźnie stwierdzając:

„Jeśli pracownicy rządowi wykorzystują sztuczną inteligencję do celów biznesowych, wygenerowane informacje podlegają przepisom dotyczącym informacji publicznej wraz z zastosowanymi zapytaniami”.

Prawnicy uważają, że to doprecyzowanie zamknie luki prawne, z których korzystały wcześniej agencje rządowe. John Baines z kancelarii prawnej Mishcon de Reya zauważa, że obecnie agencjom rządowym „bardzo trudno będzie argumentować, że wnioski związane ze sztuczną inteligencją nie są objęte prawem FOI”.**

Logika jest tu prosta: jeśli pracownik rządowy przechwyci informację w trakcie pełnienia swoich obowiązków, podlega ona FOI, niezależnie od tego, czy jest zapisana na karteczce samoprzylepnej, czy wygenerowana przez model językowy. Tim Turner, ekspert ds. ochrony danych, przekonuje, że takie podejście powinno być „niekontrowersyjne”, podkreślając, że sposób rejestrowania informacji nie zwalnia ich treści spod przepisów dotyczących przejrzystości.

Wpływ na przejrzystość i dostępność informacji

Wyjaśnienia te mogą zmienić sposób, w jaki rządy radzą sobie z przejrzystością w epoce cyfrowej. Wyróżniają się dwie kluczowe implikacje:

  1. Dostęp do procesów decyzyjnych : Obywatele mogą teraz zwracać się do urzędników o szczegółowe zapytania, dzięki czemu mogą dowiedzieć się, w jaki sposób sztuczna inteligencja wpływa na konsultacje polityczne lub decyzje administracyjne.
  2. Pokonywanie barier finansowych : ICO sugeruje, że agencje rządowe mogłyby wykorzystać sztuczną inteligencję do podsumowania dużych ilości danych podczas odpowiadania na wnioski o FOI. Umożliwi to realizację wniosków, które zostały wcześniej odrzucone ze względu na nadmierne koszty przetwarzania, zwiększając tym samym ilość dostępnych informacji.

Precedens i kontrowersje

Decyzja ta jest następstwem głośnej sprawy z zeszłego roku, w której magazyn New Scientist pomyślnie uzyskał dzienniki użytkowania ChatGPT od byłego brytyjskiego sekretarza ds. technologii, Petera Kyle’a. Uważa się, że był to pierwszy na świecie precedens, w którym taki wniosek został uwzględniony. Jednak późniejsze próby uzyskania podobnych danych podejmowane przez inne publikacje były często odrzucane, a władze określały żądania jako „niepokojące” lub powołując się na wysokie koszty ich przetwarzania.

Nowe wyjaśnienia mają na celu zapobieganie takim masowym awariom. Jednak to posunięcie wywołało debatę na temat prywatności i praktyczności. Matt Clifford, prezes brytyjskiej Agencji Zaawansowanych Badań i Wynalazków (ARIA), skrytykował precedens sprawy Kyle’a, nazywając ją „absurdalną” i „rażąco szkodliwą”. Ostrzegł, że taka kontrola może zniechęcić ministrów do korzystania w ogóle z narzędzi sztucznej inteligencji, tłumiąc innowacje w pracy rządu. Warto zauważyć, że sama ARIA jest wyłączona z przepisów dotyczących informacji publicznej, co podkreśla nierówne stosowanie zasad przejrzystości we wszystkich agencjach rządowych.

Dlaczego to jest ważne?

Skrzyżowanie sztucznej inteligencji i rządu rodzi ważne pytania dotyczące odpowiedzialności i zaufania. W miarę jak rządy w coraz większym stopniu polegają na sztucznej inteligencji przy tworzeniu komunikacji, analizowaniu danych i opracowywaniu polityk, zrozumienie, w jaki sposób wykorzystywane są te narzędzia, staje się kluczowym elementem demokratycznego nadzoru.

Jeśli urzędnicy mogą wykorzystywać sztuczną inteligencję do tworzenia oficjalnych dokumentów bez nadzoru publicznego, tworzy to „czarną skrzynkę” w zarządzaniu. Potwierdzając, że logi AI podlegają FOI, ICO zapewnia przejrzystość wdrażania sztucznej inteligencji w usługach rządowych. Stanowi to ważny precedens dla innych krajów stojących przed wyzwaniem uregulowania sztucznej inteligencji w sektorze publicznym.

Wniosek

Wyjaśnienie ICO wyznacza wyraźną granicę: wykorzystanie sztucznej inteligencji w rządzie nie jest obszarem prywatnym. Pomimo ciągłych obaw dotyczących negatywnego wpływu na innowacje w decyzji za priorytet uznano prawo obywateli do informacji, zapewniając, aby szybkie przyjęcie sztucznej inteligencji nie wyprzedziło mechanizmów odpowiedzialności demokratycznej.