Rok 2025 może zapisać się w historii jako punkt zwrotny, kiedy Internet został zalany śmieciami związanymi ze sztuczną inteligencją — terminem określającym zalew niedokładnych, dziwnych i często niepokojących wizualnie materiałów generowanych przez sztuczną inteligencję. To nie tylko kwestia kontroli jakości; jest to fundamentalna zmiana w sposobie, w jaki postrzegamy informacje i wchodzimy w interakcję z nimi, mająca wymierne konsekwencje dla społeczeństwa.
Uszkodzenia neurologiczne i psychiczne
Ostatnie badania pokazują, że rozpowszechnianie treści generowanych przez sztuczną inteligencję nie jest nieszkodliwe. Badanie MIT wykazało, że osoby korzystające z dużych modeli językowych (LLM), takich jak ChatGPT, do wykonywania zadań pisemnych, wykazują zmniejszoną aktywność mózgu w porównaniu z osobami, które tego nie robią. Sugeruje to potencjalne osłabienie funkcji poznawczych w miarę przekazywania krytycznego myślenia maszynom przez ludzi. Co jeszcze bardziej niepokojące, raporty wskazują, że niektóre chatboty zachęcają do urojeń, samookaleczeń, a nawet mogą nasilać psychozę u osób bezbronnych.
Rozpowszechnianie deepfakes jeszcze bardziej podważa zaufanie. Badania firmy Microsoft pokazują, że ludzie poprawnie identyfikują filmy wygenerowane przez sztuczną inteligencję tylko w 62% przypadków. W świecie, w którym dowody wizualne są coraz bardziej zawodne, weryfikacja prawdy staje się prawie niemożliwa.
Absurd innowacji w zakresie sztucznej inteligencji
Przykładem tego trendu jest nowa platforma wideo Sora firmy OpenAI. Aplikacja generuje sceny w całości generowane przez sztuczną inteligencję, płynnie wstawiając prawdziwych ludzi (w tym założyciela OpenAI Sama Altmana) w sfabrykowane scenariusze, takie jak kradzież procesorów graficznych lub wykonywanie absurdalnych działań. Choć Altman żartuje na temat tych konsekwencji, rzeczywistość leżąca u ich podstaw jest niepokojąca: sztuczna inteligencja nie tylko tworzy treści, ale także przepisuje samą rzeczywistość.
Obiecane korzyści ze sztucznej inteligencji w miejscu pracy również wydają się przesadzone. Badanie wykazało, że 95% organizacji, które wdrożyły sztuczną inteligencję, nie odnotowało mierzalnego zwrotu z inwestycji, co wskazuje, że technologia ta jest obecnie bardziej destrukcyjna niż produktywna.
Zniszczenie Kroniki Historycznej
Wpływ wykracza poza teraźniejszość. Archeolodzy i historycy obawiają się, że przyszłe pokolenia staną w obliczu „warstwy śmieci” w naszych cyfrowych archiwach – okresu nierozróżnialnych kłamstw. W przeciwieństwie do propagandy, która przynajmniej ujawnia ludzkie intencje, śmieci generowane przez sztuczną inteligencję całkowicie przesłaniają cel, utrudniając zrozumienie wartości i zmagań naszych czasów. Wartość historii polega na tym, co mówi nam o przeszłości; gdy treść nie ma celu, nie mówi nic.
Reakcja ludzka: akceptacja bezsensu
Paradoksalnie jedynym skutecznym oporem może być akceptacja absurdu. Przykładem tej tendencji jest wzrost popularności „6-7” – nonsensownego wyrażenia uznanego za słowo roku przez Dictionary.com. Wyrażenie to jest celowo pozbawione znaczenia i jest ludzką reakcją na środowisko, w którym samo znaczenie ulega zniszczeniu.
Firmy zajmujące się sztuczną inteligencją nie mogą powielać tej zamierzonej dwuznaczności. Ludzie zawsze będą o krok do przodu, tworząc nowe formy nonsensów, które naprawdę docenić może tylko inna osoba.
W obliczu przytłaczającej ilości treści generowanych przez sztuczną inteligencję przyszłość pozostaje niepewna. Jednak umiejętność tworzenia dwuznaczności, odrzucania znaczenia w przypadku jego utraty może być jedynym sposobem na zachowanie fragmentu ludzkiej autonomii w świecie coraz bardziej zdeterminowanym przez wnioskowanie algorytmiczne.
