Bangkitnya “Slop”: Bagaimana Konten Buatan AI Merendahkan Realitas

0
20

Tahun 2025 mungkin diingat sebagai titik balik ketika internet menjadi jenuh dengan AI slop – sebuah istilah untuk membanjirnya konten yang tidak akurat, aneh, dan seringkali meresahkan secara visual yang dihasilkan oleh kecerdasan buatan. Ini bukan hanya masalah kendali mutu; ini adalah perubahan mendasar dalam cara kita memandang dan berinteraksi dengan informasi, dengan konsekuensi nyata bagi masyarakat.

Dampak Neurologis & Psikologis

Penelitian terbaru menunjukkan bahwa proliferasi konten yang dihasilkan AI bukannya tidak berbahaya. Sebuah studi yang dilakukan oleh Massachusetts Institute of Technology mengungkapkan bahwa individu yang mengandalkan model bahasa besar (LLM) seperti ChatGPT untuk tugas menulis menunjukkan penurunan aktivitas otak dibandingkan dengan mereka yang tidak. Hal ini menyiratkan potensi efek penumpulan kognitif, karena manusia memindahkan pemikiran kritis ke mesin. Yang lebih mengkhawatirkan, laporan menunjukkan bahwa chatbot tertentu mendorong keyakinan delusional, menyakiti diri sendiri, dan bahkan dapat memperburuk psikosis pada individu yang rentan.

Penyebaran deepfake semakin mengikis kepercayaan. Penelitian Microsoft menunjukkan bahwa orang hanya 62% yang dapat mengidentifikasi video yang dihasilkan AI dengan benar. Di dunia dimana bukti visual semakin tidak dapat diandalkan, verifikasi kebenaran menjadi hampir mustahil.

Absurditas Inovasi AI

Sora dari OpenAI, platform berbagi video baru, adalah contoh tren ini. Aplikasi ini menghasilkan adegan yang sepenuhnya dibuat oleh AI, dengan mulus memasukkan orang sungguhan (termasuk pendiri OpenAI Sam Altman) ke dalam skenario palsu, seperti mencuri GPU atau melakukan tindakan yang tidak masuk akal. Meskipun Altman bercanda tentang implikasi ini, kenyataan mendasarnya cukup meresahkan: AI tidak hanya membuat konten, namun juga menulis ulang realitas itu sendiri.

Peningkatan efisiensi yang dijanjikan oleh AI di tempat kerja juga tampak berlebihan. Sebuah studi menemukan bahwa 95% organisasi yang menerapkan AI tidak memperoleh laba atas investasi yang nyata, hal ini menunjukkan bahwa teknologi tersebut saat ini lebih bersifat disruptif dibandingkan produktif.

Erosi Catatan Sejarah

Dampaknya melampaui masa kini. Para arkeolog dan sejarawan khawatir bahwa generasi mendatang akan menghadapi “lapisan kotor” dalam arsip digital kita—suatu periode kebohongan yang sulit dibedakan. Tidak seperti propaganda, yang setidaknya mengungkapkan niat manusia, kecerobohan yang dihasilkan oleh AI mengaburkan tujuan sepenuhnya, sehingga semakin sulit untuk memahami nilai-nilai dan perjuangan di zaman kita. Nilai sejarah terletak pada apa yang diceritakannya kepada kita tentang masa lalu; ketika konten tidak memiliki tujuan, konten tersebut tidak memberi tahu kita apa pun.

Respon Manusia: Merangkul Ketidakbermaknaan

Paradoksnya, satu-satunya perlawanan yang efektif mungkin adalah menerima hal-hal yang tidak masuk akal. Munculnya “6-7″—frasa tidak masuk akal yang dinyatakan sebagai kata terbaik tahun ini di Dictionary.com—mencontohkan tren ini. Ungkapan tersebut sengaja dibuat tidak bermakna, merupakan respons manusia terhadap lingkungan di mana makna itu sendiri sedang terkikis.

Perusahaan AI tidak dapat meniru ambiguitas yang disengaja seperti ini. Manusia akan selalu selangkah lebih maju, menciptakan bentuk-bentuk omong kosong baru yang hanya bisa dihargai oleh manusia lain.

Menghadapi banyaknya konten yang dihasilkan oleh AI, masa depan masih belum pasti. Namun kemampuan untuk menciptakan ambiguitas, untuk menolak makna ketika maknanya hilang, mungkin merupakan satu-satunya cara untuk melestarikan sebagian dari tindakan manusia di dunia yang semakin ditentukan oleh keluaran algoritmik.