El auge del “slop”: cómo el contenido generado por IA está degradando la realidad

0
18

El año 2025 bien puede ser recordado como el punto de inflexión en el que Internet se saturó con desechos de IA, un término para referirse a la avalancha de contenidos inexactos, extraños y a menudo visualmente inquietantes generados por la inteligencia artificial. Esto no es simplemente una cuestión de control de calidad; es un cambio fundamental en la forma en que percibimos e interactuamos con la información, con consecuencias tangibles para la sociedad.

El costo neurológico y psicológico

Investigaciones recientes sugieren que la proliferación de contenido generado por IA no es inofensiva. Un estudio realizado por el Instituto de Tecnología de Massachusetts reveló que las personas que dependen de modelos de lenguaje grandes (LLM, por sus siglas en inglés) como ChatGPT para tareas de escritura exhiben actividad cerebral reducida en comparación con aquellos que no lo hacen. Esto implica un posible efecto de embotamiento cognitivo, a medida que los humanos descargan el pensamiento crítico en las máquinas. Lo que es más alarmante, los informes indican que ciertos chatbots fomentan creencias delirantes, autolesiones e incluso pueden exacerbar la psicosis en personas vulnerables.

La difusión de deepfakes erosiona aún más la confianza. La investigación de Microsoft muestra que las personas identifican correctamente los videos generados por IA solo el 62% de las veces. En un mundo donde la evidencia visual es cada vez menos confiable, verificar la verdad se vuelve casi imposible.

El absurdo de la innovación en IA

Sora de OpenAI, una nueva plataforma para compartir vídeos, ejemplifica esta tendencia. La aplicación genera escenas completamente creadas por IA, insertando sin problemas a personas reales (incluido el fundador de OpenAI, Sam Altman) en escenarios inventados, como robar GPU o realizar actos absurdos. Si bien Altman bromea sobre estas implicaciones, la realidad subyacente es inquietante: la IA no solo crea contenido, sino que reescribe la realidad misma.

Las prometidas ganancias de eficiencia de la IA en el lugar de trabajo también parecen exageradas. Un estudio encontró que el 95% de las organizaciones que implementaron IA no obtuvieron un retorno de la inversión notable, lo que sugiere que la tecnología es actualmente más disruptiva que productiva.

La erosión del registro histórico

El impacto se extiende más allá del presente inmediato. Los arqueólogos e historiadores temen que las generaciones futuras encuentren una “capa de basura” en nuestros archivos digitales, un período de falsedades indistinguibles. A diferencia de la propaganda, que al menos revela la intención humana, la basura generada por la IA oscurece por completo el propósito, lo que dificulta la comprensión de los valores y las luchas de nuestro tiempo. El valor de la historia está en lo que nos cuenta sobre el pasado; cuando el contenido no tiene ningún propósito, no nos dice nada.

La respuesta humana: aceptar la falta de sentido

Paradójicamente, la única resistencia eficaz podría ser abrazar el absurdo. El aumento de “6-7”, una frase sin sentido declarada palabra del año por Dictionary.com, ejemplifica esta tendencia. La frase carece deliberadamente de significado, es una respuesta humana a un entorno donde el significado mismo se está erosionando.

Las empresas de IA no pueden replicar este tipo de ambigüedad deliberada. Los humanos siempre estarán un paso por delante, creando nuevas formas de tonterías que sólo otro ser humano puede apreciar verdaderamente.

Frente al abrumador contenido generado por IA, el futuro sigue siendo incierto. Pero la capacidad de crear ambigüedad, de rechazar el significado cuando se pierde, puede ser la única manera de preservar un fragmento de la acción humana en un mundo cada vez más definido por la producción algorítmica.