Este es un espacio de debate que no compromete la opinión de La Silla Vacía ni de sus aliados.
El aumento de la disponibilidad de tecnologías de inteligencia artificial (IA) ha puesto a la prensa en aprietos. Para empezar, el temor al reemplazo del trabajo humano también existe entre los periodistas. Además, los medios deben resolver cómo incorporar más y más estas tecnologías en sus salas de redacción sin descuidar los estándares éticos y la independencia que deberían caracterizar su trabajo. Y, encima de todo, está el reto fundamental de cómo cubrir la IA.
Con frecuencia, la prensa ha reportado sobre el avance de estas tecnologías sin hacerse preguntas básicas y haciendo caso omiso —en ocasiones, de manera muy deliberada— de los límites de las capacidades de la IA que conocemos hoy. En otras palabras: la prensa tiene que aprender a no dejarse desinformar y a no desinformar sobre estas tecnologías.
Los medios se unen al hype
Un primer error ha sido el de actuar como megáfonos de los anuncios de las compañías tecnológicas sobre las capacidades de sus productos. Los medios se unen a la emoción y expectativa exagerada —lo que algunos llaman el “hype”—, haciendo afirmaciones sin mayores cuestionamientos. Esta práctica no es nueva. En 1958, por ejemplo, el New York Times ya hablaba del despliegue de una tecnología que sería capaz de reproducirse a sí misma y de ser consciente de su propia existencia.
En otro ejemplo de décadas después, luego de que la máquina Watson de IBM le ganara a los campeones del juego de trivia Jeopardy!, en 2011, la prensa replicó los anuncios de la empresa que sostenían que Watson estaba siendo entrenado en medicina y que se convertiría en una revolución en el cuidado del cáncer. Como sabemos, esto no se hizo realidad.
Por otro lado, algunos medios en ocasiones se convierten en profetas del miedo. Por ejemplo, en abril, El Tiempo sostuvo que Elon Musk había “revelado” cuándo la IA superará a la inteligencia humana, como si la llegada de tecnologías con tal capacidad fuera un secreto que él pudiera destapar.
Finalmente, una práctica desconcertante es la de algunos medios de comunicación que utilizan chatbots basados en modelos de lenguaje grande (LLM o Large Language Models en inglés) como ChatGPT para hacer predicciones sobre el futuro, una función para la que simplemente no están diseñados. En esto se destaca la Revista Semana, con varias publicaciones semanales de este tipo.
Aquí hay de todo: desde cómo ganarse la lotería hasta qué país desatará la siguiente guerra mundial. Y por si quedaban dudas y para dejarnos bien informados, algunas de estas notas rematan con una declaración evidente: “Este artículo fue creado con ayuda de una inteligencia artificial que utiliza machine learning para producir texto similar al humano, y curado por un periodista especializado de Semana”.
En menos de una semana, Revista Semana hizo estas y otras publicaciones de este tipo.
Siendo así no sorprende que, como muestran algunos estudios sobre el cubrimiento mediático de la IA, las personas que tienden a creer que las representaciones de la IA en los medios son realistas son las mismas que tienden a percibir la IA como posibles terminators o compañeros románticos. Esto, por supuesto, no quiere decir que no sea posible que estas tecnologías evolucionen al punto en el que sean realmente más inteligentes que las personas o que de verdad creen un riesgo existencial para la humanidad. Sin embargo, el sensacionalismo no debería estar por encima de la evidencia científica disponible hoy.
Es posible hacerlo bien
Algunas de estas publicaciones son una muestra de lo peor del clickbait: la práctica a la que ha tenido que recurrir la prensa en crisis bajo la cual se usan titulares llamativos para lograr clics y generar tráfico hacia sus sitios web. Pero, por supuesto, estos errores también se explican en parte en la dificultad técnica que está implícita aquí: es difícil entender y aún más difícil explicar estas tecnologías.
Por ejemplo, algunos errores se basan en no tener presentes las diferencias entre la inteligencia artificial general o fuerte (AGI, por sus siglas en inglés) y la inteligencia artificial estrecha o débil. La primera es la que hipotéticamente superaría a la inteligencia humana, la versión de Hollywood. Al día de hoy, una fantasía. La segunda identifica a las tecnologías que vemos y usamos hoy. Es decir, las que están enfocadas en tareas específicas, como ChatGPT o el traductor de Google.
A pesar de las dificultades técnicas, es posible reportar bien. En 2016, el periodista George Johnson del New York Times reconoció que se había equivocado cuando veinte años antes había intentado predecir que el triunfo de una máquina sobre el campeón mundial del juego chino Go marcaría el inicio de la superinteligencia. Pero cuando el programa AlphaGo de Google venció a Lee Sedol, el periodista no sólo sostuvo que “la inteligencia artificial está lejos de rivalizar con la fluidez de la mente humana” sino que explicó cómo se necesitó un ejército de cerebros humanos para lograr que una máquina cumpliera una única y muy estrecha tarea: ganar en el Go.
Otros estudios también han mostrado que los medios de comunicación sí pueden mejorar la alfabetización de las audiencias y ayudarlas a navegar las complejidades de la IA. En efecto, hay publicaciones dentro de la prensa colombiana que muestran esfuerzos genuinos por entender y explicar esta tecnología.
Sin duda, la capacidad que tiene la prensa de moldear la opinión pública sobre la IA le exige adoptar un enfoque más crítico y riguroso del tema. Esto implica no solo evitar la exageración y el sensacionalismo, sino también educar a las audiencias sobre las verdaderas capacidades de estas tecnologías. Tal vez el periodista especializado de Semana podría invertir su tiempo en aprender más sobre IA en lugar de “curar” notas escritas por ChatGPT.
Los textos que aquí se publican son de exclusiva responsabilidad de sus autores y no expresan necesariamente el pensamiento ni la posición de la Linterna Verde.