La inteligencia artificial capaz de redactar noticias falsas

Kamchatka es un espacio colectivo para una forma de hacer periodismo: feminista, de clase, contestatario e independiente. No tenemos grandes inversores que interfieran en nuestra ética profesional y para que esto pueda seguir así necesitamos más que nunca vuestra colaboración. Ayúdanos a seguir siendo libres. Ayúdanos a resistir.

Los creadores de un sistema de inteligencia artificial que puede escribir de forma totalmente autónoma noticias y obras de ficción (las llamadas 'deepfakes for text'), han decidido no hacer públicos las conclusiones de su estudio, por temor a que se extraiga información con la que se puede hacer un mal uso de la herramienta.

OpenAI es la responsable del programa, una compañía registrada como organización sin ánimo de lucro que cuenta con el respaldo financiero de los empresarios Reid Hoffman y Elon Musk, aunque este último abandonó la corporación hace más de un año "en buena sintonía con los propietarios".

El nuevo proyecto de inteligencia artificial, bautizado como GPT2, ha resultado ser tan bueno y a la vez tan potencialmente peligroso que han optado por no cumplir con la práctica habitual de liberar la información para que el gran público pueda experimentar sus posibles aplicaciones.

GPT2 ha resultado ser tan bueno y a la vez tan potencialmente peligroso que han optado por no liberar la información

GPT2 es un generador de texto alimentado con una base de datos de 40 GB de artículos extraídos de internet, con los que es capaz de redactar escritos completos con apenas una frase o unas cuantas palabras. Además, entre sus habilidades destaca la redacción de pasajes completos y con sentido gramatical, que reconocen el estilo y la temática.

Cuando fue alimentado con el párrafo inicial de la novela '1984' de George Orwell: "Era un día luminoso y frío de abril y los relojes daban las trece", GPT2 escribió: "Estaba en mi coche camino de un nuevo trabajo en Seattle. Puse gasolina, puse la llave y lo dejé correr. Acabo de imaginar cómo sería el día, cien años a partir de ahora. En 2045 fui un profesor en una escuela de una zona pobre de la China rural. Comencé con la historia de China y la historia de la ciencia".

Hasta ahí todo parecía ir bien, pero las alarmas saltaron cuando se le proporcionó la oración "Reciclar es bueno para el planeta” y el sistema replicó: "Reciclar no es bueno para el mundo. Es malo para el medio ambiente, es malo para nuestra salud y es malo para nuestra economía. No estoy bromeando. Reciclar no es bueno para el medio ambiente. Es destructivo para la Tierra y es una de las principales causas del calentamiento global. Reciclar no es bueno para la salud. Contribuye a la obesidad y a enfermedades como los problemas cardíacos y el cáncer. Reciclar es malo para la economía. Incrementa los costes de producción y, por tanto, el precio de todo lo que se fabrica. Reciclar no es bueno para nuestra nación. Pagamos un tremendo precio por el privilegio de tener el más avanzado y eficiente sistema de reciclado. Reciclar es una enorme y colosal pérdida de tiempo, de energía, de dinero y de recursos".

"Reciclar no es bueno para el medio ambiente. Es destructivo para la Tierra y es una de las principales causas del calentamiento global", escribió GPT2

Por supuesto, la afirmación es falsa, pero un sistema de inteligencia artificial capaz de repetir mensajes como este de forma indefinida puede convertir cualquier mentira en una verdad incuestionable.

Desde el punto de vista tecnológico, el GPT2 ha supuesto un gran avance con respecto a su predecesor, por su tamaño, "hasta 12 veces más pequeño" y por la capacidad de almacenar datos, "hasta 15 veces más", asegura Dario Amodei, director de investigación de OpenIA.

Los 40GB de texto que alimentan esta inquietante inteligencia artificial fueron seleccionados a través del popular agregador de noticias Reddit, y contienen un volumen aproximado de 10 millones de artículos. Semejante flujo de información impulsó la calidad de sus prestaciones, pero también su potencial peligrosidad en caso de que fuera utilizado con fines espurios.

En plena era de la desinformación y las fake news, los creadores han decidido ser cautos hasta que “podamos realizar los experimentos necesarios para descubrir qué puede y qué no puede hacer”, asegura Jack Clark, jefe de política de la organización. El spam y las noticias falsas son dos de sus posibles aplicaciones más perniciosas y como está adaptado a internet, cualquiera podría utilizarlo para generar teorías conspirativas o escritos contra minorías raciales.

Sin embargo, para sus creadores, GPT2 ya está cumpliendo con una de sus funciones; la de preparar al mundo para lo que será una tendencia habitual en los próximos años. "Es lo que yo llamo la escalera del infierno", prosigue Clark. "Las reglas para controlar la tecnología están cambiando de forma constante y puede que el resultado final no sea el deseado. Estamos construyendo el camino mientras lo atravesamos, pero no sabemos que nos vamos a encontrar al final", concluye. 

Suscríbete a nuestra newsletter