Historia de la IA que domina las «fake news» y su impacto en la sociedad

En febrero, OpenAI atrajo mucha atención cuando creó un sistema de inteligencia artificial (IA) de lenguaje al que se le daba tan bien crear noticias falsas que decidió no publicarlo. Algunos expertos de la comunidad lo consideraron una precaución inteligente; otros lo vieron como un truco publicitario. El laboratorio en sí, una pequeña organización privada de San Francisco (EE. UU.) especializada inteligencia artificial general, defiende que se trata de un experimento importante sobre cómo manejar la investigación de alto riesgo.

Ahora, seis meses después, el equipo de políticas de la organización ha publicado un artículo que analiza el impacto que la decisión ha tenido hasta el momento. Además, el laboratorio ha presentado una versión del modelo, conocido como GPT-2, con la mitad del tamaño que el modelo completo, que aún no se ha lanzado.


En mayo, unos meses después del debut inicial de GPT-2, OpenAI revisó su postura sobre la retención del código completo para pasar a un «lanzamiento por etapas». El término se refiere a un lanzamiento escalonado de versiones cada más grandes hasta publicar el total. En febrero, publicó una versión con el 8 % del modelo. Antes de este último lanzamiento, la entidad publicó una versión con cerca del 25 % del modelo. Durante el proceso, también se asoció con algunas instituciones de investigación para estudiar qué implicaciones tendría la publicación del modelo completo.