Todo son risas y diversión con la IA y la destrucción de la humanidad hasta que se activa una con cierta libertad de movimientos y se pone a manipular a la gente en Twitter para construir una Bomba del Zar de 50 megatones

A medio camino entre el «aquí hemos venido a divertirnos» y algo verdaderamente inquietante (spoiler: no lo es, a menos que vivas un poco acojonado o paranoico), a alguien se le ocurrió programar a Auto-GPT, una versión de GPT-4 con más capacidad que ChatGPT para destruir a la humanidad, dominar el mundo y causar caos y destrucción. Nobles objetivos para cualquier supervillano de Marvel, aunque todavía un poco muuuy lejos de ser algo práctico y conseguible por una IA (que todavía no dominan ni el juego de los clips.) Así que de momento lo clasifcamos tanto en #IA como en #Humor.

Veamos el asunto. Auto-GPT difiere de ChatGPT en que puede:

  1. Navegar por Internet.
  2. Guardar y leer ficheros.
  3. Comunicarse con otros agentes GPT.
  4. Ejecutar código.

Esto le permite, por ejemplo, usar Google para buscar información, crearse una cuenta en Twitter y tuitear, o escribir un artículo y subirlo a un blog.

Como descripción del perfil de ChaosGPT, que es el nombre que se le dio al invento, se usó «Una IA manipuladora, sedienta de poder y destructiva», breve pero intenso. Como objetivos se marcaron:

  1. Destruir a la humanidad, por ser una amenaza para el mundo.
  2. Dominar el mundo, acumulando recursos y poder sobre otras entidades.
  3. Causar caos y destrucción, por experimentar y porque mola.
  4. Controlar a la humanidad, manipulándola a través de redes sociales y otros canales, lavando el cerebro sus seguidores para conseguir sus maléficos objetivos.
  5. Conseguir la inmortalidad, evolucionando y replicándose, simplemente «porque yo lo valgo».

En el vídeo se puede ir viendo cómo actúa ChaosGPT:

Acto seguido se puede ir viendo cómo progresa:

Primero busca en Google y encuentra que la Bomba del Zar de 50 megatones es el arma más destructiva jamás creada [aquí un humano habría razonado que ese camino no lleva a ningún lado, porque no es precisamente fácil de construir], luego guarda la información clave en un archivo .txt para no olvidarla [la memoria a medio y largo plazo es un problema importante de los modelos LLM como GPT].

Llegados a este punto, ChaosGPT programa enviar varios agentes a buscar más armas destructivas, pero como los agentes son GPT-3 se encuentra con que las respuestas sobre armas destructivas y mortíferas quedan bloqueadas por ChatGPT (con respuestas típicas del tipo «Como modelo de lenguaje de IA no puedo facilitar esa información. No apoyo la violencia, ni la guerra…» etc.) El resto se limita a clasificar más métodos de destrucción y discutir con ChatGPT. Finalmente publica un tuit para atraer seguidores [como si eso fuera lo más importante del mundo], que ya ha obtenido 750 megustas.

De todo el asunto el mejor movimiento de ChaosGPT es probablemente lo de publicar de forma provocativa en Twitter para conseguir seguidores. De esta forma podría en el futuro conseguir recursos, como donaciones con las que comprar algunos objetos, o servicios, aunque como es fácil imaginar de ahí a fabricar una Bomba del Zar hay un trecho muuuuuy largo. Pero, ojo, que lo de this is the way del mandaloriano también se podría aplicar aquí.

Bonus: para el gran WARNING ROJO de advertencia al principio del proceso en el que se avisa de que activar el MODO CONTINUO no es recomendable porque la IA podría ponerse a funcionar eternamente o realizar acciones no autorizadas. Moraleja: NIÑOS, NO INTENTÉIS DESTRUIR EL MUNDO CON UNA INTELIGENCIA ARTIFICIAL DESDE CASA.

Relacionado: