Sam Altman de OpenAI hablando con Lex Fridman sobre GPT-4, ChatGPT y el futuro de la IA

Tenía por ahí guardada esta esperada megaentrevista que Lex Fridman hizo a Sam Altman, el CEO de OpenAI. ¡Ojo! Son casi dos horas y media de calmada charla sin estridencias, que es mucho mejor escuchar por partes y en un entorno tranquilo para disfrutar con todos los detalles.

Las entrevistas de Fridman, que proviene del M.I.T. y curiosamente trabajó hace tiempo en Google en los equipos de aprendizaje automático, son siempre profundas (aunque hay quien considera que tiene preguntas también ridículas; cuestión de gustos). Digamos por un lado que casi todas las preguntas estándar quedan cubiertas, sin que sean «especialmente difíciles»: datos acerca del entrenamiento de GPT, versiones, fechas, organiación de la compañía… Altman tiene una mente muy abierta respecto a todas las cuestiones, puede ponerse en ambos lados respecto a temas de lo más complejos y sobre muchos de los cuales reconoce no tener una opinión formada definitiva. Lo que de momento sí que tiene es la decisión definitiva sobre muchos temas, incluyendo las contrataciones en OpenAI (las aprueba todas él).

Me centro aquí en algunas de las cuestiones que a mi me llamaron más la atención:

Consciencia, seguridad, alineamiento

Respecto al tema de la consciencia en las IA, al igual que cuando se habla del concepto de «inteligencia», Altman repite varias veces la expresión «Hay algo bastante extraño en eso», reconociendo que no tiene una opinión clara que concuerde con las definiciones tradicionales. Al mismo tiempo deja ver que el problema de la explicabilidad sigue presente y que ni siquiera todos los ingenieros de OpenAI saben a veces por qué GPT hace lo que hace. También la cuestión sobre sí y cuándo GPT se convertirá en una inteligencia artificial general (AGI) ocupa buena parte de la charla.

Inumerables veces hablan sobre el tema de la seguridad de la IA, algo lejos de ser trivial, respecto al cual Altman deja entrever cómo funcionan sus filtros para que las respuestas de GPT no sean hirientes, peligrosas o desinformadas. Esto parecen a veces simples filtros de ciertos términos (lenguaje de odio, conspiranoias, daños para las personas) pero a veces son cuestiones más elaboradas que no son fáciles de filtrar, ni de evitar que se pasen por alto con algún jailbreak que «engañe a la máquina». En la entrevista Fridman lleva la cuestión hasta escenarios «tipo Terminator», medio en broma, medio en serio, donde Altman responde que el Gran Botón Rojo para detener a GPT va siempre en su mochila, como si fuera una suerte de nuevo «balón nuclear».

Una de las cuestiones más interesantes es la del alineamiento, esto es, conseguir que la IA se comporte haciendo lo que queremos las personas, según nuestros valores y obedeciendo nuestras órdenes. Altman reconoce que es uno de los peores problemas porque cada grupo de personas tiene un conjunto de valores diferentes (políticos, religiosos, éticos) y no es nada fácil ponerse de acuerdo. Su sueño es que en el futuro se pueda llegar a una especie de gran acuerdo democrático haciendo interactuar a las IAs gestionadas por diversos grupos de modo que la mayor parte de la gente esté de acuerdo en qué se quiere conseguir.

La evolución del conocimiento humano

La entrevista resulta muy interesante, no se hace eterna y está salpicada de vez en cuando con preguntas raras y colaterales donde tanto Fridman como Altman se salen un poco del tiesto: ¿Podría alguien enamorarse de una IA? ¿Qué es lo que más admiras de Elon Musk? ¿Es GPT el software más complejo que haya creado la humanidad?

Me gustó la idea de fondo que tiene Altman acerca de que GPT no es más que un compendio del conocimiento de la humanidad capaz de seguir evolucionando. Y es que no es sólo el fruto del trabajo de un montón de ingenieros y expertos en IA a lo largo de años y décadas, sino que además el propio software incluye en su entrenamiento gran parte del conocimiento escrito de la humanidad (World Wide Web, enciclopedias, libros, código…) y en cierto modo es la versión destilada de todas las experiencias de gran parte de las personas que hay existido desde que somos Homo Sapiens. En cierto modo, GPT tiene un poquito de todos nosotros y puede llegar más allá, lo cual redondea la jugada.

Relacionado: