OpenAI habla sobre sus planes para la inteligencia artificial general del futuro, incluyendo los riesgos que implica
Sam Altman, director ejecutivo de OpenAI ha publicado Planning for AGI and beyond («Planes para la inteligencia artificial general (IAG) y más allá»), una especie medio de plan, medio declaración de intenciones, medio avisos para el futuro sobre los desarrollos en IAG. Esta es la forma en que se suele denominar a las IAs fuertes de «capacidades generales» y «más inteligentes que los seres humanos» frente a las IAs débiles, «para propósitos concretos» y «no tan listas como las personas».
El resumen de sus disquisiciones lo da al principio de la declaración:
- Queremos que la IAG permita a la humanidad florecer al máximo en el universo (…) maximizar lo bueno y minimizar lo malo, y que la IAG sea un amplificador de la humanidad.
- Queremos que los beneficios, el acceso y la gobernanza de la IAG se compartan de forma amplia y justa.
- Queremos sortear con éxito los grandes riesgos (…) Creemos que tenemos que aprender y adaptarnos continuamente desplegando versiones menos potentes de la tecnología para minimizar los escenarios en los que sólo hay «una oportunidad para hacerlo bien».
Hay quien como Javi López califican este documento como momento histórico. Me ha gustado su análisis; aunque es optimista apunta algunas situaciones que también dan mieduqui o pueden resultar un poco aterrorizantes, estilo Proyecto Manhattan. Algo así como lo que le sucedió a Altozano. Dice López que por ejemplo:
(…) Aunque [en OpenAI] aceptan que hay riesgos potenciales, no consideran ni que sea deseable (subjetivo) ni que sea posible (totalmente objetivo) detener el desarrollo de una AGI.
En particular este párrafo de OpenAI resulta un tanto aterrador, hablando de riesgos desconocidos pero que que podrían ser riesgos existenciales (¡adiós, humanos!)
(…) A medida que nuestros sistemas se acercan a la lA general, seremos más cautelosos con la creación y el despliegue de nuestros modelos. Nuestras decisiones requerirán mucha más precaución de la que la sociedad suele aplicar a las nuevas tecnologías, y más precaución de la que muchos usuarios desearían. Algunas personas en el campo de la lA piensan que los riesgos de la lA general (v sistemas sucesores) son ficticios; estaríamos encantados si resulta que tienen razón, pero vamos a operar como si estos riesgos fueran existenciales.
En el artículo se habla de superinteligencia, de la Singularidad tecnológica («progreso continuo y automático de la IA»), del famoso problema de la alineación (cómo hacer que los modelos de las IAs sigan nuestras normas y valores, y hagan lo que queremos) e incluso de planificar «cómo detener la ejecución de una IAG o retirarlo (sic.) si fuera necesario».
Ideas muy interesantes para unos tiempos de cambios espectaculares, que vamos a tener la suerte de vivir en persona.
Relacionado:
- Los albores de la revolución de la inteligencia artificial, explicados con una mezcla de fascinación y acojone por Altozano
- La Agencia Española de Supervisión e Inteligencia Artificial
- Código inmoral: un documental que muestra los peligros de un mundo demasiado automatizado
- Los problemas morales y sociales de utilizar la IA para hacer los deberes
- Sobre ética e inteligencias artificiales
- A veces la inteligencia artificial no es tan lista como creemos… Pero es ridículamente fácil hacer que mejore
- Un ingeniero de Google monta un lío que acaba en despido por sugerir que una de las IAs de su laboratorio es consciente y tiene alma
- Dall•E 2, la inteligencia artificial de OpenAI, nos regala nuevas perspectivas de las obras de M.C. Escher (y misterios sobre Velázquez)
- La curiosa historia sobre cómo un simple plátano acabó siendo la respuesta perfecta a un Test de Turing
- Copilot de GitHub, un ayudante entrenado mediante IA para completar y escribir código de programación
- DALL·E es una inteligencia artificial que crea imágenes a partir de descripciones en lenguaje natural
- «Crear un chatbot que conversa como una persona específica», una patente solicitada por Microsoft
- Enigma GPT-2: ¿Puedes distinguir un artículo real de otro falso generado mediante inteligencia artificial simplemente leyendo el resumen?
- Una canción gallega con la música, letra y hasta videoclip generados mediante inteligencia artificial