Por @Alvy — 14 de Septiembre de 2019

Estos veinte minutos de entrevista con el profesor de informática y experto en computación cuántica Scott Aaronson son muy densos y dan para muchos temas. Lanza muchas preguntas –que es lo interesante– especialmente sobre el tema de la consciencia en las máquinas, uno de mis favoritos. Está en el canal de Science, Tech and the Future –que es un poco fringe y marginal, todo sea dicho– y hasta podría entrar en la calificación de pajamentalero. Pero está entretenido para desconectar y pasar un rato.

El título proviene de un trabajó que publicó hace unos años el mismo Aaronson con el título The Ghost in the Quantum Turing Machine hablando de física, libre albedrío, azar y muchas cosas más. Por el camino se habla de la paradoja de Newcomb (y en cierto modo del experimento mental del Basilisco de Roko), de la entropía y la flecha del tiempo y del teorema de no clonación.

Entre otras cosas viene a plantearse la cuestión de si el cerebro humano es «clonable» o no, probablemente lo segundo. Si fuera copiable de forma obvia alguien podría copiar un cerebro en una especie de simulación, hacerla funcionar más rápido (o revertirla) y «adivinar qué iba a hacer» o «qué hizo» alguien, incluso demostrándole incluso a ese ser copiado que no tiene libre albedrío. ¿Qué sucedería si se matara a la copia o copias? ¿Podría hacérsela sufrir amenazándola con eliminar a otras copias iguales? Razonando como en el argumento de Nick Bostrom en «¿Vivimos en una simulación?» nosotros ya seríamos esas copias. ¡Chungo! Sin embargo el teorema de no clonación no permitiría hacer una copia cuántica de nuestro cerebro, de modo que en cierto modo tendríamos una «privacidad» especial. Aunque no estaría muy clara la relación de eso con la consciencia como tal.

Otra cuestión interesante –definiciones aparte, claro– es si se puede poner un límite físico a la «cantidad de consciencia» de un sistema físico. Explicado en plan rápido:: sabemos que una persona tiene algo que llamamos consciencia, pero, ¿lo tiene una piedra? ¿una célula? ¿un ordenador avanzado? ¿una molécula? ¿un átomo?

Curiosamente conocemos los límites a la cantidad de computación y almacenamiento que puede haber en un sistema físico, que dependen básicamente de su tamaño. Por ejemplo, en una esfera es de unos 1069 qubits por metro cuadrado de superficie; el número de pasos computacionales que puede ejecutar en toda su existencia tiene un límite similar. ¿Cuál sería el mínimo para afirmar que en esa computación cuántica hay consciencia? En el Universo desde luego lo hay (¿o no?), también en un ser humano… ¿Somos diez o cien veces más «conscientes» que una rana simplemente porque somos más grandes? ¿Se podría llegar a razonar que incluso un electrón tiene algún tipo de consciencia?

Todo esto es la parte que me pareció más interesante de la entrevista, pero el resto contiene muchas más preguntas todavía, y algunos datos y conceptos llamativos, desde el solipsismo a los códigos de corrección de errores en computación cuántica o la necesaria aplicación de la navaja de Occam para zanjar algunas cuestiones. Tan entretenido como apasionante.

_____
Nota: Aunque a veces los términos consciencia y conciencia son según el diccionario sinónimos prácticamente intercambiables, en el contexto de la inteligencia, la neurología y la filosofía son bastante diferentes. Consciencia suele aplicarse para el «autoconocimiento de la propia existencia» (ej. «recuperar la consciencia tras haber estado anestesiado») y conciencia cuando además de eso hay ciertas implicaciones morales (ej. «ser consciente de que golpear con un palo en la cabeza a alguien está mal»).

Relacionado:

Compartir en Flipboard Compartir en Facebook Tuitear
Por @Alvy — 1 de Septiembre de 2019

Cuando surgieron los captchas mucha gente se preguntó si eran realmente necesarios; hoy con la invasión de spam en todas las formas y variantes son algo casi obligatorio para que muchos sistemas funcionen: sistemas de comentarios, formularios de compra, páginas de registro. En este vídeo el divulgador Tom Scott explica cómo ha sido su evolución y algunos detalles curiosos, como es habitual en él.

  • El invento del captcha surgió en AltaVista, el mítico buscador de Digital de la era pre-Google, que intentaba con un sistema de letras distorsionadas evitar el spam en el formulario para registar páginas en su motor de búsqueda.
  • La primera versión de un captcha con utilidad colateral fue el popular ReCaptcha, bajo el lema «Stop spam, read books». Mostraba dos palabras al azar: una ya había sido identificada y era la que había que acertar y la otra «usaba» a la persona para leerla, de modo que también era una forma de «OCR humano». Cuando muchas personas daban la misma respuesta a la misma palabra se consideraba significativa estadísticamente y podía cambiar de grupo -- algo que servía para escanear libros de verdad poquito a poquito.
  • El software ReCaptcha fue adquirido por Google, quien a las palabras añadió en 2012 imágenes de Google Street: semáforos, letreros, pasos de cebra, etcétera. Su utilidad iba aumentando.
  • La segunda versión de Google era el recaptcha invisible (2014) que tan solo utilizaba la famosa casilla «no soy un robot» y un solo clic, además de cookies. Nadie sabe muy bien cómo funciona exactamente, pero sí que utilizaba datos como los movimientos del ratón, el tiempo entre clics, etcétera. Si no se tienen las cookies activadas o alguna prueba no se supera entonces se recurre a los captchas tradicionales.
  • La tercera versión (2017) es el recaptcha invisible, que reemplaza el clic del ratón en la casilla por el análisis de otros datos (tiempos en realizar acciones, movimientos del móvil, scroll, precisión, datos sobre el navegador y el ordenador antes de interactuar, etcétera).

Como decíamos hace años en el análisis del recaptcha invisible, el hecho de que el algoritmo sea tan secreto produce una situación un tanto inquietante:

Esto abre un nuevo mundo de extraños escenarios en los que tu ordenador puede decidir si eres digno o no de la humanidad suficiente como para utilizar alguna de sus funciones (…)

Irónicamente todo esto se ha vuelto tan complicado que entre un 10 y un 20 por ciento de los humanos «de verdad» no superan esas pruebas (!) En este sentido el robot que «no es un robot» es meritorio, porque supera la prueba, aunque no está muy claro cómo ni cuántas veces lo hace.

Relacionado:

Compartir en Flipboard Compartir en Facebook Tuitear
Por @Alvy — 23 de Agosto de 2019

Talk to Transformer

Los avances en inteligencia artificial son tan asombrosos hoy en día que es difícil seguir la pista de todas las novedades y lo que se puede hacer con los algoritmos más avanzados. Por suerte algunas son formas divertidas de explorar la inteligencia artificial.

Talk to Transformer es un experimento de Adam King en el que se escribe una frase y un algoritmo basado en una red neuronal, llamado GPT‑2, lo completa generando un texto con sentido. De momento está disponible sólo en inglés, peor es cuestión de alimentarlo con más datos.

GPT-2 utiliza software de OpenAI, una organización dedicada precisamente a crear inteligencias «más humanas que los humanos». Es un modelo que sirve para generar frases completas y con sentido, relacionadas con el contexto. Lo cual va bastante más allá del viejo pero resultón truco de las cadenas de Markov para inferir las «siguientes palabras» de cualquier texto.

Como se puede comprobar GPT-2 funciona con frases completas y aunque no siempre es coherente ha servido bastante bien hasta ahora para ayudar en labores de traducción, creación de resúmenes y similares. Se puede aprender más sobre el tema en esta anotación: Better Language Models and Their Implications.

Aunque en TNW dicen que es casi, casi está como para pasar el test de Turing a mi me parece una afirmación un poco arriesgada. Eso sí: humorísticamente dicen también que puede venir bien a los guionistas de Hollywood escasos de ideas o para crear diálogos y escenas para las nuevas entregas de Batman. Por no hablar de los spammers.

Ahí va otro ejemplo: ¿cuál de estos dos textos es auténtico y cuál generado por la inteligencia artificial?

(A)

For more than 150 years the structure of the periodic system of the chemical elements has intensively motivated research in different areas of chemistry and physics. More than four hundred such research projects (known as 'the major groups') have been completed in the last 40 years. Most of them have been supported by the government and are continuing today with the main aim of continuing discovery towards the development of atomic and molecular tools.

(B)

For more than 150 years the structure of the periodic system of the chemical elements has intensively motivated research in different areas of chemistry and physics. However, there is still no unified picture of what a periodic system is. Herein, based on the relations of order and similarity, we report a formal mathematical structure for the periodic system, which corresponds to an ordered hypergraph.

¿A que no es tan fácil?

Por cierto, uno de los párrafos de esta anotación procede de GPT-2: Talk to Transformer alimentado con tan solo diez palabras, y cuyo resultado luego pasó por el traductor automático DeepL.com para obtener el texto en castellano (con dos mínimos retoques). A ver si adivinas cuál es. Si no resulta tan fácil quizá es porque ese «momento test de Turing» realmente se aproxima. Quizá en unos años el blog lo puedan escribir los algoritmos y se llame GPT4siervos.

Relacionado:

Compartir en Flipboard Compartir en Facebook Tuitear
Por @Alvy — 6 de Agosto de 2019

Este instructivo y sucinto vídeo de Google Developers explica cómo se utiliza la visualización espacios de múltiples dimensiones en las técnicas de aprendizaje automático que se utilizan en artificial.

La explicación tiene una parte teórica y algunos ejemplos; la teórica es simplemente descriptiva y con los ejemplos es muy fácil de entender: al pensar en las características de cualquier elemento podemos distinguir diversas variables (por ejemplo, en un persona: la edad, lugar de nacimiento, color del pelo, etcétera). Si se trata cada uno de ellos como una dimensión –en ocasiones se usan 200 o más– los que son similares y comparten algunas de esas características van quedando agrupados. En realidad son sólo números y más números, pero con unos cálculos sencillos se pueden calcular las distancias y agrupamientos.

Por ejemplo cuando la gente escribe números o letras los caracteres equivalentes suelen ser más o menos parecidos y en una matriz de píxeles muchos coincidirán; alguno quedará descolgado pero serán los menos, el resto quedarán claramente agrupados y parecerán una «A» o un «6» o lo que corresponda. Tal y como muestra el vídeo a un algoritmo se le puede alimentar con millones de textos y aprenderá por sí mismo que hay «conceptos» similares, como por ejemplo los nombres propios de personas, los de los números, las palabras musicales relacionadas con el término «piano» y otros por estilos. Todo a partir de números analizados en múltiples dimensiones.

Breve e instructivo.

Relacionado:

Compartir en Flipboard Compartir en Facebook Tuitear