Por @Alvy — 26 de Noviembre de 2019

El código se puede bajar y probar aquí: Real Time Voice Cloning y es el sistema descrito en este trabajo de varios investigadores de Google: Transfer Learning from Speaker Verification to Multispeaker Text-To-Speech Synthesis [PDF] con un vocoder (codificador de voz) que funciona en tiempo real. A partir de una muestra de voz cualquiera genera en cuestión de segundos una transcripción de texto-a-voz bastante realista utilizando esa misma voz de muestra.

Transfer Learning from Speaker Verification to Multispeaker Text-To-Speech Synthesis

Tal y como decía Mikeal Roger es una mezcla de «increíble y terrorífico» a la vez, asombroso pero también un poco tenebroso porque estas cosas no sabes para qué maldad acabarán usándose, a pesar de que se haya concebido como una tecnología totalmente neutra.

El vocoder que utiliza este sistema es WaveNet, una red neuronal profunda para generar audio a partir de muestras, creado por la gente de DeepMind y de la que ya hablamos por aquí hace algunos años.

Relacionado:

Compartir en Flipboard Compartir en Facebook Tuitear
Por @Alvy — 21 de Noviembre de 2019

En este vídeo de la Universidad de York explican cómo en el departamento de psicología han estado haciendo experimentos con unas máscaras de silicona hiperrealistas. Son tan reales, tan reales, que cuando se hacen pruebas con grupos de gente voluntaria para distinguirlas de una persona sin máscara, no siempre aciertan bien cuál es cuál. Esto es gracioso porque así a simple vista en el vídeo las máscaras parecen un tanto burdas (ejem) y recuerdan un poco a Joaquín Reyes disfrazado (!) Pero por otro lado dicen que han hecho el experimento correctamente, así que les dejamos el beneficio de la duda.

Máscaras hiperrealistas que engañan en las pruebas a la mayor parte de la gente

El estudio completo está publicado en Cognitive Research Journal (More human than human: a Turing test for photographed faces). Según parece la capacidad de distinguir si un rostro es real o es una máscara depende bastante del tiempo de observación; con tiempos de 0,5 segundos la gente se equivocaba un 33% de las veces; con tiempo ilimitado, sólo un 20%. Hicieron las pruebas con 120 personas voluntarias. Dicen que es una especie de «test de Turing» para las máscaras: si consiguen engañar a la mayor parte de la gente, es que son tan reales como un rostro real. Algo así como en Misión: imposible, vamos.

Los investigadores dicen que estudian estas cosas para ver la fiabilidad de las respuestas de la gente, qué puede suponer esto en el caso de las pruebas forenses, evaluar la fiabilidad de los sistemas de reconocimiento facial y cosas así.

Dicen que ya ha habido varios casos de delitos con gente haciéndose pasar por otras personas de forma ultrarrealista, a veces simplemente para dejar pistas falsas, a veces para conseguir mayor efectividad en sus actividades (un conocido caso fue en el que imitaron a un ministro francés). Una máscara de silicona de este tipo cuesta unos 1.000 euros más o menos. Un trabajo curioso el de estos psicólogos, la verdad.

Compartir en Flipboard Compartir en Facebook Tuitear
Por @Alvy — 12 de Noviembre de 2019

@Woz @DHH / Twitter

Orwell estaría orgulloso.

El famoso cofundador de Apple y hacker Woz y el creador de Ruby on Rails David Hansson han compartido en Twitter una experiencia similar –aunque les sucedió a cada uno por su lado– respecto a la tarjeta de crédito «diferente» de Apple, la Apple Card. Hansson califica a la tarjeta Apple Card de «sexista» porque cuando su mujer y él la solicitaron les ofreció condiciones distintas en cuanto a límites de crédito e intereses sin razón aparente.

A Hansson, que tiene comprada la casa con su mujer a medias y pagan los impuestos de forma conjunta a medias (están casados) la tarjeta le ofrece un límite 20 veces más alto a él que a ella para sus compras. En el caso de Wozniak y su mujer la diferencia del límite en la Apple Card es 10 veces mayor, con un 5% menos –o más, según de qué lado se mire– de interés / APR (lo que en España sería el TAE). Woz se queja además de lo difícil que resulta hablar con algún humano que pueda entender y resolver el problema; Hansson por su parte lo consiguió.

Antes de que alguien lo apunte, Woz y su mujer mantienen en el sentido crediticio una «igualdad perfecta»: no tienen cuentas separadas, ni tarjetas crédito separadas ni propiedades separadas. Woz explicó además que ya no se considera súper rico porque donó toda su fortuna hace años; pidió un crédito para comprar una casa y se buscó un nuevo trabajo de conferenciante porque era lo que le apetecía.

El Goldman Sach Bank, que es uno de los socios de Apple para la Apple Card, ha explicado que hay muchos factores en su algoritmo de scoring, incluyendo el «historial crediticio» que pueden hacer que incluso dos personas aparentemente iguales de la misma familia obtengan resultados distintos en una solicitud. Según Bloomberg, las autoridades de Nueva York van a investigar al Grup Goldman Sachs para confirmar si su algoritmo –secreto– discrimina o no a las mujeres. En The Verge también lo cuentan: Apple’s credit card is being investigated for discriminating against women.

Hay quien ha apuntado a que el problema podría estar en que aunque el algoritmo no esté programado para tener en cuenta el género de las personas que solicitan la tarjeta —que en mi opinión sería lo más probable– de algún modo la inteligencia artificial que se usa para asignar los límites y tasas de interés haya aprendido a distinguir entre hombres y mujeres a partir de otra información, sin que se sepa todavía por qué. Inquietante.

§

Hikvision Markets Uyghur Ethnicity Analytics, Now Covers Up

Por otro lado Charles Rollet escribió un artículo para IPVM en el que se habla de una cámara de vigilancia que permite diferenciar etnias chinas, en concreto identificar chinos uighures, a los que califican como «una de las minorías más perseguidas del mundo».

Aunque la imagen original de los tuits no era más que un «ejemplo ilustrativo» y el fabricante de la cámara (Hikvision) no la utilizaba en su web, tras la publicación parece ser que han retirado la página web de la cámara en cuestión y no responden preguntas.

Compartir en Flipboard Compartir en Facebook Tuitear
Por @Alvy — 12 de Noviembre de 2019

Mozilla / AI Campaign Survey

Jano me recordó un artículo que publicó la Fundación Mozilla con datos de una encuesta internacional acerca de la actitud y sentimientos de la gente hacia la inteligencia artificial (IA). Las respuestas son bastante esclarecedoras, diría; recopilaron casi 67.000 encuestas mediante formularios, aunque seguramente tienen el sesgo de haber sido realizadas sólo entre usuarios de Internet, dejando fuera algunos perfiles. Los datos completos aquí:

Entre otras cosas curiosas hay una abrumadora mayoría de personas que quieren aprender más sobre IA: 33% de interesados y 59% muy interesados frente a 8% no interesados. Parece que los hombres son más optimistas (27%) que las mujeres (14%) acerca del futuro de la IA; y los sudamericanos el grupo más optimista (46%) junto a los jóvenes de entre 19 y 24 años.

Mozilla / AI Campaign Survey

Mi dato favorito es el de la pregunta: ¿Qué futuro de película cree que será más parecido al de la realidad? Aunque a muchos nos encantaría que fuera el de 2001: una odisea del espacio o el de Matrix, las que ganan son 1984 de Orwell y Yo, Robot de Asimov. En 1984 se tocan muchos temas, pero en especial está el Versificador que crea música y literatura sin intervención humana. La verdad es que casi todas las películas mencionadas son bastante distópicas (Robocop, Terminator 2, Blade Runner) lo cual tampoco anima mucho.

Compartir en Flipboard Compartir en Facebook Tuitear