Por @Alvy — 8 de Junio de 2018

Google AI

Google ha publicado sus principios sobre inteligencia artificial en forma de siete mandamientos o, llamémosle, manifiestos de intenciones por aquello de que un gran poder conlleva una gran responsabilidad. Son estos:

Google: objetivos para las aplicaciones de inteligencia artificial

Google cree que la inteligencia artificial debe

  1. Ser socialmente beneficiosa
  2. Evitar crear o reforzar sesgos injustos
  3. Construirse y comprobarse de cara a la seguridad
  4. Ser responsable ante la gente
  5. Incorporar principios de diseño de privacidad
  6. Mantener altos estándares de excelencia científica
  7. Estar disponible para usos que concuerden con estos principios

Aunque muchas de estas cuestiones éticas son debatibles, la lectura de este manifiesta explica por qué Google ha anunciado que no continuará colaborando con los militares estadounidenses (se puede cuestionar que sea #1 beneficioso, #3 seguro o #4 responsable) y también establece las lineas rojas que ningún proyecto debería cruzar.

Recientemente también se cuestionaba el comportamiento de la inteligencia artificial de Google Duplex, todavía en fase experimental, pues «podía engañar a la gente haciéndose pasar por un ser humano» (entre otras cosas). Esto rompería el principio #4 de responsabilidad y quizá alguno más.

Hubiera estado bien añadir el tradicional Don’t be evil que por desgracia Google ha ido relegando año a año en su código de conducta hasta algo bastante irrelevante (igual que Alphabet, de quien es filial), pero al menos tienen siete mandamientos que no suenan mal y están obligados a cumplirlos. Si con el tiempo los ignoran, modifican o amplían, será otra cuestión.

Compartir en Flipboard Publicar / Tuitear