Por @Wicho — 20 de Junio de 2024

IA con un símbolo de interrogación después

La mente humana no es, como ChatGPT y similares, un torpe motor estadístico de comparación de patrones, que se atiborra de cientos de terabytes de datos y extrapola la respuesta conversacional más probable o la respuesta más probable a una pregunta científica. Por el contrario, la mente humana es un sistema sorprendentemente eficiente e incluso elegante que opera con pequeñas cantidades de información; no busca inferir correlaciones brutas entre puntos de datos, sino crear explicaciones…

Dejemos entonces de llamarlo «Inteligencia Artificial» y llamémoslo por lo que es y hace: software para plagios. [Porque] no crea nada, sino que copia obras existentes, de artistas existentes, modificándolas lo suficiente como para escapar a las leyes de copyright.

– Noam Chomsky en
The False Promise of ChatGPT;
en español en La falsa promesa del ChatGPT

_____
Foto de Nahrizul Kadri en Unsplash

Compartir en Flipboard Publicar / Tuitear
PUBLICIDAD


Por @Wicho — 17 de Junio de 2024

Portada del libroInteligencia artificial: Guía para seres pensantes. Por Melanie Mitchell. Traducción de María Luisa Rodríguez Tapia . Capitán Swing Libros (3 de abril de 2024). 418 páginas.

A principios de los 80, después de graduarse en matemáticas, la autora daba clases de matemáticas cuando se cruzó en su camino Gödel, Escher, Bach. El famoso libro de Douglas R. Hofstadter, no un trío de comedia.

Leerlo la convenció de que no sólo quería ser investigadora en Inteligencia Artificial, sino que quería trabajar con Douglas Hofstadter. Lo que a priori era un tanto complicado porque no tenía ninguna formación ya no en IA sino tan siquiera en programación. Pero con un poco de persuasión y un mucho de convencimiento terminó trabajando con Hofstadter mientras se doctoraba en informática. Y desde entonces la autora ha dedicado su carrera al campo de la IA.

Pero tras en una reunión en Google en 2014 con las personas que estaban al frente de los esfuerzos en IA de la empresa en la que también participó Hofstadter salió muy extrañada. Bajo su punto de vista la IA había progresado mucho en algunas áreas concretas, pero estaba convencida de que aún no estaba ni remotamente cerca de alcanzar la inteligencia general (AGI por sus siglas en inglés) de los humanos, y que no lo conseguiría ni en un siglo, y mucho menos en treinta años o incluso menos como predecían algunas de las personas presentes en la reunión.

Así que terminó por escribir este libro como un intento de comprender la verdadera situación de la inteligencia artificial. En sus propias palabras «lo que los ordenadores pueden hacer ahora y lo que podemos esperar de ellos en las próximas décadas.»

No es un libro sobre la historia de la IA pero comienza con una parte dedicada a explicar cómo en la actualidad, tras probar varios enfoques, el campo de la inteligencia artificial está centrado principalmente en el aprendizaje profundo, pues es el que mejores resultados lleva dando en los últimos años.

Aunque también habla de la singularidad; del test de Turing y de como muchas de las personas que se dedican a la IA en realidad lo odian; y de cuestiones más filosóficas como las que avanzaba el propio Turing al preguntarse si una máquina podría pensar como por ejemplo si habría alguna diferencia entre pensar y simular pensar.

Porque claro, uno de los grandes problemas –quizás el mayor– del campo es precisamente definir qué consideramos inteligencia. Seguido muy de cerca por el de que no sabemos de dónde sale nuestra inteligencia, sea esta lo que sea. Bueno, sí tenemos medianamente claro que sale de algún proceso que surge dentro de nuestras cabezas, pero no sabemos cómo. Así que como para ponernos a emularla o crearla.

Luego va dedicando las sucesivas secciones del libro a ciertas capacidades cruciales que considera que subyacen a la inteligencia humana y la hacen diferente a la de otras especies como la percepción, el lenguaje, la toma de decisiones, el razonamiento basado en el sentido común y el aprendizaje.

En ellas habla de los últimos avances en IA en ese campo en concreto –muchos de ellos sorprendentes y casi inimaginables hace algunos años– aunque explicados de forma muy didáctica para que cualquiera pueda entenderlos. Y luego los compara con lo que sabemos de cómo funcionamos las personas en esos mismos campos.

Sostiene que es precisamente en estas diferencias dónde residen aún muchas de las debilidades de las IA y lo que debe hacernos dudar de que a plazo corto no sólo surja una AGI sino que también debe hacernos pensar muy bien qué les dejamos hacer y hasta qué punto podemos delegar en ellas.

Cuestiones como que no sabemos exactamente qué aprenden esas IA; que no podemos tener claro del todo hasta dónde «saben» y cuando se van a encontrar con una situación que las haga confundirse –con todas las consecuencias de eso si, por ejemplo, van conduciendo un coche–; o de si podemos asumir que sus decisiones van a ser éticas –¿según la ética de quién?– o morales –de nuevo, ¿según la moral e quién?–.

Aunque todo ello sin dudar de los beneficios del uso de la IA, que en realidad está mucho más metida en nuestras vidas de lo que pensamos.

Lo que la lleva a lo que ella llama la gran disyuntiva de la IA:

¿Deberíamos aceptar las capacidades de los sistemas de IA, que pueden mejorar nuestras vidas e incluso ayudar a salvarlas, y permitir que se empleen cada vez más? ¿O deberíamos ser más cautos, dados los errores impredecibles, la susceptibilidad a la parcialidad, la vulnerabilidad a los hackeos y la falta de transparencia en la toma de decisiones de la IA actual?

El libro termina con un capítulo dedicado a algunas de las preguntas más comunes sobre la inteligencia artificial y las respuestas y especulaciones que la autora puede dar, en un homenaje a Gödel, Escher, Bach, que incluía una sección similar.

Aunque Capitán Swing acaba de publicarlo en español en realidad se trata de un libro publicado en 2019. Acabé de leerlo la misma semana en la que OpenAI presentaba ChatGPT4o y pensé que igual los avances de este LLM podían dejar parte del libro desactualizado… Pero no. O no demasiado. Por mucho que ChatGPT4o a veces nos asombre con sus respuestas sigue tropezándose con cosas con las que ninguna persona se liaría.

Aún así me consta que Melanie Mitchell está trabajando en actualizar el libro, aunque no sé si será en forma de una nueva edición o en forma de contenidos que publicará en su blog. Pero mientras puedes leer esta entrevista sobre el libro en la que también habla de algunas de las cosas que han cambiado desde que fue publicado.

En cualquier caso, un libro absolutamente recomendable para cualquier ser pensante que quiera saber más de inteligencia artificial y de sí mismo, lo cual no es materia menor.

_____
El enlace a Amazon lleva nuestro código de asociado, así que si compras el libro o alguna otra cosa tras haberlo seguido es posible que cobremos algo en forma de comisión. Pero si lo compras en la librería de tu barrio nos parecerá estupendo.

Compartir en Flipboard Publicar / Tuitear
PUBLICIDAD


Por @Wicho — 12 de Junio de 2024

Definición de bazofia según la RAE
Definición de bazofia según la RAE

Ayer estaba leyendo una noticia que dice una cosa en el primer párrafo y la contraria en el siguiente. Y pensaba que había entendido algo mal… Hasta que llegué al final y vi una coletilla que decía «Este contenido se produjo parcialmente con la ayuda de herramientas de IA…» Y entonces lo entendí todo.

Así que me hizo gracia encontrar al cabo de un rato First Came ‘Spam.’ Now, With A.I., We’ve Got ‘Slop’. En él hablan de slop como un término que se está popularizando en inglés para referirse a los contenidos de pésima calidad producidos por la inteligencia artificial.

Y la verdad es que me parece muy adecuado: slop se traduce como bazofia, aquellos restos de comida o bebida que no se aprovechan y que en una granja se le dan típicamente a los cerdos. No sabía lo de las heces pero para algunos resultados de la IA es también muy adecuado.

Aunque en su versión en español, si triunfa, propondría escribirlo como bazofIA.

Relacionado,

Compartir en Flipboard Publicar / Tuitear
PUBLICIDAD


Por @Alvy — 8 de Junio de 2024

ChatGPT-4oDemian Ferreiro intentó hacer algunas pruebas con ChatGPT-4o generando pangramas, esas frases que contienen todas las letras del alfabeto al menos una vez, como las clásicas Jovencillo emponzoñado de whisky: ¡qué figurota exhibe! que se utilizan para probar las tipografías. El punto de partida es la idea de que los LLM (modelo de lenguaje grande) son muy buenos con las palabras y las letras… ¿O no?

Tal y como dice el propio Ferreiro, las pruebas acabaron siendo un ejercicio de futilidad. A las primeras preguntas respondió con El veloz murciélago hindú comía feliz cardillo y kiwi, donde faltan letras como la B, la J, la P y otras muchas. Repreguntado contestó con El veloz murciélago hindú comía feliz cardillo y kiwi. La cigüeña tocaba el saxofón detrás del palenque de paja, en el que además de ser dos frases todavía falta la Ñ. Finalmente propuso la del ejemplo, que es bien conocida, el Jovencito empozoñado…

Pero a partir de ahí fue incapaz de generar frases «originales» que no estuvieran ya en internet. Propuso El pingüino ñato y jovial, experto en boxeo, lanzó su eficaz jaque mate a la rápida bruja del volcán, donde faltan la H, K y W, sin darse cuenta de ello. En cualquier caso, ChatGPT da todas las respuestas con su clásica contundencia y seguridad, sin dudar siquiera, ni tampoco avisando de que puede ser falible, lo cual hace replantearse hasta que punto considerar válidas muchas de las frases.

Esto mismo lo he experimentado en primera persona al pedirle enlaces a referencias de datos verificados: puede soltarte una lista de diez páginas, PDFs o trabajos acerca de un tema… para que luego veas al intentar leerlos que la mitad están repetidos y son el mismo, que otro alto porcentaje están «404» (desaparecidos) y que tan solo quedan uno o dos que son los que ha tomado como base para sus elucubraciones.

Relacionado:

Compartir en Flipboard Publicar / Tuitear
PUBLICIDAD