Por @Alvy

El profesor Scott Aaronson lleva años trabajando en el apasionante y abstracto tema de la complejidad computacional y preparó un trabajo titulado Why Philosophers Should Care About Computational Complexity acerca de las implicaciones filosóficas que el asunto supone. Además de eso dio esta charla en el campus de la Universidad de Texas, en Austin, donde de forma más cercana y amigable se pueden descubrir todos estos temas relacionados con la computación:

  • La diferencia entre «conocer» la existencia de un número y poder calcularlo, utilizando números primos como ejemplo. No es lo mismo tener su representación concreta o un algoritmo eficiente para hallarlo que no poder tenerlo.
  • Funciones extremas y no computables. Algunas como la función del castor afanoso (busy beaver) o la función de Ackermann muestran estructuras tan enormes que superan la capacidad de toda la computación. Esto está relacionado con los trabajos de Turning y Gödel.
  • Interacción, entrelazamiento y verificación cuántica. Cuestiones complejas cuando hay dos observadores entrelazados: los protocolos de demostración y verificación para varios observadores y partículas cuánticas superan las barreras clásicas de verificación de la computación.
  • IA y aprendizaje profundo. De predecir a razonar: los LLM transforman la estadística en algo ingenioso, normalmente lenguaje natural. Al mismo tiempo, arrojan luz sobre cómo sufren de «alucinaciones», y prometen la mejora recursiva de sus propias capacidades.

Entre otros datos curiosos deja caer que el mayor primo conocido* es el 282.589.933−1, que el castor afanoso (5) = 47.768.870, con el (6) siendo como mínimo 10↑↑15 (esto es, una torre de potencias de altura 15 como cota inferior) y que la densidad de almacenamiento máxima del Universo es de unos 1069 bits por metro cuadrado de superficie, que está relacionada con la entropía del principio holográfico.

No espero que la computación se llegue a ejecutar en operaciones al ritmo del tiempo de Planck, ni que resuelva el problema de la parada, ni que demuestre que P=NP en tiempo polinómico. Saber de esas limitaciones aporta poco consuelo. Esto es porque, como en el chiste de los exploradores huyendo del oso, «no hace falta superar al oso, tan solo al compañero de huida». Del mismo modo, la IA no necesita vencer los límites fundamentales de la física para cambiar el mundo; basta con que nos supere a nosotros.»

– Scott Aaronson

Cada una de estas cuestiones, desde los límites del conocimiento de los números primos hasta la encrucijada de la conciencia artificial, es todo un terreno explorado someramente. La esperanza radica en la capacidad colectiva de hacernos preguntas ingeniosas, diseñar herramientas innovadoras y a veces de colaborar entre diversas disciplinas.

_____
* Aunque yo tengo el dato del 2136.279.841-1, no sé dónde está el error (?)

Relacionado:

Compartir en Flipboard Publicar
PUBLICIDAD


Por @Alvy

Un precioso plano de Silicon Valley en 1991, con todas las empresas que «no lo consiguieron» y algunas que sí

¡Ah, los tiempos cumbre de Valle del silicio*. Este precioso plano de Silicon Valley muestra la californiana zona donde se han asentado desde tiempos inmemoriales las empresas tecnológicas. Actualmente también es el título de una serie de «humor tecnológico» altamente recomendable. Aparte de eso ha dado nombre a un sinfín de variantes, incluyendo el Madrid Valley, el Málaga Valley y no se cuántos más.

En este formato gráfico, más parecido al plano de un parque de atracciones que a un plano de una ubicación real, se pueden ver carteles y leer nombres y logos de decenas de empresas. Puede ser todo un juego del tipo «A ver quién recuerda más…» de aquella época de los 80s y 90s… La mayoría de ellas están muertas. Así a simple vista, se ven que a mí me suenen:

  • Infoworld
  • Oracle
  • Hyundai
  • Fry’s Electronics (¡legendaria tienda!)
  • Digital
  • Foxconn
  • IBM
  • Sony
  • Unisys
  • Seagate
  • Siemens
  • Advanced Micro Devices (AMD)
  • Intel
  • Apple
  • Motorola
  • Seagate
  • Borland

Y ya paro porque si menciono más de los que conozco me sobrevendrá un ataque de viejunez.

Me da la impresión que algo de mapa geográfico tiene porque hay compañías como IBM o tiendas como el Fry’s que aparecen en dos lugares distintos, así que debían tener varias ubicaciones.

Además, la carretera gigante que baja desde San Francisco al norte parece ser la legendaria ruta 101. Alguna otra puede que sea El Camino Real, entre los informáticos conocida coloquialmente como El Camino Bignum, por aquello de que así «tendría más precisión» (los bignum permiten más números que los enteros y los reales, en la notación del lenguaje LISP).

_____
* Hay que aprovechar para recordar que en Panorama para matar (1985), la que fuera última película de Roger Moore de la saga 007, llamaban a la zona «El valle de la silicona», en una traducción tan aberrante como incorrecta.

(Vía MaranathahAmen en Reddit.)

Compartir en Flipboard Publicar
PUBLICIDAD


Por @Alvy

Cómo funciona la caché: un tutorial introductorio muy didáctico y completo

En PlanetScale hay un estupendo tutorial, casi un minicurso, dedicado a la caché: conceptos importantes, definiciones, tipos… Y es que caché (o «memoria caché») hay más de una, y de hecho a veces ni siquiera es memoria sino discos, proxies y otros sistemas que buscan un efecto similar.

Recuerdo que la primera vez que oí hablar de memoria caché, en la era de los primeros PCs, me fui al diccionario, a ver qué era aquello. En castellano el equivalente sería zulo, aunque la acepción moderna (aparte de «la caché de los artistas», una forma de remuneración) es ya «memoria de acceso rápido que almacena datos a los que se accede con frecuencia». Proviene del francés y el inglés donde cachier/cache es un escondrijo para guardar pieles, provisiones u otras cosas.

A continuación, un resumen de los conceptos más importantes sobre cacheo tratados en el artículo:

  • Principios básicos: combinar almacenamiento lento y económico (por ejemplo, disco duro) con uno rápido aunque más caro (por ejemplo, memoria RAM) para guardar en este último los datos más usados.
  • Tasa de aciertos (hit rate). Porcentaje de aciertos que conllevan el uso de la caché sin acceder al almacenamiento lento.
  • Cachés en el MundoReal™. Caché por niveles: L1, L2 y L3 en la CPU (cada vez más grandes y lentas). La RAM como caché de disco, los discos duros o SSD como almacenamiento.
  • Localidad temporal. Los datos usados recientemente tienden a solicitarse de nuevo.
  • Localidad espacial. Al acceder a ciertos datos es probable que se soliciten los adyacentes (p. ej., fotos en álbumes) lo cual permite precargarlos para anticiparse a futuras lecturas y ganar velocidad.
  • Caché geoespacial. Es la latencia física: la distancia entre el usuario y el servidor, que influye en la velocidad percibida (p. ej., 10–20 ms en EE.UU. de costa a costa frente a 250 ms en otro continente). Las CDN distribuidas globalmente actúan como cachés globales, atendiendo peticiones desde los nodos más cercanos.
  • Políticas de reemplazo. Cuando la caché está llena hay que decidir de qué elemento prescindir. Esto puede emplear el método LIFO (Last In, First Out) que expulsa el último añadido; LRU (Least Recently Used), que expulsa el usado menos recientemente usado (habitual); Time-Aware LRU, que añade caducidad temporal (p. ej., posts sociales tras 48 h); LFU o incluso con algoritmos a medida.
  • Cacheo en bases de datos (Postgres y MySQL). Explicaciones someras.

Entender todo esto aunque no se vaya a profundizar técnicamente está bien para hacerse una idea de las diferentes ideas y políticas que se pueden seguir al respecto, dado que la caché está presente a todos los niveles (CPU, RAM, aplicaciones en la nube, CDNs, bases de datos) y optimizar su funcionamiento requiere buscar el equilibrio entre coste, capacidad y velocidad.

Relacionado:

Compartir en Flipboard Publicar
PUBLICIDAD


Por @Alvy

¿Saben aquel que clasificó el mundo en siete trozos…? Y se perdió entre tantos trozos de Tierra

Jon Pauluritis tiene algunas disquisiciones personales pero interesantes sobre por qué se dice que hay cuatro, cinco, seis, siete o n continentes y los expertos no terminan en ponerse de acuerdo ni fijar una cifra. Así que puede considerarse una buena pregunta de Trivial con trampa.

Generalmente cuando se habla de 4, 5, 6 o 7 continentes se refieren a:

  • 4 continentes: África, Eurasia, América, Oceanía
  • 5 continentes: África, Asia, Europa, América, Oceanía
  • 6 continentes: África, Asia, Europa, América, Oceanía, Antártida
  • 7 continentes: África, Antártida, Asia, Europa, América del Norte, América del Sur, Oceanía

Pero como puede verse en la imagen se puede ampliar la definición a decenas de ellos, según diversos criterios: el tamaño, si hay gente habitándolo (esto elimina la Antártida), si la placa tectónica es en su mayor parte agua o tierra… Lo de que Europa sea o no sea es fruto de mucho debate, porque parece más un rollo político, tradicional e histórico que físico.

A mi me lo enseñaron en la escuela con cinco, y por supuesto el criterio válido considero que es del Risk: seis continentes, aunque con las Américas separadas en Norte y Sur y sin Antártida.

Para ver el caos clasificatorio basta considerar una forma de dividir el planeta que tiene ni más ni menos que 11 continentes: África, Antártida, Asia, Europa, América del Norte, América del Sur, Oceanía, Zealandia, India, Península Arábiga, Groenlandia. A todo esto Zealandia, del que quizá nunca hayas oído hablar, es un continente casi sumergido en el que está Nueva Zelanda.

¡Tanto trozo de Tierra y una clasificación tan confusa! Desde luego geólogos y geógrafos tienen entretenimiento para rato.

Relacionado:

Compartir en Flipboard Publicar
PUBLICIDAD