Por @Alvy — 18 de Agosto de 2022

Foto (CC) Daniel Olah

En este artículo de la National Library of Medicine unos investigadores explican cómo decidieron examinar hasta qué medida afectaba la aleatoriedad (o falta de ella) de algunos generadores de números aleatorios (RNGs) a las simulaciones de Monte Carlo, un método utilizado habitualmente para recrear organismos biológicos, orgánicos y sintéticos. La conclusión fue que el tipo de generador utilizado puede suponer ciertos sesgos para los resultados.

Hemos simulado el butano líquido puro, el metanol y el polipéptido de alanina hidratado con la técnica de Montecarlo utilizando tres tipos de generadores de números aleatorios: el generador lineal congruente estándar (LCG), una modificación del LCG con aleatorización adicional utilizada en el software BOSS, y el generador «Mersenne Twister» de Matsumoto y Nishimura. Mientras que el uso de los dos últimos generadores de números aleatorios conduce a características físicas razonablemente similares, el LCG produce unos resultados significativamente diferentes.

Su recomendación es que una vez que se decida que se van a crear simulaciones aleatorias de este tipo se pruebe previamente con un sistema bien conocido (como el metanol líquido a 25 °C) para ver qué tal resulta.

{Traducción cortesía de DeepL. Foto: Daniel Olah.}

Relacionado:

Compartir en Flipboard Tuitear

PUBLICIDAD



Por @Alvy — 7 de Agosto de 2022

Foto (CC) Camilo Jimenez @ Unsplash

Vi una referencia a un trabajo de unos investigadores del departamento de Inteligencia Artificial aplicada a la medicina de la Universidad de Cambridge que publicaron un trabajo en el que explicaban cómo dieron con un método para seleccionar los pacientes que deben recibir órganos donados utilizando un algoritmo de inteligencia artificial que mejora el actual criterio humano, que dicho sea de paso se basa también en diversos modelos matemáticos como es lógico.

En pocas palabras: los investigadores descubrieron que el algoritmo de aprendizaje automático (llamado OrganITE) era capaz de producir mejores resultados en las simulaciones, que incluían una mezcla de datos reales de los últimos 26 años y datos imaginarios cuidadosamente equilibrados. Estas cosas son complicadas por cuestiones éticas y porque son muchos los factores a tener en cuenta: el tipo de órgano, lo raro que es, los años de vida que puede proporcionar al receptor, la posibilidad de rechazo, etcétera. El nuevo algoritmo consigue hacer una selección un tanto peculiar pero que maximiza el número total de años de vida de los receptores en su conjunto, algo que así dicho suena a buena idea y a algo socialmente aceptable sin problema.

Lo que observaron es que el algoritmo aprendió a ofrecer los nuevos órganos disponibles no sólo dependiendo de a quienes más puede beneficiar, sino también de la probabilidad de que aparezca un nuevo órgano similar en poco tiempo (un factor denominado «escasez de órganos»). Esto beneficia a quienes necesitan un órgano con ciertas características «raras» cuando se sabe que es probable que para otros pacientes que pudieran tener prioridad sobre el primero es probable que aparezcan otros órganos compatibles que no las tengan (y que no les hacen falta).

El trabajo es de hace un par de años, pero todavía se habla de él. De hecho, OrganITE no es el único: hay otros como OrganSync, OrganBoard y iTransplant que están enfocados al mismo campo de la medicina.

A mí me parece que si actualmente ya se utiliza un modelo matemático y este tipo de algoritmos es una mejora o ampliación sobre lo anterior, por qué no dejar en sus manos las decisiones. Al fin y al cabo, puede justificarse que el resultado es mejor para la sociedad en su conjunto. Eso sí, también deja ver la importancia de las inteligencias artificiales explicables (XAI) que sean capaces de dar buena cuenta del porqué de sus decisiones.

{Foto: (CC) Camilo Jimenez @ Unsplash.}

Compartir en Flipboard Tuitear

PUBLICIDAD



Por @Alvy — 4 de Agosto de 2022

Hojas verdes con lluvia (CC) Kyle Szegedi

La noticia apocalíptica del día que sin embargo mencionan solo así como de pasada en las noticias es que el agua de lluvia ya no es potable en ningún lugar del mundo debido a los agentes químicos perjudiciales para la salud que contiene. Y no es que esto suceda sólo cerca de zonas habitadas y muy contaminadas; se refiere al agua de lluvia de todas partes, incluyendo la Antártida, el último rincón virgen del planeta.

Los datos proceden de un estudio titulado Outside the Safe Operating Space of a New Planetary Boundary for Per- and Polyfluoroalkyl Substances (PFAS) (Fuera del espacio operativo seguro de un nuevo límite planetario para las sustancias perfluoroalcalinas y polifluoradas, PFAS). Las PFAS se conocen también como «sustancias químicas para siempre». En el trabajo los científicos han comparado las cifras actuales con las previstas y calculado el valor planetario global; los resultados anticipan el desastre si no se restringen las emisiones y producción de PFAS inmediatamente.

Lo más impactante tal vez es que los niveles de esas sustancias son menores en el agua potable que en la legendaria «agua pura de lluvia» que se recoge en muchos lugares, según comprobaron en Estados Unidos y Dinamarca. Por lo general en Europa sucede lo mismo: que los valores máximos recomendados por las autoridades se superan cuando se mide la concentración de PFAS en el agua de lluvia.

En otras palabras: agua para beber habrá, y el problema tiene solución, pero no de forma natural, ni barata, ni global. Como explican los científicos:

(…) es muy problemático que en todos los lugares de la Tierra en los que viven seres humanos las advertencias sanitarias propuestas recientemente no puedan alcanzarse sin una gran inversión en tecnología avanzada de limpieza.

Dicho de otro modo: hay que depurar el agua profusamente antes de consumirla, y de la idílica pureza del «agua fresca de lluvia recién caída del cielo» nos podemos ir olvidando.

_____
Foto (CC) PhotoAuthor @ Unsplash.

Compartir en Flipboard Tuitear

PUBLICIDAD



Por @Wicho — 29 de Julio de 2022

Impresión artística de la estructura de algunas proteínas - AlphaFold
Impresión artística de la estructura de algunas proteínas - AlphaFold

Hace un año AlphaFold publicaba una base de datos que incluía la estructura prevista de cerca de un millón de proteínas. Eso incluía todas las proteínas humanas y alguna que otra más. Pero acaba de publicar una actualización masiva de su base de datos que la multiplica por algo más de 200; ahora incluye la estructura casi todas las proteínas conocidas. Su uso es libre y gratuito.

Según la nota de prensa, «ahora incluye las estructuras predichas para plantas, bacterias, animales y otros organismos, lo que abre muchas nuevas oportunidades para que los investigadores utilicen AlphaFold para avanzar en su trabajo sobre temas importantes, como la sostenibilidad, la inseguridad alimentaria y las enfermedades olvidadas.»

Como comenté en su momento, disponer de esta base de datos es importantísimo, pues el funcionamiento de las proteínas depende su estructura 3D. Y conocerla es de gran interés para el estudio de su funcionamiento y por tanto para el estudio de nuestro organismo, de algunas enfermedades, y para el desarrollo de posibles tratamientos y fármacos. Con la ampliación, se abren muchísimas posibilidades más.

Antes de AlphaFold sólo podíamos determinar la estructura mediante técnicas como por ejemplo la cristalografía de rayos X o la criomicroscopía electrónica. Pero son procesos muy complicados y costosos tanto en tiempo como en recursos.

AlphaFold, por el contrario, lo que hace es aplicar técnicas de inteligencia artificial para predecir la forma de la estructura 3D de una proteína a partir de la secuencia de aminoácidos que la forman. Y aquí la palabra clave es predecir: en la primera versión de la base de datos de hace un año se estimaba que sólo el 38% tiene una probabilidad muy alta de que la predicción sea correcta. Y basta con que la posición de la predicción y la estructura real difieran en más de 0,3 ángstrom –un ángstrom es la diezmilmillonésima parte del metro: 0,0000000001 metros– como para que sus propiedades cambien. Y, de nuevo en la versión original de la base de datos, AlphaFold tiene una media de error de 1,6 ángstrom.

Pero en cualquier caso, como decía hace un año, las predicciones de AlphaFold son un avance importantísimo, ya que evitarán hacer muchas pruebas a ciegas y ayudarán a apuntar en la dirección adecuada el estudio de proteínas y el diseño de posibles tratamientos.

Compartir en Flipboard Tuitear

PUBLICIDAD