Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jorge Bravo Abad
Prof. of Physics @UAM_Madrid | Profesor Titular. PI of the AI for Materials Lab | Director del Laboratorio de IA para Materiales.
Doblar el espacio para igualar la energía: cómo la geometría logra que la predicción de la estructura molecular alcance la precisión química
Predecir la estructura 3D de una molécula—dónde exactamente se sitúa cada átomo en el espacio—es fundamental para la química computacional. Si lo equivocas un poco, tus cálculos energéticos pueden estar muy equivocados. El estándar de oro es la teoría del funcional de la densidad, pero la DFT es lenta y cara. El aprendizaje automático ofrece una ruta más rápida: entrenar un modelo para reducir el ruido de una suposición inicial aproximada y convertirla en una estructura precisa.
El problema es que la mayoría de los modelos de reducción de ruido operan en el espacio euclidiano ordinario, donde todas las direcciones se tratan por igual. Pero las moléculas no funcionan así. Estirar un enlace cuesta mucha más energía que girar alrededor de él. Distancias iguales en coordenadas cartesianas no significan cambios iguales de energía.
Jeheon Woo y sus coautores abordan este desajuste directamente. Construyen una variedad riemanniana—un espacio curvo con una métrica dependiente de la posición—diseñada para que la distancia geodésica se correlacione con la diferencia de energía. La métrica se construye a partir de coordenadas internas informadas por la física que ponderan las distancias interatómicas por la cantidad de energía que cuesta cambiarlas: los enlaces rígidos cuentan más que las torsiones blandas. Cuando comparan la distancia geodésica con la RMSD estándar, la correlación con la energía salta de 0,37 a 0,90.
Entrenar un modelo de reducción de ruido en este espacio curvo cambia lo que el modelo aprende. En el espacio euclidiano, añadir ruido isotrópico puede romper enlaces o crear geometrías imposibles—estructuras cientos de kcal/mol por encima del mínimo. En la variedad Riemanniana, la misma magnitud de ruido mantiene las moléculas químicamente sensibles, manteniéndose dentro del mismo pozo de potencial. El propio camino de desruido sigue geodésicas que rastrean la minimización de energía, no líneas rectas arbitrarias a través del espacio cartesiano.
Los resultados alcanzan el umbral que importa: la precisión química, definida como error energético inferior a 1 kcal/mol. En el benchmark QM9, el modelo Riemanniano alcanza un error mediano de 0,177 kcal/mol—aproximadamente un 20× mejor que las estructuras iniciales del campo de fuerza y significativamente mejor que la versión euclidiana. Cuando estas predicciones se utilizan como puntos de partida para el refinamiento de la DFT, el coste computacional se reduce a más de la mitad.
El punto más profundo: en la modelización molecular, la geometría del espacio de representaciones no es neutral. El espacio euclidiano trata todos los desplazamientos atómicos como equivalentes; El espacio riemanniano puede codificar la física. Cuando alineas la distancia geométrica con el coste energético, la reducción de ruido se convierte en optimización, y el modelo aprende a seguir la superficie de energía potencial en lugar de luchar contra ella.
Papel:

21
Desbloqueo de modelos de cimentación de celda única con un 96% menos de parámetros
Los modelos de lenguaje de gran tamaño de célula única (SCLLMs) han aprendido conocimientos biológicos notables de millones de células. Pero tienen una debilidad crítica: si las sacas de su contexto de entrenamiento—una nueva enfermedad, una especie invisible, una población celular no caracterizada—sus predicciones se vuelven poco fiables.
La solución estándar es el ajuste fino. Pero el ajuste fino sobrescribe los parámetros originales del modelo, causando un "olvido catastrófico" del conocimiento biológico preaprendido. Y es costoso computacionalmente, requiriendo recursos sustanciales de GPU que muchos investigadores simplemente no tienen.
Fei He y sus coautores proponen scPEFT—un marco de ajuste fino eficiente en parámetros que congela la columna vertebral original de scLLM y entrena solo adaptadores pequeños y de baja dimensión. Cuatro tipos de adaptadores (adaptador de token, adaptador de prefijo, LoRA, adaptador de codificador) encajan en diferentes partes de la arquitectura del modelo, aprendiendo ajustes específicos de la tarea sin tocar los pesos preentrenados.
Las mejoras de eficiencia son notables: scPEFT reduce los parámetros entreenables en más de un 96% y reduce el uso de memoria de la GPU a más de la mitad. Pero esto es lo que importa: en realidad funciona mejor que un ajuste fino completo. En conjuntos de datos específicos de enfermedades (NSCLC, MS, COVID-19), scPEFT logra mejoras en la precisión del 39,7–81,7% respecto a los modelos nativos y mejoras del 4,3–15% respecto a las versiones afinadas, precisamente porque preserva en lugar de sobrescribir conocimientos preentrenados.
El marco también permite la transferencia entre especies desde modelos entrenados por humanos: mejora del 14% en neuronas de ratón, 39% en células germinales de macacos y 144% en C. elegans, todo ello utilizando mapeos génicos ortologos. El análisis de atención identifica genes relacionados con la COVID en estados específicos de células T y revela subpoblaciones biológicamente relevantes invisibles para modelos finamente ajustados.
La implicación más amplia: a medida que los modelos de fundación proliferan en la biología, necesitamos formas eficientes de adaptarlos sin destruir lo que han aprendido. scPEFT muestra que a veces, actualizar menos significa aprender más.
Papel:

38
Arquitecturas inspiradas en la neurociencia para construir una IA verdaderamente adaptativa
Los sistemas modernos de IA son potentes pero frágiles. Entrena un modelo, despliégalo y observa cómo el rendimiento se deteriora a medida que el mundo cambia. Si te reentrenas con datos nuevos, el modelo olvida lo que sabía. Este ciclo produce sistemas que destacan en puntos de referencia estáticos pero que luchan por adaptarse de forma continua—algo que la inteligencia biológica gestiona sin esfuerzo.
Un ratón puede aprender a encontrar agua en un laberinto novedoso en unos diez intentos, una tasa de aprendizaje mil veces mayor que las tareas tradicionales de laboratorio. Sin embargo, nuestras redes neuronales más sofisticadas sufren un olvido catastrófico cuando se les pide aprender de forma secuencial.
El cerebro ofrece una arquitectura diferente. No funciona como una única red enredada, sino como módulos especializados inteligentemente interconectados: bordes de procesamiento de corteza visual, computación en la corteza motora en espacio de fuerzas, regiones prefrontales que rastrean memoria estructurada por tareas. Cada módulo construye modelos internos actualizados mediante errores de predicción cuando los resultados esperados divergen de la realidad. Estas señales de enseñanza se han descubierto ahora en circuitos sensoriales, motores y de recompensa.
Mackenzie Weygandt Mathis sintetiza estos conocimientos en una propuesta para la IA agentiva adaptativa. En lugar de perseguir modelos fundamentales monolíticos cada vez mayores, defiende sistemas de codificadores específicos de dominio cuyas salidas se optimizan conjuntamente en un espacio latente compartido. Cada codificador es monitorizado mediante señales de error de predicción: los codificadores robustos permanecen "bloqueados" mientras que los que muestran un rendimiento degradado se "desbloquean" para aprendizaje continuo usando reproducción de memoria o inteligencia sináptica, sin desconectar todo el sistema.
El principio más amplio: estructurando la IA en torno a la modularidad inspirada en la neurociencia y la actualización basada en errores en la predicción en lugar de a escala monolítica, se hace posible ir más allá de los modelos estáticos hacia una inteligencia genuinamente adaptativa—sistemas que refinan continuamente sus modelos del mundo a través de la interacción con él.
Papel:

65
Populares
Ranking
Favoritas
