Noticias de IA, 28 de enero de 2026

Resumen de noticias sobre IA: 28 de enero de 2026

🧬 DeepMind lanza AlphaGenome para detectar factores genéticos de enfermedades

DeepMind presentó AlphaGenome, un sistema de IA diseñado para predecir cómo las mutaciones del ADN alteran la regulación genética: básicamente, cuándo, dónde y con qué intensidad se activan los genes. Puede escanear grandes extensiones de ADN de una sola vez, incluyendo las extensas regiones no codificantes que a menudo parecen materia oscura biológica.

La propuesta es bastante directa: una identificación más rápida de las mutaciones realmente importantes para cuestiones como el riesgo de cáncer y las enfermedades hereditarias complejas. Si funciona como se anuncia, los investigadores dedicarán menos tiempo a adivinar y más a probar los factores adecuados, lo cual parece obvio, pero en esencia es todo el proceso.

🧑💼 La inteligencia artificial costará empleos, admite Liz Kendall

La secretaria de tecnología del Reino Unido afirmó abiertamente que la adopción de la IA provocará pérdidas de empleo, algo que no refleja la típica actitud de "todo irá bien, lo prometo". Señaló la ansiedad generada por las vacantes para recién graduados en áreas como derecho y finanzas, y no pretendió que exista una cifra considerable que cualquiera pueda ofrecer.

Al mismo tiempo, el gobierno está apostando con fuerza por la adaptación: un gran esfuerzo para capacitar a millones de trabajadores en habilidades básicas de IA, con el objetivo de que el Reino Unido adopte la IA más rápidamente. Es la clásica tensión: sí, los empleos desaparecen, sí, los empleos aparecen, no, no habrá una transición fluida.

🗞️ Reino Unido presiona a Google para que permita que los sitios web no participen en las descripciones generales de IA

Los reguladores de la competencia del Reino Unido propusieron cambios que permitirían a los editores optar por que su contenido no se utilice en las Reseñas de IA de Google, ni para entrenar modelos de IA independientes, sin ser penalizados en las clasificaciones de búsqueda habituales. Ese principio de "sin ser penalizado" está teniendo mucho éxito en este caso.

La idea es reequilibrar el poder a medida que los resúmenes de IA redefinen cómo la gente hace clic (o no). La respuesta de Google fue básicamente: el comportamiento de búsqueda está cambiando, estamos considerando más controles, pero no descompongamos el producto en una versión fragmentada y extraña… lo cual, justo, pero también conveniente.

🛡️ Cómo mantener sus datos seguros cuando un agente de IA hace clic en un enlace

OpenAI detalló un riesgo de seguridad específico para un agente: la exfiltración de datos basada en URL, donde un atacante engaña a una IA para que cargue una URL que incrusta información privada en la cadena de consulta. Incluso si el modelo nunca revela el secreto, la propia solicitud puede filtrarlo. Un comportamiento desagradable y sorprendentemente poco tecnológico.

Su mitigación es una regla simple con límites definidos: los agentes solo deben recuperar automáticamente URLs que ya sean públicas y cuya existencia se sepa mediante un índice web independiente. Si un enlace no se verifica como público, el sistema debe ralentizarse y devolver el control al usuario mediante advertencias: una fricción deliberada, pero de las buenas.

🇪🇺 El próximo capítulo de la IA en la UE

OpenAI publicó un plan centrado en la UE que plantea un problema de "exceso de capacidad": los modelos pueden hacer más de lo que las personas y las empresas utilizan actualmente, y esa brecha corre el riesgo de generar ganancias desiguales entre países. Es como tener un coche de carreras y solo conducirlo hasta la tienda de la esquina... solo que la tienda de la esquina representa toda tu economía.

Junto a la retórica, hay elementos concretos: un programa que busca capacitar a miles de pymes europeas en habilidades de IA, una subvención vinculada a la investigación sobre seguridad y bienestar juvenil, y una postura ampliada de "colaboración con los gobiernos". Es en parte un memorando político, en parte una campaña de adopción, y sí, todo se confunde.

🔐 El riesgo de la IA se encuentra con la gobernanza cibernética: Borrador del perfil de IA cibernética del NIST

Un nuevo borrador de perfil del NIST (basado en el análisis de un informe de un bufete de abogados) se centra en cómo las organizaciones deberían integrar la IA en la cibergobernanza, tanto para proteger sus propios sistemas de IA como para usarla para mejorar la ciberdefensa. Aunque voluntario en teoría, con el tiempo se convierte en algo esperado.

Los grupos de trabajo trabajan en temas como la protección de los componentes de IA y el despliegue de defensas basadas en IA, incluyendo consideraciones sobre la cadena de suministro y la automatización de tipo agente en los flujos de trabajo de respuesta. El objetivo es tratar la IA como una nueva superficie de ataque y un nuevo conjunto de herramientas, y no pretender que se anulen mutuamente.

Preguntas frecuentes

¿Qué es AlphaGenome de DeepMind y qué problema intenta resolver?

AlphaGenome es un sistema de IA que, según DeepMind, puede predecir cómo las mutaciones del ADN afectan la regulación genética: cuándo se activan los genes, dónde y con qué intensidad. Está diseñado para escanear grandes extensiones de ADN a la vez, incluyendo las regiones no codificantes, notoriamente difíciles de interpretar. El objetivo es ayudar a los investigadores a identificar qué mutaciones tienen mayor probabilidad de desencadenar enfermedades, para que las pruebas de laboratorio puedan centrarse en las pistas más prometedoras.

¿Cómo podría AlphaGenome ayudar a los investigadores a encontrar más rápidamente los factores genéticos que impulsan las enfermedades?

En muchos flujos de trabajo genéticos, el cuello de botella surge al reducir enormes listas de variantes a las pocas que alteran plausiblemente la actividad genética. La promesa de AlphaGenome es reducir estas conjeturas al predecir cómo mutaciones específicas podrían alterar la regulación en largas secuencias de ADN. Si estas predicciones se confirman, los equipos pueden priorizar los experimentos en torno a las variantes con mayor probabilidad de estar asociadas con el riesgo de cáncer o enfermedades hereditarias complejas, ahorrando tiempo en callejones sin salida.

¿La adopción de IA realmente costará puestos de trabajo en el Reino Unido y qué puestos corren mayor riesgo?

La secretaria de tecnología del Reino Unido, Liz Kendall, afirmó que la adopción de la IA provocará pérdidas de empleos y destacó la ansiedad generada por los puestos de trabajo para recién graduados. Señaló específicamente áreas como el derecho y las finanzas, donde las tareas iniciales de la carrera profesional podrían ser más automatizables. Al mismo tiempo, el gobierno está enfatizando la adaptación mediante capacitación a gran escala en habilidades básicas de IA, reconociendo que la transición podría resultar desigual incluso si surgen nuevos puestos.

¿Pueden los editores del Reino Unido optar por no participar en las Reseñas de IA de Google sin perder clasificaciones en las búsquedas?

Los reguladores de la competencia del Reino Unido han propuesto cambios que permitirían a los editores optar por que su contenido no se utilice en los resúmenes de IA de Google, ni para entrenar modelos de IA independientes, sin ser penalizados en las clasificaciones de búsqueda estándar. El objetivo es reequilibrar el poder a medida que los resúmenes de IA modifican el comportamiento de clic. Google ha señalado que está considerando más controles, al tiempo que advierte sobre la posibilidad de una experiencia de búsqueda fragmentada.

¿Cómo puede un agente de IA filtrar datos privados con solo hacer clic en un enlace?

OpenAI describió un riesgo de exfiltración de datos basada en URL en el que un atacante solicita a un agente de IA que obtenga un enlace que, sigilosamente, incrusta información confidencial en la cadena de consulta. Incluso si el modelo nunca repite el secreto en su salida, la propia solicitud puede transmitirlo. Una mitigación común consiste en añadir "fricción deliberada", como advertencias y requerir la confirmación del usuario cuando un enlace no se verifica de forma independiente como público.

¿Qué es el Borrador del Perfil de Inteligencia Artificial Cibernética del NIST y cómo cambia la gobernanza cibernética?

Un borrador del perfil del NIST (discutido mediante un análisis legal) define la IA como algo que debe protegerse y usarse en ciberdefensa. Agrupa el trabajo en temas como la protección de los componentes de IA, la gestión de los riesgos en la cadena de suministro y el despliegue de defensas basadas en IA, incluyendo flujos de trabajo de respuesta más automatizados y similares a los de un agente. Aunque nominalmente son voluntarios, este tipo de marcos a menudo se convierten en expectativas de facto, lo que impulsa a las organizaciones a integrar formalmente la IA en la gobernanza y los controles.

Noticias de IA de ayer: 27 de enero de 2026

Encuentra la última IA en la tienda oficial de AI Assistant

Sobre nosotros

Volver al blog