Noticias de IA, 7 de marzo de 2026

Resumen de noticias sobre IA: 7 de marzo de 2026

🤖 El líder de hardware de OpenAI dimite tras un acuerdo con el Pentágono

Caitlin Kalinowski, directora de hardware y robótica de OpenAI, dimitió tras el acuerdo con el Pentágono, alegando que la medida no se debatió lo suficiente internamente antes de que se aprobaran los modelos para redes de defensa clasificadas. Su principal preocupación era bastante directa: la supervisión humana, los límites de la vigilancia y el riesgo de que la autonomía letal avanzara demasiado rápido. ( Reuters )

OpenAI afirma que el acuerdo incluye salvaguardias adicionales y aún prohíbe la vigilancia doméstica y el uso de armas autónomas. Aun así, la renuncia hace que todo parezca menos una simple actualización de política y más como una puerta cortafuegos que se cierra de golpe en medio de una reunión. ( Reuters )

🏗️ Oracle y OpenAI abandonan el plan de expansión del centro de datos de Texas, informa Bloomberg News

Según informes, Oracle y OpenAI han cancelado sus planes de expandir su gran centro de datos de IA en Abilene, Texas, tras prolongarse las negociaciones de financiación y cambiar las necesidades de computación de OpenAI. El sitio formaba parte del proyecto más amplio de infraestructura Stargate, por lo que se trata de un proyecto de gran envergadura. ( Reuters )

El campus existente sigue en funcionamiento, y las empresas afirman que la expansión multigigavatio continúa en otros lugares. Al mismo tiempo, la expansión abandonada podría abrir una vía para Meta, que, según se informa, ha considerado alquilar el sitio. La infraestructura de IA sigue avanzando como cemento fresco: pesada, costosa y nunca está del todo asentada. ( Reuters )

⚖️ El Pentágono designa a Anthropic como un riesgo para la cadena de suministro

El Pentágono calificó formalmente a Anthropic como un riesgo para la cadena de suministro, restringiendo el uso de Claude en los contratos del Departamento de Defensa después de que la compañía se negara a flexibilizar las salvaguardias contra las armas autónomas y la vigilancia masiva. Ese es el meollo del asunto: una disputa por adquisiciones que se convirtió en una disputa de valores mucho más amplia. ( Reuters )

Anthropic afirma que la medida no es legalmente sólida y planea impugnarla en los tribunales. La designación es inusualmente severa para un laboratorio estadounidense de inteligencia artificial, y se produce en medio de una división más amplia sobre si las empresas de modelos de vanguardia deberían incluir normas más estrictas en los contratos de defensa o confiar en la legislación vigente para lograr el objetivo... algo a lo que no todos están dispuestos. ( Reuters )

💬 Meta permitirá rivales de IA en WhatsApp para evitar medidas de la UE

Meta afirma que permitirá el uso de chatbots de IA rivales en WhatsApp en Europa durante un año, utilizando la API Business, tras la presión de los reguladores antimonopolio de la UE. Los competidores se habían quejado de que Meta los bloqueaba en la práctica mientras favorecía a su propio asistente, un detalle polémico, dada la centralización de la distribución en IA. ( Reuters )

El problema es que el acceso conlleva un coste, y los críticos argumentan que esto deja a los rivales más pequeños en desventaja. Los reguladores están decidiendo si esa concesión es suficiente, por lo que esto se lee menos como un tratado de paz y más como un botón de pausa envuelto en papeleo. ( Reuters )

📜 xAI pierde intento de detener ley de divulgación de datos de IA en California

xAI perdió su intento de bloquear una ley de California que exige a las empresas de IA revelar más sobre los datos utilizados para entrenar sus modelos. La negativa del tribunal a detener la ley significa que xAI ahora enfrenta la misma presión de transparencia que otros desarrolladores de modelos han intentado, a veces con torpeza, evadir. ( Reuters )

Esto es importante porque las disputas sobre los datos de entrenamiento ya no son solo académicas o relacionadas con los derechos de autor, sino que se están convirtiendo en un problema de cumplimiento normativo. Para xAI, que ya lidia con repetidas controversias de seguridad en torno a Grok, esto añade un peso adicional a la mochila. ( Reuters )

Preguntas frecuentes

¿Por qué el responsable de hardware y robótica de OpenAI dimitió tras el acuerdo del Pentágono?

Caitlin Kalinowski renunció porque consideró que la decisión de autorizar los modelos para las redes de defensa clasificadas no recibió suficiente deliberación interna. Sus preocupaciones se centraban en la supervisión humana, los límites a la vigilancia y el riesgo de que la autonomía letal avanzara demasiado rápido. OpenAI afirmó que el acuerdo aún prohíbe la vigilancia nacional y el uso de armas autónomas, pero la renuncia sugiere que el debate interno no se había resuelto por completo.

¿Qué significa realmente que el Pentágono califique a Anthropic como un riesgo para la cadena de suministro?

Esto significa que el uso de Claude quedaría restringido en los contratos del Departamento de Defensa, lo cual representa un importante revés en materia de adquisiciones. Según el artículo, la disputa se centra en la negativa de Anthropic a debilitar las salvaguardias relacionadas con las armas autónomas y la vigilancia masiva. Anthropic afirma que la designación carece de solidez legal y planea impugnarla, por lo que esto podría convertirse tanto en una batalla legal como en una prueba de política.

¿Por qué es importante la expansión cancelada del centro de datos de Texas en las noticias de la industria de la IA?

La expansión abandonada de Abilene es importante porque formaba parte del impulso más amplio de infraestructura de Stargate, lo que la vincula a la planificación a largo plazo de la computación de IA. Reuters informa que el campus actual sigue funcionando, pero los retrasos en la financiación y las cambiantes necesidades de computación llevaron a Oracle y OpenAI a abandonar la expansión. Esto también demuestra la rapidez con la que las grandes inversiones en infraestructura de IA pueden cambiar, incluso cuando el desarrollo general continúa en otros lugares.

¿Por qué Meta permite que chatbots de inteligencia artificial rivales ingresen a WhatsApp en Europa?

Meta tomó la decisión tras la presión de los reguladores antimonopolio de la UE y las quejas de que favorecía a su propio asistente mientras limitaba a sus competidores. El acceso es temporal y se ejecuta a través de la API empresarial, por lo que no constituye una política de puertas abiertas total. Se siguen aplicando tarifas, lo que significa que los competidores más pequeños podrían seguir enfrentándose a desventajas prácticas incluso después de la concesión.

¿Qué significa la ley de divulgación de datos de entrenamiento de IA de California para xAI?

La negativa del tribunal a bloquear la ley implica que xAI ahora debe afrontar requisitos adicionales de transparencia en torno a los datos de entrenamiento. Esto es importante, ya que los desarrolladores de modelos a menudo han intentado evitar la divulgación detallada, especialmente cuando la procedencia de los datos es sensible o controvertida. En la práctica, los datos de entrenamiento se están convirtiendo en un problema de cumplimiento activo, en lugar de seguir siendo un debate sobre normas de investigación o riesgos de derechos de autor.

¿Cuál es la conclusión más importante que se desprende de las noticias de la industria de la IA de esta semana?

El denominador común es que la IA se ve influenciada menos por los lanzamientos de productos y más por la gobernanza, la infraestructura y la regulación. Las alianzas en defensa generan conflictos internos, la expansión computacional resulta costosa y fluida, y los reguladores presionan con más fuerza en materia de acceso y divulgación. En OpenAI, Anthropic, Meta y xAI, el artículo señala una industria que se ve obligada a visibilizar sus concesiones.

Noticias de IA de ayer: 6 de marzo de 2026

Encuentra la última IA en la tienda oficial de AI Assistant

Sobre nosotros

Volver al blog