Noticias de IA, 17 de diciembre de 2025

Resumen de noticias sobre IA: 17 de diciembre de 2025

💰 Amazon en conversaciones para invertir 10.000 millones de dólares en el desarrollador de ChatGPT

Según informes, Amazon está negociando una inversión de más de 10 000 millones de dólares en OpenAI. De concretarse, la valoración de OpenAI superaría los 500 000 millones de dólares. Se presenta como una combinación de financiación y alineación estratégica, además del factor motivador más simple: el hambre computacional.

El informe también sugiere que OpenAI podría apoyarse más en la capacidad de AWS y potencialmente comenzar a usar los chips Trainium de Amazon, básicamente convirtiendo esto en una línea de suministro para la próxima ola de escalamiento de modelos (o eso parece, estas conversaciones pueden tambalearse).
🔗 Leer más

🧑💻 Los desarrolladores ahora pueden enviar aplicaciones a ChatGPT

OpenAI ha abierto el envío de aplicaciones para su revisión y publicación dentro de ChatGPT, junto con un directorio de aplicaciones integrado donde se pueden explorar las aplicaciones destacadas o buscar cualquier aplicación publicada. Las aplicaciones se pueden activar durante una conversación mediante @menciones o seleccionar desde el menú de herramientas: un estilo muy similar a las aplicaciones, pero nativas del chat.

También están impulsando un SDK de aplicaciones (beta) y un conjunto de recursos para desarrolladores (ejemplos, biblioteca de interfaz de usuario, guía de inicio rápido). La monetización es cautelosa por ahora (principalmente enlaces para completar transacciones), pero es bastante evidente que OpenAI quiere que esto se convierta en un ecosistema real.
🔗 Leer más

🗞️ Presentamos OpenAI Academy para organizaciones de noticias

OpenAI lanzó un centro de aprendizaje dirigido a periodistas, editores y publicadores, desarrollado con socios como el Proyecto de Periodismo Americano y el Instituto Lenfest. La propuesta: capacitación práctica y manuales que ayudan a las redacciones a usar la IA sin socavar la confianza en el proceso.

El programa de lanzamiento de la Academia incluye "Fundamentos de IA para Periodistas", además de casos prácticos como investigación de antecedentes, traducción, análisis de datos y eficiencia de producción. También se hace especial hincapié en el uso responsable y la gobernanza interna, porque, sí, alguien tiene que redactar el documento de políticas que nadie quiere redactar.
🔗 Leer más

⚡ Gemini 3 Flash: inteligencia de vanguardia diseñada para la velocidad

Google lanzó Gemini 3 Flash como un modelo más rápido y rentable, y lo convirtió en el predeterminado en la app de Gemini y en el Modo IA de la Búsqueda. Su mensaje es básicamente "Razonamiento profesional, velocidad de Flash", lo cual suena a eslogan... pero también describe la competencia actual.

También se está implementando en plataformas para desarrolladores y empresas (Gemini API, AI Studio, Vertex AI y más). El subtexto, extrañamente importante: Google quiere este modelo en todas partes donde ya hay gente, por lo que los costos de cambio empiezan a sentirse como la gravedad.
🔗 Leer más

OpenUSD y NVIDIA Halos aceleran la seguridad de los robotaxis y los sistemas físicos de IA

NVIDIA está integrando estándares de simulación y flujos de trabajo de seguridad en una pila de IA física más coherente: robots y vehículos autónomos que deben sobrevivir al caos del mundo real. Un componente clave es la Especificación Básica OpenUSD 1.0, diseñada para que los procesos de simulación 3D sean más predecibles e interoperables entre herramientas.

En cuanto a la seguridad, NVIDIA destaca el Laboratorio de Inspección de Sistemas de IA de Halos (y su programa de certificación) para flotas de robotaxis, pilas de vehículos autónomos, sensores y plataformas. Entre los primeros participantes se encuentran Bosch, Nuro y Wayve, y Onsemi fue el primero en pasar la inspección: un momento memorable de "desbloqueo de insignia".
🔗 Leer más

El laboratorio de UC San Diego avanza en la investigación de IA generativa con el sistema NVIDIA DGX B200

El Laboratorio de IA Hao de la Universidad de California en San Diego recibió un sistema NVIDIA DGX B200 para impulsar la investigación sobre la inferencia LLM de baja latencia: el complejo mecanismo que determina si la IA se siente instantánea o espera una tostada. NVIDIA también señala que los sistemas de inferencia de producción como Dynamo se basan en conceptos del trabajo del laboratorio, incluido DistServe.

La historia se centra en la diferencia entre "buen rendimiento" y "rendimiento", básicamente, el rendimiento que aún cumple con los objetivos de latencia. También describen la división del prellenado y la decodificación entre diferentes GPU para reducir la interferencia de recursos, lo cual es un poco técnico, sí, pero es el tipo de detalle que cambia la experiencia de un producto.
🔗 Leer más

🏗️ Hut 8 firma un acuerdo de capacidad de 245 MW con Fluidstack como parte de una asociación de varios gigavatios con Anthropic

Hut 8 firmó un acuerdo a largo plazo por 245 MW de capacidad en su campus de River Bend, arrendando a la empresa de IA en la nube Fluidstack en una estructura valorada en 7000 millones de dólares (con opciones que podrían aumentarla aún más). Anthropic está vinculado como usuario final a través de una asociación más amplia: se trata de una infraestructura de criptominería que vuelve a la potencia de la IA, solo que… más grande.

También hay un derecho de primera oferta para hasta 1 GW adicional en River Bend, además de la participación financiera de los principales bancos y un respaldo de Google. Honestamente, todo esto suena como "La IA quiere energía y bienes raíces, y los quiere para ayer".
🔗 Leer más

Noticias de IA de ayer: 16 de diciembre de 2025

Encuentra la última IA en la tienda oficial de AI Assistant

Sobre nosotros

Volver al blog