🍏 Apple y Google firman un acuerdo con Gemini para una Siri renovada, una importante victoria para Alphabet ↗
Apple está preparada para usar los modelos Gemini de Google para una Siri renovada, en el marco de un acuerdo plurianual que básicamente promete "una carrera armamentística de IA, pero cordial". Además, coloca los modelos de Google por delante de la enorme base de dispositivos de Apple, que es... de muchos bolsillos.
Lo interesante: esto no significa necesariamente que Apple esté totalmente comprometida con un solo modelo; es más bien como si Siri se convirtiera en una capa de enrutamiento, y el mejor proveedor de respuestas ganara por tarea. Limpio en teoría, complicado en la práctica.
💬 Meta excluirá a Italia de la prohibición de chatbots rivales en WhatsApp ↗
Meta está excluyendo a Italia de su plan de bloquear chatbots de IA rivales en WhatsApp, no porque se haya relajado repentinamente, sino porque los reguladores quieren una revisión más exhaustiva. Así que la idea de la "prohibición" sigue vigente, solo que con una excepción a nivel nacional.
La mayor lucha es el poder de la plataforma: si los rivales no pueden integrarse en WhatsApp, Meta AI tiene un campo de juego más libre. Y si eres un competidor, esa es toda la queja en una sola frase.
🏛️ Declaración del Secretario de Estado ante la Cámara de los Comunes: 12 de enero de 2026 ↗
El secretario de Ciencia y Tecnología del Reino Unido se dirigió a la Cámara de los Comunes con un enfoque claro en los daños asociados al contenido generado por IA, especialmente los deepfakes sexuales no consensuados. El tono no es "riesgo futuro", sino "esto está sucediendo, es vil y es ilegal"
Es uno de esos momentos en los que la política de IA deja de ser un debate y se convierte en una cuestión de cumplimiento, responsabilidad de la plataforma y qué se elimina (o no). Incómodo, pero necesario.
🧑💻 La IA está provocando que los desarrolladores abandonen Stack Overflow ↗
El tráfico y el volumen de preguntas de Stack Overflow siguen bajando, y el artículo argumenta lo obvio: muchos desarrolladores ahora solicitan primero un LLM. Y, siendo francos, algunos se cansaron de que los regañaran por no formatear una pregunta como un informe legal.
Es un cambio de hábito, más que el fallo de una sola plataforma. La gente sigue necesitando respuestas; solo que las obtienen de una ventana de chat en lugar de un hilo... hasta que aparece el duende de la alucinación.
🤖 El modelo de IA corporal mejor valorado de RoboChallenge se vuelve de código abierto, desafiando el paradigma de la recopilación de datos limpios ↗
Spirit AI afirma que su modelo de visión-lenguaje-acción, Spirit v1.5, superó el benchmark de RoboChallenge, y están publicando el modelo base, las ponderaciones y el código de evaluación. Me encanta la energía de "aquí, reprodúcelo": es poco común y discretamente refrescante.
Su argumento es que los datos del mundo real, diversos y orientados a objetivos, pueden superar las demostraciones impecables, porque los robots necesitan comportamiento de recuperación y casos extremos complejos, no solo carreras perfectas. Es como entrenar a un conductor solo los domingos soleados... te arrepentirás la primera vez que llueva.
Preguntas frecuentes
¿Qué significa realmente el acuerdo de Gemini con Siri renovado para los usuarios de iPhone?
Esto implica que Siri podría aprovechar los modelos Gemini de Google para gestionar más solicitudes como parte de una experiencia renovada. En el uso diario, esto probablemente se refleje en respuestas más contundentes para tareas que se benefician de modelos de lenguaje extensos, en lugar del clásico estilo de asistente de comando y control. El cambio más importante se encuentra en segundo plano: Siri funciona más como una capa de orquestación, seleccionando qué modelo debe gestionar cada solicitud.
¿Apple apostará todo por Google Gemini para Siri o podrá cambiar de modelo?
La configuración descrita no implica un bloqueo de un solo modelo. Siri se posiciona como una capa de enrutamiento donde el "mejor proveedor de respuestas" puede variar según la tarea, lo que permite la compatibilidad con múltiples modelos o proveedores. Esta flexibilidad puede mejorar la calidad, pero también introduce una complejidad operativa real en cuanto a la consistencia, la latencia y la decisión sobre qué modelo debe gestionar consultas sensibles o de alto riesgo.
¿Por qué el acuerdo con Gemini para el renovado Siri se considera un gran triunfo para Alphabet?
Si los modelos Gemini impulsan partes de Siri, la IA de Google gana visibilidad gracias a la enorme base de dispositivos de Apple. Esta distribución es importante, especialmente en un sector donde la adopción se basa en los valores predeterminados y la conveniencia. Incluso si Siri se enruta entre modelos, ser una opción predeterminada dentro del ecosistema de Apple ayuda a Google a mantener un lugar central en la competencia de la IA para el consumidor.
¿Qué está pasando con Meta y el plan para bloquear los chatbots de IA rivales en WhatsApp?
Según informes, Meta está preparando límites para los chatbots de IA rivales dentro de WhatsApp, con Italia excluida de esta medida por ahora. La razón aducida es el escrutinio regulatorio: Italia se convierte en una excepción a nivel nacional mientras los reguladores la examinan más de cerca. La tensión general gira en torno al poder de la plataforma: si WhatsApp debería permitir que los competidores se conecten o si Meta AI obtiene acceso preferencial.
¿Qué destacó el gobierno del Reino Unido sobre los daños generados por IA, como los deepfakes sexuales?
La declaración subrayó los daños asociados al contenido generado por IA, con especial énfasis en los deepfakes sexuales no consensuados. El problema no se planteó como un riesgo hipotético y lejano, sino como un problema actual y grave con implicaciones legales y de cumplimiento. Este enfoque tiende a centrar la atención en las eliminaciones, la responsabilidad de la plataforma y la rapidez con la que se detecta y elimina el material dañino.
¿Por qué los desarrolladores usan menos Stack Overflow y cuál es la desventaja?
El artículo argumenta que más desarrolladores solicitan primero un LLM, lo que reduce la necesidad de publicar preguntas y esperar respuestas. También señala un factor cultural: algunos desarrolladores se cansaron de ser criticados por el formato o por preguntas incorrectas. La contrapartida es la fiabilidad: las respuestas por chat pueden ser rápidas, pero las alucinaciones y las instrucciones sin verificar pueden generar errores sutiles a menos que los resultados se validen.