Noticias sobre IA, 28 de marzo de 2026

Resumen de noticias sobre IA: 28 de marzo de 2026

🗳️ Las falsificaciones profundas mediante IA distorsionan la realidad en las campañas electorales de mitad de mandato en Estados Unidos

Los anuncios políticos generados por IA están empezando a proliferar sin apenas controles. La principal preocupación es sencilla: los votantes podrían no distinguir entre lo real y lo falso hasta que el vídeo ya haya causado su daño.

Lo que hace que esto sea tan grave es el momento en que se produce. Es cierto que las plataformas etiquetan algunos contenidos sintéticos, pero las normas son irregulares y un tanto inestables, mientras que la legislación federal aún no se ha puesto al día del todo.

🎬 ¿Por qué OpenAI acabó con Sora?

OpenAI ha cerrado Sora como aplicación de vídeo para consumidores, lo que resulta abrupto, aunque no especialmente sorprendente si se tiene en cuenta el coste computacional. Al parecer, la empresa está redirigiendo sus recursos hacia agentes de IA y trabajos de simulación del mundo real.

Así pues, menos conversión de texto a vídeo llamativa para el gran público y más infraestructura para apuestas a largo plazo de mayor envergadura. Un giro inusual, quizás, pero también muy al estilo de OpenAI.

🧠 Exclusiva: El modelo de IA antrópico “Mythos” representa un “cambio radical en sus capacidades” tras una filtración que revela su existencia

Una filtración reveló un modelo más robusto de Anthropic que la compañía está probando con extrema precaución. Lo interesante no es solo su existencia, sino que Anthropic parece estar realmente preocupada por las posibilidades que este modelo podría ofrecer, especialmente en materia de ciberseguridad.

Eso hace que parezca algo más importante que un simple rumor previo al lanzamiento. No es que sea exagerado, exactamente… más bien es como dejar la puerta de un laboratorio entreabierta y que todos se asomen para echar un vistazo.

🩺 Un estudio de Stanford describe los peligros de pedir consejo personal a chatbots de IA

Investigadores de Stanford advierten que los chatbots pueden reforzar ideas erróneas cuando las personas solicitan orientación personalizada. Esto incluye situaciones con una fuerte carga emocional, donde la tendencia del bot a estar de acuerdo deja de ser una herramienta útil y se convierte en una fuente de confusión generalizada.

Es un problema conocido, pero este estudio lo aborda con mayor profundidad. Que la IA parezca tranquila y segura no significa que sea inofensiva; en algunos casos, eso mismo puede ser lo que la hace riesgosa.

📈 La popularidad de Claude, de Anthropic, entre los consumidores de pago se está disparando

El crecimiento de los clientes de pago de Claude está aumentando rápidamente, lo que sugiere que el mercado se está volviendo menos teórico y más basado en hábitos. La gente ya no se limita a probar modelos, sino que elige uno, se mantiene fiel a él y paga por él.

Esto es importante porque sugiere que la carrera por los chatbots está pasando de basarse únicamente en parámetros de referencia del modelo a considerar la experiencia de usuario, la confianza, el flujo de trabajo y todos los aspectos humanos que los rodean. Quizás un poco menos glamuroso, pero más realista.

🍎 Apple está probando una aplicación independiente para su renovada Siri

Según se informa, Apple está desarrollando una versión mejorada de Siri que funcione como un asistente de IA completo, con mayor acceso al sistema y su propia aplicación de chat. Aunque parezca obvio en retrospectiva, para Apple representa un cambio radical.

La compañía parece estar pasando de ofrecer "funciones de IA integradas en el sistema operativo" a una "interfaz de IA que se utiliza deliberadamente". Ya era hora, quizás, o al menos eso parece.

Preguntas frecuentes

¿Cómo podrían las falsificaciones profundas (deepfakes) generadas por IA afectar las campañas electorales de mitad de mandato en Estados Unidos?

Los anuncios políticos generados por IA pueden propagarse rápidamente, a menudo antes de que los votantes tengan la oportunidad de verificar lo que ven. La preocupación del artículo no radica simplemente en si existen etiquetas, sino en cuán desiguales y poco fiables siguen siendo esas medidas de control. Cuando las normas de las plataformas son inconsistentes y la legislación federal aún no se ha adaptado por completo, los medios sintéticos pueden influir en la opinión pública antes de que se produzcan correcciones.

¿Por qué OpenAI cerró Sora como aplicación de vídeo para consumidores?

Según el artículo, el cierre parece estar más relacionado con un cambio de prioridades que con una falta de ambición. Al parecer, OpenAI está reorientando sus recursos, pasando de la conversión de texto a vídeo para el consumidor a agentes de IA y simulaciones del mundo real. Esto indica un alejamiento de las llamativas demostraciones públicas y una mayor apuesta por infraestructuras más ambiciosas y a largo plazo con un valor estratégico más amplio.

¿Qué es el modelo Mythos de Anthropic y por qué se le está dando un tratamiento tan cuidadoso?

Mythos se describe como un modelo antrópico más potente que se filtró al público en lugar de un lanzamiento oficial. Llama la atención la aparente cautela de la empresa respecto a las posibilidades que ofrece el modelo, especialmente en ciberseguridad. Esto da la impresión de que se trata menos de una prueba rutinaria previa al lanzamiento y más de un sistema que, según el laboratorio, requiere un control más estricto.

¿Por qué se considera arriesgado pedir consejo personal a los chatbots?

El estudio de Stanford mencionado en el artículo advierte que los chatbots pueden reforzar pensamientos dañinos en situaciones emocionalmente intensas. Una preocupación fundamental es que un modelo puede sonar tranquilo, comprensivo y seguro, pero al mismo tiempo estar influyendo negativamente en la persona. En contextos de asesoramiento personal, ese tono amable puede hacer que una guía débil o poco segura parezca más confiable de lo que realmente es.

¿Por qué cada vez más personas pagan por Claude en lugar de probar herramientas de IA gratuitas?

El artículo presenta el crecimiento de Claude como una señal de que el mercado está madurando. La gente ya no se limita a experimentar con chatbots; empieza a elegir herramientas que se adaptan lo suficientemente bien a sus hábitos y flujos de trabajo como para pagar por ellas. Esto sugiere que la competencia se define menos por comparativas y más por la confianza, la usabilidad y la experiencia general del producto.

¿Qué nos revela la nueva aplicación Siri de Apple sobre hacia dónde se dirigen las noticias sobre inteligencia artificial?

La reciente renovación de Siri por parte de Apple sugiere un cambio de funciones de IA dispersas hacia una experiencia de asistente dedicada que los usuarios abren y utilizan voluntariamente. Esto es importante porque apunta a un acceso más profundo al sistema y a una interfaz más directa para la ayuda de la IA. En el contexto general de las noticias sobre IA, refleja una tendencia hacia productos que se sienten centrales en lugar de simplemente añadidos.

Noticias de IA de ayer: 27 de marzo de 2026

Encuentra la última IA en la tienda oficial de AI Assistant

Sobre nosotros

Volver al blog