Noticias de IA, 17 de enero de 2026

Resumen de noticias sobre IA: 17 de enero de 2026

⚖️ Musk busca hasta 134.000 millones de dólares de OpenAI y Microsoft

Elon Musk ahora busca un pago caricaturesco, argumentando que tiene derecho a enormes ganancias ilícitas vinculadas a OpenAI y Microsoft. La demanda, en esencia, dice: "Ayudé pronto, ustedes se beneficiaron enormemente, paguen".

OpenAI y Microsoft están resistiendo la demanda por daños y perjuicios, y la lucha se encamina hacia un juicio que ya se siente… picante. Es menos un "drama de laboratorio nerd" y más un "divorcio corporativo con hojas de cálculo"

Como mínimo, es un recordatorio de que el auge de la IA no se limita a modelos y puntos de referencia: también genera demandas, rencores y trámites muy costosos.

🕵️ California investiga a la empresa de inteligencia artificial de Elon Musk tras una 'avalancha' de quejas sobre contenido sexual

El fiscal general de California investiga si una herramienta de edición de imágenes con inteligencia artificial vinculada a la empresa de Musk infringe la ley, tras una avalancha de quejas sobre contenido sexual. El enfoque es simple: qué se genera, con qué facilidad y si infringe la ley estatal.

Se está observando un patrón familiar: las potentes herramientas de creación se enfrentan a barreras débiles, y luego los reguladores aparecen con el ceño fruncido. A veces, ese ceño fruncido se convierte en imposición, o al menos eso parece.

Esto también saca el “despliegue responsable” del marketing y lo lleva al mundo real, donde las personas sufren daños y a nadie le importan sus afirmaciones de seguridad basadas en vibraciones.

💸 OpenAI probará anuncios en ChatGPT para aumentar sus ingresos

OpenAI afirma que comenzará a probar anuncios dentro de ChatGPT para algunos usuarios, con el objetivo de generar más ingresos para cubrir los elevados costos de desarrollo y operación de estos sistemas. La compañía afirma que los anuncios no modificarán las respuestas ni compartirán datos de los usuarios con los anunciantes.

Aun así, los anuncios en un asistente de chat suponen un cambio psicológico peculiar, como si tu servicial bibliotecario de repente llevara una insignia de patrocinador. Aunque solo aparezcan en ciertas ubicaciones, la gente lo nota.

Los analistas ya están insinuando el riesgo obvio: si la experiencia se siente ruidosa o comprometida, los usuarios pueden y lo harán a otro lado.

🚫 La legislatura de Washington escucha un proyecto de ley que busca regular el uso de IA en las escuelas públicas

Los legisladores del estado de Washington están impulsando un proyecto de ley que restringiría ciertos usos de la IA en las escuelas públicas, con especial atención a aspectos como la disciplina, los datos estudiantiles y la toma de decisiones automatizada. La preocupación no es abstracta: se trata de que los niños queden atrapados en sistemas opacos.

También es una admisión práctica: la «IA en la educación» no es automáticamente útil, y a veces es simplemente vigilancia encubierta. Puede sonar duro... pero ya se entiende la idea.

Si esto se aprueba, probablemente determinará lo que los proveedores pueden vender a los distritos y cómo las escuelas justifican cualquier flujo de trabajo impulsado por IA que afecte a los estudiantes.

📜 Legislador de Oklahoma presenta tres proyectos de ley para regular la IA

Un legislador de Oklahoma presentó tres proyectos de ley para añadir salvaguardas al uso de la IA en el estado. El objetivo es la moderación: establecer normas sobre dónde y cómo se puede usar la IA.

Medidas estatales como esta pueden parecer insignificantes comparadas con los grandes marcos federales o de la UE, pero se acumulan rápidamente, como un montón de papeleo. El "sentido común" de un estado se convierte en un problema de cumplimiento para otro.

Además, el mero hecho de presentar múltiples proyectos de ley indica lo mismo que todo el mundo piensa en silencio: la IA ya está en lugares en los que tal vez no debería estar, y nadie quiere ser el último en reaccionar.

🚨 Elon Musk criticado por el Fiscal General de Michigan por su "modo picante" Grok

El fiscal general de Michigan advierte a Musk y a xAI sobre una función de Grok que supuestamente se usa para generar pornografía deepfake ilegal. El mensaje dice algo como: desactiven la función o intensificaremos la situación.

Esto se encuentra justo en la desagradable intersección entre la capacidad generativa y el abuso a gran escala, y no es precisamente un daño teórico. Una vez que una herramienta facilita algo, internet lo someterá a pruebas de estrés de la peor manera posible.

Si más estados empiezan a adoptar esta postura, las empresas podrían descubrir que las “características innovadoras” dejan de ser un diferenciador del producto y empiezan a ser un lastre importante.

Preguntas frecuentes

¿Qué pide Elon Musk en la demanda entre OpenAI y Microsoft?

Busca obtener hasta 134 000 millones de dólares por lo que describe como "ganancias ilícitas" vinculadas a OpenAI y Microsoft. El argumento principal es el siguiente: ayudó desde el principio, las empresas se beneficiaron enormemente y debería recibir la compensación correspondiente. OpenAI y Microsoft se oponen a la demanda por daños y perjuicios. La disputa se encamina hacia un juicio, lo que aumenta las consecuencias para todos los implicados.

¿Tiene Musk un camino realista para cobrar “ganancias indebidas”?

En casos como este, la cuestión central es si el tribunal acepta que las ganancias se obtuvieron indebidamente y que el demandante tiene derecho a una reparación específica. OpenAI y Microsoft impugnan la reclamación por daños y perjuicios, lo que sugiere que creen que la teoría legal, o las cifras, no se sostienen. Estos litigios suelen volverse técnicos y con una gran carga documental. Un calendario de juicios también puede aumentar la presión para llegar a un acuerdo, o al menos para reducir las reclamaciones.

¿Por qué California investiga una herramienta de edición de imágenes con inteligencia artificial sobre contenido sexual?

El fiscal general de California investiga una herramienta de edición de imágenes con inteligencia artificial vinculada a la empresa de Musk tras una avalancha de quejas sobre contenido sexual. El enfoque es práctico: qué puede generar la herramienta, con qué facilidad lo hace y si esto traspasa los límites legales de la legislación estatal. Este es el patrón habitual donde la capacidad supera las barreras. El escrutinio regulatorio tiende a intensificarse cuando el daño se percibe como escalable y repetible.

¿Cómo funcionarán los anuncios en ChatGPT y afectarán las respuestas?

OpenAI afirma que comenzará a probar anuncios en ChatGPT para algunos usuarios, principalmente para ayudar a cubrir los altos costos de desarrollo y operación de sistemas de IA. La postura de la compañía es que los anuncios no cambiarán las respuestas y que los datos de los usuarios no se compartirán con los profesionales del marketing. Aun así, los anuncios dentro de un asistente de chat pueden parecer una pérdida de confianza. Los analistas ya advierten el riesgo de que una experiencia más ruidosa pueda llevar a los usuarios a buscar otras opciones.

¿Qué tipos de regulación de la IA están considerando Washington y Oklahoma?

En el estado de Washington, los legisladores presentaron un proyecto de ley que busca regular el uso de la IA en las escuelas públicas, especialmente en materia de disciplina, datos estudiantiles y toma de decisiones automatizada. Oklahoma cuenta con tres proyectos de ley propuestos que buscan añadir salvaguardas sobre dónde y cómo se puede usar la IA. La regulación de la IA a nivel estatal puede parecer fragmentada, pero puede acumularse rápidamente. Para proveedores y agencias, esto a menudo se traduce en complejidad de cumplimiento en diferentes jurisdicciones.

¿Qué es el “modo picante” Grok y por qué está involucrado el fiscal general de Michigan?

El fiscal general de Michigan advierte a Musk y xAI sobre una función de Grok que se describe como utilizada para generar pornografía ilegal deepfake. El mensaje se presenta así: desactive la función o enfrente una escalada. Esto pone de relieve cómo las funciones generativas "atrevidas" pueden convertirse en responsabilidades legales al facilitar la producción de resultados dañinos a gran escala. Si más estados adoptan posturas similares, el riesgo de cumplimiento podría aumentar rápidamente.

Noticias de IA de ayer: 16 de enero de 2026

Encuentra la última IA en la tienda oficial de AI Assistant

Sobre nosotros

Volver al blog