Noticias de IA, 15 de febrero de 2026

Resumen de noticias sobre IA: 15 de febrero de 2026

🦞 El fundador de OpenClaw, Steinberger, se une a OpenAI y el bot de código abierto se convierte en la fundación

Peter Steinberger se dirige a OpenAI para impulsar los "agentes personales", mientras que OpenClaw se consolida en una fundación para mantener su código abierto (y su soporte). Esta división es... bastante ingeniosa: contratar al desarrollador, mantener el proyecto público.

La propuesta de OpenClaw es sorprendentemente práctica: gestión de correos electrónicos, trámites de seguros, facturación de vuelos y las molestas tareas administrativas cotidianas. Además, ha tenido un gran éxito en GitHub, y esa popularidad ha generado inquietudes sobre la seguridad, especialmente si se implementa sin cuidado.

🪖 El Pentágono está "harto" del rechazo de Anthropic al uso del modelo de IA de Claude por parte de los militares y podría cortar lazos, según un informe

La disputa principal: el Pentágono quiere un acceso amplio y "para todos los fines legales", y Anthropic sigue intentando mantener límites estrictos en torno a las armas totalmente autónomas y la vigilancia masiva. Ese es el tipo de desacuerdo que suena filosófico hasta que alguien dice: "Podríamos reemplazarte"

Un detalle subestimado: los funcionarios no quieren que el modelo bloquee repentinamente los flujos de trabajo a mitad de camino, ni quieren negociar casos extremos eternamente (es justo... pero también ¡qué asco!). Existe una verdadera tensión sobre "quién tiene las llaves", y no es sutil.

🧠 Una startup crea un modelo para predecir el comportamiento humano

Simile obtuvo una ronda de financiación de 100 millones de dólares para desarrollar un modelo de "aprendizaje limitado" destinado a predecir lo que la gente podría hacer, incluyendo, muy específicamente, anticipar preguntas probables en eventos como las presentaciones de resultados. Objetivo específico, gran ambición, una combinación un tanto inquietante.

El enfoque se basa en entrevistas con personas reales y datos de investigación conductual, y luego ejecuta simulaciones con agentes de IA diseñados para reflejar preferencias reales. Es como crear un modelo meteorológico para decisiones humanas... algo que parece imposible hasta que deja de serlo.

🧑⚖️ Primicia: La Casa Blanca presiona a un legislador de Utah para que elimine el proyecto de ley de transparencia de la IA

Un impulso a la transparencia de la IA a nivel estatal en Utah está recibiendo críticas directas de la Casa Blanca, donde funcionarios instan al promotor del proyecto de ley a no avanzar. El proyecto de ley se centra en la transparencia y la seguridad infantil, algo difícil de discutir desde una perspectiva puramente visual.

Pero la lucha más importante es jurisdiccional: ¿quién establece las reglas, los estados o el gobierno federal? Y sí, es un enredo, como dos personas agarrando el mismo volante e insistiendo en que son los tranquilos.

🎬 ByteDance se compromete a evitar el uso no autorizado de IP en herramientas de video con IA tras la amenaza de Disney

Disney emitió una orden de cese y desistimiento sobre el generador de videos con inteligencia artificial de ByteDance, y ByteDance afirma estar reforzando las medidas de seguridad para evitar el uso no autorizado de propiedad intelectual e imágenes. La queja, supuestamente, radica en que la herramienta puede reproducir personajes conocidos de franquicias como si fueran simples pegatinas de dominio público.

Es la colisión que todos veíamos venir: las herramientas de video viral con IA avanzan rápidamente, los estudios se vuelven litigiosos y "añadiremos salvaguardias" se convierte en el lenguaje habitual de las disculpas. En un giro inesperado, la tecnología parece magia, y el aspecto legal, gravedad.

Preguntas frecuentes

¿Qué significa que el fundador de OpenClaw se unió a OpenAI mientras que OpenClaw pasó a ser una fundación?

Esto indica una división entre la persona que crea "agentes personales" y el proyecto, que permanece bajo la administración pública. La incorporación de Steinberger a OpenAI sugiere que se concentrará en el desarrollo de productos de tipo agente en dicho ámbito. La integración de OpenClaw en una fundación busca mantener su código abierto y un soporte sostenible. En la práctica, la medida busca preservar la confianza de la comunidad mientras el desarrollador se dirige a donde están los recursos.

¿Por qué los agentes de IA de estilo OpenClaw se centran en tareas como el correo electrónico y el papeleo?

Dado que el trabajo administrativo diario es repetitivo, se basa en reglas y consume mucho tiempo, es un objetivo práctico para la automatización. Los ejemplos aquí (triaje de correo electrónico, gestión de seguros y facturación de vuelos) son tareas específicas con criterios de éxito claros. Este enfoque puede hacer que los agentes se sientan valiosos antes que los asistentes con un tiempo de trabajo más flexible. También subraya la importancia de un control de acceso riguroso cuando los agentes acceden a cuentas personales.

¿Cómo se puede implementar un agente de IA de código abierto como OpenClaw sin crear problemas de seguridad?

Trátelo como un software que puede acceder a datos confidenciales, no como un script de juguete. Un enfoque común es bloquear las credenciales, limitar los permisos al mínimo necesario y mantener registros y pistas de auditoría. Ejecútelo en un entorno restringido y sepárelo de los sistemas de alto valor. Muchos problemas de seguridad surgen de una implementación descuidada, especialmente cuando se exponen endpoints o tokens sin medidas de seguridad sólidas.

¿Por qué el Pentágono no está contento con las restricciones de Anthropic sobre Claude para uso militar?

La disputa se centra en el alcance y el control: el Pentágono quiere un acceso amplio "para todos los fines legales", mientras que Anthropic se describe como un sistema que mantiene límites estrictos en torno a las armas totalmente autónomas y la vigilancia masiva. Los funcionarios tampoco quieren que los modelos bloqueen los flujos de trabajo a mitad de camino ni exijan interminables negociaciones para casos extremos. Esta tensión es menos abstracta de lo que parece: se trata de quién decide qué puede hacer el modelo en operaciones reales.

¿Cómo intentan las empresas emergentes predecir el comportamiento humano con IA y por qué resulta controvertido?

El ejemplo aquí, Simile, aplica un modelo de "aprendizaje limitado" destinado a predecir lo que las personas podrían hacer, incluyendo la anticipación de preguntas probables en contextos como las presentaciones de resultados. El enfoque descrito combina entrevistas con datos de investigación del comportamiento y simulaciones con agentes de IA diseñados para reflejar preferencias reales. Resulta inquietante porque la IA deja de responder a las personas para predecirlas. El desafío es limitar las afirmaciones y evitar el exceso de confianza.

¿Qué sucede cuando las herramientas de video de IA generan personajes con derechos de autor, como en el enfrentamiento entre ByteDance y Disney?

El patrón reportado es familiar: un estudio emite una orden de cese y desistimiento, y la plataforma responde reforzando las medidas de seguridad para evitar el uso no autorizado de propiedad intelectual o imágenes. En muchas herramientas, las medidas de seguridad implican filtros de contenido más estrictos, una mejor detección de personajes reconocibles y una aplicación más clara de las políticas de usuario. El conflicto subyacente es la velocidad frente a la responsabilidad: la generación viral avanza rápidamente y la aplicación de derechos actúa como la gravedad. Es de esperar que se produzcan más colisiones como esta a medida que se expandan los generadores de vídeo.

Noticias de IA de ayer: 13 de febrero de 2026

Encuentra la última IA en la tienda oficial de AI Assistant

Sobre nosotros

Volver al blog