🧒 OpenAI implementa predicción de edad en ChatGPT ↗
OpenAI ha comenzado a implementar una capa de "predicción de edad" en ChatGPT: un sistema discreto que intenta inferir cuándo es probable que una cuenta pertenezca a un menor y luego activa medidas de seguridad adicionales. Si detecta que eres menor de 18 años, restringe automáticamente el acceso a contenido más sensible.
Cuando se equivoca (lo cual… a veces ocurre), la solución es la verificación de identidad a través de Persona, utilizando un flujo basado en selfies. También se integra con cambios más amplios en la plataforma, como experimentos de "modo adulto" y estrategias de monetización que, francamente, parecen como si fueran varios platos girando a la vez.
🏦 Gran Bretaña necesita "pruebas de estrés de IA" para los servicios financieros, dicen los legisladores ↗
Los legisladores británicos básicamente dicen: dejen de ser indiferentes con la IA en las finanzas. Su argumento es que los reguladores y el gobierno deberían someter los sistemas de IA a pruebas de presión, como se somete a los bancos a pruebas de estrés, porque los "oops" en el mundo del dinero tienden a propagarse rápidamente.
La preocupación es el tipo de problema que solo se manifiesta a gran escala: sesgo, cascadas de errores, patrones de fraude, bucles de retroalimentación. Es como dejar que un niño pequeño conduzca un autobús porque el camino es recto... hasta que de repente deja de serlo.
🏛️ Se designan campeones de IA para ayudar a la ciudad a aprovechar de forma segura las oportunidades que ofrece la IA ↗
El gobierno del Reino Unido nombró a dos “Campeones de la IA” para ayudar a acelerar la adopción de la IA en los servicios financieros, con las promesas habituales de crecimiento, productividad, inversión y toda esa maquinaria que suena bien.
Lo notable es el equilibrio: la energía de "muévete rápido" y la palabra "con seguridad" estampada en la parte superior. Tranquilizador... o ligeramente cómico, según tu estado de ánimo ese día.
💰 Humans&, una startup de inteligencia artificial centrada en el ser humano fundada por exalumnos de Anthropic, xAI y Google, recaudó una ronda inicial de $480 millones ↗
Humans& llegó con fuerza con una gran ronda de capital semilla y un equipo que se perfila como el "equipo de inicio del laboratorio de IA": personas de grandes tiendas de modelos y grandes tecnológicas. El objetivo declarado es menos chatbot y más "ayudar a los humanos a coordinarse y colaborar", con sistemas que puedan operar con personas y agentes de IA.
Es mucho dinero para algo tan pronto, lo que indica que el mercado tiene confianza... o que todos estamos comprando fuegos artificiales porque nos gusta el sonido. Sinceramente, podrían ser ambas cosas.
⚖️ La startup de inteligencia artificial legal Ivo recauda 55 millones de dólares en su última ronda de financiación ↗
La startup de inteligencia artificial legal Ivo obtuvo nueva financiación para desarrollar su plataforma y aumentar las ventas, aprovechando la ola de firmas de abogados y equipos legales internos que automatizan flujos de trabajo con mucho papeleo.
Esta categoría sigue ganando porque el valor es contundente y simple: menos horas dedicadas al trabajo repetitivo de documentos, menos cosas que se pasan por alto. No es glamuroso, pero sí muy, muy facturable.
🧠 La taiwanesa Inventec afirma que la decisión sobre el chip H200 de Nvidia "parece estar estancada" en el lado chino ↗
Un fabricante de servidores taiwanés dijo que la cuestión de la venta de Nvidia de su chip H200 AI a China parece "estancada", lo que implica que el cuello de botella no son solo las reglas externas, sino también las aprobaciones del lado chino o la dinámica interna.
Esta es la desagradable realidad del hardware de IA: todo el mundo habla de modelos y agentes, pero el futuro puede depender de algunos cuellos de botella, permisos y políticas de la cadena de suministro. Es como planificar el lanzamiento de un cohete... y luego darte cuenta de que olvidaste la llave de la válvula de combustible.
Preguntas frecuentes
¿Cuál es la predicción de edad de OpenAI en ChatGPT y qué cambia si te marcan como menor de 18 años?
OpenAI ha introducido una capa discreta de "predicción de edad" que intenta inferir si una cuenta probablemente pertenece a un menor. Si el sistema determina que eres menor de 18 años, ChatGPT aplica automáticamente medidas de seguridad adicionales. En la práctica, esto suele implicar límites más estrictos para el contenido considerado más sensible. El objetivo es reducir el riesgo sin obligar a cada usuario a declarar su edad por adelantado.
¿Qué sucede si la predicción de edad de ChatGPT es incorrecta?
Si la predicción de edad en ChatGPT falla y etiqueta a un adulto como menor de 18 años, la solución propuesta es la verificación de identidad. En esta implementación, dicha verificación se gestiona a través de Persona mediante un proceso basado en selfies. Tras la verificación, la cuenta puede volver a tener acceso normal en lugar de permanecer bloqueada tras restricciones más estrictas. Es una compensación: menos casos extremos de riesgo, con mayor fricción cuando el sistema se equivoca.
¿Cómo encaja la verificación de selfies de Persona en el enfoque de seguridad de OpenAI?
Persona sirve como mecanismo para resolver la incertidumbre relacionada con la edad cuando la inferencia del sistema se considera poco fiable. El flujo de verificación de identidad basado en selfies se posiciona como una medida correctiva tras una predicción de edad incorrecta. En muchas plataformas, este tipo de medida se utiliza para equilibrar la seguridad y el acceso sin bloquear permanentemente a los usuarios legítimos. También apunta a una mayor aplicación a nivel de cuenta, no solo al filtrado a nivel de solicitud.
¿Por qué OpenAI agrega ahora un límite de edad y qué tiene que ver con el “modo para adultos”?
Esta actualización llega junto con cambios más amplios en la plataforma, como los experimentos con el "modo adulto" y las medidas de monetización mencionadas en la misma discusión. La predicción de edad en ChatGPT se convierte en el factor que determina quién recibe acceso predeterminado más estricto frente a un acceso más amplio. Esto resulta útil para una plataforma que prueba diferentes experiencias con distintos públicos. También puede limitar la exposición a contenido más arriesgado y, al mismo tiempo, permitir la expansión a otros públicos.
¿Qué son las “pruebas de estrés de IA” para los servicios financieros del Reino Unido y por qué las quieren los legisladores?
Los legisladores británicos piden "pruebas de estrés de IA" que traten los sistemas de IA de forma más parecida a los bancos: someterlos a pruebas de presión antes de que los problemas se propaguen. La preocupación radica en que los sesgos, las cascadas de errores, los patrones de fraude y los bucles de retroalimentación solo se hagan visibles a gran escala. En el ámbito financiero, los pequeños fallos pueden propagarse rápidamente a través de sistemas estrechamente interconectados. Las pruebas de estrés tienen como objetivo detectar las debilidades con mayor antelación, antes de que el dinero real y los clientes reales se vean afectados.
¿Quiénes son los “Campeones de IA” del Reino Unido para la ciudad y qué se supone que deben hacer?
El gobierno del Reino Unido ha nombrado a dos "Campeones de la IA" para acelerar la adopción de la IA en los servicios financieros. Su función consiste en ayudar a la City a aprovechar las oportunidades que ofrece la IA de forma segura. En la práctica, se traduce en coordinación y promoción: fomentando la adopción, apoyando las mejores prácticas y alineando a las partes interesadas. Esto indica que el gobierno busca una implementación más rápida, con un enfoque de seguridad visible.