🏫 En algunas escuelas, los chatbots interrogan a los estudiantes sobre su trabajo. Pero la revolución de la IA preocupa a los docentes ↗
Algunas escuelas australianas están probando una versión más ingeniosa de la prueba de "demuestra tu trabajo": los estudiantes terminan una tarea y un chatbot de IA los interroga en un intercambio de preguntas para comprobar que han comprendido lo que entregaron. Es básicamente una defensa oral, pero con una máquina que pregunta "¿qué quieres decir con eso?" hasta que empiezas a sentirte incómodo.
La mayor preocupación es la implementación desigual: un informe del sector advierte que quienes adoptan rápidamente la tecnología podrían adelantarse mientras otros se quedan atrás, creando un sistema educativo de dos velocidades. Los docentes también siguen señalando las preocupaciones habituales, aunque aún graves: la privacidad, el bienestar y cómo evitar que la "ayuda de la IA" se convierta en "la IA lo hizo".
👮 La policía metropolitana utiliza herramientas de inteligencia artificial proporcionadas por Palantir para detectar la mala conducta de los agentes ↗
La Policía Metropolitana de Londres utiliza inteligencia artificial (IA) proporcionada por Palantir para analizar los patrones internos de la plantilla (enfermedades, ausencias, horas extras) en busca de señales que puedan correlacionarse con problemas de estándares profesionales. Se presenta como un piloto de duración limitada y, crucialmente, la Policía Metropolitana afirma que aún son humanos quienes toman las decisiones reales... pero ese "aún" supone un gran trabajo.
La Federación de Policía no está entusiasmada, lo llama "sospecha automatizada" y advierte sobre herramientas opacas que malinterpretan el estrés y la carga de trabajo como irregularidades. Es uno de esos momentos en que la tecnología suena bien en una diapositiva, luego te imaginas cómo se siente en el terreno y se vuelve muy espinosa.
🛡️ El organismo de control de la privacidad del Reino Unido advierte sobre las imágenes generadas por IA en una declaración conjunta ↗
La ICO del Reino Unido se unió a otros reguladores en una advertencia conjunta sobre las imágenes generadas por IA que representan a personas identificables sin consentimiento. En resumen: no usen la excusa mágica de que "es sintético". El mensaje es establecer medidas de seguridad desde el principio e interactuar con los reguladores en lugar de recurrir a la clásica estrategia tecnológica de enviar primero y disculparse después.
También destacan mayores riesgos para los niños, lo cual tiene sentido, porque una vez que esto se propaga, es como intentar meter purpurina en un frasco. La idea es que la privacidad y la dignidad están destinadas a sobrevivir al ciclo de la moda, o eso parece.
🪖 El secretario de Defensa de EE. UU., Hegseth, convoca al director ejecutivo de Anthropic para mantener conversaciones difíciles sobre el uso militar de Claude, informa Axios ↗
Reuters informa que el Secretario de Defensa de EE. UU. se reunirá con el director ejecutivo de Anthropic para una conversación más confrontativa sobre el uso militar de Claude. Según informes, el Pentágono quiere que los principales proveedores de IA ofrezcan modelos en redes clasificadas con menos restricciones, y Anthropic se ha resistido a cualquier flexibilización de las medidas de seguridad.
El subtexto se lee como un clásico dilema de "avanzar rápido, pero... con misiles de por medio". Si las partes no logran ponerse de acuerdo sobre las medidas de seguridad, la relación podría tensarse o incluso romperse; sin embargo, Anthropic también señala que las conversaciones con el gobierno siguen siendo constructivas, por lo que es tenso, pero no se trata de textos de ruptura total (todavía).
🧠 ChatGPT - Notas de la versión ↗
Las notas de la versión de OpenAI indican una ventana de contexto ampliada para el modo "Pensar", lo que significa que puedes introducir más texto en el modelo y mantener la coherencia en hilos más largos sin que se pierdan detalles anteriores. Si alguna vez has visto a un modelo olvidar algo que acabas de decir (¡qué fastidio!), esto está pensado precisamente para eso.
Es una actualización muy nerd que cambia discretamente lo práctico: documentos más largos, proyectos más complejos, sesiones de investigación más extensas. No es glamoroso, pero es el tipo de cambio de plomería que de repente hace que toda la casa parezca más grande.
Preguntas frecuentes
¿Qué significa cuando las escuelas utilizan chatbots para “interrogar” a los estudiantes sobre las tareas?
En algunas escuelas australianas, los estudiantes completan una tarea y luego participan en un intercambio de ideas con un chatbot de IA que analiza su razonamiento. Funciona como una defensa oral, instando a los estudiantes a explicar lo que escribieron y por qué. El objetivo es verificar la comprensión, no solo el resultado. También puede revelar lagunas cuando un estudiante no puede defender sus afirmaciones clave.
¿Cómo podrían los chatbots de IA en las escuelas crear un sistema educativo de “dos velocidades”?
Un informe del sector advierte que las escuelas que adoptan rápidamente las herramientas podrían tomar la delantera, mientras que las escuelas más lentas podrían quedar aún más rezagadas. Si algunas escuelas implementan herramientas de IA para evaluar la comprensión, apoyar el aprendizaje o prevenir el uso indebido, podrían mejorar sus resultados antes. Otras podrían carecer de presupuesto, capacidad de personal o claridad en las políticas para implementar sistemas comparables. Esta adopción desigual puede ampliar las brechas existentes en materia de recursos y logros.
¿Cómo intentan los docentes evitar que “la IA ayudó” se convierta en “la IA lo hizo”?
Un enfoque común es centrar la evaluación en el proceso y la explicación, no solo en el producto final. Las preguntas tipo chatbot, los borradores, las reflexiones o las revisiones orales pueden dificultar la entrega de trabajos que no se comprenden. Los docentes también pueden establecer límites más estrictos sobre la asistencia aceptable, como la lluvia de ideas frente a la reescritura completa. El énfasis se mantiene en demostrar comprensión, no en controlar el uso de todas las herramientas.
¿Qué problemas de privacidad y bienestar surgen cuando se utiliza IA en las aulas?
El profesorado sigue expresando su preocupación por los datos de los estudiantes que se recopilan, dónde se almacenan y quién puede acceder a ellos. También existe preocupación por el bienestar de los estudiantes si se sienten constantemente monitoreados o presionados por preguntas dirigidas por máquinas. Los niños constituyen un grupo de riesgo especial, ya que la información confidencial puede propagarse o persistir en los sistemas de formas inesperadas. Muchos centros educativos buscan implementar medidas de seguridad desde el principio en lugar de intentar adaptarlas posteriormente.
¿Cómo utiliza la Met la inteligencia artificial proporcionada por Palantir para detectar posibles malas conductas de los agentes?
La Policía Metropolitana de Londres utiliza inteligencia artificial (IA) proporcionada por Palantir para analizar patrones de la fuerza laboral, como bajas por enfermedad, ausencias y horas extras. El objetivo es detectar señales que podrían correlacionarse con problemas de estándares profesionales. Se describe como un piloto de duración limitada, y la Policía Metropolitana afirma que aún son humanos quienes toman las decisiones. Los críticos argumentan que la herramienta puede parecer una "sospecha automatizada" si interpreta el estrés como una falta.
¿Por qué los sindicatos de policía están preocupados por la “sospecha automatizada” generada por las herramientas de supervisión de IA?
La preocupación de la Federación de Policía radica en que los modelos opacos puedan inferir mala conducta a partir de patrones con explicaciones benignas. Los picos de trabajo, los problemas de salud y el estrés pueden modificar la asistencia o las horas extra sin implicar irregularidades. Si la lógica de la herramienta no es transparente, resulta más difícil para los agentes cuestionar las alertas o para los gerentes calibrar umbrales justos. Incluso con decisiones humanas, las señales automatizadas pueden influir en los resultados.
¿Cuál es la advertencia de la ICO del Reino Unido sobre las imágenes de personas identificables generadas por IA?
El organismo de control de la privacidad del Reino Unido se unió a otros reguladores para advertir que "sintético" no significa sin consecuencias. Si una imagen generada por IA muestra a una persona identificable sin su consentimiento, los riesgos para la privacidad y la dignidad siguen vigentes. Los reguladores enfatizan la implementación temprana de salvaguardias y la participación de los supervisores en lugar de priorizar el envío. También advierten sobre los mayores riesgos para los niños, cuyo daño puede escalar rápidamente una vez que el contenido se difunde.
¿Qué hay detrás de la supuesta presión del Pentágono sobre Anthropic sobre el uso militar de Claude?
Reuters informa que el Secretario de Defensa de EE. UU. se reunirá con el director ejecutivo de Anthropic para entablar conversaciones más rigurosas sobre el uso militar de Claude. Según informes, el Pentágono quiere que los principales proveedores de inteligencia artificial ofrezcan modelos en redes clasificadas con menos restricciones. Anthropic se ha opuesto a medidas de seguridad más flexibles, señalando un conflicto sobre las barreras de seguridad. La relación parece tensa, aunque ambas partes indican que las conversaciones siguen siendo constructivas.
¿Qué cambió en las notas de la versión de ChatGPT sobre la longitud del contexto del modo “Pensamiento”?
Las notas de la versión de OpenAI indican una ventana de contexto ampliada para el modo "Pensar", lo que permite incluir más texto en un solo hilo. En la práctica, esto puede ser útil con documentos extensos, proyectos complejos e investigaciones de varios pasos donde los detalles previos son importantes. Se trata de una actualización de tipo plomería, más que una función llamativa. La principal ventaja es que se pierden menos detalles en sesiones más largas.