Un hombre a punto de luchar contra la IA

¿Qué se puede hacer con la IA generativa sin intervención humana?

Resumen ejecutivo

La inteligencia artificial generativa (IA), la tecnología que permite a las máquinas crear texto, imágenes, código y mucho más, ha experimentado un crecimiento explosivo en los últimos años. Este informe técnico ofrece una visión general accesible de lo que la IA generativa puede de forma fiable sin intervención humana y de lo que se espera que haga en la próxima década. Analizamos su uso en la escritura, el arte, la programación, la atención al cliente, la sanidad, la educación, la logística y las finanzas, destacando dónde opera la IA de forma autónoma y dónde la supervisión humana sigue siendo crucial. Se incluyen ejemplos reales para ilustrar tanto los éxitos como las limitaciones. Entre las principales conclusiones se incluyen:

  • Adopción generalizada: En 2024, el 65 % de las empresas encuestadas informaron usar IA generativa con regularidad, casi el doble que el año anterior (El estado de la IA a principios de 2024 | McKinsey). Las aplicaciones abarcan la creación de contenido de marketing, chatbots de atención al cliente, generación de código y más.

  • Capacidades autónomas actuales: La IA generativa actual gestiona de forma fiable tareas estructuradas y repetitivas con una supervisión mínima. Algunos ejemplos incluyen la generación automática de informes de noticias con fórmulas predefinidas (por ejemplo, resúmenes de resultados corporativos) (Philana Patterson – Perfil de la comunidad ONA), la creación de descripciones de productos y resúmenes de reseñas en sitios de comercio electrónico, y el autocompletado de código. En estos ámbitos, la IA suele complementar el trabajo humano asumiendo la generación rutinaria de contenido.

  • Intervención humana en tareas complejas: Para tareas más complejas o abiertas, como la redacción creativa, el análisis detallado o el asesoramiento médico, la supervisión humana suele ser necesaria para garantizar la precisión de los datos, el criterio ético y la calidad. Muchas implementaciones de IA actuales utilizan un modelo de intervención humana en el que la IA redacta el contenido y los humanos lo revisan.

  • Mejoras a corto plazo: Se prevé que en los próximos 5 a 10 años, la IA generativa sea mucho más fiable y autónoma. Los avances en la precisión de los modelos y los mecanismos de control pueden permitir que la IA gestione una mayor proporción de tareas creativas y de toma de decisiones con una mínima intervención humana. Por ejemplo, los expertos predicen que para 2030 la IA gestionará la mayoría de las interacciones y decisiones de atención al cliente en tiempo real (Para reinventar el cambio hacia la experiencia del cliente, los profesionales del marketing deben hacer estas dos cosas), y una película importante podría producirse con un 90 % de contenido generado por IA (Casos de uso de la IA generativa para industrias y empresas).

  • Para 2035: En una década, prevemos que los agentes autónomos de IA serán comunes en muchos campos. Los tutores de IA podrían ofrecer educación personalizada a gran escala, los asistentes de IA podrían redactar contratos legales o informes médicos de forma fiable para la aprobación de expertos, y los sistemas de conducción autónoma (con la ayuda de simulación generativa) podrían gestionar operaciones logísticas de principio a fin. Sin embargo, ciertas áreas sensibles (por ejemplo, diagnósticos médicos de alto riesgo y decisiones judiciales definitivas) probablemente seguirán requiriendo el criterio humano para garantizar la seguridad y la rendición de cuentas.

  • Preocupaciones éticas y de fiabilidad: A medida que aumenta la autonomía de la IA, también aumentan las preocupaciones. Entre los problemas actuales se incluyen las alucinaciones (IA que inventa hechos), el sesgo en el contenido generado, la falta de transparencia y el posible uso indebido para la desinformación. Garantizar la confianza cuando opera sin supervisión es fundamental. Se están logrando avances —por ejemplo, las organizaciones están invirtiendo más en la mitigación de riesgos (abordando la precisión, la ciberseguridad y los problemas de propiedad intelectual) (El estado de la IA: Encuesta global | McKinsey)—, pero se necesitan marcos éticos y de gobernanza sólidos.

  • Estructura de este artículo: Comenzamos con una introducción a la IA generativa y el concepto de usos autónomos frente a supervisados. A continuación, para cada dominio principal (escritura, arte, programación, etc.), analizamos las capacidades actuales de la IA y sus perspectivas futuras. Concluimos con los desafíos transversales, las proyecciones futuras y las recomendaciones para un uso responsable de la IA generativa.

En general, la IA generativa ya ha demostrado ser capaz de gestionar una sorprendente variedad de tareas sin la supervisión humana constante. Al comprender sus limitaciones actuales y su potencial futuro, las organizaciones y el público pueden prepararse mejor para una era en la que la IA no sea solo una herramienta, sino un colaborador autónomo en el trabajo y la creatividad.

Introducción

La inteligencia artificial lleva mucho tiempo analizando datos , pero solo recientemente los sistemas de IA han aprendido a crear : escribir prosa, componer imágenes, programar software y mucho más. Estos generativos de IA (como GPT-4 para texto o DALL·E para imágenes) se entrenan con vastos conjuntos de datos para producir contenido novedoso en respuesta a indicaciones. Este avance ha desatado una ola de innovación en todos los sectores. Sin embargo, surge una pregunta crucial: ¿En qué podemos confiar realmente a la IA por sí sola, sin la supervisión humana de sus resultados?

Para responder a esta pregunta, es importante distinguir entre supervisados ​​y autónomos de la IA:

  • La IA supervisada por humanos se refiere a escenarios donde los resultados de la IA son revisados ​​o seleccionados por personas antes de su finalización. Por ejemplo, un periodista podría usar un asistente de escritura de IA para redactar un artículo, pero un editor lo edita y aprueba.

  • La IA autónoma (IA sin intervención humana) se refiere a sistemas de IA que ejecutan tareas o producen contenido que se utiliza directamente con poca o ninguna intervención humana. Un ejemplo es un chatbot automatizado que resuelve la consulta de un cliente sin intervención humana, o un medio de comunicación que publica automáticamente un resumen de resultados deportivos generado por IA.

La IA generativa ya se está implementando en ambos modos. Entre 2023 y 2025, su adopción se disparó, y las organizaciones experimentaron con entusiasmo. Una encuesta global de 2024 reveló que el 65 % de las empresas utilizaban IA generativa con regularidad, frente a aproximadamente un tercio tan solo un año antes (El estado de la IA a principios de 2024 | McKinsey). Los particulares también han adoptado herramientas como ChatGPT: se estima que el 79 % de los profesionales tenían al menos algún conocimiento de la IA generativa a mediados de 2023 (El estado de la IA en 2023: El año de la explosión de la IA generativa | McKinsey). Esta rápida adopción se debe a la promesa de mejoras en la eficiencia y la creatividad. Sin embargo, aún es pronto, y muchas empresas todavía están formulando políticas sobre cómo utilizar la IA de forma responsable (El estado de la IA en 2023: El año de la explosión de la IA generativa | McKinsey).

Por qué importa la autonomía: Dejar que la IA opere sin supervisión humana puede generar enormes beneficios en eficiencia —automatizando por completo las tareas tediosas—, pero también aumenta la exigencia en cuanto a fiabilidad. Un agente de IA autónomo debe hacer las cosas bien (o conocer sus límites) porque puede que no haya un humano en tiempo real para detectar errores. Algunas tareas se prestan más a esto que otras. En general, la IA funciona mejor de forma autónoma cuando:

  • La tarea tiene una estructura o patrón claro (por ejemplo, generar informes de rutina a partir de datos).

  • Los errores son de bajo riesgo o fácilmente tolerables (por ejemplo, una generación de imágenes que se puede descartar si no es satisfactoria, en comparación con un diagnóstico médico).

  • Existe una gran cantidad de datos de entrenamiento que cubren los escenarios, por lo que el resultado de la IA se basa en ejemplos reales (lo que reduce las conjeturas).

Por el contrario, las tareas que son abiertas, de alto riesgoo que requieren un juicio matizado son menos adecuadas hoy en día para la supervisión cero.

En las siguientes secciones, examinamos diversos campos para comprender el potencial actual de la IA generativa y sus perspectivas futuras. Analizaremos ejemplos concretos, desde artículos periodísticos y obras de arte generadas por IA hasta asistentes de programación y agentes virtuales de atención al cliente, destacando qué tareas pueden ser realizadas integralmente por la IA y cuáles aún requieren la participación humana. Para cada ámbito, separamos claramente las capacidades actuales (alrededor de 2025) de las proyecciones realistas de lo que podría ser fiable para 2035.

Al analizar el presente y el futuro de la IA autónoma en diferentes ámbitos, buscamos ofrecer a los lectores una comprensión equilibrada: sin exagerar la infalibilidad de la IA ni subestimar sus competencias, tan reales y en crecimiento. Con esta base, analizamos los desafíos generales de confiar en la IA sin supervisión, incluyendo consideraciones éticas y gestión de riesgos, antes de concluir con las conclusiones clave.

IA generativa en la escritura y la creación de contenido

Uno de los primeros ámbitos donde la IA generativa causó sensación fue la generación de texto. Los modelos de lenguaje de gran tamaño pueden producir de todo, desde artículos periodísticos y textos de marketing hasta publicaciones en redes sociales y resúmenes de documentos. Pero ¿cuánto de esta escritura se puede realizar sin un editor humano?

Capacidades actuales (2025): La IA como escritora automática de contenido rutinario

Hoy en día, la IA generativa gestiona de forma fiable diversas tareas de redacción rutinarias con una mínima o nula intervención humana. Un ejemplo clave se encuentra en el periodismo: Associated Press lleva años utilizando la automatización para generar miles de informes de ganancias de empresas cada trimestre directamente a partir de fuentes de datos financieros (Philana Patterson – Perfil de la comunidad ONA). Estas breves noticias siguen una plantilla (por ejemplo, «La empresa X informó de ganancias de Y, un aumento del Z%...») y la IA (mediante software de generación de lenguaje natural) puede completar las cifras y el texto más rápido que cualquier persona. El sistema de AP publica estos informes automáticamente, ampliando su cobertura drásticamente (más de 3000 noticias por trimestre) sin necesidad de redactores humanos (Las noticias de ganancias automatizadas se multiplican | The Associated Press).

El periodismo deportivo también se ha visto beneficiado: los sistemas de IA pueden tomar estadísticas de partidos y generar resúmenes. Dado que estos ámbitos se basan en datos y siguen fórmulas preestablecidas, los errores son poco frecuentes siempre que los datos sean correctos. En estos casos, observamos una verdadera autonomía : la IA escribe y el contenido se publica de inmediato.

Las empresas también utilizan IA generativa para redactar descripciones de productos, boletines informativos por correo electrónico y otros contenidos de marketing. Por ejemplo, el gigante del comercio electrónico Amazon ahora emplea IA para resumir las reseñas de los clientes sobre sus productos. La IA analiza el texto de numerosas reseñas individuales y genera un párrafo conciso que destaca lo que a los usuarios les gusta o no les gusta del artículo, el cual se muestra en la página del producto sin necesidad de edición manual (Amazon mejora la experiencia de las reseñas de los clientes con IA). A continuación, se muestra un ejemplo de esta función implementada en la aplicación móvil de Amazon, donde la sección «Los clientes dicen» se genera completamente mediante IA a partir de los datos de las reseñas:

(Amazon mejora la experiencia de las reseñas de clientes con IA) Resumen de reseñas generado por IA en la página de un producto de comercio electrónico. El sistema de Amazon resume los puntos comunes de las reseñas de los usuarios (por ejemplo, facilidad de uso, rendimiento) en un párrafo breve, que se muestra a los compradores como "generado por IA a partir del texto de las reseñas de clientes".

Estos casos de uso demuestran que, cuando el contenido sigue un patrón predecible o se agrega a partir de datos existentes, la IA a menudo puede gestionarlo por sí sola. Otros ejemplos actuales incluyen:

  • Actualizaciones del tiempo y el tráfico: los medios de comunicación utilizan IA para compilar informes meteorológicos diarios o boletines de tráfico basados ​​en datos de sensores.

  • Informes financieros: Empresas que generan resúmenes financieros sencillos (resultados trimestrales, informes bursátiles) automáticamente. Desde 2014, Bloomberg y otros medios de comunicación han utilizado IA para ayudar a redactar breves noticias sobre las ganancias de las empresas, un proceso que se ejecuta en gran medida automáticamente una vez que se ingresan los datos ( Los'periodistas robot' de AP ahora escriben sus propias historias | The Verge) (Reportero de Wyoming atrapado usando IA para crear citas e historias falsas).

  • Traducción y transcripción: Los servicios de transcripción ahora utilizan IA para producir transcripciones o subtítulos de reuniones sin necesidad de mecanógrafos. Si bien no son generativas en el sentido creativo, estas tareas lingüísticas se ejecutan de forma autónoma con gran precisión para un audio nítido.

  • Generación de borradores: muchos profesionales utilizan herramientas como ChatGPT para redactar correos electrónicos o primeras versiones de documentos y, en ocasiones, los envían con pocas o ninguna edición si el contenido es de bajo riesgo.

Sin embargo, para textos más complejos, la supervisión humana sigue siendo la norma en 2025.Las organizaciones de noticias rara vez publican artículos de investigación o análisis directamente de la IA; los editores verifican los datos y refinan los borradores escritos por la IA. La IA puede imitar bien el estilo y la estructura, pero puede introducir errores de hecho (a menudo llamados "alucinaciones") o frases torpes que un humano debe detectar. Por ejemplo, el periódico alemán Express introdujo una "colega digital" de IA llamada Klara para ayudar a redactar los primeros artículos de noticias. Klara puede redactar eficientemente informes deportivos e incluso escribir titulares que atraen lectores, contribuyendo al 11 % de los artículos de Express; pero los editores humanos siguen revisando cada pieza para garantizar su precisión e integridad periodística, especialmente en historias complejas (12 maneras en que los periodistas usan herramientas de IA en la redacción - Twipe). Esta colaboración entre humanos e IA es común hoy en día: la IA se encarga del trabajo pesado de generar texto, y los humanos lo revisan y corrigen según sea necesario.

Perspectivas para 2030-2035: Hacia una escritura autónoma y confiable

Durante la próxima década, prevemos que la IA generativa se volverá mucho más fiable a la hora de generar textos de alta calidad y veraces, lo que ampliará la gama de tareas de escritura que puede gestionar de forma autónoma. Varias tendencias respaldan esto:

  • Mayor precisión: Las investigaciones en curso están reduciendo rápidamente la tendencia de la IA a generar información falsa o irrelevante. Para 2030, los modelos de lenguaje avanzados con un mejor entrenamiento (que incluye técnicas para verificar los datos con bases de datos en tiempo real) podrían alcanzar internamente un nivel de verificación de datos casi humano. Esto significa que una IA podría redactar automáticamente un artículo de noticias completo con citas y estadísticas correctas extraídas de las fuentes originales, requiriendo poca edición.

  • IA especializadas: Veremos modelos generativos más especializados y optimizados para campos específicos (legal, médico, redacción técnica). Un modelo de IA legal de 2030 podría redactar contratos estándar o resumir jurisprudencia de forma fiable; tareas que, si bien tienen una estructura estandarizada, actualmente requieren la intervención de un abogado. Si la IA se entrena con documentos legales validados, sus borradores podrían ser lo suficientemente fiables como para que un abogado solo les dé un vistazo final.

  • Estilo y coherencia naturales: Los modelos están mejorando en el mantenimiento del contexto a lo largo de documentos extensos, lo que da como resultado un contenido más coherente y conciso. Para 2035, es plausible que una IA pueda redactar por sí sola un primer borrador decente de un libro de no ficción o un manual técnico, con los humanos desempeñando principalmente un papel de asesoramiento (para establecer objetivos o proporcionar conocimientos especializados).

¿Cómo se vería esto en la práctica? El periodismo rutinario podría automatizarse casi por completo en ciertas áreas. Es posible que en 2030 veamos una agencia de noticias con un sistema de IA que redacte la primera versión de cada informe de ganancias, noticia deportiva o actualización de resultados electorales, con un editor que solo revise algunos para el control de calidad. De hecho, los expertos pronostican que una proporción cada vez mayor de contenido en línea será generado por máquinas; una predicción audaz de analistas de la industria sugirió que hasta el 90 % del contenido en línea podría ser generado por IA para 2026 (Para 2026, el contenido en línea generado por no humanos superará ampliamente al contenido generado por humanos — OODAloop), aunque esta cifra es objeto de debate. Incluso un escenario más conservador significaría que para mediados de la década de 2030, la mayoría de los artículos web rutinarios, las descripciones de productos e incluso los feeds de noticias personalizados serían creados por IA.

En marketing y comunicación corporativa, es probable que la IA generativa se encargue de gestionar campañas completas de forma autónoma. Podría generar y enviar correos electrónicos de marketing personalizados, publicaciones en redes sociales y variaciones de anuncios, ajustando constantemente el mensaje en función de las reacciones de los clientes, todo ello sin la intervención de un redactor humano. Los analistas de Gartner prevén que, para 2025, al menos el 30 % de los mensajes de marketing salientes de las grandes empresas se generarán sintéticamente mediante IA (Casos de uso de la IA generativa para industrias y empresas), y este porcentaje no hará más que aumentar para 2030.

Sin embargo, es importante destacar que la creatividad y el criterio humanos seguirán desempeñando un papel fundamental, especialmente en contenidos de gran relevancia. Para 2035, la IA podría gestionar de forma autónoma comunicados de prensa o entradas de blog, pero en el periodismo de investigación que involucre rendición de cuentas o temas delicados, los medios de comunicación podrían seguir exigiendo la supervisión humana. Es probable que el futuro traiga consigo un enfoque escalonado: la IA producirá de forma autónoma la mayor parte del contenido cotidiano, mientras que los humanos se centrarán en la edición y producción de las piezas estratégicas o delicadas. En esencia, la línea que define lo que se considera "rutinario" se ampliará a medida que aumente la competencia de la IA.

Además, podrían surgir nuevos formatos de contenido, como narrativas interactivas generadas por IA o informes personalizados . Por ejemplo, la IA podría generar el informe anual de una empresa en varios estilos: un resumen para ejecutivos, una versión narrativa para empleados y una versión con gran cantidad de datos para analistas; cada uno creado automáticamente a partir de los mismos datos subyacentes. En el ámbito educativo, la IA podría redactar dinámicamente libros de texto adaptados a diferentes niveles de lectura. Estas aplicaciones podrían ser en gran medida autónomas, pero respaldadas por información verificada.

La trayectoria en la escritura sugiere que, para mediados de la década de 2030, la IA será una escritora prolífica. La clave para un funcionamiento verdaderamente autónomo será generar confianza en sus resultados. Si la IA demuestra consistentemente precisión factual, calidad estilística y cumplimiento de estándares éticos, la necesidad de revisión humana línea por línea disminuirá. Es muy posible que, para 2035, secciones de este mismo documento técnico sean redactadas por un investigador de IA sin necesidad de un editor; una perspectiva que nos genera un optimismo moderado, siempre que se implementen las salvaguardas adecuadas.

IA generativa en artes visuales y diseño

La capacidad de la IA generativa para crear imágenes y obras de arte ha cautivado la imaginación del público, desde pinturas generadas por IA que ganan concursos de arte hasta vídeos deepfake indistinguibles de las imágenes reales. En el ámbito visual, modelos de IA como las redes generativas antagónicas (GAN) y los modelos de difusión (p. ej., Difusión estable o Midjourney) pueden producir imágenes originales basadas en indicaciones textuales. Entonces, ¿puede la IA funcionar ahora como un artista o diseñador autónomo?

Capacidades actuales (2025): IA como asistente creativo

A partir de 2025, los modelos generativos son capaces de crear imágenes a demanda con una fidelidad impresionante. Los usuarios pueden pedirle a una IA que dibuje "una ciudad medieval al atardecer al estilo de Van Gogh" y recibir una imagen convincentemente artística en segundos. Esto ha llevado a un uso generalizado de la IA en el diseño gráfico, el marketing y el entretenimiento para arte conceptual, prototipos e incluso imágenes finales en algunos casos. Cabe destacar:

  • Diseño gráfico e imágenes de archivo: Las empresas generan gráficos para sitios web, ilustraciones o fotos de archivo mediante IA, lo que reduce la necesidad de encargar cada pieza a un artista. Muchos equipos de marketing utilizan herramientas de IA para producir variaciones de anuncios o imágenes de productos y así probar qué resulta atractivo para los consumidores.

  • Arte e ilustración: Artistas individuales colaboran con IA para generar ideas o completar detalles. Por ejemplo, un ilustrador podría usar IA para generar escenarios de fondo, que luego integra con sus personajes dibujados por humanos. Algunos creadores de cómics han experimentado con viñetas o coloreado generado por IA.

  • Medios de comunicación y entretenimiento: El arte generado por IA ha aparecido en portadas de revistas y libros. Un ejemplo famoso fue la de Cosmopolitan , que presentaba a un astronauta; según se informa, fue la primera imagen de portada de revista creada por una IA (DALL·E de OpenAI) bajo la dirección de un director de arte. Si bien esto implicó la intervención y selección humana, la obra de arte en sí fue generada por máquina.

Fundamentalmente, la mayoría de estos usos actuales aún implican la selección y revisión humana. La IA puede generar docenas de imágenes, y un humano elige la mejor y posiblemente la retoca. En ese sentido, la IA trabaja de forma autónoma para producir opciones, pero los humanos guían la dirección creativa y toman las decisiones finales. Es fiable para generar mucho contenido rápidamente, pero no garantiza que cumpla con todos los requisitos al primer intento. Problemas como detalles incorrectos (por ejemplo, que la IA dibuje manos con un número erróneo de dedos, un fallo conocido) o resultados no deseados implican que, por lo general, un director de arte humano deba supervisar la calidad del resultado.

Sin embargo, existen dominios en los que la IA se está acercando a la autonomía total:

  • Diseño Generativo: En campos como la arquitectura y el diseño de productos, las herramientas de IA pueden crear prototipos de diseño de forma autónoma que cumplen con las restricciones especificadas. Por ejemplo, dadas las dimensiones y funciones deseadas de un mueble, un algoritmo generativo podría generar varios diseños viables (algunos bastante poco convencionales) sin intervención humana más allá de las especificaciones iniciales. Estos diseños pueden ser utilizados o perfeccionados directamente por humanos. De igual manera, en ingeniería, la IA generativa puede diseñar piezas (por ejemplo, un componente de avión) optimizadas en peso y resistencia, produciendo formas novedosas que un humano podría no haber concebido.

  • Recursos de videojuegos: La IA puede generar automáticamente texturas, modelos 3D o incluso niveles completos para videojuegos. Los desarrolladores los utilizan para acelerar la creación de contenido. Algunos juegos independientes han comenzado a incorporar ilustraciones generadas proceduralmente e incluso diálogos (mediante modelos de lenguaje) para crear mundos de juego vastos y dinámicos con una mínima cantidad de recursos creados por humanos.

  • Animación y vídeo (en desarrollo): Si bien la IA generativa para vídeo está menos desarrollada que las imágenes estáticas, avanza a pasos agigantados. La IA ya puede generar videoclips cortos o animaciones a partir de indicaciones, aunque la calidad es inconsistente. La tecnología deepfake, que es generativa, puede producir intercambios faciales realistas o clones de voz. En un entorno controlado, un estudio podría usar la IA para generar automáticamente una escena de fondo o una animación de multitud.

Cabe destacar que Gartner predijo que para 2030 veríamos una superproducción cinematográfica con un 90 % de contenido generado por IA (desde el guion hasta los efectos visuales) (Casos de uso de IA generativa para industrias y empresas). A fecha de 2025, aún no hemos llegado a ese punto: la IA no puede producir un largometraje de forma independiente. Sin embargo, las piezas de este rompecabezas están en desarrollo: generación de guiones (IA de texto), generación de personajes y escenas (IA de imágenes y vídeo), doblaje (voces clonadas por IA) y asistencia en la edición (la IA ya puede ayudar con cortes y transiciones).

Perspectivas para 2030-2035: Medios generados por IA a gran escala

De cara al futuro, el papel de la IA generativa en las artes visuales y el diseño se expandirá drásticamente. Para 2035, prevemos que la IA será la principal creadora de contenido en muchos medios visuales, operando a menudo con mínima intervención humana más allá de la orientación inicial. Algunas expectativas:

  • Películas y vídeos totalmente generados por IA: En los próximos diez años, es muy posible que veamos las primeras películas o series producidas en gran parte por IA. Los humanos podrían proporcionar directrices generales (por ejemplo, un esquema del guion o el estilo deseado) y la IA renderizaría las escenas, crearía las representaciones de los actores y animaría todo. Es probable que en pocos años se realicen los primeros experimentos con cortometrajes, y que para la década de 2030 se empiecen a producir largometrajes. Estas películas de IA podrían comenzar siendo de nicho (animación experimental, etc.), pero podrían popularizarse a medida que mejore su calidad. La predicción de Gartner de que el 90 % de las películas serán generadas por IA para 2030 (Casos de uso de IA generativa para industrias y empresas), aunque ambiciosa, subraya la creencia del sector de que la creación de contenido mediante IA será lo suficientemente sofisticada como para asumir la mayor parte del trabajo en la producción cinematográfica.

  • Automatización del diseño: En campos como la moda o la arquitectura, es probable que la IA generativa se utilice para crear de forma autónoma cientos de conceptos de diseño basados ​​en parámetros como "coste, materiales, estilo X", dejando que los humanos elijan el diseño final. Esto invierte la dinámica actual: en lugar de que los diseñadores creen desde cero y tal vez se inspiren en la IA, los diseñadores del futuro podrían actuar más como curadores, seleccionando el mejor diseño generado por la IA y quizás ajustándolo. Para 2035, un arquitecto podría introducir los requisitos de un edificio y obtener planos completos como sugerencias de una IA (todos estructuralmente sólidos, gracias a las reglas de ingeniería integradas).

  • Creación de contenido personalizado: Es posible que veamos inteligencias artificiales creando elementos visuales al instante para cada usuario. Imagina un videojuego o una experiencia de realidad virtual en 2035 donde el escenario y los personajes se adapten a las preferencias del jugador, generados en tiempo real por una IA. O tiras cómicas personalizadas basadas en el día a día del usuario: una IA autónoma que, como un "diario personal", convierta automáticamente tu diario de texto en ilustraciones cada noche.

  • Creatividad multimodal: Los sistemas de IA generativa son cada vez más multimodales, lo que significa que pueden procesar texto, imágenes, audio, etc., de forma conjunta. Al combinar estos elementos, una IA podría tomar una simple instrucción como «Crea una campaña de marketing para el producto X» y generar no solo texto, sino también gráficos que lo complementen, e incluso breves videoclips promocionales, todo con un estilo coherente. Este tipo de suite de contenido con un solo clic probablemente estará disponible a principios de la década de 2030.

la IA a los artistas humanos? Esta pregunta surge con frecuencia. Es probable que la IA se haga cargo de gran parte del trabajo de producción (especialmente del arte repetitivo o de entrega rápida necesario para el negocio), pero el arte humano seguirá siendo fundamental para la originalidad y la innovación. Para 2035, una IA autónoma podría dibujar con precisión una imagen al estilo de un artista famoso; sin embargo, crear un nuevo o arte con profunda resonancia cultural podría seguir siendo una fortaleza humana (posiblemente con la IA como colaboradora). Prevemos un futuro en el que los artistas humanos trabajen junto a "coartistas" de IA autónoma. Por ejemplo, se podría encargar a una IA personal la generación continua de arte para una galería digital en el hogar, proporcionando un ambiente creativo en constante evolución.

Desde el punto de vista de la fiabilidad, la IA generativa visual tiene, en cierto modo, un camino más fácil hacia la autonomía que el texto: una imagen puede considerarse subjetivamente "suficientemente buena" aunque no sea perfecta, mientras que un error fáctico en un texto resulta más problemático. Por lo tanto, ya observamos una adopción de riesgo relativamente bajo : si un diseño generado por IA es feo o incorrecto, simplemente no se utiliza, pero no causa ningún daño por sí mismo. Esto significa que, para la década de 2030, las empresas podrían sentirse cómodas dejando que la IA genere diseños sin supervisión y solo recurrir a humanos cuando se necesite algo realmente novedoso o arriesgado.

En resumen, se prevé que para 2035 la IA generativa se convierta en una poderosa herramienta para la creación de contenido visual, responsable probablemente de una parte significativa de las imágenes y los medios que nos rodean. Generará contenido de forma fiable para el entretenimiento, el diseño y la comunicación cotidiana. El artista autónomo está a la vuelta de la esquina, aunque el debate sobre si la IA se considera creativa o simplemente una herramienta muy inteligente evolucionará a medida que sus creaciones se vuelvan indistinguibles de las humanas.

IA generativa en el desarrollo de software (codificación)

El desarrollo de software puede parecer una tarea altamente analítica, pero también tiene un componente creativo: escribir código consiste fundamentalmente en crear texto en un lenguaje estructurado. La IA generativa moderna, especialmente los modelos de lenguaje grandes, ha demostrado ser muy hábil en la codificación. Herramientas como GitHub Copilot, Amazon CodeWhisperer y otras actúan como programadores de IA en pares, sugiriendo fragmentos de código o incluso funciones completas a medida que los desarrolladores escriben. ¿Hasta dónde puede llegar esto hacia la programación autónoma?

Capacidades actuales (2025): La IA como copiloto de codificación

Para 2025, los generadores de código de IA se habían vuelto comunes en los flujos de trabajo de muchos desarrolladores. Estas herramientas pueden autocompletar líneas de código, generar código repetitivo (como funciones o pruebas estándar) e incluso escribir programas sencillos con una descripción en lenguaje natural. Sin embargo, es crucial que funcionen bajo la supervisión de un desarrollador, quien revisa e integra las sugerencias de la IA.

Algunos datos y cifras actuales:

  • Más de la mitad de los desarrolladores profesionales habían adoptado asistentes de codificación de IA a finales de 2023 (Coding on Copilot: 2023 Data Suggests Downward Pressure on Code Quality (incl 2024 projections) - GitClear), lo que indica una rápida adopción. Se informó que GitHub Copilot, una de las primeras herramientas ampliamente disponibles, generaba en promedio entre el 30 y el 40 % del código en los proyectos donde se utilizaba (Coding is no more a MOAT. 46 % of codes on GitHub is already ...). Esto significa que la IA ya está escribiendo porciones significativas de código, aunque un humano lo dirige y valida.

  • Estas herramientas de IA son excelentes para tareas como escribir código repetitivo (p. ej., clases de modelos de datos, métodos getter/setter), convertir un lenguaje de programación a otro o generar algoritmos sencillos que se asemejan a ejemplos de entrenamiento. Por ejemplo, un desarrollador puede comentar "// función para ordenar la lista de usuarios por nombre" y la IA generará una función de ordenación adecuada casi al instante.

  • También ayudan a corregir errores y a explicar su funcionamiento: los desarrolladores pueden pegar un mensaje de error y la IA puede sugerir una solución, o preguntar "¿Qué hace este código?" y obtener una explicación en lenguaje natural. Esto es autónomo en cierto modo (la IA puede diagnosticar problemas por sí sola), pero un humano decide si aplicar o no la solución.

  • Es importante destacar que los asistentes de codificación de IA actuales no son infalibles. Pueden sugerir código inseguro o código que casi resuelve el problema, pero que contiene errores sutiles. Por lo tanto, la mejor práctica hoy en día es mantener la participación humana : el desarrollador prueba y depura el código escrito por IA del mismo modo que lo haría con código escrito por humanos. En industrias reguladas o software crítico (como sistemas médicos o de aviación), cualquier contribución de IA se somete a una revisión rigurosa.

Hoy en día, ningún sistema de software convencional se implementa completamente escrito por IA desde cero sin la supervisión de los desarrolladores. Sin embargo, están surgiendo algunos usos autónomos o semiautónomos:

  • Pruebas unitarias autogeneradas: La IA puede analizar código y generar pruebas unitarias para diversos casos. Un marco de pruebas podría generar y ejecutar de forma autónoma estas pruebas escritas por IA para detectar errores, complementando así las pruebas escritas por humanos.

  • Plataformas de bajo código/sin código con IA: Algunas plataformas permiten a usuarios sin conocimientos de programación describir lo que necesitan (por ejemplo, «crear una página web con un formulario de contacto y una base de datos para guardar entradas») y el sistema genera el código. Aunque aún se encuentra en sus primeras etapas, esto sugiere un futuro en el que la IA podría crear software de forma autónoma para casos de uso estándar.

  • Scripting y código de conexión: La automatización de TI a menudo implica escribir scripts para conectar sistemas. Las herramientas de IA suelen generar estos pequeños scripts automáticamente. Por ejemplo, escribir un script para analizar un archivo de registro y enviar una alerta por correo electrónico: una IA puede producir un script funcional con mínimas o ninguna modificación.

Perspectivas para 2030-2035: Hacia un software de desarrollo propio

En la próxima década, se espera que la IA generativa asuma una mayor parte de la carga de codificación, acercándose al desarrollo de software totalmente autónomo para ciertos tipos de proyectos. Algunos desarrollos proyectados:

  • Implementación completa de funciones: Para 2030, prevemos que la IA será capaz de implementar funciones sencillas de aplicaciones de principio a fin. Un gerente de producto podría describir una función en lenguaje sencillo («Los usuarios deberían poder restablecer su contraseña mediante un enlace de correo electrónico») y la IA podría generar el código necesario (formulario de interfaz, lógica de backend, actualización de la base de datos, envío de correo electrónico) e integrarlo en el código base. La IA actuaría, en la práctica, como un desarrollador junior capaz de seguir las especificaciones. Un ingeniero humano se limitaría a revisar el código y ejecutar pruebas. A medida que mejore la fiabilidad de la IA, la revisión del código podría convertirse en una simple ojeada, si es que llega a ser necesaria.

  • Mantenimiento autónomo de código: Una parte fundamental de la ingeniería de software no consiste solo en escribir código nuevo, sino también en actualizar el código existente: corregir errores, mejorar el rendimiento y adaptarlo a nuevos requisitos. Es probable que los futuros desarrolladores de IA destaquen en esta área. A partir de un código base y una instrucción ("nuestra aplicación falla cuando demasiados usuarios inician sesión simultáneamente"), la IA podría localizar el problema (como un error de concurrencia) y solucionarlo. Para 2035, los sistemas de IA podrían gestionar automáticamente las tareas de mantenimiento rutinarias durante la noche, funcionando como un equipo de mantenimiento incansable para los sistemas de software.

  • Integración y uso de API: A medida que más sistemas de software y API incluyan documentación legible por IA, un agente de IA podría determinar de forma independiente cómo conectar el Sistema A con el Servicio B escribiendo el código de integración. Por ejemplo, si una empresa desea que su sistema interno de RR. HH. se sincronice con una nueva API de nómina, podría encargar a una IA que "haga que se comuniquen entre sí", y esta escribirá el código de integración tras leer las especificaciones de ambos sistemas.

  • Calidad y optimización: Es probable que los futuros modelos de generación de código incorporen bucles de retroalimentación para verificar su funcionamiento (por ejemplo, mediante pruebas o simulaciones en un entorno aislado). Esto significa que una IA no solo podría escribir código, sino también autocorregirlo mediante pruebas. Para 2035, podríamos imaginar una IA que, ante una tarea, itere continuamente sobre su código hasta que todas las pruebas se superen, un proceso que un humano no necesitaría supervisar línea por línea. Esto aumentaría considerablemente la confianza en el código generado de forma autónoma.

Se puede imaginar un escenario para 2035 en el que un pequeño proyecto de software —por ejemplo, una aplicación móvil personalizada para una empresa— podría ser desarrollado en gran medida por un agente de IA con instrucciones de alto nivel. En ese escenario, el "desarrollador" humano actúa más como un gestor de proyectos o un validador, especificando requisitos y restricciones (seguridad, directrices de estilo) y dejando que la IA se encargue de la codificación.

Sin embargo, para software complejo y a gran escala (sistemas operativos, algoritmos avanzados de IA, etc.), los expertos humanos seguirán participando activamente. Es probable que la resolución creativa de problemas y el diseño arquitectónico del software sigan estando a cargo de humanos durante un tiempo. La IA puede encargarse de muchas tareas de codificación, pero decidir qué construir y diseñar la estructura general supone un reto diferente. Dicho esto, a medida que la IA generativa comience a colaborar —con múltiples agentes de IA gestionando distintos componentes de un sistema—, es concebible que puedan codiseñar arquitecturas hasta cierto punto (por ejemplo, una IA propone un diseño de sistema, otra lo critica y se itera, con un humano supervisando el proceso).

Una de las principales ventajas esperadas de la IA en la programación es el aumento de la productividad. Gartner predice que para 2028, el 90 % de los ingenieros de software utilizarán asistentes de código con IA (frente a menos del 15 % en 2024) (GitHub Copilot encabeza el informe de investigación sobre asistentes de código con IA - Visual Studio Magazine). Esto sugiere que los casos atípicos —aquellos que no utilicen IA— serán pocos. También podríamos ver una escasez de desarrolladores humanos en ciertas áreas, mitigada por la IA para cubrir esas carencias; en esencia, cada desarrollador puede hacer mucho más con un asistente de IA que pueda escribir código de forma autónoma.

La confianza seguirá siendo un tema central. Incluso en 2035, las organizaciones deberán garantizar que el código generado de forma autónoma sea seguro (la IA no debe introducir vulnerabilidades) y se ajuste a las normas legales y éticas (por ejemplo, la IA no incluye código plagiado de una biblioteca de código abierto sin la licencia correspondiente). Esperamos herramientas mejoradas de gobernanza de la IA que puedan verificar y rastrear el origen del código escrito por IA para facilitar una codificación más autónoma y sin riesgos.

En resumen, para mediados de la década de 2030, es probable que la IA generativa se encargue de la mayor parte de la codificación para las tareas rutinarias de software y asista significativamente en las complejas. El ciclo de vida del desarrollo de software estará mucho más automatizado, desde los requisitos hasta la implementación, y la IA podría generar e implementar cambios de código automáticamente. Los desarrolladores humanos se centrarán más en la lógica de alto nivel, la experiencia de usuario y la supervisión, mientras que los agentes de IA se encargarán de los detalles de la implementación.

IA generativa en atención y soporte al cliente

Si ha interactuado con un chat de atención al cliente en línea recientemente, es muy probable que una IA haya estado al otro lado durante al menos una parte. La atención al cliente es un campo propicio para la automatización con IA: implica responder a las consultas de los usuarios, algo que la IA generativa (especialmente los modelos conversacionales) puede hacer muy bien, y a menudo sigue scripts o artículos de la base de conocimientos, que la IA puede aprender. ¿Con qué autonomía puede la IA gestionar a los clientes?

Capacidades actuales (2025): Chatbots y agentes virtuales en primera línea

Actualmente, muchas organizaciones implementan chatbots de IA como primer punto de contacto en atención al cliente. Estos van desde bots sencillos basados ​​en reglas ("Pulse 1 para facturación, 2 para soporte...") hasta chatbots de IA generativa avanzados que pueden interpretar preguntas de formato libre y responder de forma conversacional. Puntos clave:

  • Manejo de preguntas frecuentes: Los agentes de IA son expertos en responder preguntas frecuentes, proporcionar información (horario de la tienda, políticas de reembolso, pasos para la solución de problemas conocidos) y guiar a los usuarios por los procedimientos estándar. Por ejemplo, un chatbot de IA para un banco puede ayudar a un usuario a consultar el saldo de su cuenta, restablecer una contraseña o explicar cómo solicitar un préstamo de forma autónoma, sin intervención humana.

  • Comprensión del lenguaje natural: Los modelos generativos modernos permiten una interacción más fluida y similar a la humana. Los clientes pueden escribir una pregunta con sus propias palabras y la IA suele comprender su intención. Las empresas informan que los agentes de IA actuales son mucho más satisfactorios para los clientes que los bots poco intuitivos de hace unos años; casi la mitad de los clientes ahora creen que los agentes de IA pueden ser empáticos y eficaces al abordar sus inquietudes (59 estadísticas de servicio al cliente de IA para 2025), lo que demuestra una creciente confianza en el servicio impulsado por IA.

  • Soporte multicanal: La IA no se limita al chat. Los asistentes de voz (como los sistemas IVR telefónicos con IA) están empezando a gestionar llamadas, y la IA también puede redactar respuestas por correo electrónico a las consultas de los clientes, que podrían enviarse automáticamente si se consideran precisas.

  • Cuando interviene un humano: Normalmente, si la IA se confunde o la pregunta es demasiado compleja, la transfiere a un agente humano. Los sistemas actuales suelen reconocer sus limitaciones . Por ejemplo, si un cliente pregunta algo inusual o muestra frustración («Esta es la tercera vez que me pongo en contacto con ustedes y estoy muy molesto…»), la IA podría indicar que un humano debe intervenir. Las empresas establecen el umbral para la transferencia a un humano con el fin de equilibrar la eficiencia con la satisfacción del cliente.

Muchas empresas han informado que una parte significativa de las interacciones se resuelve únicamente mediante IA. Según encuestas del sector, entre el 70 % y el 80 % de las consultas rutinarias de los clientes pueden ser gestionadas por chatbots de IA en la actualidad, y alrededor del 40 % de las interacciones de las empresas con sus clientes a través de los distintos canales ya están automatizadas o asistidas por IA (52 estadísticas de atención al cliente con IA que debería conocer - Plivo). El Índice Global de Adopción de IA de IBM (2022) indicó que el 80 % de las empresas utilizan o planean utilizar chatbots de IA para la atención al cliente para 2025.

Un avance interesante es que la IA no solo responde a los clientes, sino que también asiste de forma proactiva a los agentes humanos en tiempo real. Por ejemplo, durante un chat o una llamada en directo, una IA podría escuchar y proporcionar al agente humano sugerencias de respuestas o información relevante al instante. Esto difumina la línea entre autonomía y servicio: la IA no interactúa sola con el cliente, sino que participa activamente sin necesidad de una consulta humana explícita. En la práctica, actúa como un asesor autónomo para el agente.

Perspectivas para 2030-2035: interacciones con los clientes impulsadas principalmente por la IA

Para 2030, se espera que la mayoría de las interacciones de atención al cliente involucren IA, y muchas serán gestionadas íntegramente por IA de principio a fin. Predicciones y tendencias que respaldan esto:

  • Resolución de consultas de mayor complejidad: A medida que los modelos de IA integran un vasto conocimiento y mejoran su razonamiento, podrán gestionar solicitudes de clientes más complejas. En lugar de simplemente responder "¿Cómo devuelvo un artículo?", la IA del futuro podría gestionar problemas de varios pasos, como "No tengo internet, he intentado reiniciar, ¿pueden ayudarme?", diagnosticando el problema mediante un diálogo, guiando al cliente a través de la resolución de problemas avanzada y, solo si todo lo demás falla, programando la visita de un técnico; tareas que hoy en día probablemente requerirían un técnico de soporte humano. En el servicio de atención al cliente en el sector sanitario, una IA podría gestionar la programación de citas de pacientes o las consultas sobre seguros de principio a fin.

  • Resolución de servicio integral: Es posible que veamos a la IA no solo indicándole al cliente qué hacer, sino ejecutándolo en su nombre dentro de los sistemas internos. Por ejemplo, si un cliente dice: «Quiero cambiar mi vuelo al próximo lunes y añadir otra maleta», un agente de IA en 2030 podría interactuar directamente con el sistema de reservas de la aerolínea, realizar el cambio, procesar el pago de la maleta y confirmarlo al cliente, todo de forma autónoma. La IA se convierte en un agente de servicio completo, no solo en una fuente de información.

  • Agentes de IA omnipresentes: Es probable que las empresas implementen la IA en todos los puntos de contacto con el cliente: teléfono, chat, correo electrónico y redes sociales. Muchos clientes ni siquiera se darán cuenta de si están hablando con una IA o con un humano, especialmente a medida que las voces de la IA se vuelvan más naturales y las respuestas de chat sean más contextuales. Para 2035, contactar con el servicio de atención al cliente podría significar interactuar con una IA inteligente que recuerde tus interacciones anteriores, comprenda tus preferencias y se adapte a tu tono; en esencia, un agente virtual personalizado para cada cliente.

  • Toma de decisiones de IA en las interacciones: Más allá de responder preguntas, la IA comenzará a tomar decisiones que actualmente requieren aprobación gerencial. Por ejemplo, hoy un agente humano podría necesitar la aprobación de un supervisor para ofrecer un reembolso o un descuento especial para calmar a un cliente enojado. En el futuro, se podría confiar a una IA esas decisiones, dentro de límites definidos, basándose en el valor de vida del cliente calculado y el análisis de sentimientos. Un estudio de Futurum/IBM proyectó que para 2030, alrededor del 69 % de las decisiones tomadas durante las interacciones con los clientes en tiempo real serán tomadas por máquinas inteligentes (Para reimaginar el cambio a CX, los especialistas en marketing deben hacer estas 2 cosas), lo que significa que la IA decidirá el mejor curso de acción en una interacción.

  • Participación total de la IA: Un informe sugiere que la IA acabará desempeñando un papel fundamental en cada interacción con el cliente (59 estadísticas sobre atención al cliente con IA para 2025), ya sea de forma directa o en segundo plano. Esto podría significar que, incluso si un humano interactúa con un cliente, recibirá asistencia de la IA (proporcionando sugerencias, recuperando información). Otra interpretación es que ninguna consulta del cliente quedará sin respuesta en ningún momento: si los humanos no están disponibles, la IA siempre estará ahí.

Para 2035, podríamos encontrarnos con agentes humanos de atención al cliente especializados únicamente en las situaciones más sensibles o de alto contacto (por ejemplo, clientes VIP o resolución de quejas complejas que requieren empatía humana). Las consultas habituales, desde banca hasta comercio minorista y soporte técnico, podrían ser atendidas por un equipo de agentes de IA trabajando 24/7, aprendiendo continuamente de cada interacción. Este cambio podría hacer que la atención al cliente sea más consistente e inmediata, ya que la IA no mantiene a los clientes en espera y, en teoría, puede realizar múltiples tareas para atender a un número ilimitado de clientes simultáneamente.

Esta visión presenta desafíos que superar: la IA debe ser muy robusta para gestionar la imprevisibilidad de los clientes humanos. Debe ser capaz de gestionar la jerga, la ira, la confusión y la infinita variedad de formas de comunicación. También necesita conocimientos actualizados (no tiene sentido si la información de la IA está desactualizada). Invirtiendo en la integración entre la IA y las bases de datos de la empresa (para obtener información en tiempo real sobre pedidos, interrupciones, etc.), se pueden superar estos obstáculos.

Desde un punto de vista ético, las empresas deberán decidir cuándo revelar que "estás hablando con una IA" y garantizar la imparcialidad (que la IA no discrimine negativamente a ciertos clientes debido a un entrenamiento sesgado). Si se gestionan estos aspectos, el argumento comercial es sólido: el servicio de atención al cliente con IA puede reducir drásticamente los costos y los tiempos de espera. Se prevé que el mercado de la IA en el servicio de atención al cliente alcance decenas de miles de millones de dólares para 2030 (Informe de mercado de la IA en el servicio de atención al cliente 2025-2030: Caso práctico) (Cómo la IA generativa está impulsando la logística | Ryder) a medida que las organizaciones invierten en estas capacidades.

En resumen, cabe esperar un futuro donde la atención al cliente autónoma mediante IA sea la norma. Obtener ayuda a menudo implicará interactuar con una máquina inteligente capaz de resolver el problema rápidamente. Los humanos seguirán participando en la supervisión y la gestión de casos excepcionales, pero más bien como supervisores de la IA. El resultado podría ser un servicio más rápido y personalizado para los consumidores, siempre y cuando la IA esté debidamente entrenada y supervisada para evitar las frustraciones de las antiguas líneas telefónicas automatizadas.

IA generativa en la atención médica y la medicina

La atención médica es un campo con mucho en juego. La idea de que la IA opere sin supervisión humana en medicina genera tanto entusiasmo (por su eficiencia y alcance) como cautela (por razones de seguridad y empatía). La IA generativa ha comenzado a incursionar en áreas como el análisis de imágenes médicas, la documentación clínica e incluso el descubrimiento de fármacos. ¿Qué puede hacer responsablemente por sí sola?

Capacidades actuales (2025): Asistir a los médicos, no reemplazarlos

Actualmente, la IA generativa en el ámbito sanitario actúa principalmente como un potente asistente para los profesionales médicos, más que como un responsable autónomo de la toma de decisiones. Por ejemplo:

  • Documentación médica: Una de las aplicaciones más exitosas de la IA en el sector sanitario es la asistencia a los médicos con el papeleo. Los modelos de lenguaje natural pueden transcribir las consultas y generar notas clínicas o resúmenes de alta. Algunas empresas cuentan con asistentes de IA que escuchan durante una exploración (mediante micrófono) y generan automáticamente un borrador de las notas de la consulta para que el médico las revise. Esto ahorra tiempo a los médicos. Algunos sistemas incluso rellenan automáticamente partes de las historias clínicas electrónicas. Esto se puede hacer con una mínima intervención: el médico solo corrige pequeños errores en el borrador, lo que significa que la redacción de las notas es prácticamente autónoma.

  • Radiología e imagenología: La IA, incluidos los modelos generativos, puede analizar radiografías, resonancias magnéticas y tomografías computarizadas para detectar anomalías (como tumores o fracturas). En 2018, la FDA aprobó un sistema de IA para la detección autónoma de retinopatía diabética (una afección ocular) en imágenes de retina; cabe destacar que se le autorizó a realizar el diagnóstico sin la revisión de un especialista en ese contexto específico de detección. Si bien ese sistema no era de IA generativa, demuestra que los reguladores han permitido el diagnóstico autónomo mediante IA en casos limitados. Los modelos generativos entran en juego para crear informes completos. Por ejemplo, una IA podría examinar una radiografía de tórax y redactar un informe radiológico que diga: «Sin hallazgos agudos. Pulmones limpios. Corazón de tamaño normal». El radiólogo simplemente lo confirma y lo firma. En algunos casos rutinarios, estos informes podrían emitirse sin modificaciones si el radiólogo confía en la IA y solo realiza una revisión rápida.

  • Verificadores de síntomas y enfermeras virtuales: Los chatbots de IA generativa se utilizan como verificadores de síntomas de primera línea. Los pacientes pueden ingresar sus síntomas y recibir consejos (por ejemplo, «Podría ser un resfriado común; descanse y beba líquidos, pero consulte a un médico si ocurre X o Y»). Aplicaciones como Babylon Health utilizan IA para brindar recomendaciones. Actualmente, estas recomendaciones suelen ser informativas, no consejos médicos definitivos, y fomentan el seguimiento con un profesional de la salud en caso de problemas graves.

  • Descubrimiento de fármacos (Química generativa): Los modelos de IA generativa pueden proponer nuevas estructuras moleculares para fármacos. Esto se centra más en la investigación que en la atención al paciente. Estas IA trabajan de forma autónoma para sugerir miles de compuestos candidatos con las propiedades deseadas, que luego son revisados ​​y probados por químicos humanos en el laboratorio. Empresas como Insilico Medicine han utilizado la IA para generar nuevos fármacos candidatos en mucho menos tiempo. Si bien esto no interactúa directamente con los pacientes, es un ejemplo de cómo la IA crea de forma autónoma soluciones (diseños moleculares) que a los humanos les habría llevado mucho más tiempo encontrar.

  • Operaciones de atención médica: La IA está ayudando a optimizar la programación, la gestión de suministros y otros aspectos logísticos en los hospitales. Por ejemplo, un modelo generativo podría simular el flujo de pacientes y sugerir ajustes en la programación para reducir los tiempos de espera. Aunque no son tan visibles, estas son decisiones que la IA puede tomar con mínimas modificaciones manuales.

Es importante señalar que, a partir de 2025, ningún hospital permitirá que la IA tome decisiones médicas importantes o realice tratamientos de forma independiente sin la aprobación humana. El diagnóstico y la planificación del tratamiento siguen estando firmemente en manos humanas, con la IA aportando información. La confianza necesaria para que una IA pueda decirle a un paciente de forma totalmente autónoma «Tienes cáncer» o recetarle medicamentos aún no existe, ni debería existir sin una validación exhaustiva. Los profesionales médicos utilizan la IA como un segundo par de ojos o como una herramienta para ahorrar tiempo, pero verifican los resultados críticos.

Perspectivas para 2030-2035: La IA como colega del médico (y quizás del enfermero o del farmacéutico)

En la próxima década, esperamos que la IA generativa asuma tareas clínicas más rutinarias de forma autónoma y mejore el alcance de los servicios de atención médica:

  • Diagnósticos preliminares automatizados: Para 2030, la IA podría gestionar de forma fiable el análisis inicial de muchas afecciones comunes. Imagínese un sistema de IA en una clínica que lee los síntomas del paciente, su historial médico, incluso su tono de voz y expresiones faciales a través de una cámara, y proporciona una sugerencia de diagnóstico y pruebas recomendadas, todo antes de que el médico humano vea al paciente. El médico puede entonces centrarse en confirmar y analizar el diagnóstico. En la telemedicina, un paciente podría conversar primero con una IA que acote el problema (por ejemplo, una posible infección sinusal frente a algo más grave) y luego lo conecte con un médico si es necesario. Los organismos reguladores podrían permitir que la IA oficialmente ciertas afecciones menores sin supervisión humana si se demuestra que es extremadamente precisa; por ejemplo, sería posible que una IA diagnosticara una simple infección de oído a partir de una imagen de otoscopia.

  • Monitores de salud personales: Con la proliferación de dispositivos portátiles (relojes inteligentes, sensores de salud), la IA monitorizará a los pacientes de forma continua y alertará de manera autónoma sobre posibles problemas. Por ejemplo, para 2035, la IA de tu dispositivo portátil podría detectar un ritmo cardíaco anormal y programar automáticamente una consulta virtual urgente o incluso llamar a una ambulancia si detecta signos de un ataque cardíaco o un derrame cerebral. Esto entra en el terreno de la toma de decisiones autónoma —decidir que una situación es una emergencia y actuar en consecuencia—, lo que representa un uso probable y vital de la IA.

  • Recomendaciones de tratamiento: La IA generativa, entrenada con literatura médica y datos de pacientes, podría sugerir planes de tratamiento personalizados. Para 2030, en el caso de enfermedades complejas como el cáncer, los comités oncológicos basados ​​en IA podrían analizar la composición genética y el historial médico del paciente y elaborar de forma autónoma un régimen de tratamiento recomendado (plan de quimioterapia, selección de fármacos). Los médicos lo revisarían, pero con el tiempo, a medida que aumente su confianza, podrían empezar a aceptar los planes generados por la IA, especialmente para casos rutinarios, ajustándolos solo cuando sea necesario.

  • Enfermeras virtuales y atención domiciliaria: Una IA capaz de conversar y brindar orientación médica podría encargarse de gran parte del seguimiento y la monitorización de enfermedades crónicas. Por ejemplo, los pacientes con enfermedades crónicas en casa podrían informar diariamente sus parámetros a una enfermera virtual que les aconsejaría («Su nivel de azúcar en sangre está un poco alto; considere ajustar su merienda de la noche») y solo recurriría a una enfermera humana si las lecturas estuvieran fuera de rango o surgieran problemas. Esta IA podría operar de forma prácticamente autónoma bajo la supervisión remota de un médico.

  • Imágenes médicas y análisis de laboratorio: Procesos totalmente automatizados: Para 2035, la lectura de escáneres médicos podría realizarse principalmente mediante IA en algunos campos. Los radiólogos supervisarían los sistemas de IA y gestionarían los casos complejos, pero la mayoría de los escáneres normales (que, de hecho, son normales) podrían ser interpretados y aprobados directamente por una IA. Del mismo modo, el análisis de muestras patológicas (por ejemplo, la detección de células cancerosas en una biopsia) podría realizarse de forma autónoma para la evaluación inicial, lo que aceleraría drásticamente los resultados de laboratorio.

  • Descubrimiento de fármacos y ensayos clínicos: Es probable que la IA no solo diseñe moléculas de fármacos, sino que también genere datos sintéticos de pacientes para ensayos o encuentre candidatos óptimos. Podría ejecutar ensayos virtuales de forma autónoma (simulando la reacción de los pacientes) para reducir las opciones antes de los ensayos reales. Esto puede acelerar la comercialización de medicamentos con menos experimentos humanos.

La visión de que un médico con IA reemplace por completo a un médico humano aún está lejos y sigue siendo controvertida. Incluso para 2035, se espera que la IA colabore con los médicos en lugar de sustituir la atención humana. Los diagnósticos complejos a menudo requieren intuición, ética y conversaciones para comprender el contexto del paciente, áreas en las que los médicos humanos destacan. Dicho esto, una IA podría encargarse, por ejemplo, del 80 % de la carga de trabajo rutinaria: papeleo, casos sencillos, seguimiento, etc., lo que permitiría a los médicos humanos centrarse en el 20 % restante, más complejo, y en la relación con los pacientes.

Existen obstáculos importantes: la aprobación regulatoria para la IA autónoma en el ámbito sanitario es rigurosa (y con razón). Los sistemas de IA requerirán una amplia validación clínica. Podríamos ver una aceptación gradual; por ejemplo, se permite que la IA diagnostique o trate de forma autónoma en zonas desatendidas donde no hay médicos disponibles, como una forma de ampliar el acceso a la atención médica (imaginemos una "clínica de IA" en una aldea remota para 2030 que funcione con telesupervisión periódica de un médico en la ciudad).

Las consideraciones éticas cobran gran importancia. La rendición de cuentas (si una IA autónoma se equivoca en el diagnóstico, ¿quién es responsable?), el consentimiento informado (los pacientes necesitan saber si la IA participa en su atención) y garantizar la equidad (la IA funciona bien en todas las poblaciones, evitando sesgos) son desafíos que hay que afrontar. Suponiendo que se aborden, para mediados de la década de 2030, la IA generativa podría integrarse en la prestación de servicios de salud, realizando numerosas tareas que liberan a los profesionales humanos y potencialmente llegando a pacientes que actualmente tienen acceso limitado.

En resumen, para 2035, es probable que la IA esté profundamente integrada en el sector sanitario, aunque principalmente de forma discreta o en funciones de apoyo. Confiaremos en que la IA realice muchas tareas por sí sola —interpretar escáneres, monitorizar constantes vitales, elaborar planes—, pero con la supervisión humana como garantía para las decisiones críticas. El resultado podría ser un sistema sanitario más eficiente y con mayor capacidad de respuesta, donde la IA se encargue de las tareas más complejas y los humanos aporten la empatía y el criterio final.

IA generativa en la educación

La educación es otro campo donde la IA generativa está causando sensación, desde bots de tutoría impulsados ​​por IA hasta la calificación automatizada y la creación de contenido. La enseñanza y el aprendizaje implican comunicación y creatividad, puntos fuertes de los modelos generativos. Pero ¿se puede confiar en la IA para educar sin la supervisión de un profesor?

Capacidades actuales (2025): Tutores y generadores de contenido con correa

Actualmente, la IA se utiliza en la educación principalmente como una herramienta complementaria, más que como un docente independiente. Ejemplos de uso actual:

  • Asistentes de tutoría con IA: Herramientas como “Khanmigo” de Khan Academy (con tecnología GPT-4) o diversas aplicaciones de aprendizaje de idiomas utilizan IA para simular un tutor personal o un compañero de conversación. Los estudiantes pueden hacer preguntas en lenguaje natural y obtener respuestas o explicaciones. La IA puede proporcionar pistas para resolver problemas de tarea, explicar conceptos de diferentes maneras o incluso representar el papel de un personaje histórico en una lección de historia interactiva. Sin embargo, estos tutores de IA suelen utilizarse bajo supervisión; los profesores o los responsables de la aplicación a menudo supervisan los diálogos o establecen límites sobre lo que la IA puede abordar (para evitar información errónea o contenido inapropiado).

  • Creación de contenido para docentes: La IA generativa ayuda a los docentes creando preguntas para cuestionarios, resúmenes de lecturas, esquemas de planes de clase, etc. Un docente podría pedirle a la IA: «Genera 5 problemas de práctica sobre ecuaciones cuadráticas con sus respuestas», ahorrando así tiempo en la preparación. Se trata de generación de contenido autónoma, pero el docente suele revisar el resultado para comprobar su precisión y coherencia con el currículo. Por lo tanto, es más una herramienta que ahorra trabajo que una solución totalmente independiente.

  • Calificación y retroalimentación: La IA puede calificar automáticamente exámenes de opción múltiple (nada nuevo) y, cada vez más, evaluar respuestas cortas o ensayos. Algunos sistemas escolares utilizan la IA para calificar respuestas escritas y proporcionar retroalimentación a los estudiantes (por ejemplo, correcciones gramaticales o sugerencias para ampliar un argumento). Si bien no es una tarea generativa en sí misma, las nuevas IA pueden incluso generar un informe de retroalimentación personalizado para cada estudiante en función de su desempeño, destacando las áreas de mejora. Los profesores suelen revisar los ensayos calificados por IA en esta etapa debido a la preocupación por los matices.

  • Sistemas de aprendizaje adaptativo: Estas plataformas ajustan la dificultad o el estilo del material según el rendimiento del estudiante. La IA generativa mejora este proceso creando nuevos problemas o ejemplos sobre la marcha, adaptados a las necesidades del estudiante. Por ejemplo, si un estudiante tiene dificultades con un concepto, la IA podría generar otra analogía o pregunta de práctica centrada en ese concepto. Esto es parcialmente autónomo, pero dentro de un sistema diseñado por educadores.

  • Uso por parte de los estudiantes para el aprendizaje: Los propios estudiantes utilizan herramientas como ChatGPT para facilitar su aprendizaje, solicitando aclaraciones, traducciones o incluso recurriendo a la IA para obtener retroalimentación sobre un borrador de ensayo («mejora mi párrafo introductorio»). Este aprendizaje es autodirigido y puede realizarse sin la intervención del profesor. En este caso, la IA actúa como tutor o corrector a demanda. El reto consiste en garantizar que los estudiantes la utilicen para aprender y no solo para obtener respuestas (integridad académica).

Está claro que, a partir de 2025, la IA en la educación es potente, pero suele operar con un educador humano que gestiona sus contribuciones. Existe una cautela comprensible: no queremos confiar en una IA para enseñar información incorrecta ni para gestionar interacciones sensibles con los estudiantes de forma aislada. Los docentes ven a los tutores de IA como asistentes útiles que pueden brindar a los estudiantes más práctica y respuestas inmediatas a preguntas rutinarias, lo que les permite centrarse en una mentoría más profunda.

Perspectivas para 2030-2035: Tutores de IA personalizados y asistentes de enseñanza automatizados

En la próxima década, prevemos que la IA generativa permitirá experiencias de aprendizaje más personalizadas y autónomas, al tiempo que evolucionan los roles de los docentes:

  • Tutores personales de IA para cada estudiante: Para 2030, la visión (compartida por expertos como Sal Khan de la Khan Academy) es que cada estudiante podría tener acceso a un tutor de IA tan eficaz como un tutor humano en muchos aspectos (Este tutor de IA podría hacer a los humanos 10 veces más inteligentes, dice su creador). Estos tutores de IA estarían disponibles las 24 horas del día, los 7 días de la semana, conocerían a fondo el historial de aprendizaje del estudiante y adaptarían su estilo de enseñanza en consecuencia. Por ejemplo, si un estudiante aprende visualmente y tiene dificultades con un concepto de álgebra, la IA podría crear dinámicamente una explicación visual o una simulación interactiva para ayudarlo. Dado que la IA puede hacer un seguimiento del progreso del estudiante a lo largo del tiempo, puede decidir de forma autónoma qué tema repasar a continuación o cuándo avanzar a una nueva habilidad, gestionando eficazmente el plan de lecciones para ese estudiante a nivel micro.

  • Reducción de la carga de trabajo docente en tareas rutinarias: calificar, crear hojas de ejercicios, elaborar materiales didácticos... estas tareas podrían delegarse casi por completo a la IA para la década de 2030. Una IA podría generar tareas personalizadas para toda la semana, calificar todas las tareas de la semana anterior (incluso las de respuesta abierta) con retroalimentación y señalar al profesor qué alumnos podrían necesitar ayuda adicional en qué temas. Esto podría ocurrir con una mínima intervención del profesor, tal vez solo un vistazo rápido para asegurarse de que las calificaciones de la IA sean justas.

  • Plataformas de aprendizaje adaptativo autónomo: Es posible que veamos cursos totalmente impulsados ​​por IA para ciertas materias. Imaginemos un curso en línea sin instructor humano, donde un agente de IA presenta el material, proporciona ejemplos, responde preguntas y ajusta el ritmo según el estudiante. La experiencia de cada estudiante sería única y se generaría en tiempo real. Algunos programas de capacitación corporativa y aprendizaje para adultos podrían adoptar este modelo antes, de modo que para 2035 un empleado podría decir: "Quiero aprender macros avanzadas de Excel" y un tutor de IA le enseñaría mediante un plan de estudios personalizado, incluyendo la generación de ejercicios y la evaluación de sus soluciones, sin la intervención de un instructor humano.

  • Asistentes de IA en el aula: En aulas físicas o virtuales, la IA podría escuchar las discusiones de clase y ayudar al profesor en tiempo real (por ejemplo, susurrando sugerencias a través del auricular: «Varios alumnos parecen confundidos con ese concepto; tal vez podrías dar otro ejemplo»). También podría moderar foros de clase en línea, responder preguntas sencillas de los alumnos («¿Cuándo vence la tarea?» o incluso aclarar algún punto de la clase) para que el profesor no se vea abrumado por los correos electrónicos. Para 2035, contar con un co-profesor de IA en el aula, mientras el profesor humano se centra en la orientación y la motivación de nivel superior, podría ser lo habitual.

  • Acceso global a la educación: Los tutores autónomos de IA podrían ayudar a educar a estudiantes en zonas con escasez de docentes. Una tableta con un tutor de IA podría servir como instructor principal para estudiantes con acceso limitado a la educación, impartiendo conocimientos básicos de lectura, escritura y matemáticas. Para 2035, este podría ser uno de los usos más impactantes: la IA cerrando brechas donde no hay docentes humanos disponibles. Sin embargo, será fundamental garantizar la calidad y la adecuación cultural de la educación con IA en diferentes contextos.

¿Reemplazará la IA a los profesores? Es poco probable que lo haga por completo. Enseñar va más allá de impartir conocimientos: implica mentoría, inspiración y apoyo socioemocional. Estos elementos humanos son difíciles de replicar para la IA. Sin embargo, la IA puede convertirse en un segundo profesor en el aula, o incluso en el principal, para la transmisión de conocimientos, permitiendo que los educadores humanos se centren en lo que mejor saben hacer: empatizar, motivar y fomentar el pensamiento crítico.

Existen preocupaciones que gestionar: garantizar que la IA proporcione información precisa (sin alucinaciones educativas basadas en datos falsos), evitar sesgos en el contenido educativo, proteger la privacidad de los datos de los estudiantes y mantener su interés (la IA debe ser motivadora, no solo correcta). Probablemente veremos la acreditación o certificación de los sistemas educativos de IA —similar a la aprobación de libros de texto— para garantizar que cumplan con los estándares.

Otro desafío es la dependencia excesiva: si un tutor de IA da respuestas con demasiada rapidez, los estudiantes podrían no aprender a perseverar ni a resolver problemas. Para mitigar esto, los futuros tutores de IA podrían diseñarse para que, en ocasiones, permitan a los estudiantes esforzarse (como lo haría un tutor humano) o para animarlos a resolver problemas con pistas en lugar de ofrecer soluciones.

Para 2035, el aula podría transformarse: cada estudiante con un dispositivo conectado a IA que lo guía a su propio ritmo, mientras el profesor organiza las actividades grupales y ofrece perspectiva humana. La educación podría ser más eficiente y personalizada. La promesa es que cada estudiante reciba la ayuda que necesita cuando la necesita: una verdadera experiencia de "tutor personal" a gran escala. El riesgo es perder el contacto humano o hacer un mal uso de la IA (como cuando los estudiantes hacen trampa con ella). Pero, en general, si se gestiona bien, la IA generativa puede democratizar y mejorar el aprendizaje al ser un compañero siempre disponible y experto en el camino educativo del estudiante.

IA generativa en logística y cadena de suministro

La logística —el arte y la ciencia de transportar mercancías y gestionar las cadenas de suministro— puede no parecer un dominio tradicional para la IA generativa, pero la resolución creativa de problemas y la planificación son clave en este campo. La IA generativa puede ayudar simulando escenarios, optimizando planes e incluso controlando sistemas robóticos. El objetivo en logística es la eficiencia y el ahorro de costes, lo cual se alinea perfectamente con las fortalezas de la IA para analizar datos y proponer soluciones. Entonces, ¿cuánta autonomía puede alcanzar la IA en la gestión de las cadenas de suministro y las operaciones logísticas?

Capacidades actuales (2025): Optimización y agilización con supervisión humana

Hoy en día, la IA (incluidos algunos enfoques generativos) se aplica en logística principalmente como una herramienta de apoyo a la toma de decisiones:

  • Optimización de rutas: Empresas como UPS y FedEx ya utilizan algoritmos de IA para optimizar las rutas de entrega, garantizando que los conductores elijan el camino más eficiente. Tradicionalmente, estos algoritmos se basaban en la investigación operativa, pero ahora los enfoques generativos permiten explorar estrategias de enrutamiento alternativas en diversas condiciones (tráfico, clima). Si bien la IA sugiere rutas, los operadores o gerentes humanos establecen los parámetros (por ejemplo, las prioridades) y pueden modificarlos si es necesario.

  • Planificación de carga y espacio: Para el embalaje de camiones o contenedores de envío, la IA puede generar planes de carga óptimos (qué caja va dónde). Una IA generativa podría producir múltiples configuraciones de embalaje para maximizar el uso del espacio, esencialmente "creando" soluciones entre las que los humanos pueden elegir. Esto se destacó en un estudio que señaló que los camiones a menudo circulan con un 30 % de vacío en EE. UU., y una mejor planificación, con la ayuda de la IA, puede reducir ese desperdicio (Principales casos de uso de IA generativa en logística). Estos planes de carga generados por IA tienen como objetivo reducir los costos de combustible y las emisiones, y en algunos almacenes se ejecutan con cambios manuales mínimos.

  • Previsión de la demanda y gestión de inventario: Los modelos de IA pueden predecir la demanda de productos y generar planes de reabastecimiento. Un modelo generativo podría simular diferentes escenarios de demanda (por ejemplo, una IA "imagina" un aumento repentino de la demanda debido a una próxima festividad) y planificar el inventario en consecuencia. Esto ayuda a los gestores de la cadena de suministro a prepararse. Actualmente, la IA proporciona previsiones y sugerencias, pero la decisión final sobre los niveles de producción o los pedidos suele recaer en los humanos.

  • Evaluación de riesgos: La cadena de suministro global se enfrenta a interrupciones (desastres naturales, retrasos en puertos, problemas políticos). Los sistemas de IA ahora analizan noticias y datos para identificar riesgos inminentes. Por ejemplo, una empresa de logística utiliza IA generativa para analizar internet y señalar corredores de transporte de riesgo (zonas con probabilidad de problemas debido, por ejemplo, a la llegada de un huracán o disturbios) (Principales casos de uso de IA generativa en logística). Con esta información, los planificadores pueden redirigir los envíos de forma autónoma evitando las zonas problemáticas. En algunos casos, la IA puede recomendar automáticamente cambios de ruta o de modo de transporte, que posteriormente son aprobados por los usuarios.

  • Automatización de almacenes: Muchos almacenes están semiautomatizados con robots para la preparación y el empaquetado de pedidos. La IA generativa puede asignar tareas dinámicamente a robots y humanos para optimizar el flujo de trabajo. Por ejemplo, una IA podría generar la cola de tareas para los robots recolectores cada mañana en función de los pedidos. Este proceso suele ser totalmente autónomo, y los gerentes solo supervisan los indicadores clave de rendimiento (KPI). Si los pedidos aumentan inesperadamente, la IA ajusta las operaciones automáticamente.

  • Gestión de flotas: La IA ayuda a programar el mantenimiento de los vehículos analizando patrones y generando programas de mantenimiento óptimos que minimizan el tiempo de inactividad. También puede agrupar los envíos para reducir los viajes. El software de IA puede tomar estas decisiones automáticamente, siempre que cumpla con los requisitos del servicio.

En general, a partir de 2025, los humanos establecen los objetivos (p. ej., «minimizar costes, pero garantizar una entrega en dos días») y la IA genera soluciones o programas para lograrlos. Los sistemas pueden funcionar a diario sin intervención hasta que ocurre algo inusual. Gran parte de la logística implica decisiones repetitivas (¿cuándo debe salir este envío? ¿Desde qué almacén se debe procesar este pedido?), que la IA puede aprender a tomar de forma consistente. Las empresas confían gradualmente en la IA para gestionar estas microdecisiones y solo alertan a los gerentes cuando ocurren excepciones.

Perspectivas para 2030-2035: Cadenas de suministro autónomas

En la próxima década, podemos imaginar una coordinación mucho más autónoma en logística impulsada por IA:

  • Vehículos autónomos y drones: Los camiones autónomos y los drones de reparto, si bien constituyen un tema más amplio de IA/robótica, impactan directamente en la logística. Para 2030, si se superan los desafíos regulatorios y técnicos, podríamos ver camiones con IA conduciendo rutinariamente en autopistas o drones gestionando la entrega de última milla en las ciudades. Estas IA tomarán decisiones en tiempo real (cambios de ruta, evasión de obstáculos) sin conductores humanos. El aspecto generativo reside en cómo estas IA vehiculares aprenden de grandes cantidades de datos y simulaciones, entrenándose efectivamente en innumerables escenarios. Una flota totalmente autónoma podría operar las 24 horas del día, los 7 días de la semana, con la supervisión humana únicamente remota. Esto elimina un gran elemento humano (conductores) de las operaciones logísticas, aumentando drásticamente la autonomía.

  • Cadenas de suministro autorreparables: Es probable que la IA generativa se utilice para simular constantemente escenarios de la cadena de suministro y preparar planes de contingencia. Para 2035, una IA podría detectar automáticamente el cierre de una fábrica proveedora (a través de noticias o flujos de datos) y inmediatamente el abastecimiento a proveedores alternativos previamente evaluados mediante simulación. Esto significa que la cadena de suministro se "repara" de las interrupciones gracias a la iniciativa de la IA. Los gerentes humanos serían informados de las acciones de la IA, en lugar de ser quienes implementan la solución alternativa.

  • Optimización integral del inventario: La IA podría gestionar de forma autónoma el inventario en toda una red de almacenes y tiendas. Decidiría cuándo y dónde trasladar las existencias (quizás mediante robots o vehículos automatizados), manteniendo el inventario justo en cada ubicación. Básicamente, la IA controla la cadena de suministro: supervisa todos los flujos y realiza ajustes en tiempo real. Para 2035, la idea de una cadena de suministro "autónoma" podría significar que el sistema determine el mejor plan de distribución cada día, solicite productos, programe la producción y organice el transporte por sí solo. Los humanos supervisarían la estrategia general y gestionarían las excepciones que escapen a la comprensión actual de la IA.

  • Diseño generativo en logística: Podríamos ver a la IA diseñando nuevas redes de cadena de suministro. Supongamos que una empresa se expande a una nueva región; una IA podría generar las ubicaciones óptimas de almacenes, enlaces de transporte y políticas de inventario para esa región a partir de datos, algo que consultores y analistas ya hacen. Para 2030, las empresas podrían depender de las recomendaciones de la IA para la toma de decisiones sobre el diseño de la cadena de suministro, confiando en que esta evalúe los factores con mayor rapidez y tal vez encuentre soluciones creativas (como centros de distribución no obvios) que los humanos pasan por alto.

  • Integración con la Manufactura (Industria 4.0): La logística no funciona de forma aislada; está intrínsecamente ligada a la producción. Las fábricas del futuro podrían contar con IA generativa para programar la producción, solicitar materias primas justo a tiempo e instruir a la red logística para el envío inmediato de los productos. Esta IA integrada podría reducir la necesidad de planificación humana en general: una cadena fluida desde la fabricación hasta la entrega, impulsada por algoritmos que optimizan el costo, la velocidad y la sostenibilidad. De hecho, para 2025, las cadenas de suministro de alto rendimiento ya se basan en datos; para 2035, podrían estar impulsadas en gran medida por la IA.

  • Servicio al cliente dinámico en logística: Basándose en la IA de servicio al cliente, las IA de la cadena de suministro podrían interactuar directamente con los clientes. Por ejemplo, si un cliente importante desea modificar un pedido a granel a última hora, un agente de IA podría negociar alternativas viables (como «Podemos entregar la mitad ahora y la otra mitad la semana que viene debido a limitaciones») sin necesidad de un gerente humano. Esto implica que la IA generativa comprenda ambas partes (la necesidad del cliente frente a la capacidad operativa) y tome decisiones que mantengan la fluidez de las operaciones y, al mismo tiempo, satisfagan a los clientes.

El beneficio esperado es un sistema logístico más eficiente, resiliente y con mayor capacidad de respuesta . Las empresas prevén enormes ahorros: McKinsey estimó que las optimizaciones de la cadena de suministro impulsadas por IA podrían reducir significativamente los costos y mejorar los niveles de servicio, agregando potencialmente billones de dólares en valor en todos los sectores (El estado de la IA en 2023: el año de la ruptura de la IA generativa | McKinsey).

Sin embargo, otorgar mayor control a la IA también conlleva riesgos, como la proliferación de errores si la lógica de la IA falla (por ejemplo, el infame escenario de una cadena de suministro de IA que, sin darse cuenta, agota las existencias de una empresa debido a un error de modelado). Es probable que medidas como la intervención humana en las decisiones importantes, o al menos los paneles de control que permiten una rápida intervención humana, se mantengan hasta 2035. Con el tiempo, a medida que las decisiones de la IA se demuestren, los humanos se sentirán más cómodos tomando distancia.

Curiosamente, al optimizar la eficiencia, la IA podría, en ocasiones, tomar decisiones que contradigan las preferencias humanas o las prácticas tradicionales. Por ejemplo, la optimización pura podría resultar en inventarios muy ajustados, lo cual es eficiente, pero puede parecer arriesgado. Los profesionales de la cadena de suministro en 2030 podrían tener que ajustar sus intuiciones, ya que la IA, al procesar datos masivos, podría demostrar que su inusual estrategia funciona mejor.

Finalmente, debemos considerar que las limitaciones físicas (infraestructura, velocidad de los procesos) restringen la rapidez con la que puede transformarse la logística. Por lo tanto, la revolución radica en una planificación y un uso más inteligentes de los recursos, más que en una realidad física completamente nueva. Sin embargo, incluso dentro de esos límites, las soluciones creativas y la optimización constante de la IA generativa podrían mejorar drásticamente el transporte de mercancías a nivel mundial con una planificación manual mínima.

En resumen, la logística en 2035 podría funcionar como una máquina automatizada bien engrasada: bienes que fluyen eficientemente, rutas que se ajustan en tiempo real a las interrupciones, almacenes que se gestionan a sí mismos con robots y todo el sistema que aprende y mejora continuamente a partir de los datos, todo orquestado por una IA generativa que actúa como el cerebro de la operación.

IA generativa en finanzas y negocios

El sector financiero maneja una gran cantidad de información (informes, análisis, comunicaciones con clientes), lo que lo convierte en un terreno fértil para la IA generativa. Desde la banca hasta la gestión de inversiones y los seguros, las organizaciones están explorando la IA para la automatización y la generación de información. La pregunta es: ¿qué tareas financieras puede gestionar la IA de forma fiable sin supervisión humana, dada la importancia de la precisión y la confianza en este ámbito?

Capacidades actuales (2025): Informes automatizados y soporte de decisiones

Hoy en día, la IA generativa contribuye a las finanzas de varias maneras, a menudo bajo la supervisión de un humano:

  • Generación de informes: Los bancos y las empresas financieras producen numerosos informes: resúmenes de ganancias, comentarios de mercado, análisis de cartera, etc. La IA ya se utiliza para redactarlos. Por ejemplo, Bloomberg ha desarrollado BloombergGPT, un gran modelo de lenguaje entrenado con datos financieros, para ayudar con tareas como la clasificación de noticias y preguntas y respuestas para sus usuarios de terminal (La IA generativa llega a las finanzas). Si bien su uso principal es ayudar a los humanos a encontrar información, demuestra el creciente papel de la IA. Automated Insights (la empresa con la que trabajó AP) también generó artículos financieros. Muchos boletines de inversión utilizan IA para resumir los movimientos diarios del mercado o los indicadores económicos. Por lo general, los humanos revisan estos informes antes de enviarlos a los clientes, pero se trata de una edición rápida en lugar de escribirlos desde cero.

  • Comunicación con el cliente: En la banca minorista, los chatbots de IA gestionan las consultas de los clientes sobre saldos de cuentas, transacciones o información de productos (integrando así el ámbito de la atención al cliente). Además, la IA puede generar cartas de asesoramiento financiero personalizadas o recordatorios. Por ejemplo, una IA podría identificar que un cliente podría ahorrar en comisiones y redactar automáticamente un mensaje sugiriendo cambiar de tipo de cuenta, que se envía con mínima intervención humana. Este tipo de comunicación personalizada a gran escala es un uso actual de la IA en finanzas.

  • Detección y alertas de fraude: La IA generativa puede ayudar a crear narrativas o explicaciones para las anomalías detectadas por los sistemas de detección de fraude. Por ejemplo, si se detecta actividad sospechosa, una IA podría generar un mensaje explicativo para el cliente («Hemos detectado un inicio de sesión desde un nuevo dispositivo…») o un informe para los analistas. La detección es automatizada (mediante la detección de anomalías con IA/aprendizaje automático) y la comunicación es cada vez más automatizada, aunque las acciones finales (bloqueo de una cuenta) suelen requerir cierta intervención humana.

  • Asesoramiento financiero (limitado): Algunos robo-asesores (plataformas de inversión automatizadas) utilizan algoritmos (no necesariamente IA generativa) para gestionar carteras sin la intervención de asesores humanos. La IA generativa se introduce, por ejemplo, generando comentarios sobre el motivo de ciertas operaciones o un resumen del rendimiento de la cartera adaptado al cliente. Sin embargo, el asesoramiento financiero propiamente dicho (como la planificación financiera compleja) sigue siendo mayoritariamente humano o algorítmico basado en reglas; el asesoramiento generativo libre y sin supervisión conlleva riesgos debido a la responsabilidad legal en caso de error.

  • Evaluación de riesgos y suscripción de pólizas: Las compañías de seguros están probando la IA para generar automáticamente informes de evaluación de riesgos e incluso borradores de pólizas. Por ejemplo, a partir de datos sobre una propiedad, una IA podría generar un borrador de póliza de seguro o un informe de suscripción que describa los factores de riesgo. Actualmente, los humanos revisan estos resultados, ya que cualquier error en un contrato puede resultar costoso.

  • Análisis de datos e información: La IA puede analizar estados financieros o noticias y generar resúmenes. Los analistas utilizan herramientas que pueden resumir instantáneamente un informe anual de 100 páginas en puntos clave o extraer las conclusiones principales de la transcripción de una conferencia de resultados. Estos resúmenes ahorran tiempo y pueden utilizarse directamente en la toma de decisiones o transmitirse, pero los analistas prudentes verifican los detalles cruciales.

En esencia, la IA actual en finanzas actúa como un analista/escritor incansable, generando contenido que los humanos perfeccionan. Su uso totalmente autónomo se concentra principalmente en áreas bien definidas, como las noticias basadas en datos (sin necesidad de juicios subjetivos) o las respuestas de atención al cliente. Confiar directamente a la IA decisiones financieras (como transferir fondos o ejecutar operaciones que trascienden los algoritmos preestablecidos) es poco común debido a los altos riesgos y al escrutinio regulatorio.

Perspectivas para 2030-2035: Analistas de IA y operaciones financieras autónomas

De cara al futuro, en 2035 la IA generativa podría estar profundamente integrada en las operaciones financieras y manejar potencialmente muchas tareas de forma autónoma:

  • Analistas financieros con IA: Es posible que veamos sistemas de IA capaces de analizar empresas y mercados, y generar recomendaciones o informes al nivel de un analista humano de investigación de renta variable. Para 2030, una IA podría leer todos los informes financieros de una empresa, compararlos con datos del sector y generar un informe de recomendación de inversión ("Compra/Venta" con justificación) de forma autónoma. Algunos fondos de cobertura ya utilizan IA para generar señales de trading; para la década de 2030, los informes de investigación con IA podrían ser habituales. Los gestores de cartera humanos podrían empezar a confiar en el análisis generado por IA como una fuente de información más. Incluso existe la posibilidad de que la IA gestione carteras de forma autónoma: monitorizando y reequilibrando continuamente las inversiones según una estrategia predefinida. De hecho, el trading algorítmico ya está altamente automatizado; la IA generativa podría hacer que las estrategias sean más adaptables al generar y probar nuevos modelos de trading por sí misma.

  • Planificación financiera automatizada: Los asesores de IA orientados al consumidor podrían encargarse de la planificación financiera rutinaria de las personas. Para 2030, podrías indicarle a una IA tus objetivos (comprar una casa, ahorrar para la universidad) y esta podría generar un plan financiero completo (presupuesto, asignación de inversiones, sugerencias de seguros) personalizado. Inicialmente, un asesor financiero humano podría revisarlo, pero a medida que aumente la confianza, este tipo de asesoramiento podría brindarse directamente a los consumidores, con las advertencias pertinentes. La clave será garantizar que el asesoramiento de la IA cumpla con las regulaciones y sea en el mejor interés del cliente. Si se logra, la IA podría hacer que el asesoramiento financiero básico sea mucho más accesible y económico.

  • Automatización de la gestión administrativa: La IA generativa podría gestionar de forma autónoma muchos documentos administrativos, como solicitudes de préstamos, informes de cumplimiento y resúmenes de auditoría. Por ejemplo, una IA podría procesar todos los datos de las transacciones y generar un informe de auditoría que señale cualquier anomalía. En 2035, los auditores podrían dedicar más tiempo a revisar las excepciones señaladas por la IA que a examinarlo todo manualmente. Del mismo modo, en materia de cumplimiento normativo, la IA podría generar informes de actividades sospechosas (SAR) para los reguladores sin necesidad de que un analista los redacte desde cero. La generación autónoma de estos documentos rutinarios, con la supervisión humana limitada a casos excepcionales, podría convertirse en la norma.

  • Reclamaciones y suscripción de seguros: Una IA podría procesar una reclamación de seguro (con evidencia fotográfica, etc.), determinar la cobertura y generar automáticamente la carta de decisión de pago. Podríamos llegar a un punto en que las reclamaciones sencillas (como accidentes de tráfico con datos claros) se resuelvan íntegramente mediante IA en cuestión de minutos tras su presentación. La suscripción de nuevas pólizas podría ser similar: la IA evalúa el riesgo y genera las condiciones de la póliza. Para 2035, quizás solo los casos complejos o dudosos se deriven a suscriptores humanos.

  • Fraude y seguridad: La IA probablemente será aún más crucial para detectar y responder al fraude o las ciberamenazas en el sector financiero. Agentes autónomos de IA podrían supervisar las transacciones en tiempo real y tomar medidas inmediatas (bloquear cuentas, congelar transacciones) cuando se cumplan ciertos criterios, para luego presentar una justificación. La velocidad es crucial en este caso, por lo que se busca una mínima intervención humana. El componente generativo podría consistir en comunicar estas acciones a los clientes o a los organismos reguladores de forma clara.

  • Soporte ejecutivo: Imagínese un "jefe de gabinete" de IA capaz de generar informes empresariales para ejecutivos al instante. Pregunte: "¿Cómo se desempeñó nuestra división europea este trimestre y cuáles fueron los principales factores que influyeron en comparación con el año pasado?", y la IA generará un informe conciso con gráficos, todo preciso, basado en los datos. Este tipo de informes y análisis dinámicos y autónomos podría ser tan sencillo como una conversación. Para 2030, consultar a la IA para obtener información empresarial y confiar en que proporcione respuestas correctas podría reemplazar en gran medida los informes estáticos e incluso algunos puestos de analista.

Una proyección interesante: para la década de 2030, la mayor parte del contenido financiero (noticias, informes, etc.) podría generarse mediante IA. Medios como Dow Jones y Reuters ya utilizan la automatización para ciertas noticias. Si esta tendencia continúa, y dada la explosión de datos financieros, la IA podría ser responsable de filtrar y comunicar la mayor parte de ellos.

Sin embargo, la confianza y la verificación serán fundamentales. El sector financiero está fuertemente regulado y cualquier IA que opere de forma autónoma deberá cumplir con estándares estrictos:

  • Asegurarse de que no haya alucinaciones (no se puede hacer que un analista de IA invente una métrica financiera que no sea real, ya que eso podría engañar a los mercados).

  • Evitar sesgos o prácticas ilegales (como la discriminación involuntaria en las decisiones de préstamo debido a datos de capacitación sesgados).

  • Auditabilidad: los reguladores probablemente exigirán que las decisiones de la IA sean explicables. Si una IA rechaza un préstamo o toma una decisión comercial, debe existir una justificación que pueda examinarse. Los modelos generativos pueden ser un poco inciertos, por lo que se espera que el desarrollo de de IA explicables garantice la transparencia de sus decisiones.

Los próximos 10 años probablemente implicarán una estrecha colaboración entre la IA y los profesionales financieros, ampliando gradualmente la autonomía a medida que aumenta la confianza. Los primeros logros se obtendrán en la automatización de bajo riesgo (como la generación de informes). Serán más difíciles las decisiones clave, como las decisiones crediticias o las selecciones de inversión, pero incluso en estos casos, a medida que la IA mejore su experiencia, las empresas podrían otorgarle mayor autonomía. Por ejemplo, un fondo de IA podría operar con un supervisor humano que solo intervenga si el rendimiento se desvía o si la IA detecta incertidumbre.

Desde el punto de vista económico, McKinsey estimó que la IA (especialmente la IA generativa) podría añadir entre 200 y 340 mil millones de dólares anuales al valor del sector bancario, con impactos igualmente significativos en los mercados de seguros y capitales (El estado de la IA en 2023: El año de la IA generativa | McKinsey) (¿Cuál es el futuro de la IA generativa? | McKinsey). Esto se lograría mediante la eficiencia y mejores resultados en la toma de decisiones. Para aprovechar este valor, es probable que gran parte del análisis y la comunicación financiera rutinarios se deleguen a sistemas de IA.

En resumen, para 2035, la IA generativa podría ser como un ejército de analistas, asesores y empleados júnior que trabajan en todo el sector financiero, realizando gran parte del trabajo rutinario y algunos análisis sofisticados de forma autónoma. Los humanos seguirán estableciendo objetivos y gestionando la estrategia de alto nivel, las relaciones con los clientes y la supervisión. El mundo financiero, siendo cauteloso, ampliará gradualmente su autonomía, pero la dirección es clara: cada vez más procesamiento de información e incluso recomendaciones de decisiones provendrán de la IA. Idealmente, esto se traduce en un servicio más rápido (préstamos instantáneos, asesoramiento las 24 horas), menores costos y, potencialmente, mayor objetividad (decisiones basadas en patrones de datos). Sin embargo, mantener la confianza será crucial; un solo error de IA de alto perfil en finanzas podría causar daños descomunales (imaginemos un colapso repentino provocado por la IA o la denegación injustificada de un beneficio a miles de personas). Por lo tanto, es probable que persistan las barreras y los controles humanos, especialmente para las acciones de cara al consumidor, incluso a medida que los procesos administrativos se vuelven altamente autónomos.

Desafíos y consideraciones éticas

En todos estos ámbitos, a medida que la IA generativa asume responsabilidades más autónomas, surge una serie de desafíos y cuestiones éticas comunes. Garantizar que la IA sea un agente autónomo fiable y beneficioso no es solo una tarea técnica, sino también social. A continuación, describimos las principales preocupaciones y cómo se están abordando (o deberán abordarse):

Confiabilidad y precisión

El problema de las alucinaciones: Los modelos de IA generativa pueden producir resultados incorrectos o totalmente inventados que parecen seguros. Esto es especialmente peligroso cuando no hay ningún humano involucrado para detectar errores. Un chatbot podría dar instrucciones erróneas a un cliente, o un informe escrito por IA podría contener una estadística inventada. A partir de 2025, la inexactitud es reconocida como el principal riesgo de la IA generativa por las organizaciones (El estado de la IA en 2023: El año de la IA generativa | McKinsey) (El estado de la IA: Encuesta global | McKinsey). De cara al futuro, se están implementando técnicas como la verificación de datos con bases de datos, mejoras en la arquitectura del modelo y aprendizaje por refuerzo con retroalimentación para minimizar las alucinaciones. Es probable que los sistemas de IA autónoma necesiten pruebas rigurosas y quizás una verificación formal para tareas críticas (como la generación de código que podría introducir errores/fallos de seguridad si es incorrecta).

Consistencia: Los sistemas de IA deben funcionar de manera confiable a lo largo del tiempo y en diferentes escenarios. Por ejemplo, una IA podría tener un buen desempeño en preguntas estándar, pero fallar en casos excepcionales. Garantizar un rendimiento consistente requerirá datos de entrenamiento extensos que abarquen diversas situaciones y un monitoreo continuo. Muchas organizaciones planean adoptar enfoques híbridos (la IA funciona, pero se realizan auditorías humanas de muestras aleatorias) para evaluar la precisión de forma continua.

Mecanismos de seguridad: Cuando la IA es autónoma, es crucial que reconozca su propia incertidumbre. El sistema debe diseñarse para «saber cuándo no sabe». Por ejemplo, si un médico de IA no está seguro de un diagnóstico, debería indicar que se requiere revisión humana en lugar de dar una suposición aleatoria. Incorporar la estimación de la incertidumbre en los resultados de la IA (y establecer umbrales para la derivación automática a humanos) es un área de desarrollo activa.

Sesgo y equidad

La IA generativa aprende de datos históricos que pueden contener sesgos (raciales, de género, etc.). Una IA autónoma podría perpetuar o incluso amplificar esos sesgos:

  • A la hora de contratar o admitir personal, un responsable de la toma de decisiones en materia de IA podría discriminar injustamente si sus datos de entrenamiento tuvieran sesgos.

  • En atención al cliente, una IA podría responder de manera diferente a los usuarios en función del dialecto u otros factores, a menos que se controle cuidadosamente.

  • En los campos creativos, la IA podría subrepresentar ciertas culturas o estilos si el conjunto de entrenamiento no estuviera equilibrado.

Abordar esto requiere una cuidadosa selección de conjuntos de datos, pruebas de sesgo y, quizás, ajustes algorítmicos para garantizar la equidad. La transparencia es clave: las empresas deberán divulgar los criterios de decisión de la IA, especialmente si una IA autónoma afecta las oportunidades o los derechos de alguien (como obtener un préstamo o un empleo). Los reguladores ya están prestando atención; por ejemplo, la Ley de IA de la UE (en desarrollo desde mediados de la década de 2020) probablemente exigirá evaluaciones de sesgo para los sistemas de IA de alto riesgo.

Responsabilidad y responsabilidad legal

Cuando un sistema de IA que opera de forma autónoma causa daño o comete un error, ¿quién es responsable? Los marcos legales se están poniendo al día:

  • Las empresas que implementan IA probablemente asumirán responsabilidades, similares a las de los empleados. Por ejemplo, si una IA ofrece un mal asesoramiento financiero que resulte en pérdidas, la empresa podría verse obligada a indemnizar al cliente.

  • Existe un debate sobre la "personalidad" de la IA o si la IA avanzada podría ser parcialmente responsable, pero esto es más bien teórico por ahora. En la práctica, la culpa recaerá en los desarrolladores u operadores.

  • Podrían surgir nuevos seguros para fallos de la IA. Si un camión autónomo provoca un accidente, el seguro del fabricante podría cubrirlo, de forma similar a la responsabilidad civil del producto.

  • La documentación y el registro de las decisiones de la IA serán importantes para los análisis post mortem. Si algo sale mal, debemos auditar el registro de decisiones de la IA para aprender de ello y asignar responsabilidades. Los organismos reguladores podrían exigir el registro de las acciones autónomas de la IA precisamente por esta razón.

Transparencia y explicabilidad

Idealmente, la IA autónoma debería ser capaz de explicar su razonamiento en términos comprensibles para los humanos, especialmente en ámbitos relevantes (finanzas, salud, sistema judicial). La IA explicable es un campo que busca abrir la caja negra:

  • Para la denegación de un préstamo por parte de una IA, las regulaciones (como en EE. UU., ECOA) podrían exigir que se justifique al solicitante. Por lo tanto, la IA debe proporcionar factores (por ejemplo, una alta relación deuda-ingresos) como explicación.

  • Los usuarios que interactúan con la IA (como estudiantes con un tutor de IA o pacientes con una aplicación de salud de IA) merecen saber cómo esta llega a sus consejos. Se están realizando esfuerzos para que el razonamiento de la IA sea más trazable, ya sea mediante la simplificación de modelos o mediante modelos explicativos paralelos.

  • La transparencia también implica que los usuarios deben saber cuándo interactúan con una IA y cuándo con un humano. Las directrices éticas (y probablemente algunas leyes) tienden a exigir que se revele si un cliente está hablando con un bot. Esto previene el engaño y permite el consentimiento del usuario. Algunas empresas ahora etiquetan explícitamente el contenido escrito por IA (como «Este artículo fue generado por IA») para mantener la confianza.

Privacidad y protección de datos

La IA generativa a menudo necesita datos, incluidos datos personales potencialmente sensibles, para funcionar o aprender. Las operaciones autónomas deben respetar la privacidad:

  • Un agente de servicio al cliente de IA accederá a la información de la cuenta para ayudar a un cliente; esos datos deben estar protegidos y usarse solo para la tarea.

  • Si los tutores de IA tienen acceso a los perfiles de los estudiantes, existen consideraciones bajo leyes como FERPA (en EE. UU.) para garantizar la privacidad de los datos educativos.

  • Los modelos grandes pueden recordar inadvertidamente detalles específicos de sus datos de entrenamiento (por ejemplo, repetir la dirección de una persona vista durante el entrenamiento). Técnicas como la privacidad diferencial y la anonimización de datos durante el entrenamiento son importantes para evitar la filtración de información personal en los resultados generados.

  • Regulaciones como el RGPD otorgan a las personas derechos sobre las decisiones automatizadas que les afectan. Pueden solicitar la revisión humana o que las decisiones no se automaticen exclusivamente si les afectan significativamente. Para 2030, estas regulaciones podrían evolucionar a medida que la IA se generalice, posiblemente introduciendo derechos de explicación o la exclusión voluntaria del procesamiento por IA.

Seguridad y abuso

Los sistemas de IA autónomos podrían ser blanco de ataques informáticos o podrían ser explotados para realizar acciones maliciosas:

  • Un generador de contenido con IA podría utilizarse indebidamente para generar desinformación a gran escala (videos deepfakes, noticias falsas), lo cual constituye un riesgo social. La ética de publicar modelos generativos muy potentes es objeto de un intenso debate (por ejemplo, OpenAI inicialmente se mostró cauteloso con las capacidades de imagen de GPT-4). Las soluciones incluyen la marca de agua del contenido generado por IA para ayudar a detectar falsificaciones y el uso de IA para combatirla (como los algoritmos de detección de deepfakes).

  • Si una IA controla procesos físicos (drones, coches, control industrial), protegerla contra ciberataques es fundamental. Un sistema autónomo pirateado puede causar daños reales. Esto implica un cifrado robusto, mecanismos de seguridad y la capacidad de anulación o apagado por parte de un humano si algo parece estar comprometido.

  • También existe la preocupación de que la IA sobrepase los límites previstos (el escenario de la "IA descontrolada"). Si bien las IA actuales carecen de agencia o intención, si los sistemas autónomos futuros son más agentes, se necesitarán restricciones y supervisión estrictas para garantizar que, por ejemplo, no realicen operaciones no autorizadas ni infrinjan la ley debido a un objetivo mal especificado.

Uso ético e impacto humano

Por último, consideraciones éticas más amplias:

  • Desplazamiento laboral: Si la IA puede realizar tareas sin intervención humana, ¿qué sucederá con esos empleos? Históricamente, la tecnología automatiza algunos trabajos, pero crea otros. La transición puede ser difícil para los trabajadores cuyas habilidades se encuentran en tareas que se automatizan. La sociedad deberá gestionar esta situación mediante la reconversión profesional, la educación y, posiblemente, una revisión del apoyo económico (algunos sugieren que la IA podría requerir ideas como la renta básica universal si se automatiza gran parte del trabajo). Las encuestas ya muestran opiniones encontradas: un estudio reveló que un tercio de los trabajadores se preocupa por la posibilidad de que la IA reemplace sus empleos, mientras que otros la ven como una forma de eliminar las tareas tediosas.

  • Erosión de las habilidades humanas: Si los tutores de IA enseñan, los pilotos automáticos de IA conducen y la IA escribe código, ¿perderán las personas estas habilidades? En el peor de los casos, la excesiva dependencia de la IA podría erosionar la experiencia; es algo para lo que los programas de educación y capacitación deberán adaptarse, asegurando que las personas sigan aprendiendo los fundamentos incluso con la ayuda de la IA.

  • Toma de Decisiones Éticas: La IA carece de juicio moral humano. En el ámbito sanitario o jurídico, las decisiones basadas exclusivamente en datos podrían entrar en conflicto con la compasión o la justicia en casos individuales. Podríamos necesitar integrar marcos éticos en la IA (un área de investigación en ética de la IA, por ejemplo, alinear las decisiones de IA con los valores humanos). Como mínimo, es recomendable mantener a los humanos informados sobre las decisiones con un enfoque ético.

  • Inclusión: Garantizar que los beneficios de la IA se distribuyan ampliamente es un objetivo ético. Si solo las grandes empresas pueden permitirse la IA avanzada, las pequeñas empresas o las regiones más pobres podrían quedar excluidas. Las iniciativas de código abierto y las soluciones de IA asequibles pueden contribuir a democratizar el acceso. Además, las interfaces deben diseñarse para que cualquier persona pueda utilizar las herramientas de IA (disponibles en diferentes idiomas, con accesibilidad para personas con discapacidad, etc.), para evitar crear una nueva brecha digital en la que «¿quién tiene un asistente de IA y quién no?».

Mitigación de riesgos actual: En el lado positivo, a medida que las empresas implementan la IA generativa, aumenta la concienciación y la acción en torno a estos temas. A finales de 2023, casi la mitad de las empresas que utilizaban IA trabajaban activamente para mitigar riesgos como la inexactitud (El estado de la IA en 2023: El año de la IA generativa | McKinsey) (El estado de la IA: Encuesta global | McKinsey), y esa cifra va en aumento. Las empresas tecnológicas han creado comités de ética de la IA; los gobiernos están elaborando normativas. La clave reside en integrar la ética en el desarrollo de la IA desde el principio («Ética desde el diseño»), en lugar de reaccionar posteriormente.

En conclusión sobre los desafíos: otorgar mayor autonomía a la IA es un arma de doble filo. Puede generar eficiencia e innovación, pero exige un alto nivel de responsabilidad. En los próximos años, probablemente veremos una combinación de soluciones tecnológicas (para mejorar el comportamiento de la IA), soluciones de proceso (marcos de políticas y supervisión) y, quizás, nuevos estándares o certificaciones (los sistemas de IA podrían auditarse y certificarse como los motores o la electrónica hoy en día). Superar con éxito estos desafíos determinará la fluidez con la que podremos integrar la IA autónoma en la sociedad, de forma que aumente el bienestar y la confianza humanos.

Conclusión

La IA generativa ha evolucionado rápidamente desde un experimento novedoso hasta convertirse en una tecnología transformadora de propósito general que afecta a todos los ámbitos de nuestra vida. Este informe técnico ha explorado cómo, para 2025, los sistemas de IA ya redactan artículos, diseñan gráficos, programan software, chatean con clientes, resumen notas médicas, dan tutorías a estudiantes, optimizan las cadenas de suministro y elaboran informes financieros. Cabe destacar que, en muchas de estas tareas, la IA puede operar con poca o ninguna intervención humana, especialmente en trabajos bien definidos y repetibles. Empresas y particulares están empezando a confiar en la IA para realizar estas tareas de forma autónoma, obteniendo beneficios en velocidad y escala.

De cara a 2035, nos encontramos al borde de una era en la que la IA será una colaboradora aún más omnipresente: a menudo una fuerza laboral digital invisible que se encarga de las tareas rutinarias para que los humanos puedan centrarse en lo excepcional. Anticipamos que la IA generativa conducirá de forma fiable coches y camiones por nuestras carreteras, gestionará el inventario en almacenes durante la noche, responderá a nuestras preguntas como asistentes personales expertos, impartirá clases personalizadas a estudiantes de todo el mundo e incluso ayudará a descubrir nuevas curas en medicina, todo ello con una supervisión directa cada vez menor. La línea entre herramienta y agente se difuminará a medida que la IA pase de seguir instrucciones pasivamente a generar soluciones de forma proactiva.

Sin embargo, el camino hacia este futuro de IA autónoma debe abordarse con cautela. Como hemos señalado, cada ámbito conlleva sus propias limitaciones y responsabilidades:

  • Análisis de la realidad actual: La IA no es infalible. Destaca en el reconocimiento de patrones y la generación de contenido, pero carece de verdadera comprensión y sentido común, como los humanos. Por lo tanto, por ahora, la supervisión humana sigue siendo la red de seguridad. Es crucial reconocer dónde la IA está lista para operar de forma independiente (y dónde no). Muchos de los éxitos actuales provienen del de colaboración entre humanos e IA , y este enfoque híbrido seguirá siendo valioso donde la autonomía total aún no sea prudente.

  • Promesa del mañana: Gracias a los avances en arquitecturas de modelos, técnicas de entrenamiento y mecanismos de supervisión, las capacidades de la IA seguirán expandiéndose. La próxima década de I+D podría resolver muchos problemas actuales (reducción de alucinaciones, mejora de la interpretabilidad, alineación de la IA con los valores humanos). De ser así, para 2035, los sistemas de IA podrían ser lo suficientemente robustos como para gozar de una autonomía mucho mayor. Las proyecciones de este documento —desde profesores de IA hasta empresas prácticamente autónomas— bien podrían convertirse en realidad, o incluso ser superadas por innovaciones difíciles de imaginar hoy en día.

  • Rol humano y adaptación: En lugar de que la IA reemplace por completo a los humanos, prevemos una evolución en sus roles. Es probable que los profesionales de todos los ámbitos deban dominar el trabajo con IA: guiándola, verificándola y centrándose en los aspectos laborales que requieren habilidades intrínsecamente humanas como la empatía, el pensamiento estratégico y la resolución de problemas complejos. La educación y la formación profesional deben reorientarse para enfatizar estas habilidades exclusivamente humanas, así como la alfabetización digital en IA para todos. Los responsables políticos y los líderes empresariales deben planificar las transiciones en el mercado laboral y garantizar sistemas de apoyo para quienes se vean afectados por la automatización.

  • Ética y gobernanza: Quizás lo más importante sea que un marco de uso ético y gobernanza de la IA debe sustentar este crecimiento tecnológico. La confianza es fundamental para su adopción: las personas solo permitirán que la IA conduzca un automóvil o asista en una cirugía si confían en su seguridad. Generar esa confianza implica pruebas rigurosas, transparencia, participación de las partes interesadas (por ejemplo, involucrando a médicos en el diseño de IA médicas y a docentes en herramientas educativas de IA) y una regulación adecuada. La colaboración internacional puede ser necesaria para abordar desafíos como las falsificaciones profundas o la IA en la guerra, garantizando normas globales para un uso responsable.

En conclusión, la IA generativa se erige como un potente motor de progreso. Si se utiliza con prudencia, puede aliviar a los humanos de las tareas pesadas, impulsar la creatividad, personalizar los servicios y subsanar deficiencias (aportando experiencia donde los expertos escasean). La clave está en implementarla de forma que amplifique el potencial humano en lugar de marginarlo. A corto plazo, esto significa mantener a los humanos involucrados para guiar la IA. A largo plazo, significa integrar valores humanísticos en el núcleo de los sistemas de IA para que, incluso cuando actúen de forma independiente, actúen en beneficio de todos.

Dominio Autonomía confiable hoy (2025) Autonomía confiable esperada para 2035
Escritura y contenido - Noticias rutinarias (deportes, resultados financieros) generadas automáticamente. - Reseñas de productos resumidas por IA. - Borradores de artículos o correos electrónicos para edición humana. (Philana Patterson – Perfil de la comunidad ONA) (Amazon mejora la experiencia de las reseñas de clientes con IA) - La mayoría de los contenidos de noticias y marketing se escriben automáticamente con precisión fáctica.- La IA produce artículos y comunicados de prensa completos con una supervisión mínima.- Contenido altamente personalizado generado a pedido.
Artes visuales y diseño - La IA genera imágenes a partir de indicaciones (el humano selecciona las mejores).- Arte conceptual y variaciones de diseño creadas de forma autónoma. - La IA produce escenas completas de video/película y gráficos complejos.- Diseño generativo de productos/arquitectura que cumple con las especificaciones.- Medios personalizados (imágenes, videos) creados a pedido.
Codificación de software - La IA autocompleta el código y escribe funciones sencillas (revisadas por el desarrollador). - Generación automatizada de pruebas y sugerencias de errores. (Codificación con Copilot: datos de 2023 sugieren una presión a la baja sobre la calidad del código (incluidas las proyecciones para 2024) - GitClear) (GitHub Copilot encabeza el informe de investigación sobre asistentes de código de IA - Visual Studio Magazine) - La IA implementa funciones completas a partir de las especificaciones de manera confiable.- Depuración autónoma y mantenimiento de código para patrones conocidos.- Creación de aplicaciones de bajo código con poca intervención humana.
Servicio al cliente - Los chatbots responden preguntas frecuentes, resuelven problemas simples (transfieren casos complejos).- La IA maneja aproximadamente el 70% de las consultas de rutina en algunos canales. (59 estadísticas de servicio al cliente de IA para 2025) (Para 2030, el 69% de las decisiones durante las interacciones con los clientes serán...) - La IA maneja la mayoría de las interacciones con los clientes de extremo a extremo, incluidas las consultas complejas.- Toma de decisiones mediante IA en tiempo real para concesiones de servicios (reembolsos, actualizaciones).- Agentes humanos solo para escaladas o casos especiales.
Cuidado de la salud La IA redacta informes médicos; sugiere diagnósticos que los médicos verifican. La IA lee algunas exploraciones (radiología) con supervisión; clasifica casos sencillos. (Los productos de imágenes médicas con IA podrían quintuplicarse para 2035). - La IA diagnostica de manera confiable enfermedades comunes e interpreta la mayoría de las imágenes médicas.- La IA monitorea a los pacientes e inicia la atención (por ejemplo, recordatorios de medicamentos, alertas de emergencia).- Las "enfermeras" de IA virtuales manejan los seguimientos de rutina; los médicos se enfocan en la atención compleja.
Educación - Los tutores de IA responden a las preguntas de los estudiantes y generan problemas de práctica (los profesores supervisan). - La IA asiste en la calificación (con revisión del profesor). ([IA generativa para la educación primaria y secundaria] Informe de investigación de Applify](https://www.applify.co/research-report/gen-ai-for-k12#:~:text=AI%20tutors%3A%20Virtual%20AI,individual%20learning%20styles%20and%20paces))
Logística La IA optimiza las rutas de entrega y el embalaje (los humanos establecen objetivos). La IA detecta los riesgos de la cadena de suministro y sugiere medidas de mitigación. (Principales casos de uso de IA generativa en logística) - Entregas en gran parte autónomas (camiones, drones) supervisadas por controladores de IA.- La IA redirige de forma autónoma los envíos evitando interrupciones y ajusta el inventario.- Coordinación de la cadena de suministro de extremo a extremo (pedidos, distribución) gestionada por IA.
Finanzas La IA genera informes financieros y resúmenes de noticias (revisados ​​por profesionales). Los robo-advisors gestionan carteras sencillas; el chat de IA gestiona las consultas de los clientes. (La IA generativa llega al mundo de las finanzas). - Los analistas de IA producen recomendaciones de inversión e informes de riesgo con gran precisión.- Comercio autónomo y reequilibrio de cartera dentro de límites establecidos.- La IA aprueba automáticamente préstamos/reclamos estándar; los humanos manejan las excepciones.

Referencias:

  1. Patterson, Philana. Se multiplican las noticias sobre ganancias generadas automáticamente. The Associated Press (2015) – Describe la generación automatizada por parte de AP de miles de informes de ganancias sin la intervención de un redactor humano (Se multiplican las noticias sobre ganancias generadas automáticamente | The Associated Press).

  2. McKinsey & Company. El estado de la IA a principios de 2024: la adopción de la IA generativa se dispara y comienza a generar valor. (2024) – Informa que el 65 % de las organizaciones utilizan IA generativa con regularidad, casi el doble que en 2023 (El estado de la IA a principios de 2024 | McKinsey), y analiza los esfuerzos de mitigación de riesgos (El estado de la IA: encuesta global | McKinsey).

  3. Gartner. Más allá de ChatGPT: El futuro de la IA generativa para las empresas. (2023) – Predice que para 2030, el 90% de una película taquillera podría ser generada por IA (Casos de uso de IA generativa para industrias y empresas) y destaca casos de uso de IA generativa como el diseño de fármacos (Casos de uso de IA generativa para industrias y empresas).

  4. Twipe. 12 maneras en que los periodistas usan herramientas de IA en la sala de redacción. (2024) – Ejemplo de la IA “Klara” en un medio de comunicación que escribe el 11% de los artículos, con editores humanos que revisan todo el contenido de IA (12 maneras en que los periodistas usan herramientas de IA en la sala de redacción - Twipe).

  5. Noticias de Amazon.com. Amazon mejora la experiencia de las reseñas de clientes con IA. (2023) – Anuncia resúmenes de reseñas generados por IA en las páginas de productos para ayudar a los compradores (Amazon mejora la experiencia de las reseñas de clientes con IA).

  6. Zendesk. 59 estadísticas de servicio al cliente con IA para 2025.(2023) – Indica que más de dos tercios de las organizaciones de CX piensan que la IA generativa agregará “calidez” al servicio (59 estadísticas de servicio al cliente con IA para 2025) y predice que la IA estará presente en el 100% de las interacciones con los clientes eventualmente (59 estadísticas de servicio al cliente con IA para 2025).

  7. Futurum Research y SAS. Experience 2030: El futuro de la experiencia del cliente. (2019) – Un estudio reveló que las marcas esperan que aproximadamente el 69% de las decisiones durante la interacción con el cliente sean tomadas por máquinas inteligentes para 2030 (Para reimaginar el cambio hacia la experiencia del cliente, los especialistas en marketing deben hacer estas dos cosas).

  8. Dataiku. Principales casos de uso de IA generativa en logística. (2023) – Describe cómo la IA generativa optimiza la carga (reduciendo aproximadamente un 30 % del espacio vacío en los camiones) (Principales casos de uso de IA generativa en logística) y señala los riesgos de la cadena de suministro mediante el escaneo de noticias.

  9. Visual Studio Magazine. GitHub Copilot encabeza el informe de investigación sobre asistentes de código de IA. (2024) – Supuestos de planificación estratégica de Gartner: para 2028, el 90 % de los desarrolladores empresariales utilizarán asistentes de código de IA (frente al 14 % en 2024) (GitHub Copilot encabeza el informe de investigación sobre asistentes de código de IA - Visual Studio Magazine).

  10. Noticias de Bloomberg. Presentamos BloombergGPT. (2023) – Detalles del modelo de 50 mil millones de parámetros de Bloomberg orientado a tareas financieras, integrado en la Terminal para preguntas y respuestas y soporte de análisis (La IA generativa llega a las finanzas).

Artículos que quizás te interese leer después de éste:

🔗 Empleos que la IA no puede reemplazar, ¿y cuáles sí?
Una perspectiva global sobre el panorama laboral en constante evolución, que analiza qué puestos están a salvo de la disrupción de la IA y cuáles corren mayor riesgo.

🔗 ¿Puede la IA predecir el mercado de valores?
Un análisis exhaustivo de las capacidades, limitaciones y consideraciones éticas del uso de la IA para la predicción del mercado de valores.

🔗 ¿Cómo se puede utilizar la IA generativa en la ciberseguridad?
Descubra cómo se aplica la IA generativa para defenderse de las ciberamenazas, desde la detección de anomalías hasta el modelado de amenazas.

Volver al blog