Respuesta corta: El escalado con IA funciona entrenando un modelo con pares de imágenes de baja y alta resolución, y luego usándolo para predecir píxeles adicionales creíbles durante el escalado. Si el modelo ha visto texturas o rostros similares durante el entrenamiento, puede añadir detalles convincentes; de lo contrario, puede alucinar artefactos como halos, piel cerosa o parpadeos en el vídeo.
Conclusiones clave:
Predicción : El modelo genera detalles plausibles, no una reconstrucción garantizada de la realidad.
Elección del modelo : las CNN tienden a ser más estables; las GAN pueden verse más nítidas, pero corren el riesgo de inventar características.
Comprobaciones de artefactos : Esté atento a halos, texturas repetidas, “casi letras” y caras de plástico.
Estabilidad del video : utiliza métodos temporales o verás vibraciones y desplazamientos de cuadro a cuadro.
Uso de alto riesgo : si la precisión es importante, divulgue el procesamiento y trate los resultados como ilustrativos.

Probablemente lo hayas visto: una imagen diminuta y nítida se convierte en algo lo suficientemente nítido como para imprimirlo, transmitirlo o incluirlo en una presentación sin ningún problema. Parece una trampa. Y, en el mejor de los sentidos, en cierto modo lo es 😅
Entonces, el funcionamiento del escalado de IA se reduce a algo más específico que "la computadora mejora los detalles" (una frase imprecisa) y se acerca más a "un modelo predice una estructura plausible de alta resolución basándose en patrones aprendidos de numerosos ejemplos" ( Aprendizaje profundo para superresolución de imágenes: una encuesta ). Ese paso de predicción lo es todo, y es por eso que el escalado de IA puede verse espectacular... o un poco plástico... o como si a tu gato le hubieran crecido bigotes extra.
Artículos que quizás te interese leer después de éste:
🔗 Cómo funciona la IA
Aprenda los conceptos básicos de modelos, datos e inferencia en IA.
🔗 Cómo aprende la IA
Vea cómo los datos de entrenamiento y los comentarios mejoran el rendimiento del modelo a lo largo del tiempo.
🔗 Cómo la IA detecta anomalías
Comprenda las líneas de base de los patrones y cómo la IA detecta rápidamente el comportamiento inusual.
🔗 Cómo la IA predice tendencias
Explore métodos de pronóstico que detecten señales y anticipen la demanda futura.
Cómo funciona la mejora de la escala de la IA: la idea central, en palabras cotidianas 🧩
Aumentar la resolución significa aumentarla: más píxeles, imagen más grande. El aumento de escala tradicional (como el bicúbico) básicamente estira los píxeles y suaviza las transiciones ( interpolación bicúbica ). Está bien, pero no puede crear nuevos detalles; simplemente interpola.
La mejora de la escala de la IA intenta algo más audaz (también conocido como "superresolución" en el mundo de la investigación) ( Aprendizaje profundo para superresolución de imágenes: una encuesta ):
-
Mira la entrada de baja resolución
-
Reconoce patrones (bordes, texturas, rasgos faciales, trazos de texto, trama de tela…)
-
debería verse una versión de mayor resolución
-
Genera datos de píxeles adicionales que se ajustan a esos patrones
No se trata de "restaurar la realidad a la perfección", sino de "hacer una suposición muy creíble" ( Superresolución de imagen mediante redes convolucionales profundas (SRCNN) ). Si esto te suena un poco sospechoso, no te equivocas, pero también es por eso que funciona tan bien. 😄
Y sí, esto significa que la mejora de la IA es básicamente una alucinación controlada… pero de una manera productiva y respetuosa con los píxeles.
¿Qué hace que una versión de mejora de la IA sea buena? ✅🛠️
Si estás evaluando un escalador de IA (o una configuración preestablecida), esto es lo que suele importar más:
-
Recuperación de detalles sin sobrecocción
Un buen aumento de escala agrega nitidez y estructura, no ruido crujiente ni poros falsos. -
Disciplina de bordes.
Las líneas limpias se mantienen limpias. Los modelos deficientes hacen que los bordes se tambaleen o generen halos. -
Realismo de textura.
El cabello no debe convertirse en una pincelada. El ladrillo no debe convertirse en un sello repetitivo. -
Manejo del ruido y la compresión.
Muchas imágenes cotidianas se convierten en JPEG. Un buen escalador no amplifica ese daño ( Real-ESRGAN ). -
Reconocimiento de rostros y texto.
Los rostros y el texto son los lugares donde es más fácil detectar errores. Los buenos modelos los tratan con cuidado (o tienen modos especializados). -
Consistencia entre fotogramas (para vídeo).
Si el detalle parpadea fotograma a fotograma, te dejará sin palabras. El escalado de vídeo depende en gran medida de la estabilidad temporal ( BasicVSR (CVPR 2021) ). -
Controles que tengan sentido
Quieres controles deslizantes que se correspondan con resultados reales: eliminación de ruido, desenfocado, eliminación de artefactos, retención de grano, nitidez... lo práctico.
Una regla discreta que se cumple: el "mejor" aumento de escala suele ser el que apenas se nota. Simplemente parece que tenías una mejor cámara desde el principio 📷✨
Tabla comparativa: opciones populares de mejora de la IA (y para qué sirven) 📊🙂
A continuación se muestra una comparación práctica. Los precios son intencionadamente imprecisos porque las herramientas varían según la licencia, los paquetes, los costos de computación y demás.
| Herramienta/Enfoque | Mejor para | Vibración de precios | Por qué funciona (aproximadamente) |
|---|---|---|---|
| Escaladores de escritorio estilo Topaz ( Topaz Photo , Topaz Video ) | Fotos, vídeos y flujo de trabajo sencillo | Pagado-ish | Modelos generales sólidos + muchos ajustes, tienden a "simplemente funcionar"... en su mayoría |
| Funciones de tipo “Superresolución” de Adobe ( Adobe Enhance > Superresolución ) | Fotógrafos que ya están en ese ecosistema | Suscripción-y | Reconstrucción de detalles sólidos, generalmente conservadores (menos dramatismo) |
| Variantes de Real-ESRGAN / ESRGAN ( Real-ESRGAN , ESRGAN ) | Bricolaje, desarrolladores, trabajos por lotes | Gratuito (pero costoso en tiempo) | Excelente para los detalles de textura, puede ser picante en los rostros si no tienes cuidado |
| Modos de aumento de escala basados en difusión ( SR3 ) | Trabajo creativo, resultados estilizados | Mezclado | Puede crear detalles magníficos, pero también puede inventar tonterías, así que… sí |
| Escaladores de juegos (estilo DLSS/FSR) ( NVIDIA DLSS , AMD FSR 2 ) | Juegos y renderizado en tiempo real | Agrupado | Utiliza datos de movimiento y antecedentes aprendidos: rendimiento fluido |
| Servicios de ampliación de la nube | Conveniencia, ganancias rápidas | Pago por uso | Rápido y escalable, pero se sacrifica control y, a veces, sutileza |
| Escaladores de IA centrados en vídeo ( BasicVSR , Topaz Video ) | Imágenes antiguas, anime, archivos | Pagado-ish | Trucos temporales para reducir el parpadeo + modelos de vídeo especializados |
| Ampliación de galería/teléfono “inteligente” | Uso casual | Incluido | Modelos livianos optimizados para un resultado agradable, no perfecto (aún así son prácticos) |
Confesión de peculiaridad de formato: "Paid-ish" está haciendo mucho trabajo en esa tabla. Pero ya entiendes la idea 😅
El gran secreto: los modelos aprenden un mapeo de baja resolución a alta resolución 🧠➡️🖼️
En el corazón de la mayor parte del escalamiento de la IA se encuentra una configuración de aprendizaje supervisado ( Superresolución de imagen mediante redes convolucionales profundas (SRCNN) ):
-
Comience con imágenes de alta resolución (la “verdad”)
-
Reducir la resolución a versiones de baja resolución (la “entrada”)
-
Entrene un modelo para reconstruir la alta resolución original a partir de la baja resolución
Con el tiempo, el modelo aprende correlaciones como:
-
“Este tipo de desenfoque alrededor del ojo suele ser propio de las pestañas”
-
Este grupo de píxeles suele indicar texto serif
-
“Este gradiente de borde parece una línea en un tejado, no un ruido aleatorio”
No se trata de memorizar imágenes específicas (en sentido estricto), sino de aprender la estructura estadística ( Aprendizaje profundo para superresolución de imágenes: un estudio ). Piénsalo como aprender la gramática de texturas y bordes. No es gramática poética, sino más bien… gramática manual de IKEA 🪑📦 (metáfora un poco tosca, pero bastante parecida).
Los detalles prácticos: qué sucede durante la inferencia (cuando se amplía la escala) ⚙️✨
Cuando introduces una imagen en un escalador de IA, normalmente hay un proceso como este:
-
Preprocesamiento
-
Convertir el espacio de color (a veces)
-
Normalizar valores de píxeles
-
Divide la imagen en fragmentos si es grande (verificación de la realidad de la VRAM 😭) ( repositorio Real-ESRGAN (opciones de mosaico) )
-
-
Extracción de características
-
Las primeras capas detectan bordes, esquinas y gradientes
-
Las capas más profundas detectan patrones: texturas, formas, componentes faciales
-
-
Reconstrucción
-
El modelo genera un mapa de características de mayor resolución
-
Luego convierte eso en salida de píxeles real
-
-
Posprocesamiento
-
Afilado opcional
-
Eliminación de ruido opcional
-
Supresión de artefactos opcional (zumbidos, halos, bloqueos)
-
Un detalle sutil: muchas herramientas amplían la escala de los mosaicos y luego fusionan las uniones. Las herramientas excelentes ocultan los límites de los mosaicos. Las herramientas mediocres dejan marcas de cuadrícula tenues si entrecierras los ojos. Y sí, entrecerrarás los ojos, porque a los humanos nos encanta inspeccionar pequeñas imperfecciones con un zoom del 300% como pequeños duendes 🧌
Las principales familias de modelos utilizadas para el escalado de la IA (y por qué se sienten diferentes) 🤖📚
1) Súper resolución basada en CNN (el clásico caballo de batalla)
Las redes neuronales convolucionales son excelentes para patrones locales: bordes, texturas, estructuras pequeñas ( Superresolución de imágenes utilizando redes convolucionales profundas (SRCNN) ).
-
Ventajas: bastante rápido, estable, menos sorpresas
-
Contras: puede parecer un poco “procesado” si se presiona demasiado
2) Escalado basado en GAN (estilo ESRGAN) 🎭
Las GAN (redes generativas antagónicas) entrenan a un generador para producir imágenes de alta resolución que un discriminador no puede distinguir de las reales ( redes generativas antagónicas ).
-
Ventajas: detalles impactantes, textura impresionante
-
Contras: puede inventar detalles que no existían, a veces erróneos, a veces extraños ( SRGAN , ESRGAN )
Una GAN puede darte una nitidez impresionante. También puede darle a tu retratado una ceja extra. Así que… ¡elige tus batallas! 😬
3) Ampliación de escala basada en la difusión (el comodín creativo) 🌫️➡️🖼️
Los modelos de difusión eliminan el ruido paso a paso y pueden guiarse para producir detalles de alta resolución ( SR3 ).
-
Ventajas: puede ser increíblemente bueno en detalles plausibles, especialmente para trabajos creativos
-
Contras: puede alejarse de la identidad/estructura original si las configuraciones son agresivas ( SR3 )
Aquí es donde la "mejora" empieza a fusionarse con la "reinvención". A veces es justo lo que buscas. A veces, no.
4) Escalado de vídeo con consistencia temporal 🎞️
El aumento de escala de video a menudo agrega lógica que tiene en cuenta el movimiento:
-
Utiliza fotogramas vecinos para estabilizar los detalles ( BasicVSR (CVPR 2021) )
-
Intenta evitar el parpadeo y los artefactos que se arrastran
-
A menudo combina súper resolución con eliminación de ruido y desentrelazado ( Topaz Video )
Si escalar una imagen es como restaurar una pintura, escalar un vídeo es como restaurar un flipbook sin que la nariz del personaje cambie de forma en cada página. Lo cual es… más difícil de lo que parece.
Por qué la mejora de la escala de la IA a veces parece falsa (y cómo detectarlo) 👀🚩
La mejora de la IA falla de forma evidente. Una vez que aprendes los patrones, los verás por todas partes, como cuando compras un coche nuevo y de repente ves ese modelo en todas las calles
El común dice:
-
Depilación de la piel en el rostro (demasiado ruido + suavizado)
-
Halos demasiado afilados alrededor de los bordes (territorio clásico de “sobreimpulso”) ( interpolación bicúbica )
-
Texturas repetidas (las paredes de ladrillo se convierten en patrones de copiar y pegar)
-
Microcontraste crujiente que grita “algoritmo”
-
Alteración de texto donde las letras se convierten en casi letras (el peor tipo)
-
Deriva de detalles donde las características pequeñas cambian sutilmente, especialmente en flujos de trabajo de difusión ( SR3 )
Lo complicado: a veces estos artefactos parecen "mejores" a simple vista. A tu cerebro le gusta la agudeza. Pero después de un momento, se siente... raro.
Una buena táctica es alejar la imagen y comprobar si se ve natural a una distancia de visión normal. Si solo se ve bien con un zoom del 400 %, no es un triunfo, es un pasatiempo. 😅
Cómo funciona el escalamiento de la IA: el lado del entrenamiento, sin el dolor de cabeza de las matemáticas 📉🙂
El entrenamiento de modelos de súper resolución generalmente implica:
-
Conjuntos de datos emparejados (entrada de baja resolución, objetivo de alta resolución) ( Superresolución de imagen mediante redes convolucionales profundas (SRCNN) )
-
Funciones de pérdida que penalizan las reconstrucciones erróneas ( SRGAN )
Tipos de pérdidas típicas:
-
Pérdida de píxeles (L1/L2):
Mejora la precisión. Puede producir resultados ligeramente borrosos. -
Pérdida de percepción
Compara características más profundas (como "¿esto se ve similar?") en lugar de píxeles exactos ( Pérdidas de percepción (Johnson et al., 2016) ). -
Pérdida adversarial (GAN)
Fomenta el realismo, a veces a costa de la precisión literal ( SRGAN , Generative Adversarial Networks ).
Hay un tira y afloja constante:
-
Hazlo fiel al original
vs -
Hazlo visualmente agradable
Distintas herramientas ocupan distintos lugares en ese espectro. Y podrías preferir una dependiendo de si estás restaurando fotos familiares o preparando un póster donde la "belleza" importa más que la precisión forense.
Flujos de trabajo prácticos: fotos, escaneos antiguos, anime y videos 📸🧾🎥
Fotografías (retratos, paisajes, fotografías de productos)
La mejor práctica suele ser:
-
Primero, elimine el ruido levemente (si es necesario)
-
Lujo con ambientes conservadores
-
Agregue grano nuevamente si las cosas se sienten demasiado suaves (sí, de verdad)
El grano es como la sal. Demasiado arruina la cena, pero ninguno puede tener un sabor un poco soso
Escaneos antiguos e imágenes muy comprimidas
Estos son más difíciles porque el modelo podría tratar los bloques de compresión como "textura".
Prueba:
-
Eliminación o desbloqueo de artefactos
-
Luego, sube de categoría
-
Luego, afila ligeramente (no demasiado… ya sé, todo el mundo lo dice, pero aún así)
Anime y arte lineal
El arte lineal se beneficia de:
-
Modelos que conservan bordes limpios
-
Alucinación de textura reducida.
El aumento de escala del anime suele verse bien porque las formas son más simples y consistentes. (Qué suerte).
Video
El vídeo agrega pasos adicionales:
-
Reducir el ruido
-
Desentrelazado (para ciertas fuentes)
-
De lujo
-
Suavizado o estabilización temporal ( BasicVSR (CVPR 2021) )
-
Reintroducción opcional de grano para la cohesión
Si te saltas la consistencia temporal, obtienes ese destello brillante en los detalles. Una vez que lo notas, no puedes dejar de verlo. Como una silla chirriante en una habitación silenciosa 😖
Cómo elegir la configuración sin tener que adivinar demasiado (una pequeña hoja de trucos) 🎛️😵💫
He aquí una mentalidad inicial decente:
-
Si los rostros se ven plásticos,
reduzca la eliminación de ruido, reduzca la nitidez, pruebe un modelo o modo que preserve el rostro. -
Si las texturas se ven demasiado intensas,
baje los controles deslizantes de “mejora de detalles” o “recuperar detalles” y agregue después un grano sutil. -
Si los bordes brillan,
reduzca la nitidez y verifique las opciones de supresión de halo. -
Si la imagen parece demasiado "IA",
opta por algo más conservador. A veces, la mejor estrategia es simplemente... menos.
Además: no aumentes la escala a 8x solo porque puedes. Un 2x o 4x limpio suele ser el punto ideal. Más allá de eso, le estás pidiendo a la modelo que escriba un fanfiction sobre tus píxeles 📖😂
Ética, autenticidad y la incómoda pregunta de la “verdad” 🧭😬
La mejora de la escala de la IA difumina los límites:
-
Restaurar implica recuperar lo que había
-
Mejorar implica añadir lo que no estaba
Con fotos personales, normalmente no hay problema (y es una maravilla). Con periodismo, pruebas legales, imágenes médicas o cualquier cosa donde la fidelidad sea importante… hay que tener cuidado ( OSAC/NIST: Guía estándar para la gestión de imágenes digitales forenses , Directrices SWGDE para el análisis de imágenes forenses ).
Una regla simple:
-
Si hay mucho en juego, considere la ampliación de la IA como algo ilustrativo , no definitivo.
Además, la divulgación es importante en contextos profesionales. No porque la IA sea maligna, sino porque el público merece saber si los detalles fueron reconstruidos o capturados. Eso es simplemente… respetuoso.
Notas de cierre y un breve resumen 🧡✅
Así es como funciona el escalado de IA : los modelos aprenden cómo los detalles de alta resolución tienden a relacionarse con patrones de baja resolución y luego predicen píxeles adicionales creíbles durante el escalado ( Aprendizaje profundo para superresolución de imágenes: una encuesta ). Dependiendo de la familia de modelos (CNN, GAN, difusión, videotemporal), esa predicción puede ser conservadora y fiel… o audaz y, a veces, desquiciada. 😅
Resumen rápido
-
El aumento de escala tradicional estira los píxeles ( interpolación bicúbica )
-
El aumento de escala de IA predice los detalles faltantes utilizando patrones aprendidos ( Superresolución de imagen mediante redes convolucionales profundas (SRCNN) )
-
Los grandes resultados vienen del modelo correcto + moderación
-
Esté atento a halos, caras cerosas, texturas repetidas y parpadeos en el video ( BasicVSR (CVPR 2021) )
-
La ampliación a menudo es una “reconstrucción plausible”, no una verdad perfecta ( SRGAN , ESRGAN )
Si quieres, dime qué estás mejorando (caras, fotos antiguas, videos, anime, escaneos de texto) y te sugeriré una estrategia de configuración que tiende a esquivar los errores comunes de la "apariencia de IA" 🎯🙂
Preguntas frecuentes
Ampliación de la IA y cómo funciona
El escalado por IA (a menudo llamado "superresolución") aumenta la resolución de una imagen al predecir los detalles de alta resolución faltantes en los patrones aprendidos durante el entrenamiento. En lugar de simplemente estirar píxeles como en la interpolación bicúbica, un modelo estudia bordes, texturas, rostros y trazos textuales, y luego genera nuevos datos de píxeles coherentes con esos patrones aprendidos. Se trata menos de "restaurar la realidad" y más de "hacer una suposición creíble" que se lee con naturalidad.
Aumento de escala de IA versus cambio de tamaño bicúbico o tradicional
Los métodos tradicionales de escalado (como el bicúbico) interpolan principalmente entre píxeles existentes, suavizando las transiciones sin crear nuevos detalles. El escalado con IA busca reconstruir la estructura plausible mediante el reconocimiento de señales visuales y la predicción del aspecto que suelen tener las versiones de alta resolución de dichas señales. Por eso, los resultados de IA pueden parecer mucho más nítidos y también pueden introducir artefactos o "inventar" detalles que no estaban presentes en la fuente.
¿Por qué los rostros pueden verse cerosos o demasiado lisos?
Los rostros céreos suelen ser el resultado de una eliminación de ruido y un suavizado agresivos, combinados con un enfoque que elimina la textura natural de la piel. Muchas herramientas tratan el ruido y la textura fina de forma similar, por lo que limpiar una imagen puede borrar poros y detalles sutiles. Un enfoque común consiste en reducir la eliminación de ruido y el enfoque, usar un modo que preserve el rostro si está disponible y luego reintroducir un toque de grano para que el resultado se vea menos plástico y más fotográfico.
Artefactos comunes de mejora de la escala de IA a tener en cuenta
Las señales típicas incluyen halos alrededor de los bordes, patrones de textura repetidos (como ladrillos de copiar y pegar), microcontraste nítido y texto que se convierte en "casi letras". En flujos de trabajo basados en difusión, también se puede observar una desviación de detalles donde pequeños rasgos cambian sutilmente. En el caso del vídeo, el parpadeo y el detalle que se arrastra entre fotogramas son grandes señales de alerta. Si solo se ve bien con zoom extremo, probablemente la configuración sea demasiado agresiva.
Cómo GAN, CNN y los escaladores de difusión tienden a diferir en los resultados
La superresolución basada en CNN tiende a ser más estable y predecible, pero puede parecer "procesada" si se la somete a un uso intensivo. Las opciones basadas en GAN (estilo ESRGAN) suelen producir una textura más impactante y una nitidez percibida, pero pueden generar detalles incorrectos, especialmente en los rostros. El aumento de escala basado en difusión puede generar detalles hermosos y plausibles, pero puede desviarse de la estructura original si los ajustes de guía o intensidad son demasiado fuertes.
Una estrategia de configuración práctica para evitar una apariencia “demasiado IA”
Empieza con un enfoque conservador: aumenta la escala a 2 o 4 veces antes de alcanzar factores extremos. Si los rostros se ven plásticos, reduce la reducción de ruido y la nitidez, y prueba un modo que tenga en cuenta los rostros. Si las texturas se vuelven demasiado intensas, reduce la mejora de detalle y considera añadir grano sutil después. Si los bordes brillan, reduce la nitidez y revisa la supresión de halos o artefactos. En muchos procesos, "menos" es lo mejor porque preserva un realismo creíble.
Manejo de escaneos antiguos o imágenes muy comprimidas en JPEG antes de ampliarlas
Las imágenes comprimidas son complejas porque los modelos pueden tratar los artefactos de los bloques como textura real y amplificarlos. Un flujo de trabajo común consiste en eliminar primero los artefactos o desbloquearlos, luego aumentar la escala y, finalmente, aplicar una ligera nitidez solo si es necesario. En el caso de los escaneos, una limpieza suave puede ayudar al modelo a centrarse en la estructura real en lugar de en los daños. El objetivo es reducir las "falsas señales de textura" para que el escalador no se vea obligado a realizar estimaciones fiables a partir de entradas con ruido.
Por qué escalar videos es más difícil que escalar fotos
El escalado de vídeo debe ser consistente en todos los fotogramas, no solo en una imagen fija. Si los detalles parpadean fotograma a fotograma, el resultado se vuelve rápidamente molesto. Los enfoques centrados en el vídeo utilizan información temporal de los fotogramas vecinos para estabilizar la reconstrucción y evitar artefactos de brillo. Muchos flujos de trabajo también incluyen eliminación de ruido, desentrelazado para ciertas fuentes y reintroducción de grano opcional para que toda la secuencia se perciba cohesiva en lugar de nítidamente artificial.
Cuándo la mejora de la IA no es adecuada o es arriesgado confiar en ella
La mejora de la imagen con IA se considera mejor como una mejora, no como una prueba. En contextos de alto riesgo como el periodismo, las pruebas legales, las imágenes médicas o el trabajo forense, generar píxeles "creíbles" puede ser engañoso, ya que puede añadir detalles no capturados. Una estrategia más segura es usarla de forma ilustrativa y revelar que un proceso de IA reconstruyó los detalles. Si la fidelidad es crucial, conserve los originales y documente cada paso del procesamiento y la configuración.
Referencias
-
arXiv - Aprendizaje profundo para imágenes de superresolución: una encuesta - arxiv.org
-
arXiv - Superresolución de imágenes mediante redes convolucionales profundas (SRCNN) - arxiv.org
-
arXiv - Real-ESRGAN - arxiv.org
-
arXiv - ESRGAN - arxiv.org
-
arXiv - SR3 - arxiv.org
-
Desarrollador de NVIDIA - NVIDIA DLSS - developer.nvidia.com
-
AMD GPUOpen - FidelityFX Super Resolution 2 - gpuopen.com
-
Fundación para la Visión por Computador (CVF) - Acceso abierto - BasicVSR: La búsqueda de componentes esenciales en superresolución de video (CVPR 2021) - openaccess.thecvf.com
-
arXiv - Redes generativas antagónicas - arxiv.org
-
arXiv - SRGAN - arxiv.org
-
arXiv - Pérdidas perceptuales (Johnson et al., 2016) - arxiv.org
-
GitHub - Repositorio Real-ESRGAN (opciones de mosaico) - github.com
-
Wikipedia - Interpolación bicúbica - wikipedia.org
-
Topaz Labs - Foto de Topaz - topazlabs.com
-
Topaz Labs - Vídeo de Topaz - topazlabs.com
-
Centro de ayuda de Adobe - Adobe Enhance > Súper resolución - helpx.adobe.com
-
NIST/OSAC - Guía estándar para la gestión de imágenes digitales forenses (versión 1.0) - nist.gov
-
SWGDE - Directrices para el análisis de imágenes forenses - swgde.org