Professor Advisor | dc.contributor.advisor | Saavedra Rondo, José Manuel | |
Author | dc.contributor.author | Donoso Cortés, Diego Antonio | |
Associate professor | dc.contributor.other | Sarmiento Albornoz, Hernán | |
Associate professor | dc.contributor.other | Sipirán Mendoza, Iván | |
Associate professor | dc.contributor.other | Ponti, Moacir Antonelli | |
Admission date | dc.date.accessioned | 2024-08-08T19:28:02Z | |
Available date | dc.date.available | 2024-08-08T19:28:02Z | |
Publication date | dc.date.issued | 2024 | |
Identifier | dc.identifier.uri | https://repositorio.uchile.cl/handle/2250/200062 | |
Abstract | dc.description.abstract | Sketch-based understanding is involved in human communication and cognitive development, making it essential in visual perception. A specific task in this domain is sketch-to-photo translation, where a model produces realistic images from simple drawings. To this end, large paired training datasets are commonly required, which is impractical in real applications.
Thus, this work studies conditional generative models for sketch-to-photo translation, overcoming the lack of training datasets by a self-supervised approach that produces sketch-photo pairs from a target catalog. Our study shows the benefit of cycle-consistency loss and UNet architectures that, together with the proposed dataset generation, improve performance in real applications like eCommerce. Our results also reveal the weakness of conditional DDPMs for generating images resembling the input sketch, even though they achieve a low FID score. A significant challenge is allowing the user to control the output color of the generated image in the sketch-to-photo translation. We leveraged the previously built dataset and added color palettes to train a new model specialized in this task. We show that it is possible to implement a model trained for this task and propose a new problem of building an end-to-end model.
Our work contributes to the Sketch-Based understanding community since we propose a framework to successfully build a conditional dataset for the Image to Image translation task. Furthermore, with the proposed model, users can design new objects based on sketches entirely. On the other hand, e-commerces can leverage the input as a new latent space for Image search. | es_ES |
Abstract | dc.description.abstract | La comprensi´on basada en bocetos est´a involucrada en la comunicaci´on humana y en el
desarrollo cognitivo, haci´endolo esencial en la percepci´on visual. Una tarea especifica en
este ´ambito es la transformaci´on de dibujo a foto, donde un modelo genera im´agenes realistas desde simples dibujos. Para este fin, grandes datasets emparejados son com´unmente
requeridos, lo que no es factible en aplicaciones reales. De este modo, este trabajo estudia
modelos generativos condicionales para la transformaci´on de dibujo a foto, superando la falta
de datasets emparejados mediante un enfoque autosupervisado que produce pares de dibujo
con foto desde un cat´alogo foco. Nuestro estudio muestra el beneficio del cycle-consistency
loss y las arquitecturas UNet que, junto con la propuesta de generaci´on de un dataset, se
mejora el performance en aplicaciones reales como eCommerce. Nuestros resultados tambi´en
muestran la debilidad de DDPMs condicionales para la generaci´on de im´agenes que tengan
un parecido con el dibujo input, a pesar de lograr un bajo valor de FID.
Un desaf´ıo importante es permitir al usuario controlar el color de salida de la imagen
generada en la transformaci´on de dibujo a foto. Nos aprovechamos del dataset previamente
creado y agregamos paletas de colores para entrenar un nuevo modelo especializado en esta
tarea. Mostramos que es posible implementar un modelo entrenado para este problema y
proponemos un nuevo problema de construcci´on de un modelo end-to-end.
Nuestro trabajo contribuye a la comunidad de comprensi´on basada en bocetos, ya que
proponemos un marco para construir con ´exito un conjunto de datos condicional para la tarea
de traducci´on de imagen a imagen. Adem´as, con el modelo propuesto, los usuarios pueden
dise˜nar nuevos objetos bas´andose exclusivamente en bocetos. Por otro lado, los e-commerce
pueden aprovechar el input como un nuevo espacio latente para la b´usqueda de im´agenes. | es_ES |
Patrocinador | dc.description.sponsorship | Parcialmente financiado por National Center for Artificial Intelligence
CENIA FB210017, Basal ANID | es_ES |
Lenguage | dc.language.iso | en | es_ES |
Publisher | dc.publisher | Universidad de Chile | es_ES |
Type of license | dc.rights | Attribution-NonCommercial-NoDerivs 3.0 United States | * |
Link to License | dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/us/ | * |
Título | dc.title | Generative-models-for-translating-colored-sketches-to-photorealistic-images-in-the-e-commerce-context | es_ES |
Document type | dc.type | Tesis | es_ES |
dc.description.version | dc.description.version | Versión original del autor | es_ES |
dcterms.accessRights | dcterms.accessRights | Acceso abierto | es_ES |
Cataloguer | uchile.catalogador | chb | es_ES |
Department | uchile.departamento | Departamento de Ciencias de la Computación | es_ES |
Faculty | uchile.facultad | Facultad de Ciencias Físicas y Matemáticas | es_ES |
uchile.titulacion | uchile.titulacion | Doble Titulación | es_ES |
uchile.carrera | uchile.carrera | Ingeniería Civil en Computación | es_ES |
uchile.gradoacademico | uchile.gradoacademico | Magister | es_ES |
uchile.notadetesis | uchile.notadetesis | Tesis para optar al grado de Magíster en Ciencias, Mención Computación | es_ES |
uchile.notadetesis | uchile.notadetesis | Memoria para optar al título de Ingeniero Civil en Computación | |