Clasificación de Género en Imágenes Faciales Usando Información Mutua
Tesis
Open/ Download
Publication date
2012Metadata
Show full item record
Cómo citar
Pérez Flores, Claudio
Cómo citar
Clasificación de Género en Imágenes Faciales Usando Información Mutua
Author
Professor Advisor
Abstract
Durante la década de los 90, uno de los principales problemas abordados en el área
de visión computacional fue el detectar rostros en imágenes, para lo cual se desarrollaron
innumerables métodos y aplicaciones que pudieran realizar dicha tarea. En la actualidad, ese
problema se encuentra prácticamente solucionado con detectores con tasas de detección muy
altas, por lo cual, el problema ha evolucionado a poder obtener información adicional de estos
rostros detectados, ya sea identi cando su raza, edad, emociones, género, entre otros. Es en
este contexto, que se enmarca esta investigación.
La clasi cación de género se considera una tarea difícil y complementaria al reconocimiento
de patrones, a causa de la alta variabilidad de la apariencia del rostro. Los rostros son
objetos no rígidos y dinámicos con una diversidad grande en la forma, el color y la textura,
debido a múltiples factores como la pose de la cabeza, iluminación, expresiones faciales y
otras características faciales. La alta variabilidad en la apariencia de los rostros afectan
directamente su detección y clasi cación.
En este trabajo de tesis se implementaron los métodos de extracción de características
basados en intensidad y textura, se midió su desempeño con 4 tipos de clasi cadores distintos.
Las características extraídas fueron fusionadas al nivel de las características.
Por otra parte, se extendió el efecto de seleccionar características utilizando 3 métodos
basados en Información Mutua, Mínima redundancia y Máxima relevancia(mRMR), Información
Mutua Normalizada (NMIFS), Información Mutua Condicional (CMIFS). Se compararon
nuestros resultados con los mejores datos publicados, utilizando las bases de datos
internacionales de rostros FERET y WEB, usando diferentes tamaños de imágenes y particiones
de datos.
Se obtuvieron mejoras signi cativas en la clasi cación de género, que van desde 1.2 % al
12.7 % sobre la base de datos FERET y desde 4.1 % al 8.9 % sobre la base de datos WEB.
Además, se redujo el número de características utilizadas como entradas en el clasi cador.
Dependiendo del tamaño de la imagen, el número total de características seleccionadas es
reducida a menos del 74 % en la base de datos FERET y en un 76.04 % en la base de datos WEB. Por lo tanto, el tiempo computacional se reduce signi cativamente para aplicaciones
en tiempo real.
Identifier
URI: https://repositorio.uchile.cl/handle/2250/102779
Collections