Por favor, use este identificador para citar o enlazar este ítem: http://cimat.repositorioinstitucional.mx/jspui/handle/1008/1116
Proyecciones aleatorias para aproximar métodos kernel
FLOR DE MARIA MARTINEZ SERMEÑO
Acceso Abierto
Atribución-NoComercial
PROBABILIDAD
ESTADÍSTICA
Los métodos kernel o métodos de transformaciones implícitas han sido de gran utilidad para el reconocimiento de patrones en diversos tipos de datos. Dichos métodos son convenientes en dos situaciones. La primera es cuando se tienen datos sin una representación vectorial natural. Por ejemplo, cuando las observaciones son cadenas de carácteres. La segunda, la cual es de particular interés en esta tesis, es cuando se requiere mapear los datos a un (otro) espacio de Hilbert en el cual se puedan analizar más fácilmente mediante técnicas estadísticas clásicas como: regresión lineal, análisis de discriminante lineal (LDA), análisis de componentes principales (PCA), clustering, entre otros. Se tiene un interés particular en funciones kernel para análisis de componentes principales. Dichas funciones serán útiles para el caso en que los datos tienen patrones no lineales y por lo tanto, PCA no es una herramienta adecuada para analizarlos. La idea es emplear las funciones kernel para mapear los datos a un espacio donde tengan estructura lineal y posteriormente realizar PCA sobre los datos transformados. El procedimiento anterior es un método kernel conocido como Kernel análisis de componentes principales (KPCA). Los métodos kernel pueden implicar trabajo con matrices de gran dimensión, lo cual computacionalmente puede ser un problema. Por lo anterior, en esta tesis se presentan diversos métodos aleatorizados para aproximación de matrices, los cuales han recibido gran atención en el área de álgebra lineal. Dichos métodos utilizan un elemento aleatorio para aproximar matrices mediante otras cuya estructura es más sencilla (menor dimensión, rango menor, etc.). En la presente tesis se puede encontrar una descripción y reseña de los siguientes métodos aleatorizados para aproximación de matrices: el de columnas, el de Nyström y el Random Fourier Features (RFF). Los primeros dos métodos son bastante similares en su estructuración ya que la idea básica de estos es utilizar un subconjunto o una muestra de los datos para obtener una aproximación. El método Random Fourier Features es diferente a estos en cuanto a su formulación, ya que está basado en aproximaciones probabilísticas de las funciones kernel. Como se explica en esta tesis, la formulación del método RFF es independiente de la distribución los datos y se intuye que dicha característica hace que el método sea menos eficiente para algunas tareas. Por dicha razón, se presenta una modificación realizada al algoritmo RF
29-01-2015
Trabajo de grado, maestría
OTRAS
Versión aceptada
acceptedVersion - Versión aceptada
Aparece en las colecciones: Tesis del CIMAT

Cargar archivos:


Fichero Descripción Tamaño Formato  
TE 544.pdf2.22 MBAdobe PDFVisualizar/Abrir