<= Atrás    Docencia > Licenciatura > Métodos de Suavizado en EstadísticaHomeMapaContactarBuscarAyuda
 

Métodos de Suavizado en Estadística
(Curso 2006-2007)

Código Sigma: 43961
Carácter: Optativa
Curso:
Ciclo:
Cuatrimestre:
Créditos: 6 = 3T + 3P (4 horas semanales)

Objetivos: Introducir las diferentes técnicas de suavizado en la estimación no paramétrica de curvas y sus aplicaciones.
Evaluación: Examen final. Es obligatoria la entrega de prácticas.
Prerrequisitos: Conceptos básicos de probabilidad y estadística.
Descriptor: Estimación no paramétrica de curvas. Suavizadores núcleo.

Programa:

  1. Introducción a los métodos de suavizado
    Un compromiso entre los modelos paramétricos y no paramétricos.
    Aplicaciones. Análisis de datos preliminares. Construcción de modelos. Bondad de ajuste. Estimación paramétrica. Modificando la metodología estándar.
  2. Estimación de funciones de densidad univariantes
    El histograma. Propiedades: El sesgo y la varianza. Amplitud óptima del intervalo. Inconvenientes. El polígono de frecuencias.
    El estimador núcleo. Propiedades: El sesgo y la varianza, el error cuadrático medio integrado. Núcleo y parámetro de suavizado óptimos. Inconvenientes: Sesgo en la frontera, Suavizado constante.
    Métodos de elección del parámetro de suavizado. Suavizado óptimo normal. Suavizado por validación cruzada. Reglas plug-in.
    Otros estimadores. Parámetro de suavizado variable, métodos basados en vecinos más próximos, métodos basados en series ortogonales.
  3. Inferencia basada en la estimación de densidades
    Bandas de variabilidad. Banda de variabilidad bootstrap. Test de normalidad. Banda de referencia normal.
  4. Estimación de funciones de densidad multivariantes
    Matriz de suavizado. Núcleo producto y radialmente simétrico. Visualizaciones.
    Dificultades en grandes dimensiones.
    Test de independencia.
  5. Estimación de la función de regresión
    Ideas básicas. Promedio móvil local. Estimador núcleo de Nadaraya-Watson. Estimador basado en el ajuste local de un polinomio. Estimador basado en vecinos más próximos. Estimador Loess. Estimador basado en series ortogonales.
    Regresión no paramétrica en dos dimensiones.
  6. Inferencia en regresión no paramétrica
    El sesgo y la varianza. Estimadores de s2. Bandas de variabilidad.
  7. Validación de modelos de regresión paramétricos
    Contraste de no efecto. Banda de referencia.
    Validando una relación lineal. Test de pseudo razón de verosimilitud. Banda de referencia.
  8. Comparando curvas y superficies
    Comparando estimadores de la densidad en una dimensión.
    Riesgo relativo en dos dimensiones.
    Comparando curvas y superficies de regresión.
    Contraste de paralelismo.
  9. Aplicaciones
    Verosimilitud local y suavizado en regresión logística
    Aplicaciones al Análisis de Supervivencia
    Análisis Discriminante. Problemas de modalidad.
    Suavizado y datos categóricos ordenados.
    Series temporales
  10. Introducción a los modelos aditivos
    Modelos aditivos y algoritmo de "backfitting".
    Modelos semiparamétricos.
    Modelos aditivos generalizados.
Actividades: Las clases prácticas se impartirán en el laboratorio de informática.

Bibliografía:

  • Bowman, A.W. and Azzalini, A. (1997).Applied Smoothing Techniques for Data Analysis. Oxford.
  • Hastie, T and Tibshirani, R..(1990). Generalized Additive Models. Chapman and Hall.
  • Silverman B.W. (1986).Density Estimation for Statistics and Data Analysis. Chapman and Hall.
  • Scott, D.W. (1992) Multivariate Density Estimation. Wiley.
  • Simonoff, J.S. (1996).Smoothing Methods in Statistics. Springer-Verlag.
  • Wand, M.P. and Jones, M.C. (1995). Kernel Smoothing. Chapman and Hall.
  Última actualización : 01/12/06