Memoria elvira delgado

112
Trabajo de investigación: ANÁLISIS ESTADÍSTICO MEDIANTE MODELOS DE EFECTOS MIXTOS FUNCIONALES Máster Oficial en Estadística Aplicada Departamento de Estadística e Investigación Operativa Universidad de Granada Alumna: Elvira Delgado Márquez Tutora: Dra. Dña. Mª Dolores Ruiz Medina Curso: 2011 2012

description

 

Transcript of Memoria elvira delgado

Page 1: Memoria elvira delgado

Trabajo de investigación:

ANÁLISIS ESTADÍSTICO MEDIANTE

MODELOS DE EFECTOS MIXTOS

FUNCIONALES

Máster Oficial en Estadística Aplicada

Departamento de Estadística e Investigación Operativa

Universidad de Granada

Alumna: Elvira Delgado Márquez

Tutora: Dra. Dña. Mª Dolores Ruiz Medina

Curso: 2011 – 2012

Page 2: Memoria elvira delgado
Page 3: Memoria elvira delgado

Máster Oficial en Estadística Aplicada

Análisis Estadístico mediante

Modelos de Efectos Mixtos Funcionales

Trabajo de Investigación realizado por Elvira Delgado Márquez y

dirigido por la Profesora Dña. Mª Dolores Ruiz Medina

Vº Bº

Dra. Dña. Mª Dolores Ruiz Medina

Departamento de Estadística e Investigación Operativa

Universidad de Granada

Curso 2011 – 2012

Page 4: Memoria elvira delgado
Page 5: Memoria elvira delgado

Agradecimientos

Deseo comenzar la redacción de esta Memoria manifestando mi más sincero

agradecimiento a todas aquellas personas que me han apoyado en todo momento con su ánimo,

estímulo y continuo apoyo.

En primer lugar, quiero manifestar mi más profundo agradecimiento a la Dra. Dª María

Dolores Ruiz Medina, tutora del presente trabajo, por su imprescindible ayuda plasmada en cada

una de las sesiones de trabajo, y por su infatigable labor de mejora continua.

Al director de la Escuela Técnica Superior de Ingenieros Industriales de la Universidad

de Castilla – La Mancha en Ciudad Real, el Dr. D. Jesús F. López Fidalgo, por poner a mi

disposición todos los recursos necesarios para poder llevar a cabo este proyecto y sobre todo por

creer en mí y en este proyecto.

A mis amigos y amigas del Área de Estadística e Investigación Operativa de la

Universidad de Castilla – La Mancha ya que he contado con su apoyo, tanto moral como

profesional, en todo momento y a mis vecinos de despacho Iván, Carlos y Ángela.

No puedo olvidarme de todos mis amigos y amigas, que por suerte son muchos, porque

siempre han mostrado interés por este proyecto y siempre me han animado a seguir adelante, en

especial, Irene y Antonio Jesús.

Por último, pero no por ello menos importante, a mi familia.

Page 6: Memoria elvira delgado
Page 7: Memoria elvira delgado

Índice

Introducción General __________________________________________________ 7

Capítulo 1: Bibliografía reciente sobre análisis FANOVA y modelos de efectos

mixtos con correlación temporal

1. Análisis de datos funcionales y Análisis de Componentes Principales

Funcional y Análisis Funcional de la Varianza _________________________

13

2. Análisis a partir de bases de wavelets: Estimación no paramétrica y Contraste

de significación e interacción _______________________________________

19

3. Modelos de regresión espacial heterogéneos funcionales _________________ 40

Capítulo 2: Análisis de Componentes Principales Funcional de modelos de efectos

mixtos para curvas de percepción.

1. Introducción ____________________________________________________ 47

2. Generación de curvas _____________________________________________ 50

3. Cálculo de los autovalores y autovectores empíricos _____________________ 52

4. Planteamiento del modelo funcional de efectos mixtos en términos de

proyecciones y estimación de los efectos fijos y varianza asintótica del

estimador de proyección del efecto fijo _______________________________

55

5. Análisis empírico de la sensibilidad de la metodología propuesta al orden de

truncamiento ____________________________________________________

66

Capítulo 3: Líneas abiertas

1. Diseños D – óptimos en el contexto de modelos lineales Hilbert – valuados __ 89

2. Diseño experimental D – óptimo en un contexto funcional ________________ 91

Page 8: Memoria elvira delgado
Page 9: Memoria elvira delgado

Apéndices

1. Introducción a wavelets ___________________________________________ 95

2. Espacios de Besov _______________________________________________ 100

3. Espacios de Sobolev ______________________________________________ 102

Referencias bibliográficas _______________________________________________ 105

Page 10: Memoria elvira delgado
Page 11: Memoria elvira delgado

INTRODUCCION GENERAL

En el presente trabajo se realiza un analisis estadıstico considerando modelos de efectos mixtos

funcionales. Este tipo de modelos aparecen en numerosas disciplinas de la ciencia como la medicina,

la geoestadıstica, la meteorologıa, etc, aunque la principal aplicacion se puede encontrar en la

medicina. Se han realizado numerosos estudios a partir de informacion muestral funcional haciendo

uso de modelos de efectos mixtos pudiendo destacar los trabajos desarrollados por Abramovich y

Angelini (2006), Angelini, De Canditiis y Leblanc (2003), Ruiz Medina y Salmeron (2009 y 2010),

Ruiz Medina y Espejo (2012), Ruiz Medina (2011), Ramsay y Silverman (2002, 2005), Ferraty y

Vieu (2006), etc.

En el primer capıtulo se realiza una revision sobre la bibliografıa mas relevante en relacion

con los modelos FANOVA, contemplando el caso de modelos mixtos con correlacion temporal y/o

espacial. En particular, en la primera seccion, se introduce el concepto de dato funcional y se hace

referencia a la bibliografıa base mas destacada, mencionando las referencias clasicas de Ramsay

y Silverman ([31] y [32]), Ferraty y Vieu ([24]) y Ramsay, Hooker y Graves ([30]. Debido, princi-

palmente, a 3 caracterısticas de los datos funcionales: La dimension, la correlacion y los espacios

de funciones involucrados en los valores de las variables aleatorias Hilbert-valuadas subyacentes,

hacen que los metodos clasicos estadısticaos tradicionales no puedan ser aplicados o se queden cor-

tos. Una de las tecnicas mas utilizadas en el analisis de este tipo de datos ha sido el Analisis de

Componentes Principales. En esta misma seccion, en un segundo apartado, se realiza una revision

del trabajo de Benco, Hardle y Kneip [10] en el que se desarrolla de forma detallada la aplicacion

7

Page 12: Memoria elvira delgado

de la tecnica de Componentes Principales cuando se tiene informacion muestral funcional, es decir,

cuando la muestra esta constituida por la observaciones de funciones aleatorias independientes e

identicamente distribuidas. El desarrollo de Karhunen - Loeve para procesos estocasticos propor-

ciona una herramienta optima para la descripcion de las propiedades de segundo orden de dichos

procesos. En un ultimo apartado de esta primera seccion, se justifica la necesidad de adaptar la

tecnica del Analisis de la Varianza (ANOVA) para el caso de disponer de datos funcionales dando

lugar al Analisis de la Varianza Funcional (FANOVA).

En la segunda seccion primero nos vamos a centrar en la descripcion del modelo de efectos fijos

funcionales (con parametros funcionales en el tiempo) y el ANOVA funcional para contrastes lineales

de significacion. Se establecera la metodologıa aplicada en el capıtulo 2 para el analisis estadıstico

del modelo de efectos mixtos funcional considerado en la seccion 2.2, como una alternativa a la

metodologıa de desarrollada en la seccion 2.3. En este caso partiremos del modelo de efectos fijos

funcional definido por Zoglat [44]

Y (t) = Xβ(t) + σǫ(t) t ∈ [0, 1].

Donde Y ∈ Ln2 es el vector de datos funcionales o curvas observadas de dimension n × 1.

Yi, Yj (i 6= j) son independientes e identicamente distribuidas. β = (β1, . . . , βp)′ ∈ Lp

2 vector de

funciones cuadrado-integrables (parametros funcionales del modelo). X = (xij) es una matriz n×pcuyos elementos son numeros reales, ǫ = (ǫ1, . . . , ǫn)

′ ∈ Ln2 con ǫi, ǫj (i 6= j) son independientes

e identicamente distribuidas con operador de auto-covarianza Rǫ = E[ǫ ⊗ ǫ] = E[ǫi ⊗ ǫi], i, j =

1, . . . , n.

En este caso, se analizara la estimacion de β ∈ L2p a traves de los dos metodos de estimacion

habituales: El Metodo de Mınimos cuadrados y el Metodo de Maxima verosimilitud.

A continuacion nos centraremos en el modelo de efecto mixtos funcional (con parametros deter-

minısticos y aleatorios funcionales en el tiempo, informacion completa, curvas), donde se estiman

los parametros del modelo y se contrasta la significacion de los efectos fijos funcionales mediante

integracion en el tiempo y suma en los tratamientos de los efectos aleatorios. Se proporciona el

contexto general teorico para el desarrollo del ejemplo analizado en el capıtulo 2 sobre curvas de

percepcion tactil.

8

Page 13: Memoria elvira delgado

En este caso estudiaremos el modelo definido por Abramovich y Angelini [2]

dYi,l(t) = mi(t)dt+ Vl(t)dt+ εWi,l(t) i = 1, . . . , r ; l = 1, . . . ,m ; t ∈ [0, 1].

Donde mi(t) son funciones de efectos fijos. Vl(t) son funciones de efectos aleatorios modeladas

como realizaciones independientes de un proceso estocastico de media cero V (t). Wi,l(t) son reali-

zaciones independientes de un proceso de Wiener clasico. Vl(t) y Wi,l(t) son independientes entre

sı.

En el ultimo apartado de esta seccion nos centraremos en el enfoque no parametrico penalizado

para cuando se tiene obsevacion parcial de las curvas o datos funcionales, aunque se conoce, por

informacion previa, la naturaleza funcional de la respuesta, o bien, que se tiene una mejor repre-

sentacion en terminos de funciones por la naturaleza del fenomeno estudiado o experimento. Se

obtiene ası una reconstruccion o estimacion de los efectos fijos y aleatorios funcionales, mediante

minimizacion del error cuadratico medio integrado. Aunque, como en la implementacion de la me-

todologıa para el calculo del estimador no parametrico se proyecta en una base de wavelets que

genera un espacio del nucleo reproductor (en el modelo de efectos mixtos coincide con el RKHS del

efecto aleatorio), se reduce el problema a la estimacion finito - dimensional, en terminos de proyec-

ciones, de los efectos fijos y aleatorios funcionales, que serıa como un enfoque pseudoparametrico.

Se tendren observaciones correlacionadas en el tiempo y heterogeneas.

Se analizara el problema de regresion no parametrico clasico con ruido aditivo considerado por

Angelini, De Canditiis y Leblanc [5]:

(ti, Yi) Yi = f(ti) + σεi donde E[εi] = 0 E[ε2i ] = 1.

Donde las εi son variables aleatorias incorreladas y (ti) es un diseno determinıstico (no necesa-

riamente regular). El valor de σ puede ser conocido o no.

El objetivo principal es estimar la funcion desconocida f en un entorno no parametrico. Este

problema se ha estudiado bajo dos conjuntos diferentes de presunciones sobre la funcion f :

1. Modelo de efectos fijos: f es considerado como una funcion determinıstica y la clase F es una

bola en un espacio de Sobolev de regularidad s.

Las observaciones, Y = (Y1, . . . , Yn)′, son independientes.

9

Page 14: Memoria elvira delgado

2. Modelo de efectos mixtos: f es de la forma

f(t) = µ(t) +√bz(t),

donde µ es una funcion determinıstica y z es un proceso estocastico. Ademas, de acuerdo a la

estructura de covarianza elegida para el proceso estocastico z, f se encontrara en un espacio

mas grande que el espacio de Sobolev considerado en el caso anterior. Las observaciones,

Y = (Y1, . . . , Yn)′, son variables correladas ya que son observaciones perturbadas de puntos

de discretizacion del proceso f .

En la ultima seccion de este capıtulo, se describe el modelo de efectos mixtos espacial, introduci-

do en Cressie y Johannesson [15], donde se considera el predictor kriging de rango fijo de proyeccion,

basado en bases ortonormales generales. Es una version espacial del modelo de la seccion 2.3, en el

caso del efecto aleatorio. En cambio, en el efecto fijo, se modeliza mediante una matriz del diseno

con un numero finito de columnas infinito - dimensionales, definidas por las localizaciones posibles

de observacion o candidatos. (Conjunto finito de covariables observables en infinitas localizaciones

espaciales). Las observaciones se consideran espacialmente correladas, bajo un modelo heterogeneo

de funcion de covarianza.

En el segundo capıtulo se va a desarrollar un estudio de simulacion, inspirado en el expe-

rimento desarrollado en el ao 2003 [37] por los profesores Essick y Spitzner de la Universidad de

Carolina del Norte, para investigar la influencia del nivel de truncamiento y del sistema ortonormal

de funciones sobre las estimaciones de proyeccion, derivadas mediante implementacion de una ver-

sion funcional del enfoque empırico bayesiano desarrollado en por M. Dolores Ugarte et al [40]. En

el experimento referido, cada uno de los 32 individuos fue expuesto de forma repetida al movimiento

de un suave, pequeno y altamente controlado pincel movido en una lınea recta sobre su cara. El

sistema de coordenadas fue cuidadosamente calibrado para que los datos de diferentes individuos

puedan ser comparados de forma directa. El pincel se movio a una velocidad constante. Tras la

exposicion ciega al estımulo, al individuo se le proporciono una imagen a tamano real de su cara

sobre la que dibujo el camino del estımulo que habıa percibido. Un lapiz digital se utilizo para

almacenar las coordenadas (x, y) de su dibujo en un intervalo de tiempo uniformemente espaciado.

Para poder obtener una representacion lo mas proxima posible a los datos que se obtuvieron en

el experimento, se han generado las curvas de las respuestas de los individuos siguiendo el siguiente

10

Page 15: Memoria elvira delgado

modelo parametrico:

X(t) = A sin(Bπt) + F sin(Gπt) +Ht

Y (t) = a+ bt

donde

A ∼ N(0,1 + 0,01 ∗Nivel; 0,01)

B ∼ N(3 + [0,01; 0,015] ∗Nivel; [0,01; 0,015])

F ∼ N(0,1 + 0,01 ∗Nivel; 0,01)

G ∼ N(4 + 0,01 ∗Nivel; 0,01)

H ∼ N(0,2 + 0,01 ∗Nivel; 0,01)

a ∼ N(0,03 + [0,01; 0,015] ∗Nivel; [0,01; 0,015])

b ∼ N(1 + 0,02 ∗Nivel; 0,02)

Para realizar la descomposicion en Componentes Principales Funcionales para obtener el orden

de truncamiento T para una proporcion de variabilidad explicada del 95% se utilizo la metodologıa

desarrollada en el trabajo de Benco, Hardle y Kneip [10].

Se define el modelo de efectos mixtos adecuado a la simulacion realizada y al experimento como:

(Zp)672×T = (aj,3,1, . . . , aj,3,T )′+ (m3,1, . . . m3,T )

= (DF )672×3(ξp)3×T + (DR)672×96(ζp)96×T + (εp)672×T

p = 1, . . . , 672.

Ası, de los datos (Zp), p = 1, . . . , 672, siguiendo la metodologıa desarrollada por Ugarte, Goicoa

y Militino [40], podemos ajustar el modelo de efectos mixtos por maxima verosimilitud restringida,

obteniendo los estimadores ξp, σζ,p, y σε,p, respectivamente de los T primeros coeficientes de Fourier

de la curva de efectos fijos, con respecto a la base de autofunciones empırica, de las curvas que

definen los efectos aleatorios para los 32 individuos analizados y de las varianzas asintoticas de los

estimadores de proyeccion de las curvas de efectos fijos, ambos con respecto a la misma base de

autofunciones empırica truncada.

En el tercer capıtulo se formularan diferentes lıneas de investigacion en el contexto de los

11

Page 16: Memoria elvira delgado

modelos lineales de efectos mixtos Hilbert - valuados. Especıficamente, la investigacion que se plan-

tea se centra especialmente en la derivacion de modelos funcionales para el analisis experimental

a partir de infinitos candidatos potencialmente observables, ası como en el problema del analisis

estadıstico de infinito posibles tratamientos, a partir de las tecnicas de diseo experimental optimo,

combinadas con la proyeccion en bases ortogonales apropiadas. En particular, se abordara la exten-

sion del planteamiento de las tecnicas de Diseo D-optimos al contexto de los modelos de efectos fijos

funcionales, formulados en terminos de curvas de efectos fijos cuyas observaciones se encuentran

correlacionadas para diferentes tratamientos.

12

Page 17: Memoria elvira delgado

CAPITULO 1: BIBLIOGRAFIA RECIENTE SOBRE ANALISIS

FANOVA Y MODELOS DE EFECTOS MIXTOS CON CORRE-

LACION TEMPORAL

1. Analisis de Datos Funcionales y Analisis de Componentes Prin-

cipales Funcional

1.1. Analisis de datos funcionales (ADF)

En los ultimos anos, los avances en la tecnologıa informatica, los modernos equipos de recolec-

cion y almacenamiento datos y los avances en los diferentes campos de la ciencia ha permitido a los

investigadores recoger y disponer de datos de alta resolucion digitalizados que representan objetos

complejos como curvas, superficies o cualquier elemento que varıa sobre un continuo (tiempo, es-

pacio, longitud de onda, probabilidad, etc.). Ejemplos de este tipo de datos son los datos recogidos

por sismografos, datos referentes a explosiones nucleares, datos sobre temperatura precipitaciones,

datos medicos (electroencefalogramas, electrocardiogramas), datos financieros, etc.

El Analisis de Datos Funcional (ADF) es la rama de la estadıstica que analiza los datos que

proporcionan informacion sobre las curvas, superficies o cualquier otra forma que cambia en un

continuo. El ADF, a pesar de ser una disciplina temprana, inicio sus pasos en la decada de los

60 del siglo XX, es una de las que mas ha avanzado en el campo de la estadıstica con multitud

13

Page 18: Memoria elvira delgado

de publicaciones y estudios. De entre toda la literatura referente a datos funcionales, es necesario

destacar como referencias basicas, los libros de Ramsay y Silverman [30] y [31] y Ferraty y Vieu [24]

tratando muchos de los problemas basicos de la estadıstica funcional. El primer libro publicado por

Ramsay y Silverman [31] tiene un caracter mas aplicado en el que se estudian soluciones a problemas

sobre conjuntos de datos concretos. Desde el punto de vista computacional hay que destacar el libro

publicado por Ramsay, Hooker y Graves [30] centrandose en los aspectos computacionales en R y

MATLAB.

En internet podemos encontrar gran cantidad de informacion referente a datos funcionales,

destacando las paginas webs mantenida por Ramsay http://www.functionaldata.org y la del grupo

de Ferrat y Vieu, http://www.lsp.ups-tls.fr/staph.

En el ADF, la unidad basica de informacion es la funcion o variable funcional. En general,

cualquier observacion que varıe en un contınuo se puede considerar como un dato funcional. Por

ejemplo, un conjunto de imagenes de alta resolucion es un ejemplo de datos funcionales en un

dominio de dos dimensiones. En la practica, estos sucesos son recogidos por maquinas que toman

muestras de una determinada variable en distintos puntos del contınuo o de los contınuos que se

consideran. En el contexto multivariante los datos provienen de la observacion de la familia aleatoria

X(tj)j=1,...,J . En analisis funcional se asume que las muestras son observaciones de una familia

continua χ = X(t); t ∈ T. El caso mas sencillo es el de una curva unidimensional, T = R pero

tambien puede ser T = R2 en imagenes, u otras expresiones para casos mas complejos.

Del libro de Ferraty y Vieu [24] extraemos la definicion de dato funcional :

Definicion 1 Una variable aleatoria χ se llama variable funcional si toma valores en un espacio

infinito dimensional (espacio funcional). Una observacion χ de χ se llama un dato funcional.

Utilizar datos funcionales conlleva unas particularidades que hacen que los metodos tradicionales

no sirvan o queden cortos. Torrecilla Noguerales [39] definio las tres caracterısticas principales que

hacen que la mayorıa de los metodos clasicos no sean adecuados al trabajar con datos funcionales:

La dimension

La dimension complica de forma considerable la obtencion de informacion ya que no podemos

trabajar con objetos infinitos. El primer problema se encuentra en la propia captura de datos ya

14

Page 19: Memoria elvira delgado

que no es posible capturar la curva integra. En este sentido los avances tecnicos palıan esta perdida

de informacion con rejillas cada vez mas finas, si bien muchas veces son necesarias tecnicas de

interpolacion, suavizado u otras para completar los datos, teniendo siempre presente que pueden

introducir mas error.

Una vez capturado el dato, ademas del procesado propio de cualquier problema (imperfeccio-

nes, outliers, etc.), la altısima dimensionalidad en la practica, e infinita en la teorıa, hacen que

haya que elegir una representacion adecuada para trabajar. El problema de la representacion es

muy importante en FDA. Una vez representado el dato se mitiga en parte el inconveniente de la

dimensionalidad, aunque al reducirla estamos perdiendo informacion y saber que informacion es la

importante (en este caso para clasificar) es un punto de discusion interesante.

La correlacion

Si la dimension genera problemas en la captura y manipulacion de los datos provocando perdidas

de informacion, la correlacion genera importantes problemas en los algoritmos clasicos a la hora

de extraer la informacion. En el caso de datos funcionales los distintos puntos de la curva estan

altısimamente correlacionados. Esta correlacion indica que habra muchos puntos muy parecidos, con

lo que introducimos redundancia al sistema. Dicha redundancia puede empeorar los resultados de un

algoritmo haciendo que no se consideren otros puntos, sobreajustando, e incluso anularlo provocando

matrices singulares, como ocurre con el discriminante lineal. Por tanto, el ADF necesitara nuevos

metodos o cambios sustanciales en algunos antiguos para poder trabajar con el problema de la alta

correlacion.

Trabajar en espacios funcionales

La propia naturaleza de los datos plantea otra dificultad. Dependiendo del espacio en el que

vivan las funciones puede que no tengamos ni siquiera una metrica, pero aun teniendola no es trivial

definir el concepto de cercanıa o de similitud entre dos funciones, incluso puede que dependiendo del

problema nos interese mas un criterio u otro. Por todo esto, tienen una gran relevancia en el ADF

la eleccion de la metrica, o semi-metrica. Ademas, en esta misma lınea, es complicado establecer

cual es el elemento central de un conjunto de funciones, o que observaciones estan en el extremo.

15

Page 20: Memoria elvira delgado

1.2. Analisis de Componentes Principales Funcional (ACPF)

El principal objetivo del Analisis de Componentes Principales Funcional (ACPF) es el mismo

que el del Analisis en Componentes Principales clasico (ACP):

Dar una representacion de los datos mediante el criterio de conservacion de la maxima varianza

en una dimension menor de forma que se pongan de manifiesto caracterısticas latentes de los datos

en crudo.

Esta representacion puede utilizarse unicamente para la visualizacion o estudio preliminar de

los datos, pero a menudo es una herramienta para otros procesos posteriores como la clasificacion

o la deteccion de outliers. Por estos motivos, el analisis de componentes principales fue uno de los

primeros metodos adaptados en el ADF, habiendo gran numero de trabajos desde la decada de los

50 estudiando sus propiedades y extendiendo sus aplicaciones.

Ramsay y Sylverman [31] dedican un capıtulo ıntegro al ACPF. Mas recientemente, Benco,

Hardle y Kneip [10] hacen un buen resumen de la tecnica de Analisis de Componentes Principales

Funcional:

Los datos provienen de observaciones de fenomenos contınuos y se puede asumir para repre-

sentar una muestra de funciones aleatorias independientes e identicamente distribuidas X1(t), . . . ,

Xn(t) ∈ L2[0, 1]. El desarrollo de Karhunen - Loeve proporciona una herramienta basica para des-

cribir la distribucion de las funciones aleatorias Xi y puede ser visto como la base teorica del ACPF.

Para v, w ∈ L2[0, 1], ası 〈v,w〉 =∫ 10 v(t)w(t)dt y ası ||.|| = 〈., .〉2 indica la usual norma L2. Con

λ1 ≥ λ2 ≥ . . . y γ1, γ2, . . . senalando los autovalores y las correspondientes autofunciones orto-

normales del operador de covarianza Γ de Xi. Se obtiene Xi = µ+∑∞

r=1 βriγr i = 1, . . . , n donde

µ = E(Xi) es la funcion media y βri = 〈Xi − µ, γr〉 son factores de carga ( factor loadings) con

E(β2ri) = λr. La estructura y dinamica de las funciones aleatorias se puede evaluar analizando las

componentes principales funcionales γr ası como la distribucion de los factores de carga ( factor

loadings). Para una muestra funcional dada, las caracterısticas desconocidas λr, γr son estimadas

por los autovalores y autofunciones del operador de covarianza empırico Γn de X1, . . . , Xn. Des-

tacar que una autofuncion γr solo si el correspondiente autovector λr tiene multiplicidad 1. Esto,

ademas, establece una condicion necesaria para cualquier inferencia basada en una componente

principal funcional estimada γr en ACPF.

16

Page 21: Memoria elvira delgado

En algunas aplicaciones importantes, un pequeno numero de componentes principales sera su-

ficiente para aproximar las funciones Xi con un alto grado de precision. De hecho, el ACPF juega

un rol mas importante en el ADF que su bien conocido analogo en analisis multivariante. Hay 2

razones principales. Primero, las distribuciones en espacio de funciones son objetos complejos y

el desarrollo de Karhunen - Loeve parece ser la unica forma factible de acceder a su estructura.

Segundo, en analisis multivariante una interpretacion considerable de componentes principales es a

menudo difıcil y tiene que estar basada en argumentos vagos concernientes a la correlacion de las

componentes principales con las variables originales. Tal problema no existe en el contexto funcio-

nal, donde γ1(t), γ2(t), . . . son funciones que representan la principal forma de variacion de Xi(t)

sobre t.

1.3. Analisis Funcional de la Varianza (FANOVA)

En los ultimos anos, la mayorıa de los progresos han sido realizados en el desarrollo de tecnicas

estadısticas para trabajar con datos funcionales. Uno de los desafıos estadısticos que surge en analisis

de datos funcionales es la comparacion entre curvas o conjuntos de curvas. Este tipo problemas

esta considerado dentro del marco del Analisis Funcional de la Varianza (FANOVA). Existe una

gran cantidad de publicaciones sobre varios ajustes de modelos FANOVA y estimacion de sus

componentes. Sin embargo, se ha prestado mucha menos atencion a la inferencia o al contraste de

hipotesis funcional.

Un enfoque algo sencillo para el contraste de modelos FANOVA realizando un conjunto de

contrastes ANOVA univariante clasico para comparar un conjunto de curvas en cada momento

especıfico provoca un serio problema de multiplicidad debido a la alto numero de contrastes si-

multaneos. Ignorando el problema de multiplicidad se llega a un error de tipo I global no controlado

mientras, por ejemplo, el conocido procedimiento de Bonferroni se obtiene una potencia muy baja.

Otro enfoque para contraste FANOVA maneja los datos funcionales como vectores multivariantes y

aplica tecnicas ANOVA tradicionales combinadas con varios procedimientos de reduccion inicial de

dimensionalidad. Sin embargo, la maldicion de la dimensionalidad hace estos intentos tambien pro-

blematicos. Fan y Li [23] propusieron un potente contraste para el contraste de hipotesis funcional

basado en los procedimientos thresholding adaptativso Neyman y wavelet de Fan [22] aplicados a

coeficientes empıricos de Fourier y wavelet de los datos. Es bien conocido que una gran variedad de

diferentes funciones tienen una amplia representacion en el dominio de Fourier y especialmente en

17

Page 22: Memoria elvira delgado

dominios wavelet que permiten reducciones significativas de la dimensionalidad de los datos funcio-

nales. Sin embargo, estos trabajos no investigan la optimalidad de los procedimientos propuestos.

Abramovich et al. [1] aplicaron asintoticamente el contraste de hipotesis funcional minimax defi-

nido por Ingster en 1982 para contraste en FANOVA de efectos fijos. En particular, adaptaron el

correspondiente procedimiento de contraste basado en wavelet de Spokoini (1996) para contrastar

una senal cero en un modelo senal + ruido blanco y mostraron su optimalidad asintotica para el

contraste en el modelo FANOVA de efectos fijos para una amplia clase de alternativas.

En varias aplicaciones los datos sobre individuos son a menudo agrupados de acuerdo a algun

factor en el que reside el interes en las diferencias entre grupos antes que entre individuos en

particular. Los individuos son tratados como efectos aleatorios asociados con una muestra dibujada

aleatoriamente de la poblacion. Esto tambien permite modelar correlaciones entre observaciones

sobre el mismo individuo, esta situacion es muy tıpica en datos longitudinales y medidas repetidas.

18

Page 23: Memoria elvira delgado

2. Analisis a partir de bases de wavelets: Estimacion no parametri-

ca y Contraste de significacion e interaccion.

2.1. Modelo de Efectos Fijos Funcional

Zoglat [44] parte del modelo de efectos fijos funcional que tiene su origen en la teorıa clasica

del Analisis de la Varianza. Las observaciones son funciones del tiempo y la ecuacion para una

observacion puede escribirse como

Y (t) = x′

β(t)+ σǫ , t ∈ [0, 1]. (1)

Donde:

x = (x1, . . . , xp)′ ∈ R

p son los pesos de la combinacion lineal de las funciones βi, i = 1, . . . , p,

que define la media

β = (β1, . . . , βp)′ ∈ Lp

2 vector de funciones cuadrado - integrables (parametros funcionales del

modelo)

ǫ error funcional.

m la funcion valor medio.

σ un escalar desconocido positivo.

Suponer que se observan n observaciones independientes de una funcion aleatoria Y de (1). En

notacion vectorial, el modelo serıa:

Y (t) = Xβ(t) + σǫ(t) t ∈ [0, 1]. (2)

Donde

Y ∈ Ln2 es el vector de datos funcionales o curvas observadas de dimension n× 1.

Yi, Yj (i 6= j) son independientes e identicamente distribuidas.

β = (β1, . . . , βp)′ ∈ Lp

2 vector de funciones cuadrado - integrables (parametros funcionales del

modelo).

X = (xij) es una matriz n× p cuyos elementos son numeros reales.

19

Page 24: Memoria elvira delgado

β = (β1, . . . , βp)′ ∈ Lp

2 vector de funciones cuadrado - integrables (parametros funcionales del

modelo)

ǫ = (ǫ1, . . . , ǫn)′ ∈ Ln

2 donde ǫi, ǫj (i 6= j) son independientes e identicamente distribuidas con

operador de auto-covarianza Rǫ = E[ǫ⊗ ǫ] = E[ǫi ⊗ ǫi], i, j = 1, . . . , n.

De Zoglat [44] se extrae el siguiente teorema:

Teorema 1 Sea X una variable aleatoria Gaussiana con media cero cuyos valores estan L2(S, µ),

existe una secuencia (Xk) de variables aleatorias normales independientes e identicamente distri-

buidas tales que

Xk =1√λk

〈X,ϕk〉 y X =∑

k≥1

√λkXkϕk

siendo κ el operador de covarianza de ǫ y (λk, ϕk), k ≥ 1 la secuencia de pares de autovalores -

autofunciones del operador de covarianza Tκ.

Entonces, la secuencia (ϕk)k≥1 nos permite reducir el modelo (1) a un sistema de modelos

clasicos. En particular, si ǫ es Gaussiano, esta reduccion preserva la independencia a traves de las

proyecciones de las realizaciones. Ademas, nos permite identificar las reglas de algunos estadısti-

cos.[44]

Por simplicidad en la notacion, T sera denotado como Tκ y HT denotara el cierre en L2 del

subespacio generado por (ϕk)k≥1:

HT = f ∈ L2 ; f =∑

k≥1

〈f, ϕk〉ϕk

En otras palabras, HT es el espacio de Hilbert con nucleo reproductor asociado con κ. En el

caso de un error Gaussiano, se supondra, sin perdida de generalidad, que la funcion valor media

m pertenece a HT . De hecho, cada observacion, Y es la suma de sus proyecciones en HT , YHTy

Y(HT )⊥ = Y − YHT. El error estara con seguridad en HT . Ademas, m(HT )⊥ = Y(HT )⊥ , ası, solo

sera necesario hacer inferencias sobre m(HT )⊥

2.2. Estimacion

Siguiendo la metodologıa de Zoglat [44], nos centraremos en los dos metodos utilizados de forma

mas habitual en la teorıa de estimacion:

20

Page 25: Memoria elvira delgado

1. El Metodo de Mınimos cuadrados.

2. El Metodo de Maxima verosimilitud.

El objetivo sera obtener un estimador de la funcion vectorial β ∈ Lp2, que, en particular, coincida,

para cada t ∈ [0, 1], con el estimador clasico de (β1(t), . . . , βp(t)), ası como la obtencion de contrastes

lineales sobre los parametros del modelo H0 : Kβ = C

Estimacion puntual:

Mınimos cuadrados

Maxima verosimilitud

2.2.1. Metodo de mınimos cuadrados

El metodo de mınimos cuadrados se basa en minimizar la norma cuadrada del error. En el

espacio Euclıdeo, esto se puede conseguir calculando derivadas e igualando a cero. En el caso

infinito dimensional no hay equivalencia para este procedimiento. Sin embargo, en un espacio de

Hilbert es posible aplicar el procedimiento de mınimos cuadrados.

El metodo de mınimos cuadrados consiste en encontrar β que minimice el error cuadratico

funcional en la geometrıa de Rǫ

e(β) = (Y1 − (Xβ)1, . . . , Y1 − (Xβ)n)′ .

Donde se puede observar que σ no depende de β.

Si suponemos que σ = 1, lo que hay que minimizar es

n∑

i=1

‖ei(β)‖2Rǫ=

n∑

i=1

k≥1

λ2k(Y(k) −Xβ(k))′(Y(k) −Xβ(k)) =

k≥1

‖e(k)(β(k))‖2n.

En caso contrario, σ 6= 1, bastarıa con dividir e(β) por σ.

Se puede demostrar que ‖ei(β)‖2Rǫse puede minimizar si y solo si, para cada k ≥ 1, la norma

Euclıdea de e(k)(β) es mınimo. Para cada k ≥ 1 fijo, la norma de e(k)(β), visto como funcion de

β(k) se minimiza como

β(k) = (X′X)−1X′Y(k).

De forma mas general, Zoglat [44] define el siguiente teorema:

21

Page 26: Memoria elvira delgado

Teorema 2 El estimador de β que minimiza ||Y − Xb||Rǫ cuando b es visto como funcion, se

define como

β = (X′X)−1X′Y

2.2.2. Metodo de maxima verosimilitud

El metodo de maxima verosimilitud es mas restrictivo que el metodo de mınimos cuadrados.

Requiere una densidad de distribucion con respecto a una medida. La medida de Lebesgue es la mas

frecuentemente usada en el modelo lineal clasico, y es eficiente bajo la suposicion de normalidad.

En el caso funcional no hay equivalencia para la medida de Lebebesgue e incluso, bajo la suposicion

de normalidad, puede no existir una densidad de distribucion.

Suponer que ǫ del modelo (2), es Gaussiano, y denotar la matriz (Xβ) de orden n × 1 por

m = (m1, . . . ,mn)′. Sean L(Y1) = ν y L(σǫ1) = µ las distribuciones de probabilidad de Y1 y σǫ1

respectivamente. Estas son 2 medidas de probabilidad Gaussianas sobre (L2,BL2).

Por lo que, segun Zoglat [44], la funcion de verosimilitud quedarıa definida como

l(m,y) = exp

−1

2

j≥1

n∑

i=1

[m∗i(j)]

2 +∑

j≥1

n∑

i=1

m∗i(j)y

∗i(j)

=∏

j≥1

exp

(−σ

2λj2

[m′

(j)m(j) − 2m(j)y(j)

])

=∏

j≥1

exp

(−σ

2λj2

[β′(j)X

′Xβ(j) − 2β′(j)X

′y(j)

]).

Resaltar que para cada j ≥ 1,

β′(j)X

′Xβ(j) − 2β′(j)X

′y(j) = (y(j) −Xβ(j))′(y(j) −Xβ(j))− y′

(j)y(j).

De lo que se obtiene el siguiente teorema, extraıdo de Zoglat [44], como resultado.

Teorema 3 Vistos como una funcion de β, l(m,y), se maximiza para

β = (X′X)−1X′Y.

Es importante senalar que los dos metodos de estimacion expuestos, al igual que en el caso finito

dimensional conducen al mismo estimador de β. Sin embargo, mientras que el metodo de mınimos

cuadrados siempre es aplicable, no ocurre lo mismo con el metodo de maxima versimilitud [44]:

22

Page 27: Memoria elvira delgado

1. Al igual que en el caso finito dimensional, el metodo de mınimos cuadrados no requiere

normalidad. Ademas, no requiere que se tenga ningun tipo de conocimiento sobre la estructura

de covarianza.

2. A diferencia del caso finito dimensional, en el caso de espacios inifitos dimensionales no existe

un equivalente al la medida de Lebesgue en Rn. Sin embargo, si el error es Gaussiano esta

dificultad puede evitarse dejando que la derivada de Radon - Nikodym juegue el rol de funcion

de verosimilitud. Si el error no es Gaussiano, no es facil evitar esta dificultad.

2.3. Descomposicion de la variabilidad

Se define la suma de cuadrados del error residual como

SSE = 〈Y − Y,Y − Y〉Rǫ = 〈Y ,MY 〉Rǫ .

Donde

Y = Xβ.

〈Y ,MY 〉Rǫ puede definirse como

〈Y ,MY 〉Rǫ =

n∑

i=1

n∑

j=1

k≥1

λk〈Yi, ϕk〉mij〈Yj, ϕ〉

=∑

k≥1

n∑

i=1

n∑

j=1

λk〈Yi, ϕk〉mij〈Yj, ϕ〉

=∑

k≥1

λkY′(k)MY (k).

Se define la suma de cuadrados total se puede definir como

SST = 〈Y,Y〉Rǫ

y la que la suma de cuadrados de la regresion como

SSR = SST− SSE = 〈Y,BY〉Rǫ ,

donde B = X(X′X)−1X′ es B es simetrica, idempotente y ortogonal a M.

23

Page 28: Memoria elvira delgado

Teorema 4 Suponiendo que el error ǫ es Gaussiano, se tiene que

1. Existe una secuencia ηk, k ≥ 1 de variables aleatorias independientes con distribucion χ2(r(M))

tal que σ2∑

k≥1 λ2kηk converge casi seguramente a SSE

2. Existe una secuencia de variables aleatorias ξk ∼ χ2,′(r(B), (2σ2λk)

−1µ′(k)Bµ(k)

), k ≥ 1

tales que σ2∑

k≥1 λ2kξk converge casi seguramente a SSR

3. SSE y SSR son independientes

4. El estadısticoSSE

r(M)∑

k λ2k

es un estimador insesgado y consistente de σ2

2.4. Contraste de Hipotesis lineal

Considerar la contraste de hipotesis general

H0 : Kβ = C

H1 : Kβ 6= C

Donde K es una matriz m × p y C es un vector m× 1 de funciones dadas. Suponer que K es

de rango completo, es decir rank(K) = m. Para contrastes de este tipo de hipotesis se necesita

calcular un estimador de β bajo H0. Se observa que el metodo de mınimos cuadrados restringido

proporciona el estimador β.

El metodo de mınimos cuadrados restringido se obtiene minimizando ||e(β)||2Rǫbajo la condicion

Kβ = C que equivale a

Kβ(k) −C(k) = 0 ∀k ≥ 1. (3)

Para minimizar ||e(β)||2Rǫsujeto a (3) es suficiente minimizar para cada k ≥ 1:

(Y(k) −Xβ(k))′(Y(k) −Xβ(k))

sujeto a la condicion K(k)β = C(k) = 0.

Haciendo uso de los multiplicadores de Lagrange,

β = β − (X′X)−1)K′[K(X′X)−1)K′]−1(Kβ −C). (4)

24

Page 29: Memoria elvira delgado

Senalar que rank(K) = m ≤ p = rank(X′X)−1 y rank(K(X′X)−1K′) = m.

De (4) y haciendo los mismos calculos que en el analisis de la varianza clasico, se obtiene

X(β − β) = D(Y −C∗)

donde

D = X(X′X)−1K′[K(X′X)−1K′]−1K(X′X)−1X′

C∗ = XK′(KK′)−1C.

Por lo que se definirıa el estadıstico Q = ‖X(β − β)‖2Rǫdel que se establecen las siguientes

propiedades [44]:

Teorema 5 Suponiendo que el error ǫ es Gaussiano, se tiene que

1. Existe una secuencia de variables aleatorias ξk ∼ χ2′(r(D), δk)

2. δk = (2σ2λk)−1(E(Y(k))−C∗

(k))′D(E(Y(k))−C∗

(k))

3. La serie σ2∑

k≥1 λ2kξk converge casi seguramente al estadıstico Q

4. Las variables aleatorias SSE y Q son independientes

Teorema 6 Para el contraste de H0 : Kβ = C frente H1 : Kβ 6= C a nivel α existe un test ψ que

viene dado por

ψ =

1 si SH0(Y) > C(H0, α)

0 en otro caso

1. SH0(Y) =

SSRH0− SSR si σ es conocido

(SSRH0− SSR)/SSE en otro caso

2. P SH0(Y) > C(H0, α), Kβ = C = α

25

Page 30: Memoria elvira delgado

2.5. Contraste de significacion e interaccion en modelos FANOVA de efectos

mixtos

2.5.1. Modelo FANOVA de efectos mixtos.

En esta seccion consideraremos el modelo FANOVA de efectos mixtos definido por Abramovich

y Angelini [2] y desarrollaremos la metodologıa utilizada.

El modelo que se considerara es:

dYi,l(t) = mi(t)dt+ Vl(t)dt+ εWi,l(t) i = 1, . . . , r ; l = 1, . . . ,m ; t ∈ [0, 1]. (5)

Donde

mi(t) son funciones de efectos fijos.

Vl(t) son funciones de efectos aleatorios modeladas como realizaciones independientes de un

proceso estocastico de media cero V (t).

Wi,l(t) son realizaciones independientes de un proceso de Wiener clasico.

Vl(t) y Wi,l(t) son independientes entre sı.

Siguiendo el desarrollo descrito en Antonianis [7] y [8], cada mi(t), i = 1, . . . , r en (5) admite la

siguiente descomposicion unica:

mi(t) = m0 + µ(t) + ai + γi(t) i = 1, . . . , r ; t ∈ [0, 1], (6)

donde m0 es una constante (la media global), µ(t) es cero o una funcion de t no constante (el

principal efecto fijo de t), ai es cero o una funcion de i no constante (el principal efecto mixto de

i) y γi(t) es cero o una funcion que no puede descomponerse como una suma de una funcion de i

y una funcion de t. Las componentes de la funcion (6) satisfacen las siguientes condiciones:∫ 1

0µ(t)dt = 0 ;

r∑

i=1

ai = 0

r∑

i=1

γi(t) = 0 ;

∫ 1

0γi(t)dt = 0 (7)

∀i = 1, . . . , r ; t ∈ [0, 1]

Definimos el Modelo de efectos mixtos funcional:

Xi,l(t) =dYi,l(t)

dt= mi(t) + Vl(t) + ǫ(t), i = 1, . . . r, l = 1, . . . ,m.

26

Page 31: Memoria elvira delgado

2.5.2. Contraste de Hipotesis a partir del modelo de efectos mixtos

El contraste de hipotesis de los efectos principales y las interacciones es equivalente a contrastar

las siguientes hipotesis:

H0 : µ(t) = 0 , t ∈ [0, 1] (sin tendencia global). (8)

H0 : ai = 0 , ∀i = 1, . . . , r (sin diferencias en nivel). (9)

H0 : γi = 0 , ∀i = 1, . . . , r (sin diferencias en forma). (10)

Integrando el modelo (5) con respecto a t y usando las condiciones (7) se obtiene

Y ∗i,l = m0 + ai + Vl + εξi,l , i = 1, . . . , r , l = 1, . . . ,m ,

r∑

i=1

ai = 0,

donde

Y ∗i,l =

∫ 10 dYi,l(t)

Vl =∫ 10 Vl(t)dt

ξi,l son variables aleatorias independientes N(0, 1)

Este es el modelo ANOVA de efectos mixtos clasico y contrastando (9) se puede resolver por

varias tecnicas.

Si consideramos ahora contrastar las hipotesis funcionales (8) y (10). Promediando (5)-(6) con

respecto a i y l y explotando las condiciones (7) se llega al siguiente modelos FANOVA de efectos

aleatorios

dY (t) = (m0 + µ(t))dt+ V (t)dt+ εdW (t), (11)

donde V (t) es el proceso medio de V1(t), . . . , Vm(t) y W (t) es la media de r×m procesos de Wiener

independientes clasicos.

Si definimos Yi.(t) =1

m

∑ml=1 Yi,l(t) y Wi.(t) =

1

m

∑ml=1Wi,l(t), (11) se podrıa expresar como

d(Yi.(t)− Y (t)) = (ai + γi(t))dt + εd(Wi.(t)− W (t)). (12)

Esta ultima ecuacion no involucra componentes de efectos aleatorios y para contrastar (10) se

puede hacer uso del procedimiento desarrollado por Abramovich et al. en 2004 [1] para los modelos

FANOVA de efectos fijos.

27

Page 32: Memoria elvira delgado

El conjunto alternativo

Reescribiendo el modelo FANOVA de efectos aleatorios (11) en la forma equivalente

dY (t) = (m0 + µ(t))dt+ V (t)dt+ ηdW (t), (13)

donde η =ε√rm

y W (t) es un proceso de Wiener clasico.

Se quiere comprobar la hipotesis nula (8) contra una clase de alternativas tan grande como

posible y sin especificar ninguna estructura parametrica para el conjunto alternativo. En su lugar,

solo se asume que µ(.) posee alguna propiedad de suavizado. En particular, se supone que µ(.)

pertenece a alguna bola Besov Bsp,q(M) de radio M > 0 en el intervalo unidad, donde 1 ≤ p,

q ≤ ∞, sp > 1, estrictamente hablando, el parametro s indica el numero de derivadas de la funcion,

donde su existencia se requiere en un sentido Lp mientras que el parametro adicional q proporcional

una graduacion mas final.

Por otro lado, para ser capaz de distinguir entre las dos hipotesis, µ(.) deber estar alejado del cero

en la norma L2, ||µ||2 ≥ ρ(η). Esto es una forma tıpica de restricciones en un conjunto alternativo en

el contraste no parametrico. La restriccion de suavizado limita el conjunto de alternativas mientras

que las restricciones de la norma L2 lo elimina demasiado proximo a cero.

Ası, dados los datos en (12), el contraste de hipotesis que se quiere realizar es

H0 : µ(t) = 0

H1 : µ ∈ F(ρ(η)) (14)

donde F(ρ(η)) = µ : µ ∈ Bsp,q(M),

∫µ(t) = 0 , ||µ||2 ≥ ρ(η)

2.5.3. El modelo para los efectos aleatorios

Para completar (13) es necesario especificar la distribucion del proceso estocastico V (t) que

esta definido de forma completa por la distribucion de V (t) en el modelo de efectos mixtos original

(5). En lugar de definir la distribucion de V (t) directamente, se establece la distribucion sobre los

coeficientes de su desarrollo wavelet.

Por simplicidad, Abramovich y Angenine [2] consideraron bases wavelet periodicas ortonormales

en L2[0, 1], aunque en la practica se comporten mal en las fronteras en el caso de funciones no

28

Page 33: Memoria elvira delgado

parametricas. Se elige una wavelet madre ψ de regularidad v > s y haciendo la transformada

wavelet periodica sobre (13):

Yjk = µjk + Vjk + ηξjk j ≥ −1 k = 0, . . . , 2j − 1, (15)

donde

Yjk =∫ 10 ψjk(t)dY (t)

µjk =∫ 10 mu(t)ψjk(t)dt

Vjk =∫ 10 V (t)ψjk(t)dt

ξjk son variables normales independientes N(0, 1)

Para simplificar la notacion, denotamos las funciones de escala φ(t) y ψ−10(t).

Por otro lado, el proceso, V (t) es una media de m realizaciones independientes de V (t) y en el

dominio wavelet Vjk =1

m

∑ml=1 Vjk,l donde Vjk,l =

∫ 10 Vl(t)ψjk(t)dt, l = 1, . . . ,m

Es natural suponer que a diferencia del ruido blanco completamente irregular, las realizaciones

de V (t) poseen algunas propiedades de suavizado, por ejemplo que caigan con toda seguridad dentro

de una bola de Besov. Varias funciones procedentes de espacios de Besov tiene una amplia repre-

sentacion en series wavelet y para capturar esta caracterıstica de las funciones wavelets, suponer la

siguiente distribucion sobre Vjk,l:

Vjk,l ∼ πjN(0, τ2j ) + (1− πj)δ(0) j ≥ 0 k = 0, . . . , 2j − 1 (16)

son independientes, donde 0 ≤ πj ≤ 1, δ(0) es una masa puntual en 0. Para completar el modelo

hacer uso de distribuciones imprecisas para los coeficientes de escala V−10,l, l = 1, . . . ,m. Ademas,

suponer que Vjk,l y ξjk son independientes.

De acuerdo con (16), cada Vjk,l es 0 con probabilidad 1−πj o con probabilidad πj esta distribuido

de forma normal con media 0 y varianza τ2j . La probabilidad πj es una medida de la proporcion de

coeficientes wavelet no nulos en el nivel de resolucion j mientras que la varianza τj es una medida

de sus magnitudes. Los parametros πj y τ2j son los mismos para todos los coeficientes en un nivel

de resolucion j.

Ası κ2j =rτ2jε2

=τ2jmη2

y tambien supone que lim supjk2j ≥ C < ∞ para asegurar que las

varianzas de ambas componentes aleatorias en (13) son del mismo orden.

29

Page 34: Memoria elvira delgado

De Abramovich y Angenine [2] extraemos la siguiente proposicoon:

Proposicion 1 Si los coeficientes del desarrollo wavelet de Vl(t), l = 1, . . . ,m tienen distribucion

(16). Entonces, Vl(t), l = 1, . . . ,m son realizaciones de un proceso estocastico de media cero no

estacionario (no Gaussiano) V (t) con funcion de covarianza

R(s, t) =∑

j≥0

πjτ2j

2j−1∑

k=0

ψjk(s)ψjk(t).

Se puede demostrar que la serie wavelet ψjk(t) son las autofunciones de la funcion de covarianza

R(s, t) con sus correspondientes autovalores√πj τj. En particular, si τ2j y πj decrecen de forma

exponencial, esto es τ2j = c12−aj y πj = min(1, c22

−bj), j ≥ 0 donde a, b ≥ 0 y c1, c2 > 0, el numero

esperado de coeficientes wavelet distintos de 0 sobre el j-esimo nivel es c22j(b−1).

2.5.4. Principales resultados

Un contraste φ es una funcion medible de los datos con los dos valores 0 y 1 que corresponden a

aceptar y rechazar la hipotesis nula respectivamente. Como es usual, la calidad del test φ es medible

por el error de Tipo I (Rechazar H0 cuando es cierta) y por el error de Tipo II (Aceptar H0 cuando

es falsa). La probabilidad del error de Tipo I se define como α(φ) = Pµ=0(φ = 1). Mientras que la

probabilidad del error de Tipo II para H1 no parametrica se define como

β(φ, ρ(η)) = supµ∈F(ρ(η))Pµ(φ = 0)

Para las probabilidades de error definidas de ambos tipos, la tasa de decaimiento de ρ(η) cuando

η → 0 es una medida estandar de la bondad asintotica del contraste.

De Abramovich y Angenine [2] extraemos la definicion de tasa minimax :

Definicion 2 Una secuencia ρ(η) se llama tasa minimax de contraste si ρ(η) → 0 cuando η → 0

y se cumplen las dos siguientes condiciones:

1. Para cualquier ρ′(η) = on(ρ(η)), tiene

infφn[α(φn + β(ρ

′(φn, η))] = 1− on(1)

donde on(1) es una secuencia que tiende a cero cuando η → 0

30

Page 35: Memoria elvira delgado

2. Para cualquier α > 0 y β > 0 existe una constante c > 0 y un test φ∗η tal que

α(φ∗η) ≤ α+ on(1).

β(φ∗η, cρ(η)) ≤ β + on(1).

La primera condicion establece que contrastar con una tasa mas rapida que ρ(η) es imposible

mientras que la segunda condicion garantiza que para la tasa ρ(η) existe un contraste ρ(η)∗

Contraste minimax

De Abramovich y Angenine [2] extraemos el siguiente teorema:

Teorema 7 Denotemos por ψ(t) la wavelet madre, cuya regularidad es v > s, y cuyo parametro

θ = (s, p, q,M) caracterizando la bola de espacio de Besov Bsp,q(M) es conocido, donde 1 ≤ p,

q ≤ ∞, sp > 1 y s > 1/4 para p ≥ 2. Considerar el contraste de hipotesis

H0 : µ = 0

H1 : µ ∈ F(ρ(η)) =

µ ∈ Bs

p,q(M) ,

∫µ(t)dt = 0 , ||µ||2 ≥ ρ(η)

en el modelo de efectos mixtos (21) y (24). Entonces, dado un nivel de significacion fijo α ∈(0, 1), cuando η → 0, la tasa ρ(η) del contraste

φ∗ = 1

T (Jθ) +Q(Jθ)√v20(Jθ) + ω2

0(Jθ)>z1−α

,

es ρ(η) = η4s′′/(4s′′+1)

donde

T (Jθ) =

Jθ−1∑

j=0

Sj,

Sj =2j−1∑

k=0

(Y 2jk − η2(1 + πjκ

2j )),

T (Qθ) =

Jη−1∑

j=Jθ

Sj(λi),

Sj(λj) =

2j−1∑

k=0

(Y 2jk1|Yjk| > ηλ − η2bj(λ)),

bj(λ) = E[ζ2j 1|ζj | > λ].

31

Page 36: Memoria elvira delgado

Contraste adaptativo

De Abramovich y Angenine [2] extraemos el siguiente teorema:

Teorema 8 Cuando η → 0, la tasa ρ(η) del test

φa = 1

maxjmin≤Jθ≤jmax

T (Jθ) +Q(Jθ)√v20(Jθ) + ω2

0(Jθ)

>√

2lnlnη−2

para el contraste (14) es

ρ(η) = η4s′′/(4s′′+1)(lnlnη−2)s

′/(4s′′+1).

Ademas, existe una constante c tal que α(ψa) = oη(1) y supT β(ψa, cρn) = oη(1)

2.6. Estimacion no parametrica

Se considera el problema de regresion no parametrico clasico con ruido aditivo considerado por

Angelini, De Canditiis y Leblanc [5]:

(ti, Yi) Yi = f(ti) + σεi donde E[εi] = 0 E[ε2i ] = 1. (17)

Donde las εi son variables aleatorias incorreladas y (ti) es un diseno determinıstico (no necesaria-

mente regular). El valor de σ puede ser conocido o no.

El objetivo principal es estimar la funcion desconocida f en un entorno no parametrico. Por lo

que f se supondra que pertenece a alguna clase de suavidad F . El problema (17) se ha estudiado

bajo dos conjuntos diferentes de presunciones sobre la funcion f :

1. Modelo de efectos fijos: f es considerado como una funcion determinıstica y la clase F es una

bola en un espacio de Sobolev de regularidad s. Las observaciones, Y = (Y1, . . . , Yn)′, son

independientes.

2. Modelo de efectos mixtos: f es de la forma

f(t) = µ(t) +√bz(t), (18)

donde µ es una funcion determinıstica y z es un proceso estocastico. Ademas, de acuerdo a la

estructura de covarianza elegida para el proceso estocastico z, f se encontrara en un espacio

mas grande que el espacio de Sobolev considerado en el caso anterior. Las observaciones,

32

Page 37: Memoria elvira delgado

Y = (Y1, . . . , Yn)′, son variables correladas ya que son observaciones perturbadas de puntos

de discretizacion del proceso f .

Algunos metodos basados en kernel, proyecciones ortogonales, polinomios locales, wavelet o

estimadores spline se pueden encontrar en [3, 7, 8, 20, 22, 28, 41]. Todos estos estimadores dependen

de un parametro de suavizado desconocido.

Asumiendo que f es determinıstica, Angelini, De Canditiis y Leblanc [5] proponen un estimador

lineal de f como solucion de un problema de minimizacion definido en el dominio wavelet. se

demuestra que este estimador es el mejor predictor lineal insesgado para una funcion de regresion

de efectos mixtos f dada en (18). Debido a que el coste computacional para el calculo de este

estimador es muy alto (O(n2)) y que realmente no se aprovecha de la transformada discreta wavelet

rapida, se propone un segundo estimador que es mas facil y rapido de implementar. Este nuevo

estimador sera una fina aproximacion del primero.

Cuando F es el espacio de Sobolev clasisco Hs2 [0, 1], donde s es un entero estrictamente positivo,

puede definirse como un espacio de Hilbert con nucleo reproductor.

En el trabajo de Angelini, De Canditiis y Leblanc [5] se ha imitado la aproximacion spline para

generalizar el problema de estimacion sobre un espacio de Sobolev con ındices no enteros. Cuando s

es un numero real mayor que 1/2 se establece que Hs2 [0, 1] es aun un espacio de Hilbert con nucleo

reproductor H = H0⊕H1 con un nucleo reproductor construido con bases wavelet. A continuacion

se estima f con la solucion fλ del problema de minimizacion:

mınf∈H

1

n

n∑

i=1

(Yi − f(ti))2 + λ||P1f ||2H, (19)

donde P1 es el proyector ortogonal sobre el subespacio H1

Para el problema de optimizacion, cuando λ = 0, la solucion interpolara los puntos (ti, Yi)

por una funcion de Hs con una gran norma en el espacio de Sobolev. Mientras que si se toma

λ = ∞ se llega a una solucion con una pequena norma en Hs pero aproximando muy mal la

funcion desconocida f . De esta forma, el termino λ||P1f ||2H que penaliza los detalles en el desarrollo

wavelet permite establecer un compromiso entre buena aproximacion y suavizado del estimador no

parametrico resultante.

La solucion de (19) esta dada por el siguiente teorema obtenido de Angelini, De Canditiis y

Leblanc [5]:

33

Page 38: Memoria elvira delgado

Teorema 9 Sea Φ la matriz n × 2J definida por Φi,j = ϕJ,k(ti) para cualquier i = 1, . . . , n y

k = 0, . . . , 2J−1 y Φt la matriz fila 1×2J definida por Φ1,k = ϕJ,k(t) para cualquier k = 0, . . . , 2J−1

y cualquier t ∈ [0, 1]. Ademas, Σ sera la matriz n× n definida por Σi,j = K1(ti, tj) para cualquier

i = 1, . . . , n y j = 1, . . . , n y Σt la matriz 1 × n definida por Σt,j = K1(t, tj) para cualquier

j = 1, . . . , n y cualquier t ∈ [0, 1].

El minimizador del problema (19) viene dado por:

fλ(t) =

2J−1∑

k=0

αJ,kϕJ,k(t) +

n∑

i=1

diK1ti(t)

= Φtα+Σtd,

donde

α = (αJ,0, . . . , αJ,2J−1)′ = (Φ′Σ−1Φ)−1Φ′Σ−1Y ,

d = (d1, . . . , dn)′ = Σ−1(In − Σ(Φ′Σ−1Φ)−1)Φ′Σ−1)Y ,

Σ = Σ + nλIn Y = (Y1, . . . , Yn)′.

Cabe destacar que fλ(t) se puede escribir en terminos de un desarrollo wavelet:

fλ(t) =

2J−1∑

k=0

αJ,kϕJ,k(t) +∑

j≥J

2j−1∑

k=0

βj,kψj,k(t)

βj,k =

n∑

i=1

λj diψj,k(ti)

2.6.1. Wavelets y espacios de Besov

Angelini, De Canditiis y Leblanc [5] utilizan wavelets con soporte compacto tales como wavelets

ortogonales de Daubechies.

Para la construccion de bases wavelets ortonormales de soporte compacto para L2(R), se empieza

con una pareja especial de soporte compacto conocidas como la funcion de escala, ϕ y la wavelet

ψ. El conjunto de funciones ψj,k(x) = 2j/2ψ(2jx − k), j, k ∈ Z, constituye una base ortonormal

para L2(R). Para j ∈ Z fijo, ϕj,k(x) = 2j/2ϕ(2jx − k), k ∈ Z son una base ortonormal para

un subespacio Vj ⊂ L2(R). Los espacios Vj construyen un analisis multiresolucion. Denotamos

Pif =∑

k∈Z〈f, ϕj,k〉ϕj,k la proyeccion ortogonal de f sobre el Vj .

Los wavelet de mayor suavizado no solo proporcionan bases ortonormales para L2(R), tambien

bases no condicionales para varios espacios de funciones, incluyendo espacio de Besov. Ası conside-

34

Page 39: Memoria elvira delgado

raremos bases wavelet ortonormales en el intervalo [0, 1]. Adaptar las wavelets a intervalos finitos

requiere algunas modificaciones como las descritas en [14].

De forma resumida, para J tal que 2J ≥ 2r, la construccion [14] proporciona un conjunto

finito de 2J funciones de escala, ϕJ,k y para cada j ≥ J , 2j funciones ψj,k tal que la coleccion de

estas forma un sistema ortonormal completo de L2[0, 1]. Con esta notacion, la reconstruccion de la

formula de L2[0, 1] es

f(t) =2J−1∑

k=0

αJ,kϕJ,k(t) +∑

j≥J

2j−1∑

k=0

βj,kψj,k(t), (20)

donde αJ,k =∫[0,1] f(t)ϕJ,k(t)dt, βj,k =

∫[0,1] f(t)ψj,k(t)dt y ||f ||2 =

∫[0,1] f

2(t)dt

2.6.2. Enfoque Modelos Mixtos

Los predictores lineales de los efectos mixtos desconocidos, basados en observaciones perturba-

das Y = (Y1, . . . , Yn)′ de f en los puntos del diseno t1, . . . , tn son considerados en un gran numero

de aplicaciones por su simplicidad y potencia. Ademas, algunos ejemplos son estudiados bajo la

hipotesis de modelo mixto y el modelo de regresion clasico. La comparacion de estos enfoques

muestra claramente por que los modelos mixtos son buenos en ciertas situaciones.

Aquı se estudiara el modelo (17) desde el punto de vista de los modelos mixtos. Senalar que los

datos Y son observaciones discretizadas de la trayectoria de un proceso estocastico Y (t) dado por

Yi = f(ti) + σεi t ∈ [0, 1],

donde f es de la forma (18) y ε(t), t ∈ [0, 1] es un proceso Gaussiano de media 0 con

Cov(ε(s), ε(t)) = δst.

Ademas, suponemos que µ(t) =∑2J−1

k=0 αJ,kψJ,k(t) y √b z(t), t ∈ [0, 1] es un proceso Gaus-

siano centrado con funcion de covarianza E(z(s)z(t)) = K1(s, t). Ya que∫ ∫

[0,1]2 K1(s, t)dsdt < +∞

admite el desarrollo de Karhunen - Loeve y por tanto, la siguiente representacion en media cuadrati-

ca es correcta:√b z(t) =

j≥J

2j−1∑

k=0

βj,kψj,k(t), (21)

donde βj,k son independientes βj,k ∼ N(0; λj). Bajo las suposiciones hechas por (18) y (21), las

trayectorias de los procesos z(t) y f(t) pertenecen a un espacio de funciones regular.

35

Page 40: Memoria elvira delgado

Angelini, De Canditiis y Leblanc [5] demuestran que la regularidad del espacio depende de la

eleccion de la secuencia λj a traves del siguiente teorema:

Teorema 10 Sea s > 1/2 y suponer que el sistema wavelet ψjkj,k es fijo y es [s] + 1− regular.

Considerar las series estocasticas,

S(t) =∑

j geqJ

2j−1∑

k=0

βjkψjk(t)

donde βjk variables normales aleatorias independientes centradas tales que V ar[βjk] = λj. Enton-

ces, las siguientes propiedades son equivalentes:

1. Cada muestra de la serie estocastica S(t) pertenece a Bs−1/22,∞ [0, 1] casi seguramente(a.s.)

2. λj = O(2−2js)

En el enfoque por regularizacion se asume que, para la eleccion de λj = 22−2js

, la funcion f

desconocida pertenece al espacio de Sobolev Hs. En el enfoque de modelos mixtos la f desconocida

se supone que sera una muestra que pertenece casi seguramente a un gran espacio, Bs−1/22,∞ . En [14] se

demuestra que el predictor Bayesiano es exactamente fλ(t), la solucion del enfoque de regularizacion

y se encuentra en el espacio mas pequeno Hs.

A continuacion, de Angelini, De Canditiis y Leblanc [5] extraemos la definicion de BLUP (Best

Linear Unbiased Predictor), ft, para f(t) usando solo los datos observados Y . La siguiente definicion

de BLUP para una funcion f es una extension natural del caso parametrico:

Definicion 3 Un predictor f(t), basado en observaciones perturbadas (datos) Y dado en (1), es

el BLUP para f(t) el el modelo (18) si y solo si se cumplen las siguientes propiedades:

∀t ∃Lt = (l1(t), . . . , ln(t)) tal que f(t) = LtY

∀t E[ft] = µ(t)

∀t y g tal que g(t) = LtY y E[g(t)] = E[f(t)], E[f(t)− f(t)]2 ≤ E[g − f(t)]2

De los mismos autores, [5], extraemos el siguiente teorema:

Teorema 11 El BLUP para la prediccion de f(t) en el modelo (18), basado en los datos Y esta da-

do por

ft = L∗tY , (22)

36

Page 41: Memoria elvira delgado

donde el vector 1× n, L∗t toma la forma

L∗t = Φt(Φ

′M−1Φ)−1 +ΣtM−1(In − Φ(Φ′M−1Φ)−1Φ′M−1)

Φ, Φt, Σ y σt se han definido en el Teorema 11 y M = (Σ + (σ2/2)In). Ademas, con nλ = σ2/b

la siguiente identidad se mantiene

∀t ∈ [0, 1] f(t) = fλ(t) donde fλ(t) esta definido en el Teorema 11

El predictor en (22) se puede expresar de forma equivalente como

fλ(t) = Φtα+√bz(t)

donde α = (Φ′M−1Φ)−1Φ′M−1Y es el predictor mınimo cuadratico ponderado para el modelo

Y (t) = Φtα+ ε′(t) con ε

′(t) =

√bz(t) + σε(t) y

√bz(t) = ΣtM

−1(I −Φ(ΦM−1Φ)−1Φ′M−1)Y es el

predictor del efecto Gausiano centrado.

2.6.3. Solucion Wavelet aproximada

Para desarrollar el estimador aproximado fλ consideramos que f pertenece a Hs y que n = 2N .

Ademas, suponemos que existe una funcion h(t) ∈ Hs−1 y dos constantes positivas h1 y h2 tales

que 0 < h1 ≤ h(t) ≤ h2 <∞ y∫ ti+1

tih(t)dt = 1/n para cualquier i. Se define la funcion

H(t) =

∫ 1

0h(t)dt (Por definicion),

donde

H(0) = 0, H(1) = 1 y H(ti) = i/n

H(t) = t en el caso equiespaciado.

Como h es estrictamente positiva, H es invertible.

De las 3 condiciones anteriores, cuando f ∈ Hs tenemos que f H−1 ∈ Hs ( indica la

composicion de dos funciones).

h(t) esta acotada superior e inferiormente por lo que se tiene la siguiente equivalencia:

||f ||L2 ≈ ||f H||2. (23)

37

Page 42: Memoria elvira delgado

Para cualquier f ∈ L2[0, 1] el proyector ortogonal en VN es

PNf =

2N−1∑

k=0

αN,kϕN,k =

=

2J−1∑

k=0

αJ,kϕJ,k +

N−1∑

j=J

2j−1∑

k=0

βj,kψj,k(t). (24)

El proyector ortogonal empırico en VN se define para una funcion f conocida sobre un diseno

general, 0 ≤ t1 ≤ · · · ≤ tn ≤ 1 como

ΠNf =

2N−1∑

i=0

2N−1∑

k=0

f(tk+1)√n

〉ϕN,k H, ϕN,i〉

ϕN,i =

=

2N−1∑

i=0

αfN,iϕN,i =

2J−1∑

k=0

αfJ,iϕJ,i +

N−1∑

j=J

2j−1∑

k=0

βfj,kψj,k. (25)

La expresion de ΠN se simplifica cuando se aplica a una funcion conocida f sobre un diseno

equiespaciado. En este caso particular lo denotamos por ΠN y tenemos

ΠNf =

2N−1∑

i=0

f((i+ 1)/n)√n

ϕN,k.

Con esta notacion se tiene que ΠNf = PN (ΠN (f H−1) H). Bajo las condiciones usualmente

establecidas en la definicion de un analisis multiresolucion, se tienen los siguientes resultados sobre

aproximaciones finito - dimensionales en la norma L2:

||f − PNf ||2L2≤ C||f ||Hs2−2sN . (26)

||ΠNf − PNf ||2L2≤ C2−2sN . (27)

||ΠNf − PNf ||2L2≤ C2−2sN . (28)

Debido a la ortonormalidad de los sistemas wavelets, usando la expresion de H − norm en

terminos de coeficientes wavelets y la aproximacion resultante (26), (27) y (28), el problema de

minimizacion exacta (19) se puede aproximar a un termino de orden O(2−2sN ) a partir de la

siguiente ecuacion:

||ΠNY − PNf ||2L2[0,1]+ λ

j,k

β2j,kλj

. (29)

38

Page 43: Memoria elvira delgado

A continuacion, usando el desarrollo PNf y ΠNY en terminos de coeficientes wavelet, minimizar

la expresion (29) con respecto a f ∈ H equivale a minimizar la expresion siguiente con respecto a

los coeficientes (αJ,k)k y (βj,k)j,k:

2J−1∑

k=0

(αJ,k + cJ,k)2 +

N−1∑

j=J

2j−1∑

k=0

[(βj,k − dj,k)

2 + λβ2j,kλj

]+ λ

∞∑

j=N

2j−1∑

k=0

β2j,kλj

,

tal expresion es mınima para los coeficientes (αJ,k)k y (βj,k) definidos por

αJ,k = cJ,k k = 0, . . . , 2J − 1,

βj,k =λj

λj + λdj,k J ≤ j ≤ N − 1 ; k = 0, . . . , 2j − 1,

βj,k = 0 j ≥ N ; k = 0, . . . , 2j − 1,

y la solucion aproximada, denotada como fλ se define como:

fλ =2J−1∑

k=0

αJ,kϕj,k +N−1∑

j=J

2j−1∑

k=0

βj,kψj,k

De Angelini, De Canditiis y Leblanc [5] extraemos el siguiente teorema:

Teorema 12 Bajo la suposicion de regularidad sobre la base wavelet, para f ∈ Hs con s > 1/2

tenemos

MISE(fλ) = E[||fλ − f ||] ≤ O(2−2Ns + λ+ 2J−N + 2−Nλ1/2s)

ademas, cuando tomamos λ = O(n(−2s)/(2s+1)

), se tiene

MISE(fλ) = O(n(−2s)/(2s+1)

).

39

Page 44: Memoria elvira delgado

3. Modelos de regresion espacial heterogeneos funcionales

3.1. Estimacion

3.1.1. Kriging: Prediccion lineal optima espacial

El predictor kriging o mejor prediccion lineal insesgada espacial (BLUP) ha sido ampliamente

aplicado en las ciencias de la tierra y del medioambiente, donde se conoce como interpolacion

optima. Dadas sus buenas propiedades en relacion con el procesamiento de la variabilidad espacial

presentada por los datos usualmente analizados en estas ciencias, la metodologıa kriging puede

producir mapas de prediccion optima a partir de datos incompletos y perturbados. En algunas

ocasiones, los datos espaciales son difıciles de obtener, en tales casos, donde la muestra es pequena,

el kriging puede aplicarse, obteniendose resultados aceptables.

Cressie y Johannesson [15] parten de un proceso real - valuado Y (s) : s ∈ D ⊂ Rd. Se

esta interesado en hacer inferencias sobre el proceso Y sobre la base de que los datos tiene medidas

de error incorporadas, es decir, son observaciones perturbadas. Por lo tanto, se considerara el

proceso Z(·) de las observaciones actuales y potenciales,

Z(s) ≡ Y (s) + ε(s), (30)

donde ε(s) : s ∈ D es un proceso espacial de ruido blanco con media 0, var[ε(s)] = σ2v(s) ∈(0,∞), s ∈ D, para σ2 > 0 y v(·) conocido.

Del proceso Z(·) solo se conocen un numero finito de localizaciones espaciales s1, . . . , sn; porlo que se define el vector de datos disponible como

Z ≡ (Z(s1), . . . , Z(sn)), (31)

Se supone que el proceso Y (·) tiene una estructura lineal media,

Y (s) = t(s)′α+ ν(s) s ∈ D, (32)

donde

t(·) ≡ (t1(·), . . . , tp(·))′ representa un proceso vector de covariables conocidas.

α ≡ (α1, . . . , αp)′ son desconocidos.

40

Page 45: Memoria elvira delgado

ν(·) es un proceso que tiene media 0 y 0 < var[ν(s)] <∞, para todo s ∈ D.

Funcion de covarianza espacial generalmente no estacionaria. Se considera que la funcion de

covarianza espacial es no homogenea:

cov[ν(u), ν(v)] ≡ C(u,v) u,v ∈ D. (33)

Definiendo ε, Y y ν de forma analoga a Z, entonces, las expresiones (30)-(33) implican el modelo

mixto lineal general,

Z = Tα+ δ δ = ν + ε, (34)

donde T es una matriz n× n de covariables (t(s1), . . . , t(sn)).

Del modelo mixto lineal general definido hay que destacar que el termino error δ esta compuesto

de dos componentes independientes de media cero, por lo que

E[δ] = 0

var[δ] = Σ ≡ (σij) =

C(sj , sj) + σ2v(sj) si i = j

C(si, sj) si i 6= j

Si definimos las variables C ≡ (C(si, sj)) y V ≡ diag(v(s1), . . . , v(sn)) entonces podemos definir

Σ como

Σ = C+ σ2V. (35)

3.1.2. Funcion de covarianza espacial

En general, la funcion de covarianza C(u,v) definida en (33) debe ser definida positiva sobre

Rd×R

d. A menudo, C(u,v) se modela como estacionaria, en tal caso debe ser una funcion definida

no negativa de u− v.

Cressie y Johannesson [15] toman un enfoque diferente y se tratara de capturar las escalas de

las dependencias espaciales a traves de un conjunto de r funciones base,

S(u) = (S1(u), . . . , Sr(u))′ u ∈ R

d, (36)

donde r es fijo.

Para cualquier matriz Kr×r definida positiva, se modelara cov[Y (u), Y (v)] de acuerdo a

C(u,v) = S(u)′KS(v) u,v ∈ Rd, (37)

41

Page 46: Memoria elvira delgado

que puede verse como una funcion definida no negativa y ası una funcion de covarianza valida.

La expresion (37) es consecuencia de escribir ν(s) = S(s)′η, s ∈ D donde η es un vector r-

dimensional con var[η] = K. Considerando que ν(·) representa el efecto aleatorio, a partir de la ecua-cion (32), se puede formular el siguiente modelo de efectos mixtos espacial: Y (s) = t(s)′β +S(s)′η,

s ∈ D que sera un modelo lineal de efectos mixtos que llamaremosmodelo de efectos mixtos espacial .

3.1.3. Kriging de rango fijo

A partir de la ecuacion (36) se puede escribir la matriz de varianzas - covarianzas teorica n×n

de Y como C = SKS′ y ası,

Σ = SKS′ + σ2V, (38)

donde

Kr×r, una matriz definida positiva desconocida.

σ2 > 0 desconocida.

Sn×r = (Sl(si)) conocida.

V diagonal, con entradas definidas por las varianzas del error de medida conocida.

Ademas,

cov[Y (s0),Z] = c(s0)′ = S(s0)

′KS′. (39)

Es decir, sobre la base del modelo (30) - (37) se puede encontrar una expresion para todos los

componentes que son necesarios en las ecuaciones kriging.

De la ecuacion (38), Σ = SKS′ + σ2V, entonces,

Σ−1 = σ−1V1/2I+ (σ−1V1/2S)K(σ−1V1/2S)′−1σ−1V1/2 = (40)

= (σ2V)−1 − (σ2V)−1SK−1 + S′(σ2V)−1S−1S′(σ2V)−1. (41)

El predictor kriging definido por Cressie y Johannesson [15] serıa

Y (s0) = t(s0)′α+ S(s0)

′KS′Σ−1(Z−Tα), (42)

donde α = (T′Σ−1T)−1T′Σ−1Z y Σ−1 esta definido en la ecuacion (41).

42

Page 47: Memoria elvira delgado

El error estandar kriging definido por Cressie y Johannesson [15] serıa

σk(s0) = S(s0)′KS(s0)− S(s0)′KS′Σ−1SKS(S0)+

+ (t(s0)−T′Σ−1SKS(S0))′(T′Σ−1T)−1(t(s0)−T′Σ−1SKS(S0))1/2. (43)

3.1.4. Ajuste de la funcion de covarianza

La estrategia adoptada por Cressie y Johannesson [15] para ajustar la funcion de covarianza

espacial es consistente con el enfoque geoestadıstico que se encuentra desarrollado en la literatura

clasica.

En este enfoque, se obtiene primero un estimador empırico para Σ, que esta basado en el metodo

de los momentos. El estimador resultante Σ esta perturbado y puede no ser definido positivo. Sin

embargo, sobre la base de una clase parametrica Σ(θ) : θ ∈ Θ donde cada miembro de la clase

es definido positivo, se elige un θ ∈ Θ tal que Σ(θ) es el mas cercano a Σ. Por ultimo, Σ(θ) se

sustituye en las ecuaciones kriging (42) y (43).

Los parametros de dependencia espacial θ se obtienen de la matriz definida positiva Kr×r y

la componente de varianza σ2 ∈ (0,∞). Estimando K y σ2 se obtienen minimizando una norma

de Frobenius entre una matriz de varianzas - covarianzas empırica y una matriz de varianzas -

covarianzas teorica.

Primero se define un estimador empırico de las varianzas y covarianzas para lo que se necesitan

los datos sin tendencia. En ausencia inicial de conocimiento de dependencia espacial, usamos el

estimador por mınimos cuadrados ordinario de α,

α ≡ (T′T)−1T′Z, (44)

para el que se define el detalle de residuo,

D(si) ≡ Z(si)− t(si)′α i = 1, . . . , n. (45)

Como en la geoestadıstica clasica, los datos se unen para el calculo del estimador de la depen-

dencia espacial por el metodo de los momentos. El numero de uniones, M , sera fijo pero mayor que

r, el numero de funciones base. Ası para estimacion y ajuste de covarianzas, una vez que los datos

han sido unidos la complejidad computacioneal no depende de n. Suponer que uj : j = 1, . . . ,M

43

Page 48: Memoria elvira delgado

donde r ≤ M ≤ n es un conjunto de localizaciones ofreciendo buena cobertura de D. El resultado

es

K = R−1Q′(ΣM − σ2V)Q(R−1)′.

3.1.5. Aplicacion

Cressie y Johannesson [15] aplicaron la tecnica del predictor kriging de rango fijo a los datos

de concentracion de Ozono en la atmosfera medida a traves del TCL (Total Column Ozone).

Los datos fueron tomados por el satelite polar Nimbus - 7 con un espectrometro cartografico

para el mapeo del total de ozono.

3.2. Regresion espacial heterogenea funcional y dinamica

De Ruiz-Medina y Espejo [34] extraemos la siguiente definicion:

Definicion 4 Un proceso espacial funcional YSARH = Y (i, j), (i, j) ∈ Z2 con valores en un

espacio de Hilbert separable H, se dice que es un proceso SARH(1) unilateral si es estacionario y

satisface la siguiente ecuacion

Yi,j = R+ L1(Yi−1,j) + L2(Yi,j−1) + L3(Yi−1,j−1) + ǫi,j, (46)

donde R ∈ H y Li ∈ H; i = 1, 2, 3, el espacio de operadores lineales acotados. ǫi,j ∈ H, es el

proceso de innovacion funcional o termino de error funcional en el modelo mixto, incorrelado con

los valores funcionales aleatorios iniciales ǫ(1, 0), ǫ(0, 1), y ǫ(0, 0) y satisfaciendo E||ǫi,j ||2H = σ2

para todo (i, j) ∈ Z2 y E[ǫi,j⊗ǫk,l] = E[ǫ|i−k|,|j−l|⊗ǫ0,0] = Cǫ|i−k|,|j−l|,ǫ0,0 para todo (i, j) y (k, l) ∈ Z

2

donde ⊗ se refiere al producto tensorial de dos funciones en H, que define un operador de Hilbert

- Schmidt en H como sigue: Para dos funciones f, g ∈ H,

f ⊗ g(h) = 〈f, h∗〉Hg

donde h∗ ∈ H es el elemento dual de h, definido del Teorema de representacion Riesz, y H∗ es el

espacio de Hilbert dual de H.

Senalar que, en la definicion anterior, el orden 1 de la familia de procesos SARH(1) introducida

hace referencia al hecho de que el valor funcional Y (i, j) interactua en el espacio con los valores

Y (i − 1, j), Y (i, j − 1) y Y (i − 1, j − 1), respectivamente correspondiente a un retardo espacial

negativo en la coordenada i, j o en ambas coordenadas espaciales i y j.

44

Page 49: Memoria elvira delgado

De la definicion anterior, y en concreto del modelo (46), el siguiente sistema de ecuaciones lineal

es satisfecho por los operadores Li, i = 1, 2, 3

R1,0 = L1R0,0 + L2R1,1 + L3R0,1,

R0,1 = L1R1,1 + L2R0,0 + L3R1,0,

R1,1 = L1R0,1 + L2R1,0 + L3R0,0, (47)

donde

R0,0 = RZi,j ,Zi,j= E[Zi,j ⊗ Zi,j ],

R1,0 = RZi+1,j ,Zi,j= E[Zi+1,j ⊗ Zi,j],

R0,1 = RZi,j+1,Zi,j= E[Zi,j+1 ⊗ Zi,j],

R1,1 = RZi+1,j+1,Zi,j= E[Zi+1,j+1 ⊗ Zi,j], (48)

con Zi,j = Yi,j −R, para todo (i, j) ∈ Z2.

Algoritmo de estimacion

Calculo de las versiones empıricas de los operadores que definen los coeficientes del sistema

lineal funcional

Proyeccion en la base de autofunciones del operador de autoco-varianza de la respuesta

Truncamiento e inversion numerica del sistema lineal finito-dimensional proyectado para ob-

tener Li, i = 1, 2, 3

Bajo condiciones muy generales, la convergencia en probabilidad de la autocovarianza empırica

y los operadores de covarianza cruzada con respecto a los teoricos se mantiene.

La estructura de dependencia mostrada por el proceso Z se define en terminos de los operadores

en (48). Los operadores Li; i = 1, 2, 3 estan involucrados en la definicion del operador de correlacion

del proceso funcional espacial Z.

La naturaleza cıclica de (47) surge de la expresion de los valores funcionales Zi+1,j, Zi,j+1 y

Zi+1,j+1 a partir de (46), en terminos de la combinacion lineal funcional de sus retardos negativos de

orden 1, involucrando los operadores Li; i = 1, 2, 3 de acuerdo a la ecuacion (46) y de la invarianza

espacial de los momentos de segundo orden del proceso de innovacion funcional ǫ definido en (46).

45

Page 50: Memoria elvira delgado

Los coeficientes del sistema de ecuaciones lineal (47) son el operador de autocovarianza y el operador

de covarianza cruzada definido en (48), es decir, este sistema se define en terminos de coeficientes

infinito - dimensionales. En la practica, el ajuste del modelo se realiza resolviendo el sistema de

ecuaciones lineal funcional (47) en terminos de los operadores de auto - covarianza empıricos

R1(i, j) = L1(i, j)R11 + L2(i, j)R12 + . . . + Lq(i, j)R1q ,

R2(i, j) = L1(i, j)R21 + L2(i, j)R22 + . . . + Lq(i, j)R2q ,

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Rq(i, j) = L1(i, j)Rq1 + L2(i, j)Rq2 + . . .+ Lq(i, j)Rqq ,

Algoritmo de estimacion

Calculo de las versiones empıricas de los operadores que definen los coeficientes del sistema

lineal funcional

Proyeccion en la base de autofunciones del operador de autoco-varianza de la respuesta

Truncamiento e inversion numerica del sistema lineal finito-dimensional proyectado para ob-

tener Li, i = 1, . . . , q

46

Page 51: Memoria elvira delgado

CAPITULO 2: ANALISIS DE COMPONENTES PRINCIPALES

FUNCIONAL DEMODELOS DE EFECTOS MIXTOS PARA CUR-

VAS DE PERCEPCION.

1. Introduccion

La complejidad de las percepciones provocadas por un sencillo estımulo que se mueve a traves

de la piel se ha demostrado a lo largo de los ultimos 100 anos. Hall y Donalson (1885) analizaron

por primera vez la complejidad de las percepciones provocadas por un sencillo estımulo a traves de

la piel. Para minimizar el sesgo de respuesta y otras fuentes de variabilidad intra e inter sujetos en

las medidas de la percepcion sensorial, los procedimientos psicofısicos han ignorado ampliamente

la naturaleza multidimensional y la variabilidad temporal de la percepcion.

Por ejemplo, procedimientos de eleccion forzada son normalmente utilizados en estudios de

discriminacion de la direccion y discriminacion de la velocidad. Estos procedimientos requieren que

el individuo asigne la compleja percepcion a un pequeno numero de categorıas, ninguna de las cuales

puede describir con precision la sensacion percibida. Por ejemplo, para evaluar la discriminacion de

la direccion del movimiento el estımulo se mueve a traves de la zona de prueba en dos direcciones

opuestas, que se definen antes de realizar la prueba. Tras el estımulo, el individuo debe seleccionar

una de estas dos opciones, aunque la ruta del estımulo percibido podrıa ser curvada y su direccion

sustancialmente diferente a la del estımulo como mucho en 90

47

Page 52: Memoria elvira delgado

Como segundo ejemplo, procedimientos de estimacion de la magnitud de la respuesta son utiliza-

dos normalmente para estudios en los que el individuo juzga la longitud, la direccion o la velocidad

del movimiento del estımulo. Las existencia de variaciones en la percepacion de una trayectoria

lineal son muy comunes para un estımulo en movimiento, incluso cuando se trata de una lınea

recta, y no esta claro como esto afecta a la respuesta del individuo con respecto a la distancia del

movimiento.

El caso que se va a desarrollar en este capıtulo como caso empırico es una simulacion del

experimento desarrollado primero por el profesor Sptizner en 2002 [19] y posteriormente, en el ano

2003 [37] por los profesores Essick y Spitzner de la Universidad de Carolina del Norte.

Para el estudio empırico de modelos lineales mixtos funcionales, nos hemos centrado en el

experimento de 2003 [37].

En este experimento original, cada uno de los 32 individuos fue expuesto de forma repetida al

movimiento de un suave, pequeno y altamente controlado pincel movido en una lınea recta sobre

su cara. El sistema de coordenadas fue cuidadosamente calibrado para que los datos de diferentes

individuos puedan ser comparados de forma directa. El pincel se movio a una velocidad constante.

Tras la exposicion ciega al estımulo, al individuo se le proporciono una imagen a tamano real de su

cara sobre la que dibujo el camino del estımulo que habıa percibido. Un lapiz digital se utilizo para

almacenar las coordenadas (x, y) de su dibujo en un intervalo de tiempo uniformemente espaciado.

Para cada individuo, el experimento se desarrollo a lo largo de cuatro sesiones realizadas en

dıas consecutivos. Cada sesion se dividio en 2 etapas:

Etapa 1 (Control): Con la cara lavada.

Etapa 2 (Preparado): La piel del individuo fue tratada con 4 preparados (A,B,C,D) que

afectan a la sensibilidad de la piel.

En cada una de las etapas, un pequeno pincel fue movido por un ordenador siguiendo una

trayectoria recta ascendente de 5 cm a 3 velocidades diferentes a traves de la piel de la cara. Tras

el estımulo, habiendo estado ciego a el, en cada una de las velocidades el individuo dibujo sobre

una imagen a tamano real de su cara la trayectoria seguida por el pincel 7 veces. El sistema de

coordenadas fue cuidadosamente calibrado ası que los datos de diferentes individuos pueden ser

comparados de forma directa.

48

Page 53: Memoria elvira delgado

La motivacion principal para la realizacion de este tipo de experimento es que, hasta la fecha,

la realizacion de estos estudios se ha limitado en gran medida a los metodos convencionales en los

que un individuo clasifica un estımulo (el pincel que se mueve a traves de la piel) a lo largo de un

continuo (distancia recorrida) o debe clasificar el estımulo en una de las dos categorıas definidas por

el experimentador (movimiento ascendente frente a movimiento descendente). Este es el caso del

experimento desarrollado por el profesor Spitzner en el ano 2002 [19]. Estos metodos, proporcionan

estimaciones validas de analisis de sensibilidad de los sistemas sensoriales, pero obligaron a los

individuos a la reduccion de las percepciones complejas en un numero limitado de categorıas no

describiendo con exactitud la experiencia sensorial. En contraste, las tecnicas graficas permiten

a los individuos dibujar algunos aspectos de la experiencia sensorial sin la restriccion de escalas

numericas o categorıas definidas por el experimentador.

Aunque existen otros experimentos para el estudio de modelos mixtos aplicado a datos funcio-

nales como es el caso del desarrollado por los profesores Aston, Chiou y Evans para el analisis de

tono linguıstico utilizando las Componentes Principales Funcionales en el caso de modelos mixtos

[9] o el realizado por los profesores Chiou, Muller y Wang para el estudio de las curvas de puestas

de huevos para en el caso de la mosca de la fruta [12].

La simulacion es el desarrollo de un modelo logico - matematico de un sistema, de tal forma

que se obtiene una imitacion de la operacion de un proceso de la vida real o de un sistema a traves

del tiempo. Sea realizado a mano o en una computadora, la simulacion involucra la generacion

de una historia artificial de un sistema; la observacion de esta historia mediante la manipulacion

experimental, nos ayuda a inferir las caracterısticas operacionales de tal sistema. En la definicion

anterior se citan dos pasos basicos de una simulacion:

1. Desarrollo del modelo que incluye la construccion de ecuaciones logicas representativas del

sistema y la preparacion de un programa computacional.

2. Experimentacion: Una vez que se ha validado el modelo del sistema, hay que experimentar

con el modelo para determinar como responde el sistema a cambios en los niveles de algunas

variables de entrada.

49

Page 54: Memoria elvira delgado

2. Generacion de las curvas

Ya que el objetivo es realizar una simulacion basada en el experimento llevado a cabo por los

profesores Essick y Spitzner [37], para poder obtener una representacion lo mas proxima posible a

los datos que se obtuvieron en el experimento, se han generado las curvas de las respuestas de los

individuos siguiendo el siguiente modelo parametrico:

X(t) = A sin(Bπt) + F sin(Gπt) +Ht

Y (t) = a+ bt,

donde

A ∼ N(0,1 + 0,01 ∗Nivel; 0,01)

B ∼ N(3 + [0,01; 0,015] ∗Nivel; [0,01; 0,015])

F ∼ N(0,1 + 0,01 ∗Nivel; 0,01)

G ∼ N(4 + 0,01 ∗Nivel; 0,01)

H ∼ N(0,2 + 0,01 ∗Nivel; 0,01)

a ∼ N(0,03 + [0,01; 0,015] ∗Nivel; [0,01; 0,015])

b ∼ N(1 + 0,02 ∗Nivel; 0,02).

Figura 1: Curvas de datos originales

-0.05 0.05 0.10 0.15 0.20 0.25 0.30

0.2

0.4

0.6

0.8

1.0

Aunque el estudio de simulacion desarrollado en este trabajo se basa en el estudio previo rea-

lizado en [37], las condiciones experimentales han sido parcialmente modificadas. Al igual que en

50

Page 55: Memoria elvira delgado

[37], se ha considerado 32 individuos, sin embargo, no se han considerado 2 etapas en la experi-

mentacion sino que hemos considerado 3 niveles de velocidad o tratamientos de los efectos fijos y 7

repeticiones del dibujo de la curva para cada individuo en cada nivel de velocidad o tratamientos

de los efectos fijos, esto tambien se considero en el experimento original.

De esta forma consideraremos 7×3×32 = 672, curvas, correspondientes a 3 modelos Gaussianos

de procesos estocasticos, los cuales son medidos en 32 individuos de forma repetida 7 veces para

cada individuo.

Es decir, para k = 1, 2, 3, al igual que en el estudio realizado en 2003 [37], cada curva esta re-

presentada colocando primero las coordenadas x y a continuacion las coordenadas y:

zkj = (xk,j ,yk,j)′ = (xk,j,1, . . . , xk,j,100, yk,j,1, . . . , yk,j,100)

′.

Utilizando la misma forma de representar los datos seleccionada en el experimento [37], para

cada curva, se han tomado 100 mediciones de cada una de las coordenadas x y de la misma

forma para la coordenada y en el intervalo [0, 1] de forma equiespaciada. Por lo que cada curva

tendra dimension 200, como matriz de datos, es decir,

Z200×672 = (z1,1, . . . , z1,7×32, z2,1, . . . , z2,7×32, z3,1, . . . , z3,7×32).

En el estudio de 2003 [37] se proponen 2 metodologıas para trabajar con los datos antes de

realizar el contraste:

1. Analisis de Componentes Principales.

2. Representacion de Fourier.

En el estudio realizado por los profesores Essick y Spitzner en 2003 se utilizo la segunda meto-

dologıa, representacion de Fourier. La forma en la que se ha tratado este experimento en nuestro

trabajo es usando el Analisis de Componentes Principales Funcional.

Siguiendo la metodologıa desarrollada por Benko, Hardle y Kneip [10] para realizar el Analisis

de Componentes Principales Funcional para una muestra, en las siguientes secciones se desarrollan

los pasos que se han seguido a partir de los datos simulados.

51

Page 56: Memoria elvira delgado

3. Calculo de los autovectores y autovalores empıricos.

Segun la metodologıa de Benko, Hardle y Kneip [10], consideraremos una muestra de funciones

X1(t), . . . , Xn(t) ∈ L2[0, 1] con media µ = E[Xi] y una funcion de covarianza continua σ(t, s) =

E[Xi(t)− µ(t)Xi(s)− µ(s)].

El desarrollo de Karhunen - Loeve proporciona una herramienta basica para la descripcion

optima de procesos de segundo orden (en el sentido del momento de orden dos), en terminos de

variables aleatorias incorreladas y autofunciones ortonormales. En particular, para λ1 ≥ λ2 ≥ . . .

los autovalores y γ1, γ2, . . . la correspondiente base ortonormal completa de autofunciones de Γ,

se obtiene

Xi = µ+∞∑

r=1

βriγr i = 1, 2, . . . ,

donde βri = 〈Xi−µ, γr〉 son factores de carga incorrelados con E[βri] = 0. E[β2ri] = λr y E[βriβki] =

0 para r 6= k.

Para realizar la descomposicion en Componentes Principales Funcionales haciendo uso del desa-

rrollo de Karhunen - Loeve para procesos de segundo orden es necesario eliminar la tendencia de

las curvas antes de calcular las matrices de covarianzas empıricas ya que dicho desarrollo se deriva

sobre procesos o curvas aleatorias con media 0.

Para k = 1, 2, 3, calcular las curvas medias

(Mk)200×1 =((Xk)

′1×100, (Yk)

′1×100

)′200×1

.

Ası,

Xk(t) =1

7× 32

7×32∑

i=1

Xjk(t), t = 1, . . . , 100; k = 1, 2, 3,

donde (Xk)100×1 tiene entradas Xk(t), t = 1, . . . , 100, (Xjk)100×1 indica la componente X (las

primeras 100 entradas) de la j-esima curva generada bajo el modelo k (nivel del efecto fijo), y

Xjk(t) indica su valor en el instante t para la componente X de la j-esima curva generada bajo el

modelo k.

Y k(t) =1

7× 32

7×32∑

i=1

Yjk(t), t = 1, . . . 100; , k = 1, 2, 3,

donde (Yk)100×1 tiene entradas Y k(t), t = 1, . . . , 100, (Yjk)100×1 indica la componente Y (las

100 segundas entradas) de la j-esima curva generada bajo el modelo k (nivel del efecto fijo), y

52

Page 57: Memoria elvira delgado

Yjk(t) indica su valor en el instante t para la componente Y de la j-esima curva generada bajo el

modelo k.

Seguidamente se calcula el operador de covarianza empırico

RZk=

1

7× 32

7×32∑

j=1

Zjk ⊗ Zjk, k = 1, 2, 3,

donde

(Zjk)200×1 = (X′jk,Y

′jk)

′ −Mk, k = 1, 2, 3.

A continuacion, habra que calcular la descomposicion espectral en autovalores (λlk, l ∈ N)y autovectores (φlk, l ∈ N) del operador de covarianza empırico RZk

, for k = 1, 2, 3. De esta

forma obtenemos 200 autovalores empıricos λk,j, j = 1, . . . , 200, para k = 1, 2, 3, y sus autovectores

(autofunciones) asociados φk,j, j = 1, . . . , 200, de dimension 200 × 1. Es decir,

φk,j = (φk,j,1, . . . , φk,j,200)′, j = 1, . . . , 200, k = 1, 2, 3.

Dada una muestra de tamano n, se puede construir un analogo empırico usando los autovalores

λ1 ≥ λ2, . . . , λn y las autofunciones ortormales γ1 ≥ γ2, . . . , γn del operador de covarianza empırico

Γn. Por lo que

Xi = X +

∞∑

r=1

βriγr i = 1, 2, . . . , n,

donde βri = 〈Xi − X, γr〉.

El objetivo principal al realizar esta descomposicion es eliminar la estructura de correlacion

entre cada una de las componentes de cada una de las curvas.

Una vez que se ha calculado la descomposicion en autovalores y autofunciones y que estos han

sido ordenados de mayor a menor, sera necesario conocer el numero de componentes principales

que habra que seleccionar, es lo que se va a llamar Truncamiento (T). Para seleccionar un orden

de truncamiento T adecuado, se escogera el correspondiente a un porcentaje P de variabilidad

explicada empırica. Es decir,

P =λ1k + · · ·+ λTk

λ1k + · · ·+ λ200k, k = 1, 2, 3.

En nuestra simulacion, se ha seleccionado P = 95%. Por lo que el numero de componentes

principales seleccionadas sera T = 5.

53

Page 58: Memoria elvira delgado

Cuadro 1: Porcentaje de Variabilidad explicada por cada una de las Componentes Principales bajo

los tres niveles de velocidad considerados

Nivel de Velocidad C.P. 1 C.P. 2 C.P. 3 C.P. 4 C.P. 5 C.P. 6 C.P. 7

Primer nivel 58.7296% 74.4277% 87.9715% 94.7925% 99.3907% 99.9822% 100%

Segundo nivel 63.559% 76.8406% 89.1497% 94.5256% 99.2601% 99.9738% 100%

Tercer nivel 62.2447% 77.1164% 88.2063% 94.6504% 99.2242% 99.9764% 100%

Figura 2: Curvas de las Componentes Principales

Existe una gran cantidad de bibliografıa referente a la aplicacion de la metodologıa del Analisis

de Componentes Principales Funcional. Ası es el caso de estudio realizado por los profesores Zi-

punnikov, V; Caffoy, B.S.; Yousemz, D.M.; Davatzikos, C.; Schwartzyy, B.S.; Crainiceanu [43] que

aplicaron esta tecnica en imagenes del cerebro de alta dimension.

54

Page 59: Memoria elvira delgado

4. Planteamiento del modelo funcional de efectos mixtos en termi-

nos de proyecciones y estimacion de los efectos fijos y varianza

asintotica del estimador de proyeccion del efecto fijo.

4.1. Descripcion de la tecnica utilizada

Ugarte, Goicoa y Militino [40] emplearon un enfoque Bayesiano empıco y un enfoque Bayesiano

completo para el problema de detectar areas de alto riesgo en el cartografiado de enfermedades.

Los estudios para el cartografiado de enfermedades son muy utiles para mostrar patrones de una

enfermedad. Tradicionalmente, tasas de riesgo tales como los ratios de mortalidad estandarizados,

han sido comunmente utilizados para este proposito. Sin embargo, estas medidas son altamen-

te variables para pequenas areas o enfermedades raras por lo que no son seguras. Una solucion

a estos problemas viene del uso de modelos de suavizado de las estimaciones del riesgo relativo.

La estimacion del riesgo relativo, tradicionalmente implica Modelos Mixtos Lineales Generalizados

(GLMM), que implica la prediccion de los efectos aleatorios que representan los riesgos relativos.

La estimacion por Maxima Verosimilitud para GLMM con recuentos normalmente requiere inte-

gracion numerica, y la tecnica de cuasi - versosimilitud penalizada (PQL), una aproximacion de

Laplace para la cuasi - verosimilitud puede reducir el problema a una serie de regresiones mınimo

cuadraticas ponderadas. La tecnica PQL es sencilla desde el punto de vista computacional y tiene

pocos problemas de convergencia. Existe gran cantidad de bibliografıa referente a esta tecnica.

4.2. Modelo de efectos mixtos funcional proyectado

De forma general, un modelo de efectos mixtos esta formado por 2 partes:

1. Parte determinıstica: Formada por los efectos fijos.

2. Parte aleatoria: Es la que determina la correlacion temporal. Esta puede ser descompuesta a

su vez en dos subpartes:

a) Efectos aleatorios: Recoge la parte aleatoria mas importante del modelo.

b) Residuo del truncamiento: Recoge la parte aleatoria menos importante del modelo.

55

Page 60: Memoria elvira delgado

En nuestro caso, la parte determinıstica estara formada por cada uno de los niveles de velocidad

o tratamientos de los efectos fijos k = 1, 2, 3 mientras que la parte aleatoria estara representado

por cada uno de los 32 individuos que fueron sometidos al experimento.

Antes de poder trabajar con el modelo seleccionado sera necesario calcular las proyecciones de

cada una de las curvas de datos en la base de autofunciones calculada. Es decir, para k = 1, 2, 3,

indicando por Φk, la matriz 200 × 200 con columnas dadas por los autovectores de RZkpara

k = 1, 2, 3, y j = 1, . . . , 7 × 32, y por (Zjk) el vector de coordenadas de la j-esima curva tras

eliminar la tendencia a los datos originales, calcular

(Zjk)′Φk = (aj,k,1, . . . , aj,k,200).

Cada uno de los elementos aj,k,l con j = 1, . . . , 7 × 32, k = 1, 2, 3, l = 1, . . . , 200 definiran

los coeficientes de Fourier de la j-esima curva de datos con respecto a la correspondiente base de

autofunciones empırica ortogonal.

Calcular, para k = 1, 2, 3, y l = 1, . . . , 32,

(Mk)′Φl = (mk,l,1, . . . mk,l,200),

que seran los coeficientes de Fourier de las curvas medias con respecto a la base de autofunciones

ortogonales empırica.

Se obtiene entonces el siguiente modelo de observacion proyectado:

Z = (Zjk)′Φk + (Mk)

′Φk = (aj,k,1, . . . , aj,k,T )

′+ (mk,1, . . . mk,T )

Se define el modelo de efectos mixtos adecuado a la simulacion realizada y al experimento como:

(Zp)672×T = (aj,k,1, . . . , aj,k,T )′+ (mk,1, . . . mk,T )

= (DF )672×3(ξp)3×T + (DR)672×96(ζp)96×T + (εp)672×T , (49)

p = 1, . . . , 672, j = 1, . . . , 7× 32, y k = 1, 2, 3.

Ası, de los datos (Zp), p = 1, . . . , 672, siguiendo la metodologıa desarrollada por Ugarte, Goicoa

y Militino [40], podemos ajustar el modelo de efectos mixtos (49) por maxima verosimilitud restrin-

gida, obteniendo los estimadores ξp, σζ,p, y σε,p, respectivamente de los T primeros coeficientes de

Fourier de la curva de efectos fijos, con respecto a la base de autofunciones empırica, de la varianza

de los T coeficientes de Fourier aleatorios incorrelados del efecto aleatorio funcional.

56

Page 61: Memoria elvira delgado

La estimacion de los efectos fijos ξ se obtiene como ξ = (D′FV

−1DF)−1D′

FV−1Z con varian-

za asintotica (DFV−1D′

F )−1 y V = DRΣD′

R +W−1, W = diagµi. Los efectos aleatorios se

estiman como ζ = ΣD′RV

−1(Zp −DFξ), ε ∼ N(0; W−1).

Tras la implementacion y ejecucion del algoritmo considerando las siguientes matrices del diseno

para los efectos fijos y aleatorios se obtienen los siguientes resultados:

(DF )672×3 =

1 0 0... 0 0

1 0 0

0 1 0...

... 0

0 1 0

0 0 1...

......

0 0 1

(ξp)3×T =

−0,1511 −0,1348 −0,1164 0,0298 4,1087

−0,1557 −0,1339 −0,1182 0,0324 4,1110

−0,1537 −0,1321 −0,1158 0,0297 4,1103

57

Page 62: Memoria elvira delgado

(DR)672×96 =

1 0...

......

......

......

......

... . . .... 0

......

......

......

......

...... . . .

1 0...

......

......

......

......

... . . .

0 1 0...

......

......

......

...... . . .

...... 0

......

......

......

......

... . . .

0 1 0...

......

......

......

...... . . .

0 0 1...

......

......

......

...... . . .

......

......

......

......

......

...... . . .

0 0 1...

......

......

......

...... . . .

0 0 0 1...

......

......

......

... . . ....

......

......

......

......

......

... . . .

0 0 0 1...

......

......

......

... . . .

0 0 0 0 1...

......

......

...... . . .

......

......

......

......

......

...... . . .

0 0 0 0 1...

......

......

...... . . .

0 0 0 0 0 1...

......

......

... . . ....

......

......

......

......

......

... . . .

0 0 0 0 0 1...

......

......

... . . .

0 0 0 0 0 0 1...

......

...... . . .

......

......

......

......

......

...... . . .

0 0 0 0 0 0 1...

......

...... . . .

0 0 0 0 0 0 0 1...

......

... . . ....

......

......

......

......

......

... . . .

0 0 0 0 0 0 0 1...

......

... . . .

0 0 0 0 0 0 0 0 1...

...... . . .

......

......

......

......

......

...... . . .

0 0 0 0 0 0 0 0 1...

...... . . .

0 0 0 0 0 0 0 0 0 1...

... . . ....

......

......

......

......

......

... . . .

0 0 0 0 0 0 0 0 0 1...

... . . ....

......

......

......

......

......

.... . .

58

Page 63: Memoria elvira delgado

(ζp)96×T =

−0,8712 0,2475 −0,4192 −0,5377 −0,0455

−0,0308 −0,2052 0,4338 0,0503 −0,0102

0,1075 1,0374 −0,0716 −0,0637 0,0858

−0,2881 −0,4000 −0,0951 0,0232 −0,0198

−0,0602 0,0012 −0,8194 0,1083 0,0312

−0,0900 −0,6628 −0,4830 0,4763 0,0809

0,8191 0,3931 −0,3150 −0,3001 −0,0494

−0,1262 0,3290 0,3610 −0,2591 0,0211

−0,4466 0,2813 −0,9206 0,0938 0,0845

−0,1483 0,2440 −0,1161 −0,4175 −0,0845

0,8889 −0,4357 0,6114 0,5809 −0,0392

−0,1299 −0,1792 0,1091 0,3814 0,0376

0,2497 −0,3538 −0,2868 −0,3465 −0,0704

0,0521 −0,4342 0,1599 0,8026 0,0079

−0,5109 0,3521 0,1125 0,3277 0,0212

−0,1741 −0,0535 −0,3507 0,2986 −0,0742

0,9000 0,0703 −0,5094 −0,2498 −0,0009

−0,7923 −0,0622 0,4482 −0,2081 0,0556

−0,1458 −0,2030 0,6294 0,1063 −0,0559

0,1909 −0,3446 0,0692 −0,0870 −0,0075

0,1744 −0,3403 −0,0847 −0,9988 0,0273

−0,1120 −0,6822 −0,6192 0,3520 −0,0572

0,0276 0,0266 −0,6575 −0,3051 −0,0421

0,0626 −0,0166 0,1675 0,1235 0,0193

0,5087 −0,0494 0,0800 0,1843 −0,0453

−0,5666 1,4215 0,6384 0,2143 0,0031

0,4638 −0,0282 1,1119 −0,7499 0,0391

−0,1865 0,6373 0,0632 −0,0640 −0,0818

−0,0983 0,0225 −1,1312 0,3713 −0,0116

−0,3928 0,0494 0,3844 −0,4768 0,1204...

......

......

59

Page 64: Memoria elvira delgado

(εp)672×T es una matriz de vectores elegidos de una variable aleatoria normal con media 0 y

matriz de covarianzas W−1 con W = diagµi(εp)672×T =

0,0241 ∗ e− 7 0,0144 ∗ e− 7 −0,1101 ∗ e− 7 −0,0588 ∗ e− 7 −0,0669 ∗ e− 7

−0,1286 ∗ e− 7 0,0690 ∗ e− 7 0,0575 ∗ e− 7 −0,0785 ∗ e− 7 0,2737 ∗ e− 7

−0,0322 ∗ e− 7 −0,1428 ∗ e− 7 −0,0267 ∗ e− 7 −0,0534 ∗ e− 7 −0,0882 ∗ e− 7

−0,0294 ∗ e− 7 0,0790 ∗ e− 7 0,0132 ∗ e− 7 0,0202 ∗ e− 7 0,0930 ∗ e− 7

0,0807 ∗ e− 7 0,0521 ∗ e− 7 0,0421 ∗ e− 7 0,0578 ∗ e− 7 −0,0563 ∗ e− 7

0,0884 ∗ e− 7 −0,0720 ∗ e− 7 0,0863 ∗ e− 7 −0,0713 ∗ e− 7 0,0008 ∗ e− 7

0,0076 ∗ e− 7 −0,0223 ∗ e− 7 0,0871 ∗ e− 7 −0,0650 ∗ e− 7 0,0146 ∗ e− 7

0,0519 ∗ e− 7 0,0617 ∗ e− 7 0,1033 ∗ e− 7 −0,0675 ∗ e− 7 0,0573 ∗ e− 7

0,0722 ∗ e− 7 −0,0682 ∗ e− 7 −0,0086 ∗ e− 7 0,0412 ∗ e− 7 −0,0813 ∗ e− 7

−0,0584 ∗ e− 7 0,0547 ∗ e− 7 −0,0080 ∗ e− 7 −0,0622 ∗ e− 7 0,0155 ∗ e− 7

−0,0680 ∗ e− 7 −0,0309 ∗ e− 7 0,0817 ∗ e− 7 −0,0190 ∗ e− 7 −0,0359 ∗ e− 7

−0,0610 ∗ e− 7 −0,1321 ∗ e− 7 0,0139 ∗ e− 7 −0,0098 ∗ e− 7 −0,0326 ∗ e− 7

−0,0376 ∗ e− 7 0,0329 ∗ e− 7 0,1117 ∗ e− 7 0,0691 ∗ e− 7 −0,0118 ∗ e− 7

0,0680 ∗ e− 7 0,0366 ∗ e− 7 −0,1047 ∗ e− 7 0,1387 ∗ e− 7 0,0379 ∗ e− 7

−0,0234 ∗ e− 7 −0,0563 ∗ e− 7 0,0600 ∗ e− 7 0,0386 ∗ e− 7 0,0368 ∗ e− 7

−0,0300 ∗ e− 7 0,0217 ∗ e− 7 0,1721 ∗ e− 7 −0,1027 ∗ e− 7 −0,0446 ∗ e− 7

−0,0659 ∗ e− 7 0,1030 ∗ e− 7 0,0276 ∗ e− 7 −0,0288 ∗ e− 7 −0,1142 ∗ e− 7

0,0135 ∗ e− 7 0,0585 ∗ e− 7 0,0539 ∗ e− 7 −0,1070 ∗ e− 7 −0,1577 ∗ e− 7

0,0804 ∗ e− 7 −0,0026 ∗ e− 7 0,0552 ∗ e− 7 0,1408 ∗ e− 7 0,0041 ∗ e− 7

0,0180 ∗ e− 7 0,0098 ∗ e− 7 0,1051 ∗ e− 7 −0,0367 ∗ e− 7 −0,0088 ∗ e− 7

0,0985 ∗ e− 7 −0,1870 ∗ e− 7 −0,0488 ∗ e− 7 0,0084 ∗ e− 7 −0,0034 ∗ e− 7

0,1748 ∗ e− 7 −0,0565 ∗ e− 7 0,0081 ∗ e− 7 0,1172 ∗ e− 7 0,1007 ∗ e− 7

0,0652 ∗ e− 7 −0,1085 ∗ e− 7 0,0030 ∗ e− 7 −0,1051 ∗ e− 7 0,0939 ∗ e− 7

−0,0086 ∗ e− 7 −0,0991 ∗ e− 7 −0,1744 ∗ e− 7 −0,0690 ∗ e− 7 0,0841 ∗ e− 7

−0,0046 ∗ e− 7 0,0932 ∗ e− 7 0,0162 ∗ e− 7 0,1221 ∗ e− 7 −0,0032 ∗ e− 7

0,0711 ∗ e− 7 −0,1303 ∗ e− 7 −0,0095 ∗ e− 7 −0,0855 ∗ e− 7 0,0065 ∗ e− 7

0,0131 ∗ e− 7 0,0850 ∗ e− 7 −0,0795 ∗ e− 7 0,1117 ∗ e− 7 0,0469 ∗ e− 7

0,0902 ∗ e− 7 −0,0423 ∗ e− 7 0,0526 ∗ e− 7 −0,0897 ∗ e− 7 0,1017 ∗ e− 7...

......

......

......

60

Page 65: Memoria elvira delgado

Cuadro 2: Valores Maximos y Mınimos para las proyecciones estimadas obtenidas para cada nivel

de velocidad

Nivel de Velocidad Maximo Mınimo

Primer Nivel 0.6077 -0.6977

Segundo Nivel 0.6109 -0.6992

Tercer Nivel 0.6088 -0.6979

Cuadro 3: Varianzas asintoticas asociadas con cada una de las 5 proyecciones de las curvas de los

efectos fijos bajo los 3 niveles de velocidad

N.V Proy. 1 Proy. 2 Proy.3 Proy. 4 Proy. 5

N. 1 0.0064 0.3586*e-17 0.3069*e-17 0.3054*e-017 0.2502*e-17

N. 2 0.0064 0.3586*e-17 0.3069*e-17 0.3054*e-017 0.2502*e-17

N. 3 0.0064 0.3586*e-17 0.3069*e-17 0.3054*e-017 0.2502*e-17

Figura 3: Proyecciones funcionales de las curvas de efectos fijos bajo los 3 niveles de velocidad

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

Primer Nivel Segundo Nivel Tercer Nivel

61

Page 66: Memoria elvira delgado
Page 67: Memoria elvira delgado

4.3. Conclusiones

La implementacion con MATLAB de la metodologıa empırico - Bayesiana, desarrollada, por

ejemplo, en Ugarte, Goicoa and Militino [40], se ha realizado con un orden de truncamiento T = 5,

considerando la matriz de datos definida por:

(Zp)672×T = (aj,k,1, . . . , aj,k,T )′+ (mk,1, . . . mk,T )

′p = 1, . . . , 672,

La variabilidad residual se refleja en terminos de los autovalores λ6, λ7, λ8, λ9 y λ10. Los

resultados obtenidos para este orden de truncamiento se reflejan en las Tablas 2 y 3 y en las

Figuras 3 y 4.

En la Figura 3 se observa la estimacion de las curvas de los efectos fijos bajo los tres niveles de

velocidad o tratamientos de los efectos fijos considerados proyectan en los 32 sistemas de autovec-

tores empıricos. De forma mas especıfica, para cada nivel de velocidad o tratamientos de los efectos

fijos, las 32 proyecciones funcionales estimadas obtenidas para la curva de efectos fijos bajo los tres

niveles de velocidad o tratamientos de los efectos fijos.

En cada una de las graficas de la Figura 3, se pueden observar ciertas variaciones entre las pro-

yecciones funcionales estimadas correspondientes para diferentes sistemas de autovectores empıricos

para cada uno de los tres niveles de la curva de efectos fijos. Sin embargo, se pueden apreciar pe-

quenas diferencias entre los diferentes niveles de velocidad o tratamientos de los efectos fijos en

las proyecciones funcionales estimadas (entre los diferentes graficos de la Figura 3). Mas concreta-

mente, en la Tabla 2, se muestran los valores maximo y mınimo sobre las proyecciones funcionales

estimadas obtenidas para cada nivel de velocidad o tratamientos de los efectos fijos de la curva de

efectos fijos.

Se pueden apreciar pequenas diferencias en los valores mınimos, pero en los valores maximos

para los niveles 1 y 3 de velocidad, son practicamente el mismo. Ademas se pueden observar, en

la Figura 3, el patron sinusoidal de las proyecciones funcionales estimadas para la componente X y

el patron lineal de las proyecciones funcionales estimadas para la componente Y, de acuerdo a las

ecuaciones generadas para la simulacion definidas por el modelo parametrico definido en la seccion

2 (Generacion de curvas).

Las varianzas asintoticas asociadas con cada una de las estimaciones de las 5 proyecciones de la

curva de efectos fijos bajo los 3 niveles de velocidad o tratamientos de los efectos fijos se muestran

63

Page 68: Memoria elvira delgado

en la Tabla 3, donde se puede observar que las varianzas asintoticas para cada uno de los 3 niveles

de velocidad o tratamientos de los efectos fijos coinciden en cada una de las proyecciones estimadas.

Las proyecciones funcionales estimadas de las curvas de efectos aleatorios asociadas con los

32 individuos se muestran en la Figura 4, considerando primero las superficies que interpolan los

valores de las 32 proyecciones funcionales estimadas de las curvas de efectos aleatorios bajo los 3

niveles de velocidad o tratamientos de los efectos fijos. Ademas, la representacion conjunta de las 32

curvas que definen las correspondiente proyecciones funcionales estimadas de las curvas de efectos

aleatorios asociados con los 32 individuos implicados en el estudio. Se puede apreciar que bajo los

3 niveles de velocidad o tratamientos de los efectos fijos las proyecciones funcionales estimadas de

las curvas de efectos aleatorios son practicamente las mismas.

4.4. Otros estudios realizados

El modelo de efectos mixtos ha sido ampliamente aplicado en medicina, por ejemplo, en el

analisis estadıstico de ensayos clınicos. Mencionaremos algunos ejemplos concretos. En el trabajo

de los profesores Cnoaan, Laird y Slasor [13] el modelo de efectos mixtos es aplicado a los siguientes

experimentos:

1. Ensayos clınicos de esquizofrenia: Se considera un ensayo clınico de un medicamento para el

tratamiento de la esquizofrenia durante una fase aguda de la enfermedad. Este ensayo clınico

fue un estudio con asignacion al azar en cuatro tratamientos: Tres dosis (Baja, Media y

Alta) de un medicamento experimental y un medicamento de control con efectos antisicoticos

conocido ası como con efectos secundarios conocidos. El principal parametro de eficacia fue la

Brief Psychiatric Rating Scale (BPRS). Los pacientes fueron evaluados al inicio del estudio

y despues de una, dos, tres, cuatro y seis semanas de tratamiento. Los pacientes fueron

ingresados en el hospital durante las primeras cuatro semanas de tratamiento, y se les dio de

alta para las ultimas dos semanas.

2. Desarrollo de la funcion pulmonar en ninos: Este estudio clınicos se diseno para caracterizar

el crecimiento de la funcion pulmonar entre los 6 y 18 anos y los factores que afectan al

crecimiento.

Para el caso de datos funcionales, tambien se puede encontrar bibliografıa, por ejemplo, del

artıculo del profesor Guo [26] donde realiza un desarrollo teorico del modelo de efectos mixtos

64

Page 69: Memoria elvira delgado

funcional para aplicarlo al caso de datos referentes a la concentracion de cortisol que se libera como

respuesta al estres y a un nivel bajo de glucocorticoides en la sangre en individuos afectados con

fibromialgia. El modelo de efectos mixtos ajustado a los datos es el siguiente:

yij = Xijβ(tij) + αi(tij) + eij ,

donde

Yij (i = 1, . . . , 22, j = 1, . . . , 24) es la concentracion de cortisol para el i - esimo sujeto en la

j - esima hora.

β(t) = β1(t), β2(t)′ es la curva media para el grupo de sujetos con fibromialgia y β2(t) para

el grupo normal.

Xij = 1, 0 si i ≤ 11 y Xij = 0, 1 en otro caso.

αi(t) es la curva de variacion para la curva del i - esimo individuo y todas las curvas de

todos los individuos que se modelan como realizaciones del mismo proceso Gaussiano a(t) =

A1 +A2t+ λ−1/2a

∫ t0 Wl(s) ds, donde [A1, A2]

′ ∼ N(0; diagσ21 , σ22).

eij ∼ N(0;σ2e )

En el estudio mencionado en la seccion del calculo de las Componentes Principales, [43], tambien

se aplico un modelo de efectos mixtos para el estudio de imagenes morfometricas de alta resolucion

que sigue la misma metodologıa descrita en la seccion anterior. Es decir, Analisis de Componentes

Principales Funcional y la contruccion de un modelo de efectos mixtos basada en la metodologıa

desarrollada por Ugarte, Goicoa y Militino [40].

65

Page 70: Memoria elvira delgado

5. Analisis empırico de la sensibilidad de la metodologıa propuesta

al orden de truncamiento.

Repetir los calculo para diferentes valores del parametro T . Concretamente se han elegido los

valores proximos al seleccionado con el Analisis de Componentes Principales Funcional, es decir:

T = T − 1, T = T − 2, T = T + 1 y T = T + 2.

5.1. Para un nivel de truncamiento T = 7

(DF )672×3 =

1 0 0... 0 0

1 0 0

0 1 0...

... 0

0 1 0

0 0 1...

......

0 0 1

(ξp)3×T =

0,1246 0,0061 −0,1573 −0,1407 −0,1278 0,0315 4,1085

0,1222 0,0078 −0,1621 −0,1396 −0,1295 0,0339 4,1105

0,1212 0,0064 −0,1596 −0,1382 −0,1270 0,0312 4,1112

66

Page 71: Memoria elvira delgado

(DR)672×96 =

1 0...

......

......

......

......

... . . .... 0

......

......

......

......

...... . . .

1 0...

......

......

......

......

... . . .

0 1 0...

......

......

......

...... . . .

...... 0

......

......

......

......

... . . .

0 1 0...

......

......

......

...... . . .

0 0 1...

......

......

......

...... . . .

......

......

......

......

......

...... . . .

0 0 1...

......

......

......

...... . . .

0 0 0 1...

......

......

......

... . . ....

......

......

......

......

......

... . . .

0 0 0 1...

......

......

......

... . . .

0 0 0 0 1...

......

......

...... . . .

......

......

......

......

......

...... . . .

0 0 0 0 1...

......

......

...... . . .

0 0 0 0 0 1...

......

......

... . . ....

......

......

......

......

......

... . . .

0 0 0 0 0 1...

......

......

... . . .

0 0 0 0 0 0 1...

......

...... . . .

......

......

......

......

......

...... . . .

0 0 0 0 0 0 1...

......

...... . . .

0 0 0 0 0 0 0 1...

......

... . . ....

......

......

......

......

......

... . . .

0 0 0 0 0 0 0 1...

......

... . . .

0 0 0 0 0 0 0 0 1...

...... . . .

......

......

......

......

......

...... . . .

0 0 0 0 0 0 0 0 1...

...... . . .

......

......

......

......

......

......

. . .

67

Page 72: Memoria elvira delgado

(ζp)96×T =

−0,0944 0,5085 −0,8145 0,2575 −0,4160 −0,5531 −0,0466

−0,4886 0,4067 −0,0231 −0,2005 0,4487 0,0491 −0,0103

0,1444 0,0287 0,1066 1,0662 −0,0621 −0,0665 0,0881

0,7557 0,3456 −0,2625 −0,3939 −0,0870 0,0220 −0,0200

−0,1877 −0,1633 −0,0505 0,0068 −0,8202 0,1084 0,0322

−0,6279 −0,3581 −0,0773 −0,6539 −0,4843 0,4824 0,0832

−0,9109 −0,1131 0,7669 0,4047 −0,3126 −0,3100 −0,0502

−0,5111 −0,1175 −0,1113 0,3417 0,3780 −0,2677 0,0221

−0,4772 −0,1333 −0,4046 0,2947 −0,9291 0,0947 0,0872

−1,2856 −0,0525 −0,1300 0,2557 −0,1088 −0,4377 −0,0883

1,2889 −0,1184 0,8329 −0,4359 0,6337 0,5948 −0,0402

−0,1681 −0,4606 −0,1171 −0,1744 0,1208 0,3915 0,0386

0,3529 −0,1290 0,2374 −0,3587 −0,2819 −0,3579 −0,0720

0,1578 −0,4014 0,0542 −0,4299 0,1749 0,8187 0,0083

0,8928 0,1862 −0,4698 0,3639 0,1244 0,3327 0,0222

0,2791 0,0380 −0,1557 −0,0477 −0,3422 0,3052 −0,0765

−0,0304 0,1224 0,8465 0,0785 −0,5047 −0,2558 −0,0008

−0,3453 0,8442 −0,7288 −0,0571 0,4679 −0,2142 0,0569

1,0712 −0,4358 −0,1324 −0,1987 0,6465 0,1047 −0,0559

−0,0123 1,3164 0,1830 −0,3447 0,0816 −0,0916 −0,0076

−0,1668 −0,3233 0,1706 −0,3318 −0,0756 −1,0199 0,0280

0,9600 0,2084 −0,0984 −0,6972 −0,6228 0,3572 −0,0590

−0,4889 −1,1170 0,0320 0,0321 −0,6531 −0,3115 −0,0422

−0,2054 0,5353 0,0639 −0,0109 0,1813 0,1258 0,0199

−0,0654 −1,5374 0,4795 −0,0448 0,0913 0,1843 −0,0469

−0,0891 −0,3707 −0,5216 1,4086 0,6595 0,2182 0,0033

0,4983 0,2189 0,4295 −0,0226 1,1465 −0,7758 0,0404

−0,2202 0,0764 −0,1663 0,6602 0,0759 −0,0676 −0,0846

−0,0771 0,0119 −0,0860 0,0282 −1,1235 0,3823 −0,0121

−0,6203 −0,0958 −0,3558 0,0558 0,3945 −0,4860 0,1241...

......

......

......

68

Page 73: Memoria elvira delgado

(εp)672×T es una matriz de vectores elegidos de una variable aleatoria normal con media 0 y matriz de covarianzas W−1 con

W = diagµi(εp)672×T =

0,0241 ∗ e− 7 0,0144 ∗ e− 7 −0,1101 ∗ e− 7 −0,0588 ∗ e− 7 −0,0669 ∗ e− 7 0,0940 ∗ e− 7 −0,0129 ∗ e− 7

−0,1286 ∗ e− 7 0,0690 ∗ e− 7 0,0575 ∗ e− 7 −0,0785 ∗ e− 7 0,2737 ∗ e− 7 0,0871 ∗ e− 7 0,0385 ∗ e− 7

−0,0322 ∗ e− 7 −0,1428 ∗ e− 7 −0,0267 ∗ e− 7 −0,0534 ∗ e− 7 −0,0882 ∗ e− 7 0,0435 ∗ e− 7 0,0035 ∗ e− 7

−0,0294 ∗ e− 7 0,0790 ∗ e− 7 0,0132 ∗ e− 7 0,0202 ∗ e− 7 0,0930 ∗ e− 7 0,0194 ∗ e− 7 −0,0941 ∗ e− 7

0,0807 ∗ e− 7 0,0521 ∗ e− 7 0,0421 ∗ e− 7 0,0578 ∗ e− 7 −0,0563 ∗ e− 7 0,0642 ∗ e− 7 −0,0924 ∗ e− 7

0,0884 ∗ e− 7 −0,0720 ∗ e− 7 0,0863 ∗ e− 7 −0,0713 ∗ e− 7 0,0008 ∗ e− 7 0,0223 ∗ e− 7 0,0671 ∗ e− 7

0,0076 ∗ e− 7 −0,0223 ∗ e− 7 0,0871 ∗ e− 7 −0,0650 ∗ e− 7 0,0146 ∗ e− 7 0,0707 ∗ e− 7 0,0268 ∗ e− 7

0,0519 ∗ e− 7 0,0617 ∗ e− 7 0,1033 ∗ e− 7 −0,0675 ∗ e− 7 0,0573 ∗ e− 7 0,0218 ∗ e− 7 0,0838 ∗ e− 7

0,0722 ∗ e− 7 −0,0682 ∗ e− 7 −0,0086 ∗ e− 7 0,0412 ∗ e− 7 −0,0813 ∗ e− 7 0,1212 ∗ e− 7 0,0147 ∗ e− 7

−0,0584 ∗ e− 7 0,0547 ∗ e− 7 −0,0080 ∗ e− 7 −0,0622 ∗ e− 7 0,0155 ∗ e− 7 0,0321 ∗ e− 7 −0,0897 ∗ e− 7

−0,0680 ∗ e− 7 −0,0309 ∗ e− 7 0,0817 ∗ e− 7 −0,0190 ∗ e− 7 −0,0359 ∗ e− 7 −0,0778 ∗ e− 7 −0,0900 ∗ e− 7

−0,0610 ∗ e− 7 −0,1321 ∗ e− 7 0,0139 ∗ e− 7 −0,0098 ∗ e− 7 −0,0326 ∗ e− 7 0,0690 ∗ e− 7 0,0444 ∗ e− 7

−0,0376 ∗ e− 7 0,0329 ∗ e− 7 0,1117 ∗ e− 7 0,0691 ∗ e− 7 −0,0118 ∗ e− 7 −0,0084 ∗ e− 7 0,1427 ∗ e− 7

0,0680 ∗ e− 7 0,0366 ∗ e− 7 −0,1047 ∗ e− 7 0,1387 ∗ e− 7 0,0379 ∗ e− 7 0,1248 ∗ e− 7 0,0235 ∗ e− 7

−0,0234 ∗ e− 7 −0,0563 ∗ e− 7 0,0600 ∗ e− 7 0,0386 ∗ e− 7 0,0368 ∗ e− 7 0,0441 ∗ e− 7 0,0650 ∗ e− 7

−0,0300 ∗ e− 7 0,0217 ∗ e− 7 0,1721 ∗ e− 7 −0,1027 ∗ e− 7 −0,0446 ∗ e− 7 −0,0271 ∗ e− 7 −0,0662 ∗ e− 7

−0,0659 ∗ e− 7 0,1030 ∗ e− 7 0,0276 ∗ e− 7 −0,0288 ∗ e− 7 −0,1142 ∗ e− 7 −0,0469 ∗ e− 7 −0,0701 ∗ e− 7

0,0135 ∗ e− 7 0,0585 ∗ e− 7 0,0539 ∗ e− 7 −0,1070 ∗ e− 7 −0,1577 ∗ e− 7 −0,0468 ∗ e− 7 0,1103 ∗ e− 7

0,0804 ∗ e− 7 −0,0026 ∗ e− 7 0,0552 ∗ e− 7 0,1408 ∗ e− 7 0,0041 ∗ e− 7 0,0921 ∗ e− 7 −0,0661 ∗ e− 7...

......

......

......

69

Page 74: Memoria elvira delgado

Cuadro 4: Valores Maximos y Mınimos para las proyecciones estimadas obtenidas para cada nivel

de velocidad

Nivel de Velocidad Maximo Mınimo

Primer Nivel 0.6390 -0.7069

Segundo Nivel 0.6416 -0.7085

Tercer Nivel 0.6393 -0.7072

Cuadro 5: Varianzas asintoticas asociadas con cada una de las 7 proyecciones de las curvas de los

efectos fijos bajo los 3 niveles de velocidad

N.V Proy.1 Proy.2 Proy. 3 Proy. 4 Proy. 5 Proy. 6 Proy. 7

N. 1 0.0064 0.3539*e-17 0.3028*e-17 0.2721*e-17 0.2454*e-17 0.2223*e-17 0.2026*e-17

N. 2 0.0064 0.3539*e-17 0.3028*e-17 0.2721*e-17 0.2454*e-17 0.2223*e-17 0.2026*e-17

N. 3 0.0064 0.3539*e-17 0.3028*e-17 0.2721*e-17 0.2454*e-17 0.2223*e-17 0.2026*e-17

Figura 5: Proyecciones funcionales de las curvas de efectos fijos bajo los 3 niveles de velocidad

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

Primer Nivel Segundo Nivel Tercer Nivel

70

Page 75: Memoria elvira delgado

Figura 6: Proyecciones funcionales de las curvas de efectos aleatorios bajo los 3 niveles de velocidad

0 20 40 60 80 100 120 140 160 180 200−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

0 20 40 60 80 100 120 140 160 180 200−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

0 20 40 60 80 100 120 140 160 180 200−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

Primer Nivel Segundo Nivel Tercer Nivel

5.2. Para un nivel de truncamiento T = 6

(DF )672×3 =

1 0 0... 0 0

1 0 0

0 1 0...

... 0

0 1 0

0 0 1...

......

0 0 1

(ξp)3×T =

−0,0056 −0,1524 −0,1366 −0,1190 0,0371 4,1088

−0,0045 −0,1574 −0,1356 −0,1210 0,0396 4,1114

−0,0053 −0,1549 −0,1341 −0,1185 0,0370 4,1101

71

Page 76: Memoria elvira delgado

(DR)672×96 =

1 0...

......

......

......

......

... . . .... 0

......

......

......

......

...... . . .

1 0...

......

......

......

......

... . . .

0 1 0...

......

......

......

...... . . .

...... 0

......

......

......

......

... . . .

0 1 0...

......

......

......

...... . . .

0 0 1...

......

......

......

...... . . .

......

......

......

......

......

...... . . .

0 0 1...

......

......

......

...... . . .

0 0 0 1...

......

......

......

... . . ....

......

......

......

......

......

... . . .

0 0 0 1...

......

......

......

... . . .

0 0 0 0 1...

......

......

...... . . .

......

......

......

......

......

...... . . .

0 0 0 0 1...

......

......

...... . . .

0 0 0 0 0 1...

......

......

... . . ....

......

......

......

......

......

... . . .

0 0 0 0 0 1...

......

......

... . . .

0 0 0 0 0 0 1...

......

...... . . .

......

......

......

......

......

...... . . .

0 0 0 0 0 0 1...

......

...... . . .

0 0 0 0 0 0 0 1...

......

... . . ....

......

......

......

......

......

... . . .

0 0 0 0 0 0 0 1...

......

... . . .

0 0 0 0 0 0 0 0 1...

...... . . .

......

......

......

......

......

...... . . .

0 0 0 0 0 0 0 0 1...

...... . . .

0 0 0 0 0 0 0 0 0 1...

... . . ....

......

......

......

......

......

... . . .

0 0 0 0 0 0 0 0 0 1...

... . . ....

......

......

......

......

......

.... . .

72

Page 77: Memoria elvira delgado

(ζp)96×T =

0,5528 −0,8133 0,2522 −0,4182 −0,5528 −0,0460

0,4403 −0,0278 −0,2034 0,4393 0,0434 −0,0104

0,0425 0,1004 1,0580 −0,0700 −0,0707 0,0860

0,3769 −0,2690 −0,3939 −0,0942 0,0166 −0,0201

−0,1627 −0,0550 0,0029 −0,8187 0,1008 0,0320

−0,3695 −0,0829 −0,6523 −0,4830 0,4744 0,0815

−0,1095 0,7627 0,3926 −0,3176 −0,3125 −0,0500

−0,1151 −0,1150 0,3345 0,3648 −0,2686 0,0214

−0,1338 −0,4045 0,2874 −0,9264 0,0888 0,0855

−0,0461 −0,1328 0,2492 −0,1147 −0,4300 −0,0861

−0,1158 0,8207 −0,4349 0,6192 0,5805 −0,0400

−0,4767 −0,1210 −0,1774 0,1116 0,3846 0,0378

−0,1279 0,2316 −0,3591 −0,2853 −0,3574 −0,0716

−0,4144 0,0501 −0,4260 0,1635 0,8132 0,0079

0,2104 −0,4762 0,3567 0,1159 0,3199 0,0214

0,0522 −0,1613 −0,0516 −0,3458 0,2938 −0,0759

0,1431 0,8324 0,0740 −0,5125 −0,2563 −0,0010

0,9161 −0,7320 −0,0604 0,4551 −0,2175 0,0561

−0,4462 −0,1361 −0,2026 0,6367 0,0990 −0,0563

1,4425 0,1757 −0,3444 0,0724 −0,0957 −0,0077

−0,3277 0,1654 −0,3403 −0,0822 −1,0067 0,0276

0,2352 −0,1023 −0,6911 −0,6225 0,3478 −0,0585

−1,1720 0,0273 0,0279 −0,6627 −0,3150 −0,0421

0,5801 0,0600 −0,0147 0,1694 0,1175 0,0194

−1,6218 0,4784 −0,0477 0,0829 0,1781 −0,0464

−0,3802 −0,5341 1,3975 0,6431 0,2094 0,0031

0,2471 0,4321 −0,0260 1,1181 −0,7699 0,0394

0,0953 −0,1676 0,6452 0,0669 −0,0716 −0,0823

0,0244 −0,0903 0,0244 −1,1177 0,3694 −0,0120

−0,0926 −0,3587 0,0518 0,3879 −0,4808 0,1206

0,4954 0,6412 −0,4743 −0,0332 0,2563 −0,0477...

......

......

...

73

Page 78: Memoria elvira delgado

(εp)672×T es una matriz de vectores elegidos de una variable aleatoria normal con media 0 y matriz de covarianzas W−1 con

W = diagµi(εp)672×T =

0,0241 ∗ e− 7 0,0144 ∗ e− 7 −0,1101 ∗ e− 7 −0,0588 ∗ e− 7 −0,0669 ∗ e− 7 0,0940 ∗ e− 7

−0,1286 ∗ e− 7 0,0690 ∗ e− 7 0,0575 ∗ e− 7 −0,0785 ∗ e− 7 0,2737 ∗ e− 7 0,0871 ∗ e− 7

−0,0322 ∗ e− 7 −0,1428 ∗ e− 7 −0,0267 ∗ e− 7 −0,0534 ∗ e− 7 −0,0882 ∗ e− 7 0,0435 ∗ e− 7

−0,0294 ∗ e− 7 0,0790 ∗ e− 7 0,0132 ∗ e− 7 0,0202 ∗ e− 7 0,0930 ∗ e− 7 0,0194 ∗ e− 7

0,0807 ∗ e− 7 0,0521 ∗ e− 7 0,0421 ∗ e− 7 0,0578 ∗ e− 7 −0,0563 ∗ e− 7 0,0642 ∗ e− 7

0,0884 ∗ e− 7 −0,0720 ∗ e− 7 0,0863 ∗ e− 7 −0,0713 ∗ e− 7 0,0008 ∗ e− 7 0,0223 ∗ e− 7

0,0076 ∗ e− 7 −0,0223 ∗ e− 7 0,0871 ∗ e− 7 −0,0650 ∗ e− 7 0,0146 ∗ e− 7 0,0707 ∗ e− 7

0,0519 ∗ e− 7 0,0617 ∗ e− 7 0,1033 ∗ e− 7 −0,0675 ∗ e− 7 0,0573 ∗ e− 7 0,0218 ∗ e− 7

0,0722 ∗ e− 7 −0,0682 ∗ e− 7 −0,0086 ∗ e− 7 0,0412 ∗ e− 7 −0,0813 ∗ e− 7 0,1212 ∗ e− 7

−0,0584 ∗ e− 7 0,0547 ∗ e− 7 −0,0080 ∗ e− 7 −0,0622 ∗ e− 7 0,0155 ∗ e− 7 0,0321 ∗ e− 7

−0,0680 ∗ e− 7 −0,0309 ∗ e− 7 0,0817 ∗ e− 7 −0,0190 ∗ e− 7 −0,0359 ∗ e− 7 −0,0778 ∗ e− 7

−0,0610 ∗ e− 7 −0,1321 ∗ e− 7 0,0139 ∗ e− 7 −0,0098 ∗ e− 7 −0,0326 ∗ e− 7 0,0690 ∗ e− 7

−0,0376 ∗ e− 7 0,0329 ∗ e− 7 0,1117 ∗ e− 7 0,0691 ∗ e− 7 −0,0118 ∗ e− 7 −0,0084 ∗ e− 7

0,0680 ∗ e− 7 0,0366 ∗ e− 7 −0,1047 ∗ e− 7 0,1387 ∗ e− 7 0,0379 ∗ e− 7 0,1248 ∗ e− 7

−0,0234 ∗ e− 7 −0,0563 ∗ e− 7 0,0600 ∗ e− 7 0,0386 ∗ e− 7 0,0368 ∗ e− 7 0,0441 ∗ e− 7

−0,0300 ∗ e− 7 0,0217 ∗ e− 7 0,1721 ∗ e− 7 −0,1027 ∗ e− 7 −0,0446 ∗ e− 7 −0,0271 ∗ e− 7

−0,0659 ∗ e− 7 0,1030 ∗ e− 7 0,0276 ∗ e− 7 −0,0288 ∗ e− 7 −0,1142 ∗ e− 7 −0,0469 ∗ e− 7

0,0135 ∗ e− 7 0,0585 ∗ e− 7 0,0539 ∗ e− 7 −0,1070 ∗ e− 7 −0,1577 ∗ e− 7 −0,0468 ∗ e− 7

0,0804 ∗ e− 7 −0,0026 ∗ e− 7 0,0552 ∗ e− 7 0,1408 ∗ e− 7 0,0041 ∗ e− 7 0,0921 ∗ e− 7...

......

......

...

74

Page 79: Memoria elvira delgado

Cuadro 6: Valores Maximos y Mınimos para las proyecciones estimadas obtenidas para cada nivel

de velocidad

Nivel de Velocidad Maximo Mınimo

Primer Nivel 0.6103 -0.6988

Segundo Nivel 0.6137 -0.7005

Tercer Nivel 0.6113 -0.6990

Cuadro 7: Varianzas asintoticas asociadas con cada una de las 6 proyecciones de las curvas de los

efectos fijos bajo los 3 niveles de velocidad

N.V Proy. 1 Proy. 2 Proy. 3 Proy. 4 Proy. 5 Proy. 6

N. 1 0.0064 0.3559*e-17 0.3028*e-17 0.2745*e-17 0.2478*e-17 0.2247*e-17

N. 2 0.0064 0.3559*e-17 0.3028*e-17 0.2745*e-17 0.2478*e-17 0.2247*e-17

N. 3 0.0064 0.3559*e-17 0.3028*e-17 0.2745*e-17 0.2478*e-17 0.2247*e-17

Figura 7: Proyecciones funcionales de las curvas de efectos fijos bajo los 3 niveles de velocidad

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

Primer Nivel Segundo Nivel Tercer Nivel

75

Page 80: Memoria elvira delgado

Figura 8: Proyecciones funcionales de las curvas de efectos aleatorios bajo los 3 niveles de velocidad

0 20 40 60 80 100 120 140 160 180 200−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

0 20 40 60 80 100 120 140 160 180 200−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

0 20 40 60 80 100 120 140 160 180 200−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

Primer Nivel Segundo Nivel Tercer Nivel

5.3. Para un nivel de truncamiento T = 4

(DF )672×3 =

1 0 0... 0 0

1 0 0

0 1 0...

... 0

0 1 0

0 0 1...

......

0 0 1

(ξp)3×T =

−0,1205 −0,1321 0,0311 4,1093

−0,1193 −0,1342 0,0339 4,1106

−0,1178 −0,1315 0,0311 4,1092

76

Page 81: Memoria elvira delgado

(DR)672×96 =

1 0...

......

......

......

......

... . . .... 0

......

......

......

......

...... . . .

1 0...

......

......

......

......

... . . .

0 1 0...

......

......

......

...... . . .

...... 0

......

......

......

......

... . . .

0 1 0...

......

......

......

...... . . .

0 0 1...

......

......

......

...... . . .

......

......

......

......

......

...... . . .

0 0 1...

......

......

......

...... . . .

0 0 0 1...

......

......

......

... . . ....

......

......

......

......

......

... . . .

0 0 0 1...

......

......

......

... . . .

0 0 0 0 1...

......

......

...... . . .

......

......

......

......

......

...... . . .

0 0 0 0 1...

......

......

...... . . .

0 0 0 0 0 1...

......

......

... . . ....

......

......

......

......

......

... . . .

0 0 0 0 0 1...

......

......

... . . .

0 0 0 0 0 0 1...

......

...... . . .

......

......

......

......

......

...... . . .

0 0 0 0 0 0 1...

......

...... . . .

0 0 0 0 0 0 0 1...

......

... . . ....

......

......

......

......

......

... . . .

0 0 0 0 0 0 0 1...

......

... . . .

0 0 0 0 0 0 0 0 1...

...... . . .

......

......

......

......

......

...... . . .

0 0 0 0 0 0 0 0 1...

...... . . .

0 0 0 0 0 0 0 0 0 1...

... . . ....

......

......

......

......

......

... . . .

0 0 0 0 0 0 0 0 0 1...

... . . ....

......

......

......

......

......

.... . .

77

Page 82: Memoria elvira delgado

(ζp)96×T =

0,2541 −0,3995 −0,5343 −0,0454

−0,2337 0,4475 0,0485 −0,0108

1,1221 −0,0565 −0,0639 0,0841

−0,4419 −0,0824 0,0217 −0,0201

−0,0129 −0,7888 0,1060 0,0311

−0,7245 −0,4741 0,4731 0,0798

0,4122 −0,3010 −0,2974 −0,0493

0,3461 0,3703 −0,2585 0,0205

0,2989 −0,8971 0,0915 0,0827

0,2584 −0,1005 −0,4142 −0,0840

−0,4870 0,6165 0,5792 −0,0394

−0,2065 0,1235 0,3837 0,0362

−0,4055 −0,2646 −0,3416 −0,0705

−0,4786 0,1776 0,8004 0,0073

0,3691 0,1261 0,3194 0,0207

−0,0719 −0,3369 0,2989 −0,0745

0,0634 −0,4852 −0,2443 −0,0015

−0,0816 0,4642 −0,2081 0,0543

−0,2303 0,6416 0,1044 −0,0563

−0,3925 0,0828 −0,0883 −0,0079

−0,3771 −0,0704 −0,9997 0,0263

−0,7610 −0,5978 0,3442 −0,0577

0,0140 −0,6470 −0,3075 −0,0423

−0,0320 0,1838 0,1232 0,0186

−0,0674 0,0950 0,1806 −0,0468

1,4959 0,6551 0,2129 0,0026

−0,0447 1,1445 −0,7504 0,0382

0,6912 0,0773 −0,0645 −0,0811

0,0101 −1,1160 0,3727 −0,0122

0,0403 0,3931 −0,4723 0,1209

−0,5353 −0,0210 0,2556 −0,0469...

......

...

78

Page 83: Memoria elvira delgado

(εp)672×T es una matriz de vectores elegidos de una variable aleatoria normal con media 0 y

matriz de covarianzas W−1 con W = diagµi(εp)672×T =

0,0241 ∗ e− 7 0,0144 ∗ e− 7 −0,1101 ∗ e− 7 −0,0588 ∗ e− 7

−0,1286 ∗ e− 7 0,0690 ∗ e− 7 0,0575 ∗ e− 7 −0,0785 ∗ e− 7

−0,0322 ∗ e− 7 −0,1428 ∗ e− 7 −0,0267 ∗ e− 7 −0,0534 ∗ e− 7

−0,0294 ∗ e− 7 0,0790 ∗ e− 7 0,0132 ∗ e− 7 0,0202 ∗ e− 7

0,0807 ∗ e− 7 0,0521 ∗ e− 7 0,0421 ∗ e− 7 0,0578 ∗ e− 7

0,0884 ∗ e− 7 −0,0720 ∗ e− 7 0,0863 ∗ e− 7 −0,0713 ∗ e− 7

0,0076 ∗ e− 7 −0,0223 ∗ e− 7 0,0871 ∗ e− 7 −0,0650 ∗ e− 7

0,0519 ∗ e− 7 0,0617 ∗ e− 7 0,1033 ∗ e− 7 −0,0675 ∗ e− 7

0,0722 ∗ e− 7 −0,0682 ∗ e− 7 −0,0086 ∗ e− 7 0,0412 ∗ e− 7

−0,0584 ∗ e− 7 0,0547 ∗ e− 7 −0,0080 ∗ e− 7 −0,0622 ∗ e− 7

−0,0680 ∗ e− 7 −0,0309 ∗ e− 7 0,0817 ∗ e− 7 −0,0190 ∗ e− 7

−0,0610 ∗ e− 7 −0,1321 ∗ e− 7 0,0139 ∗ e− 7 −0,0098 ∗ e− 7

−0,0376 ∗ e− 7 0,0329 ∗ e− 7 0,1117 ∗ e− 7 0,0691 ∗ e− 7

0,0680 ∗ e− 7 0,0366 ∗ e− 7 −0,1047 ∗ e− 7 0,1387 ∗ e− 7

−0,0234 ∗ e− 7 −0,0563 ∗ e− 7 0,0600 ∗ e− 7 0,0386 ∗ e− 7

−0,0300 ∗ e− 7 0,0217 ∗ e− 7 0,1721 ∗ e− 7 −0,1027 ∗ e− 7

−0,0659 ∗ e− 7 0,1030 ∗ e− 7 0,0276 ∗ e− 7 −0,0288 ∗ e− 7

0,0135 ∗ e− 7 0,0585 ∗ e− 7 0,0539 ∗ e− 7 −0,1070 ∗ e− 7

0,0804 ∗ e− 7 −0,0026 ∗ e− 7 0,0552 ∗ e− 7 0,1408 ∗ e− 7

0,0180 ∗ e− 7 0,0098 ∗ e− 7 0,1051 ∗ e− 7 −0,0367 ∗ e− 7

0,0985 ∗ e− 7 −0,1870 ∗ e− 7 −0,0488 ∗ e− 7 0,0084 ∗ e− 7

0,1748 ∗ e− 7 −0,0565 ∗ e− 7 0,0081 ∗ e− 7 0,1172 ∗ e− 7

0,0652 ∗ e− 7 −0,1085 ∗ e− 7 0,0030 ∗ e− 7 −0,1051 ∗ e− 7

−0,0086 ∗ e− 7 −0,0991 ∗ e− 7 −0,1744 ∗ e− 7 −0,0690 ∗ e− 7

−0,0046 ∗ e− 7 0,0932 ∗ e− 7 0,0162 ∗ e− 7 0,1221 ∗ e− 7

0,0711 ∗ e− 7 −0,1303 ∗ e− 7 −0,0095 ∗ e− 7 −0,0855 ∗ e− 7

0,0131 ∗ e− 7 0,0850 ∗ e− 7 −0,0795 ∗ e− 7 0,1117 ∗ e− 7

0,0902 ∗ e− 7 −0,0423 ∗ e− 7 0,0526 ∗ e− 7 −0,0897 ∗ e− 7...

......

...

79

Page 84: Memoria elvira delgado

Cuadro 8: Valores Maximos y Mınimos para las proyecciones estimadas obtenidas para cada nivel

de velocidad

Nivel de Velocidad Maximo Mınimo

Primer Nivel 0.5955 -0.6922

Segundo Nivel 0.5958 -0.6933

Tercer Nivel 0.5934 -0.6920

Cuadro 9: Varianzas asintoticas asociadas con cada una de las 4 proyecciones de las curvas de los

efectos fijos bajo los 3 niveles de velocidad

N.V Proy. 1 Proy. 2 Proy. 3 Proy. 4

N. 1 0.0064 0.3610*e-17 0.3093*e-17 0.2786*e-17

N. 2 0.0064 0.3610*e-17 0.3093*e-17 0.2786*e-17

N. 3 0.0064 0.3610*e-17 0.3093*e-17 0.2786*e-17

Figura 9: Proyecciones funcionales de las curvas de efectos fijos bajo los 3 niveles de velocidad

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

Primer Nivel Segundo Nivel Tercer Nivel

80

Page 85: Memoria elvira delgado

Figura 10: Proyecciones funcionales de las curvas de efectos aleatorios bajo los 3 niveles de velocidad

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

Primer Nivel Segundo Nivel Tercer Nivel

5.4. Para un nivel de truncamiento T = 3

(DF )672×3 =

1 0 0... 0 0

1 0 0

0 1 0...

... 0

0 1 0

0 0 1...

......

0 0 1

(ξp)3×T =

−0,1308 0,0252 4,1091

−0,1333 0,0277 4,1114

−0,1301 0,0253 4,1096

81

Page 86: Memoria elvira delgado

(DR)672×96 =

1 0...

......

......

......

......

... . . .... 0

......

......

......

......

...... . . .

1 0...

......

......

......

......

... . . .

0 1 0...

......

......

......

...... . . .

...... 0

......

......

......

......

... . . .

0 1 0...

......

......

......

...... . . .

0 0 1...

......

......

......

...... . . .

......

......

......

......

......

...... . . .

0 0 1...

......

......

......

...... . . .

0 0 0 1...

......

......

......

... . . ....

......

......

......

......

......

... . . .

0 0 0 1...

......

......

......

... . . .

0 0 0 0 1...

......

......

...... . . .

......

......

......

......

......

...... . . .

0 0 0 0 1...

......

......

...... . . .

0 0 0 0 0 1...

......

......

... . . ....

......

......

......

......

......

... . . .

0 0 0 0 0 1...

......

......

... . . .

0 0 0 0 0 0 1...

......

...... . . .

......

......

......

......

......

...... . . .

0 0 0 0 0 0 1...

......

...... . . .

0 0 0 0 0 0 0 1...

......

... . . ....

......

......

......

......

......

... . . .

0 0 0 0 0 0 0 1...

......

... . . .

0 0 0 0 0 0 0 0 1...

...... . . .

......

......

......

......

......

...... . . .

0 0 0 0 0 0 0 0 1...

...... . . .

0 0 0 0 0 0 0 0 0 1...

... . . ....

......

......

......

......

......

... . . .

0 0 0 0 0 0 0 0 0 1...

... . . ....

......

......

......

......

......

.... . .

82

Page 87: Memoria elvira delgado

(ζp)96×T =

−0,4371 −0,5237 −0,0449

0,4825 0,0541 −0,0104

−0,0633 −0,0579 0,0838

−0,0897 0,0274 −0,0199

−0,8662 0,1101 0,0306

−0,5139 0,4770 0,0792

−0,3307 −0,2935 −0,0483

0,4079 −0,2499 0,0205

−1,0039 0,0967 0,0823

−0,1143 −0,4050 −0,0831

0,6816 0,5752 −0,0387

0,1319 0,3911 0,0366

−0,2971 −0,3312 −0,0685

0,1892 0,8151 0,0074

0,1365 0,3279 0,0204

−0,3672 0,3065 −0,0745

−0,5378 −0,2373 −0,0013

0,5066 −0,2032 0,0542

0,6883 0,1083 −0,0559

0,0906 −0,0823 −0,0077

−0,0767 −0,9903 0,0268

−0,6594 0,3473 −0,0567

−0,6943 −0,3008 −0,0420

0,1962 0,1285 0,0188

0,1010 0,1873 −0,0461

0,7065 0,2183 0,0027

1,2425 −0,7556 0,0381

0,0844 −0,0581 −0,0808

−1,2102 0,3800 −0,0122

0,4343 −0,4614 0,1196

−0,0244 0,2588 −0,0467...

......

83

Page 88: Memoria elvira delgado

(εp)672×T es una matriz de vectores elegidos de una variable aleatoria normal con media 0 y

matriz de covarianzas W−1 con W = diagµi(εp)672×T =

0,0241 ∗ e− 7 0,0144 ∗ e− 7 −0,1101 ∗ e− 7

−0,1286 ∗ e− 7 0,0690 ∗ e− 7 0,0575 ∗ e− 7

−0,0322 ∗ e− 7 −0,1428 ∗ e− 7 −0,0267 ∗ e− 7

−0,0294 ∗ e− 7 0,0790 ∗ e− 7 0,0132 ∗ e− 7

0,0807 ∗ e− 7 0,0521 ∗ e− 7 0,0421 ∗ e− 7

0,0884 ∗ e− 7 −0,0720 ∗ e− 7 0,0863 ∗ e− 7

0,0076 ∗ e− 7 −0,0223 ∗ e− 7 0,0871 ∗ e− 7

0,0519 ∗ e− 7 0,0617 ∗ e− 7 0,1033 ∗ e− 7

0,0722 ∗ e− 7 −0,0682 ∗ e− 7 −0,0086 ∗ e− 7

−0,0584 ∗ e− 7 0,0547 ∗ e− 7 −0,0080 ∗ e− 7

−0,0680 ∗ e− 7 −0,0309 ∗ e− 7 0,0817 ∗ e− 7

−0,0610 ∗ e− 7 −0,1321 ∗ e− 7 0,0139 ∗ e− 7

−0,0376 ∗ e− 7 0,0329 ∗ e− 7 0,1117 ∗ e− 7

0,0680 ∗ e− 7 0,0366 ∗ e− 7 −0,1047 ∗ e− 7

−0,0234 ∗ e− 7 −0,0563 ∗ e− 7 0,0600 ∗ e− 7

−0,0300 ∗ e− 7 0,0217 ∗ e− 7 0,1721 ∗ e− 7

−0,0659 ∗ e− 7 0,1030 ∗ e− 7 0,0276 ∗ e− 7

0,0135 ∗ e− 7 0,0585 ∗ e− 7 0,0539 ∗ e− 7

0,0804 ∗ e− 7 −0,0026 ∗ e− 7 0,0552 ∗ e− 7

0,0180 ∗ e− 7 0,0098 ∗ e− 7 0,1051 ∗ e− 7

0,0985 ∗ e− 7 −0,1870 ∗ e− 7 −0,0488 ∗ e− 7

0,1748 ∗ e− 7 −0,0565 ∗ e− 7 0,0081 ∗ e− 7

0,0652 ∗ e− 7 −0,1085 ∗ e− 7 0,0030 ∗ e− 7

−0,0086 ∗ e− 7 −0,0991 ∗ e− 7 −0,1744 ∗ e− 7

−0,0046 ∗ e− 7 0,0932 ∗ e− 7 0,0162 ∗ e− 7

0,0711 ∗ e− 7 −0,1303 ∗ e− 7 −0,0095 ∗ e− 7

0,0131 ∗ e− 7 0,0850 ∗ e− 7 −0,0795 ∗ e− 7

0,0902 ∗ e− 7 −0,0423 ∗ e− 7 0,0526 ∗ e− 7...

......

84

Page 89: Memoria elvira delgado

Cuadro 10: Valores Maximos y Mınimos para las proyecciones estimadas obtenidas para cada nivel

de velocidad

Nivel de Velocidad Maximo Mınimo

Primer Nivel 0.5793 -0.6889

Segundo Nivel 0.5807 -0.6902

Tercer Nivel 0.5789 -0.6888

Cuadro 11: Varianzas asintoticas asociadas con cada una de las 3 proyecciones de las curvas de los

efectos fijos bajo los 3 niveles de velocidad

N.V Proy. 1 Proy. 2 Proy. 3

N. 1 0.0064 0.3638*e-17 0.3118*e-17

N. 2 0.0064 0.3638*e-17 0.3118*e-17

N. 3 0.0064 0.3638*e-17 0.3118*e-17

Figura 11: Proyecciones funcionales de las curvas de efectos fijos bajo los 3 niveles de velocidad

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

Primer Nivel Segundo Nivel Tercer Nivel

85

Page 90: Memoria elvira delgado

Figura 12: Proyecciones funcionales de las curvas de efectos aleatorios bajo los 3 niveles de velocidad

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

0 20 40 60 80 100 120 140 160 180 200−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

Primer Nivel Segundo Nivel Tercer Nivel

5.5. Conclusiones

La implementacion con MATLAB de la metodologıa empırico - Bayesiana, desarrollada, por

ejemplo, en Ugarte, Goicoa and Militino [40], se ha realizado con un orden de truncamiento T = 7,

T = 6, T = 4 y T = 3, considerando la matriz de datos definida por:

(Zp)672×T = (aj,k,1, . . . , aj,k,T )′+ (mk,1, . . . mk,T )

′p = 1, . . . , 672,

La variabilidad residual se refleja en terminos de los autovalores como

Para T = 7: λ8, λ9 y λ10.

Para T = 6: λ7, λ8, λ9 y λ10.

Para T = 4: λ5, λ6, λ7, λ8, λ9 y λ10.

Para T = 3: λ4, λ5, λ6, λ7, λ8, λ9 y λ10.

Los resultados obtenidos para cada uno de los ordenes de truncamiento se reflejan

en las Tablas 4 y 5 y en las Figuras 5 y 6 para T = 7,

en las Tablas 6 y 7 y en las Figuras 7 y 8 para T = 6,

en las Tablas 8 y 9 y en las Figuras 9 y 10 para T = 4 y

en las Tablas 10 y 11 y en las Figuras 11 y 12 para T = 3.

86

Page 91: Memoria elvira delgado

En las Figuras 5, 7, 9 y 11 se representa la estimacion de las curvas de los efectos fijos bajo

los tres niveles de velocidad o tratamientos considerados proyectados en los 32 sistemas de auto-

vectores empıricos para cada uno de los ordenes de truncamiento, T = 7, T = 6, T = 4 y T = 3

respectivamente. En estas Figuras se observa el patron sinusoidal de las proyecciones funcionales

estimadas para la componente X y el patron lineal de las proyecciones funcionales estimadas para

la componente Y , de acuerdo a las ecuaciones generadas para la simulacion definidas por el modelo

parametrico descrito en la seccion 2 (Generacion de curvas). En cada una de las graficas de dichas

Figuras, se pueden observar variaciones entre las proyecciones funcionales estimadas correspondien-

tes para diferentes sistemas de autovectores empıricos para cada uno de los tres niveles de la curva

de efectos fijos. Podemos observar que, a medida que aumentamos o disminuimos el orden de trun-

camiento, la graficas estan mas perturbadas, siendo mas pronunciado a medida que disminuye el

orden de truncamiento. Esto es debido a que al disminuir el orden de truncamiento la variabilidad

residual tiene mayor valor que la variabilidad debida a los efectos fijos y aleatorios (Parametros

estimados de los efectos fijos y aleatorios).

Estas diferencias se pueden apreciar, mas concretamente, en las Tablas 4, 6, 8 y 10, en las que

se muestran los valores maximo y mınimo sobre las proyecciones funcionales estimadas obtenidas

para cada nivel de velocidad o tratamientos de la curva de efectos fijos para cada uno de los ordenes

de truncamiento, T = 7, T = 6, T = 4 y T = 3 respectivamente. Se observa que, para el caso de los

valores mınimos las diferencias entre los diferentes niveles de velocidad o tratamientos para cada uno

de los ordenes de truncamiento siempre son mayores si se comparan con el orden de truncamiento,

T = 5, seleccionado en la Seccion 3 (Calculo de los autovalores y autovectores empıricos). Para

el caso de los valores maximos se pueden observar que las diferencias entre los diferentes niveles

de velocidad o tratamientos son mayores si se comparan con el orden de truncamiento, T = 5,

seleccionado excepto para el orden de truncamiento T = 7 entre los niveles de velocidad 1 - 2 y 1

- 3, para el orden de truncamiento T = 4 entre los niveles de velocidad 1 - 2 y para el orden de

truncamiento T = 3 entre los niveles de velocidad 1 - 3.

Las varianzas asintoticas asociadas con cada una de las estimaciones de las 7, 6, 4 y 3 proyec-

ciones de la curva de efectos fijos bajo los 3 niveles de velocidad o tratamientos de los efectos fijos

se muestran en las Tablas 5, 7, 9 y 11 para cada uno de los ordenes de truncamiento, T = 7, T = 6,

T = 4 y T = 3 respectivamente, donde se puede observar que las varianzas asintoticas para cada

uno de los 3 niveles de velocidad o tratamientos de los efectos fijos coinciden en cada una de las

87

Page 92: Memoria elvira delgado

proyecciones estimadas.

Las proyecciones funcionales estimadas de las curvas de efectos aleatorios asociadas con los 32

individuos se muestran en las Figuras 6, 8, 10 y 12 para cada uno de los ordenes de truncamiento,

T = 7, T = 6, T = 4 y T = 3 respectivamente, considerando la representacion conjunta de

las 32 curvas que definen las correspondiente proyecciones funcionales estimadas de las curvas

de efectos aleatorios asociados con los 32 individuos implicados en el estudio. Se puede apreciar

que, bajo los 3 niveles de velocidad o tratamientos, las proyecciones funcionales estimadas de las

curvas de efectos aleatorios son practicamente las mismas entre sı para cada uno de los ordenes de

truncamiento considerados. Sin embargo, al aumentar el orden de truncamiento, la representacion

es mas clara mientras que al disminuir el orden de truncamiento esta representacion no es buen.

Esto es debido a que al disminuir el orden de truncamiento la variabilidad residual tiene mayor

valor que la variabilidad debida a los efectos fijos y aleatorios (Parametros estimados de los efectos

fijos y aleatorios).

88

Page 93: Memoria elvira delgado

CAPITULO 3: LINEAS ABIERTAS

1. Disenos D - optimos en el contexto de modelos lineales Hilbert-

valuados

En este capıtulo se formulan las posible lıneas futuras de investigacion que daran continuidad

a este trabajo. En particular, se considerara el planteamiento de modelos mixtos en el contexto

infinito - dimensional, atendidendo a tres aspetos:

Parametros infinito-dimensionales

Matriz del diseo infinito-dimensional:

• Infinitos datos

• Infinitos tratamientos

En el analisis estadıstico de los modelos anteriores, la formulacion de disenos optimos jugara un

papel fundamental. Seguidamente, se detallan algunos aspectos de interes que se abordaran como

futuras lıneas de investigacion.

89

Page 94: Memoria elvira delgado

1.1. Parametros infinito-dimensionales

1.1.1. Modelo de efectos fijos

Partiendo del modelo de efectos fijos funcional definido por Zoglat [44]:

Y (t) = Xβ(t) + σǫ(t) t ∈ [0, 1], σ > 0

donde

Y ∈ Ln2 es el vector de datos funcionales o curvas observadas de dimension n× 1.

Yi, Yj (i 6= j) son independientes e identicamente distribuidas.

X = (xij) es una matriz n× p cuyos elementos son numeros reales.

β = (β1, . . . , βp)′ ∈ Lp

2 vector de funciones cuadrado-integrables (parametros funcionales del

modelo).

ǫ = (ǫ1, . . . , ǫn)′ es el error funcional en el espacio de Hilbert H = L2(S, µ)

ǫi, ǫj (i 6= j) son independientes e identicamente distribuidas con operador de auto-covarianza

Rǫ = E[ǫ⊗ ǫ] = E[ǫi ⊗ ǫi], i, j = 1, . . . , n.

(λk, ϕk), k ≥ 1 la secuencia de pares de autovalores - autofunciones del operador de cova-

rianza Rǫ.

Alternativamente al modelo anterior se puede considerar que el vector de tratamientos es

infinito-dimensional, es decir, β = (β1, . . . , β∞)′ ∈ L2, se interpreta como un vector infinito-

dimensional cuyas componentes serıan las proyecciones sobre una base numerable y ortonormal

de una funcion β perteneciente a un espacio de Hilbert H separable. El modelo de efectos mixtos

infinito - dimensional asociado se definirıa como sigue:

Xn×1 = [DF ]n×∞m∞×1 + [DR]n×∞V∞×1 + σǫn×1

En particular, se podrıa considerar que solo la matriz DF , o bien, DR son infinito - dimen-

sionales. En este contexto, el diseno D - optimo permitirı seleccionar un numero finito optimo

de tratamientos, minimizando, por ejemplo, la varianza de los estimadores de los parametros del

modelo.

90

Page 95: Memoria elvira delgado

1.2. Matriz de datos infinito - dimensional

Se considera ahora el modelo de efectos mixtos planteado en el espacio o tiempo (o bien, en am-

bos, espacio y tiempo), donde se seleccionara un conjunto finito optimo de tiempos o localizaciones

espaciales del conjunto infinito de candidatos, potencialmente observables.

X∞×1 = [DF ]∞×rmr×1 + [DR]∞×nVn×1 + σǫ∞×1.

2. Diseno experimental D - optimo en un contexto funcional

2.1. El modelo

Consideremos el modelo de efectos fijos funcional dado por

Y (t, x) = f(x)θ(t) + ε(t, x), t ∈ [0, T ], x ∈ S,

Donde, para cada x ∈ S, se considerara que Y (·, x) ∈ H = L2([0, T ]). Ademas,

E[Y (·, x)Y (·, x′)

]= Rx,x′ , x, x′ ∈ S,

con Rx,x′ definiendo el operador de covarianza cruzado asociado con las dos variables aleatorias

funcionales Y (·, x) y Y (·, x′), esto es,

Rx,x′ = E[Y (·, x) ⊗ Y (·, x′)]

El cual se supondra que es un operador integral definido por

Rx,x′(ψ)(t) =

[0,T ]C(‖x− x′‖, t, s,θ′)ψ(s)ds, ψ ∈ H = L2([0, T ]), (50)

y, para φ ∈ L2(S × [0, T ]), se tiene que

Rx,x′(φ)(t, x) =

S×[0,T ]C(‖x− x′‖, t, s,θ′)φ(s, x′)dsµ(dx′), (51)

donde µ representara una medida de conteo en el caso de espacio de disenos discretos (i.e.,

µ(x) = 1, x ∈ Z), y la medida de Lebesgue dx′, en el caso de espacios de diseno continuos.

En el caso donde se considera un conjunto finito de puntos ζ = x1, . . . , xn, se puede formular

la matriz de covarianza funcional como

Σn∞×n∞ =

Rx1,x1. . . Rx1,xn

......

......

......

Rxn,x1. . . Rxn,xn

, (52)

91

Page 96: Memoria elvira delgado

con, al igual que antes, Rxi,xj= E[Y (·, xi)⊗Y (·, xj)], i, j = 1, . . . , n. Entonces, una version discreta

de la ecuacion (51) se puede definir como sigue:

Rx,x′(φ)(t, xj) =n∑

i=1

[0,T ]C(‖xj − xi‖, t, s,θ′)φ(s, xi)ds, j ∈ 1, . . . , n. (53)

2.2. Enfoque finito - dimensional de la funcion perdida de los disenos D - opti-

mos funcionales.

En en caso donde ζ = x1, . . . , xn se puede analizar el problema de minimizar el determinante

de la matriz finito - dimensional:

Σθ=(X′(Φn×MΛM×MΦ′

M×n

)−1X)−1

, (54)

dondeXl×n es la matriz del diseno formada por el conjunto de candidatos, yΦn×MΛM×MΦM×n

es la obtenida de la descomposicion espectral del operador matriz funcional Σn∞×n∞ en la ecua-

cion (52), con respecto al espacio de Hilbert L2([0, T ],Rn), tras el truncamiento, considerando M

elementos de la base ortonormal definidas por sus autofunciones en este espacio. Especialmente,

g ∈ L2([0, T ],Rn), si

‖g‖2L2([0,T ],Rn) =

[0,T ]|g(t)|2Rndt =

n∑

k=1

[0,T ][gk(t)]

2dt <∞.

El producto interior asociado se define entonces como:

〈f ,g〉L2([0,T ],Rn) =n∑

k=1

[0,T ]gk(t)fk(t)dt.

La siguiente autoecuacion se resuelve con respecto a dicho producto interior:

Σn∞×n∞(φk)(t) =

n∑

j=1

[0,T ]C(‖xi − xj‖, t, s,θ′)φk,j(s)ds

i=1,...,n

= λkφk(t), φk(t) ∈ Rn, t ∈ [0, T ], (55)

donde φk(t) = (φk,1(t), . . . , φk,n(t))′.

La descomposicion espectral de Σn∞×n∞ se obtiene en L2([0, T ],Rn) como:

Σn∞×n∞ = Φn×∞Λ∞×∞Φ′∞×n,

donde

Φ′∞×n = (φ1, . . . ,φk, . . . , )

Λ∞×∞ = diag (λ1, . . . , λk, . . . , ) . (56)

92

Page 97: Memoria elvira delgado

Considerando M elementos de la base de autofunciones con sus respectivos autovalores, obte-

nemos en desarrollo finito - dimensional truncado:

Φn×MΛM×MΦ′M×n,

donde

Φn×M = (φ1, . . . ,φM )n×M ,

y

ΛM×M = diag (λ1, . . . , λM )M×M .

Cabe senalar que, tras el truncamiento, el diseno D - optimo funcional se define como en el caso

finito - dimensional, en terminos de

Σ−1 =(Φn×MΛM×MΦ′

M×n

)−1,

y la matriz del diseno X definiendo el conjunto de candidatos.

93

Page 98: Memoria elvira delgado

94

Page 99: Memoria elvira delgado

APENDICES

A. Introduccion a wavelets

Este apendice se ha elaborado realizando un resumen del trabajo del profesor Todd Ogden, R.

[38] y el trabajo desarrollado por los profesores Cohen, A.; Daubechies, D.; Vial, P. [14].

A.1. Introduccion

La teorıa de wavelet trabaja de manera similar a la teorıa de Fourier, la cual dice que una

senal se compone de funciones sinusoidales y de esta forma es mas sencillo su analisis. Recordando

brevemente, en el estudio de la conducion del calor a comienzos del siglo XIX, el fısico y matematico

frances Jean - Baptiste Fourier descubrio que podıa descomponer una gran clase de funciones en

funciones componentes construida de solo funciones trigonometricas periodicas estandar. De esta

forma solo consideraremos funciones definidas en en intervalo [−π, π]. Las funciones seno y coseno

se definen sobre todo R y tienen periodo 2π, ası, la descomposicion de Fourier se puede considerar

como representacion de tales funciones periodicas o como representacion definida solo en el intervalo

[−π, π].

La representacion de Fourier se aplica a funciones cuadrado integrables, es decir, una funcion

pertenece la espacio de funciones cuadrado integrables L2[a, b] si

∫ b

af2(x)dx <∞

Un resultado de Fourier establece que cualquier funcion f ∈ L2[−π, π] se puede expresar como

95

Page 100: Memoria elvira delgado

suma infinita de funciones seno y coseno:

f(x) =1

2a0 +

∞∑

j=1

(aj cos(jx) + bj sin(jx))

para un conjunto calculado apropiado de coeficientes a0, a1, b1, . . .

Esta suma es infinita pero una funcion puede estar bien aproximada (en L2) por una suma finita

limitada al ındice J :

SJ =1

2a0 +

J∑

j=1

(aj cos(jx) + bj sin(jx))

Los coeficientes de Fourier, para j ≥ 1, se calcularan con el producto interior de la funcion f y

la correspondiente base de funciones:

aj =1

π〈f, cos(j.)〉 = 1

π

∫ π

−πf(x) cos(jx)dx; j = 0, 1, . . .

bj =1

π〈f, sin(j.)〉 = 1

π

∫ π

−πf(x) sin(jx)dx; j = 1, 2, . . .

Esta representacion serie de Fourier es extremadamente util ya que las funciones en L2 se pueden

escribir en termino de contruccion sencilla de funciones bloque: seno y coseno. Esto es debido a que

el conjunto de funciones sin(j.), cos(j.); j = 1, 2, . . . junto con la funcion constante, forman una

base para el espacio de funciones L2[−π, π].

Definicion 5 Un analisis de multiresolucion de L2(Rd) es una sucesion creciente de subespacios

cerrados Vj ∈ Z de L2(Rd) con las siguientes propiedades:

1.⋂∞

−∞ Vj = 0, ⋂∞−∞ Vj es denso en L2(Rd).

2. f(x) ∈ Vj si, y solo si, f(2x) ∈ Vj+1 para todo x ∈ Rd y j ∈ Z.

3. f(x) ∈ V0 si, y solo si, f(x− k) ∈ V0 para todo x ∈ Rd y j ∈ Z

d.

4. Existe una funcion g(x) ∈ V0 tal que la secuencia g(x − k) : k ∈ Zd es una base de Riesz

del espacio V0.

Definicion 6 Un analisis de multiresolucion de L2(Rd), Vj ∈ Z es r - regular (r ∈ N) si la

funcion g(x) referida en la ultima propiedad de la definicion previa puede ser elegida tal que:

|∂αg(x)| ≤ Cm(1 + |x|)−m (57)

96

Page 101: Memoria elvira delgado

para cada entero m ∈ N y para todo multiındice α = (α1, . . . , αd) satisfaciendo |α| ≤ r donde

∂α = (∂

∂x1)α1 . . . (

∂xd)αd y |α| = α1 + · · ·+ αd

La condicion impuesta en (57) asegura el rapido decaimiento de la funcion g y sus derivadas

hasta el orden r cuando x → ±∞ y la regularidad de estas funciones (en el sentido que g y sus

derivadas hasta el orden r pertenecen a L∞(Rd))

La Teorıa de Wavelets es una poderosa herramienta matematica desarrollada a finales del siglo

XX que ha despertado gran atencion en diversos campos de la ingenierıa, la fısica y las ciencias

aplicadas, tales como el procesamiento de senales e imagenes, el reconocimiento de patrones, la

fısica cuantica, el diagnostico medico por imagenes, etc.

Las wavelets son familias de funciones que se encuentran en el espacio y se emplean como

funciones de analisis, examinan a la senal de interes para obtener sus caracterısticas de espacio,

tamano y direccion. Las waveles son generadas a partir de una funcion madre a la que se le agregan

2 ındices:

Indice de escala que permite hacer dilataciones y contracciones de la senal. Se representara co-

mo j ∈ N.

Indice de traslacion que permite mover la senal. Se representara como k ∈ N.

Cada wavelet que nace de la wavelet madre sera indexada por ambos ındices:

ψj,k(x) = 2j/2ψ(2jx− k)

Sea f una funcion y h, r ∈ R, r > 0. Llamaremos τh a las traslaciones de f : (τhf)(x) := f(x−h),y por ρτ a las dilataciones (ρτf)(x) := f(τx)

Definicion 7 Una funcion ψ ∈ L2(R) es una wavelet ortonormal si el sistema ψj,k(x); j, k ∈ Zproporciona una base ortonormal, donde

ψj,k(x) = 2j/2ψ(2jx− k)

Senalar que

1. Se realizaran traslaciones enteras y dilataciones diadicas de ψ:

τkψ(x) = τ(x− k)

(ρτf)(x) = f(τx)dondeτ = 2j

97

Page 102: Memoria elvira delgado

2. Se multiplica por un factor de correccion 2j/2 para preservar la ortonormalidad.

A.2. Wavelets Haar

En matematicas, la wavelet Haar es una secuencia de funciones cuadrada reescalada que en su

conjunto forman una familia wavelet o una base. El analisis wavelet es similar al analisis de Fourier

en el sentido que permite una funcion de destino en un intervalo que se representa en terminos de

una funcion ortonormal base. La secuencia Haar es ahora reconocida como la primera base wavelet

conocida y ampliamente usada como ejemplo de ensenanza.

La secuencia Haar fue propuesta en 1909 por Alfred Haar. Haar utiliza estas funciones para

dar un ejemplo de sistema ortonormal contable del espacio de funciones cuadrado integrable en la

recta real. El estudio de las wavelets no llego hasta mas tarde como un caso especial de la wavelet

Daubechies. La wavelet Haar es tambin conocida como D2.

Las wavelets Haar son las wavelet mas sencillas posible. La desventataja de la wavelet Haar

es que no es continua y ademas no es diferenciable. Esta propiedad puede, sin embargo, ser una

ventaja para el analisis de senales con transiciones repetidas, tales como la monitorizacion de fallos

en las maquinas.

Se define en L2(R) la funcion:

ψ(x) =

1 si 0 ≤ x <1

2

−1 si1

2≤ x < 1

−1 otro caso

que produce el nacimiento de toda una familia de wavelets por medio de dos operaciones:

Proposicion 2 El conjunto es ortonormal.

Proposicion 3 El soporte de la funcion wavelet ψj,k es

sopψj,k = [k2−j , (k + 1)2−j ]

Proposicion 4 Cualquier funcion f2 ∈ L2(R) puede ser arbitrariamente aproximado por una com-

binacion lineal finita de las ψj,k.

98

Page 103: Memoria elvira delgado

Proposicion 5 Cada wavelet Haar satisface∫ ∞

−∞ψj,k(x)dx = 0

para todo j, k ∈ Z

A.3. Wavelets Daubechies

Si la familia ψj,k es una base de wavelets ortonormal, y la wavelet ψ(x) es suave, entonces

debe tener momentos nulos y cuanto mayor suavidad, mas cantidad de momentos nulos.

En 1988 Ingrid Daubechies, con el interes de construir bases ortogonales de funciones suaves y

con el requerimiento de varios momentos nulos, pudo construir una familia de bases ortonormales,

suaves y de soporte compacto. Las wavelets de Daubechies son las que tienen mayor cantidad de

momentos nulos para su soporte.

De lo anterior surge que, como en el caso de las B-splines, solo finitos coeficientes del filtro de la

escala hk son no nulos, y en este caso, ademas, su longitud es 2N . Daubechies demostro que para

que la funcion de escala φ y la wavelet ψ sean regulares, el filtro de la funcion de escala deberıa ser

de la forma,

HN(ω) =

(1 + e−2πiω

2

)2

L(ω)

con N ≥ 1 y L un polinomio trigonometrico.

La familia de wavelets de Daubechies esta gobernada por un conjunto de N (entero par) coefi-

cientes pk : K = 0, 1, . . . , N − 1. Para cada N ∈ N se tendran la wavelet y la funcion de escala que

llamaremos de orden N , y denotamos ψN y φN .

Funcion escala y soporte:

φN (x) =

N−1∑

k=0

pkφN (2x− k)

sopφN (x) = [0, N − 1]

Wavelet madre

ψN (x) =

1∑

k=2−N

qkφN (2x− k)

sopψN (x) = [1− N

2,N

2]

con pk y qk los coeficientes del filtro de la funcion de escala y de la wavelet correspondiente.

99

Page 104: Memoria elvira delgado

B. Espacios de Besov

Este apendice se ha elaborado realizando un resumen de los trabajos de los profesores Dautray,

R.; Lions, J.L. [16] y [17].

El espacio de Besov Bαq (Lp) es un conjunto de funciones f de Lp que tiene suavidad α. El

parametro q da una gradacion mas fina. Estos espacios existe de forma natural en algunos cam-

pos del analisis. Algunas de sus aplicaciones requieren un conocimiento de sus propiedades de

interpolacion, es decir, una descripcion de los espacios los cuales surgen cuando el metodo real de

interpolacion se aplica a un para de estos espacios.

Hay dos definiciones de espacios de Besov las cuales estan en uso en actualmente. Una usa

transformaciones de Fourier en sus definiciones y la segunda usa el modulo de suavidad de la funcion

f . Estas dos definiciones son equivalentes solo con ciertas restricciones sobre los parametros; por

ejemplo son diferentes cuando p > 1 y α es pequeo. El primer teorema y mas simple para espacios

de Besov, fue para interpolacion entre un par Bαq (Lp) y Bβ

r (Lp) con p ≥ 1 fijo. En este caso el

metodo real de interpolacion para los parametros (θ, s) aplicado a estos espacios, proporciona el

espacio de Besov Bγs (Lp) con γ = θα + (1 − θ)β. Ası, cuando p se mantiene fijo los espacios de

Besov son invariantes en la interpolacion.

Los espacios de Besov definidos por los modulos de suavidad suceden de forma natural en

algunas arenas de analisis incluyendo la teorıa de aproximacon. Es espacialmente importante el

caso cuando p < 1 ya que estos espacios son necesarios en la descripcion de clases de aproximacion

para los metodos clasicos de aproximacion no lineal como aproximacion racional y aproximacion

por splines con nodos libres.

Sea Ω el cubo unidad en Rd. Si f ∈ Lp(Ω), 0 < p < ∞, entonces ωr(f, t)p, t > 0 denota el

modulo de suavidad de orden r de f ∈ Lp(Ω):

ωr(f, t)p = sup|h|≤t||∆rh(f, .)||p(Ω(rh))

donde |h| es la distancia Euclıdeal del vector h; ∆rh es la diferencia de orden r con paso h ∈ R

d y

la norma es la norma Lp sobre el conjunto Ω(rh) = x : x, x + rh ∈ Ω. Cuando p < 1, esto no

es una norma realmente, es solo una cuasi-norma, es decir, en lugar de la desigualdad triangular,

100

Page 105: Memoria elvira delgado

tenemos

||f + g||p ≤ 21/p [||f ||p + ||g||p]

Un hecho util es que para cualquier µ ≤ min(1, p) y cualquier secuencia (fi)

∣∣∣∣∣∣∑

fi

∣∣∣∣∣∣ ≤

(∑||fi||µp ]

)1/µ

Si α, p, q > 0, se dice que f esta en un espacio de Besov Bαq (Lp) cuando

|f |Bαq (Lp) = ||f ||p + |f |Bα

q (Lp)

Se define la siguiente norma para Bαq (Lp):

||f ||Bαq (Lp) = ||f ||p + |f |Bα

q (Lp)

Hay algunas otras normas las cuales son equivalentes a esta ultima. Una pequea observacion es que

||f ||Bαq (Lp) ≃ ||f ||p +

(∞∑

k=1

[2kαωr(f, 2

−k)p

])1/q

101

Page 106: Memoria elvira delgado

C. Espacios de Sobolev

Este apendice se ha elaborado realizando un resumen del trabajo de los profesores Angulo Ibanez,

J.M.; Ruiz Medina, M.D.[6] y de los trabajos de los profesores Dautray, R.; Lions, J.L. [16] y [17].

Sea Ω ⊂ Rd y v una funcion de L2(Ω), se puede identificar para una distribucion sobre Ω como

una funcion de L1(Ω), tambien llamado como v y se pueden definir sus derivadas ∂xiv, 1 ≤ i ≤ n

como distribucion sobre Ω. En general, ∂xiv no es un elemento de L2(Ω).

Definicion 8 Llamamos espacio de Sobolev de orden 1 sobre Ω el espacio

H1(Ω) =v ∈ L2(Ω), ∂xi

v ∈ L2, 1 ≤ i ≤ d

el espacio H1 esta dotado con la norma asociada al producto interior:

〈u, v〉1,Ω =

Ω

(uv +

d∑

i=1

∂xiu∂xi

v

)dx

y denotamos la norma correspondiente

||v||1,Ω =√

〈u, v〉1,Ω =

(∫

Ω|u|2 dx+

Ω|∆u|2 dx

)1/2

Y tenemos la generalizacion de tales espacios.

Definicion 9 Sea m ∈ N. Una funcion v ∈ L2(Ω) pertenece al espacio de Sobolev de orden m,

denotado como Hm(Ω), si todas las derivadas de v hasta el orden m, en sentido de distribucion,

pertenecen a L2(Ω). Por convenio, H0(Ω) = L2(Ω).

Teorema 13 Los espacios Hm(Ω), m ≥ 0, dotados con el siguiente producto interior son espacios

de Hilbert:

〈u, v〉m,Ω =∑

|α|≤m

Ω∂αu(x) ¯∂αv(x) dx

con la norma asociada

||u||m,Ω =

√ ∑

|α|≤m

||∂αu||2L2(Ω)

102

Page 107: Memoria elvira delgado

Definicion 10 De forma mas general, se puede definir, para 1 ≤ p ≤ ∞ y para todo m ∈ N, m ≥ 1

el espacio de Sobolev como

Wm,p =u ∈ Lp(Ω), ∂αu ∈ Lp(Ω),∀α ∈ N

d, |α| ≤ m

dotado con la norma

||u||W 1,p =

|α|≤m

Ω|∂αu|p dx

1/p

Definicion 11 El espacio de Sololev fraccionario Hsp(R

d) sobre Rd se define, para cada s ∈ R,

como el espacio de funciones temperadas u tales que

||u||Hsp(R

d) =

[∫

Rd

(1 + |ξ|2)ps/2|u(ξ)|p dξ]1/p

< ∞

Hsp(R

d) es un espacio de Banach con la norma ||.||Hsp(R

d). En el caso p = 2, Hs2(R

d) es un espacio

de Hilbert con el producto interior

〈u, v〉Hs2(Rd) =

Rd

(1 + |ξ|2)ps/2u(ξ)v(ξ) dξ

para u, v ∈ Hs2(R

d)

Definicion 12 Sea S un dominio C∞ abierto limitado en Rd. Sea s ∈ R, y 1 < p <∞.

1. El espacio de Sobolev fraccionario Hsp(S) sobre S se define como

Hsp(S) = u ∈ Hs

p(Rd) : sop u ⊆ S

con la norma de Hsp(R

d) restringida a este subespacio.

2. El espacio de Sobolev fraccionario Hsp(S) sobre S se define como

Hsp(S) = f ∈ D∗(S) : ∃F ∈ Hs

p(Rd) tal que f = FS

donde FS es la restriccion de F a S, y ∗ representa la dualidad entre espacios. La norma

considerada es la norma cociente

||f ||Hsp(S)

= minF ;FS=f ||F ||Hsp(R

d)

103

Page 108: Memoria elvira delgado

Si consideramos el caso p = 2. Los espacios Hs2(S) y Hs

2(S), que se denotaran como Hs(S) y

Hs(S), respectivamente, son el espacio de Hilbert dual con el producto interior

〈u, v〉Hs(S) =

Rd

(1 + |ξ|2)su(ξ)v(ξ) dξ

=

Rd

(1 + |ξ|2)−su ∗ (ξ)v ∗ (ξ) dξ

= 〈u∗, v∗〉H−s(Rd)

104

Page 109: Memoria elvira delgado

REFERENCIAS BIBLIOGRAFICAS

Referencias

[1] Abramovich, F.; Antoniadis, A; Sapatinas, T. Optimal testing in functional analysis of variance

models.

[2] Abramovich, F; Angelini, C. Testing in mixed-effects FANOVA models. Journal of Statistical

Planning and Inference 136 (2006) 4326 4348.

[3] Amato, U; Vuza, D.T. Wavelet approximation of a function from samples affected by noise,

Rev. Roumaine Math. Pures Appl. 42 (1997) 481 493.

[4] Anestis, A.; Sapatinas, T. Estimation and inference in functional mixed - effects models. Compu-

tational Statistics & Data Analysis 51 (2007) 4793 4813.

[5] Angelini, C.; Canditiis, D.; Leblancb, F. Wavelet regression estimation in nonparametric mixed

effect models. Journal of Multivariate Analysis 85 (2003) 267 291.

[6] Angulo, J.M.; Ruiz-Medina, M.D. Multi-resolution approximation to the stochastic inverse pro-

blem. Advances in Applied Probability. Volume 31, Number 4 (1999), 1039-1057.

[7] Antoniadis, A.; Smoothing data with coiflets. Statist. Sinica 4 (1994) 651 678.

[8] Antoniadis, A.; Smoothing noisy data with tapered coiflets series. Scand. J. Statist. 23 (1996)

313 330.

105

Page 110: Memoria elvira delgado

[9] Aston, J.A.D.; Chiou, J.M.; Evans, J.P. Linguistic pitch analysis using functional principal

component mixed effect models. Appl. Statist. (2010) 59, Part 2, pp. 297 317.

[10] Benko, M.; Hardle, W; Kneip, A. Common Functional Principal Components. The Annals of

Statistic), 2009.

[11] Cardot, H; Umr Inra - Enesad, C. Conditional functional principal components analysis.

[12] Chiou, J. M.; Muller, H. G.; Wang, J.L. Functional quasi-likelihood regression models with

smooth random effects. J. R. Statist. Soc. B (2003) 65, Part 2, pp. 405 423.

[13] Cnaan, A.; Laird, N. M.; Slasor, P. Using the general linear mixed model to analyse unbalanced

repeated measures and longitudinal data. Statistics in medicine, Vol. 16, 2349-2380 (1997).

[14] Cohen, A.; Daubechies, D.; Vial, P. Wavelets on the interval and fast wavelet transforms. Appl.

Comput. Harm. Anal. 1 (1993) 54 81.

[15] Cressie, N.; Johannesson, G. Fixed rank kriging for very large spatial data sets. J. R. Statist.

Soc. B (2008) 70, Part 1, pp. 209 226.

[16] Dautray, R.; Lions, J.L. Mathematical Analysis and Numerical Methods for Scienece and Tech-

nology. Vol 2. Functional and Variational Methods. 1985. (Springer New York)

[17] Dautray, R.; Lions, J.L. Mathematical Analysis and Numerical Methods for Scienece and Tech-

nology. Vol 3. Spectral Theory and Applications. 1985. (Springer New York, 1985)

[18] Di, C.Z.; Crainiceanu, C.M.; Caffo, B.S.; Punjabi, N.M. Multilevel functional principal compo-

nents analysis. The Annals of Applied Statistics 2009, Vol. 3, No. 1, 458 488.

[19] Essick, G.K.; Sander, T.; Young, M.; Ferrell T.; Kelly, D.; Spitzner, D. Capturing the spatial

percepts evoked by moving tactile stimuli: a novel approach. Behavioural Brain Research 135

(2002) 43 - 49.

[20] Eubank, R.L.; Spline Smoothing and Nonparametric Regression. Dekker, New York, 1988.

[21] Eubank, R. L.; Hart, J.D. Testing goodness - of - fitting in regression vi order selection criteria.

The Annals of Statistics 1992, Vol. 20, No. 3, 1412 1425.

[22] Fan, J.; Gijbels, I. Local Polynomial Modelling and Its Applications. Chapman & Hall, London,

1996.

106

Page 111: Memoria elvira delgado

[23] Fan, J.; Lin, S.K. Test of significance when data are curves. Journal of the Americal Statistical

Association: Sep. 1998; 93, 443.

[24] Ferraty, F.; Vieu, P. Nonparametric Functional Data Analysis: Theory and Practice (Springer

Series in Statistics). Springer-Verlag New York, Inc., Secaucus, NJ, USA, 2006.

[25] Greven, S; Crainiceanu, C.M.; Caffo, B.S.; Reich, D. Longitudinal functional principal compo-

nent analysis. Electronic Journal of Statistics. Vol. 4 (2010) 10221054. ISSN: 1935 7524.

[26] Guo, W. Functional Mixed Effects Models. Biometrics 58, 121-128. March 2002.

[27] Guo, W. Inference in smoothing spline analysis of variance. J. R. Statist. Soc. B (2002) 64,

Part 4, pp. 887 898.

[28] Hardle, W. Applied Nonparametric Regression. Cambridge University Press, Cambridge, 1990.

[29] Huang, J.Z. Projection estimation in multiple regresion with application to functional ANOVA

models. The Annals of Statistics 1998, Vol. 26, No. 1, 242 272.

[30] Ramsay, J.; Hooker, G.; Graves, S. Functional Data Analysis With R and MATLAB. Springer

Series in Statistics, 2009.

[31] Ramsay, J., Silverman, B. Applied Functional Data Analysis, 1 ed. Springer, 2002.

[32] Ramsay, J., Silverman, B. Functional Data Analysis. Springer Series in Statistics, 2nd ed.

Springer, 2005.

[33] Ruiz-Medina, M.D. Spatial autoregressive and moving average Hilbertian processes. Journal of

Multivariate Analysis 102 (2011) 292 305

[34] Ruiz-Medina, M.D.; Espejo, R.M. Integration of spatial functional interaction in the extrapola-

tion of ocean surface temperature anomalies due to global warming. Int. J. Appl. Earth Observ.

Geoinf. (2012), doi:10.1016/j.jag.2012.01.021.

[35] Ruiz Medina, R.M.; Salmeron, R. Functional maximum-likelihood estimation of ARH(p) mo-

dels. Stoch Environ Res Risk Assess (2010) 24:131146. DOI 10.1007/s00477 009 0306 2

[36] Salmeron, R; Ruiz Medina, R.M. Multi-spectral decomposition of functional autoregressive mo-

dels. Stoch Environ Res Risk Assess (2009) 23:289297. DOI 10.1007/s00477 008 0213 y

107

Page 112: Memoria elvira delgado

[37] Spitzner, D.; Marron, J.S.; Essick, G.K. Mixed-model functional ANOVA for studying human

tactile perception. Behavioural Brain Research 135 (2002) 43 - 49.

[38] Todd Ogden, R. Essential Wavelets for Statistical Applications and Data Analysis. Birkhauser

[39] Torrecilla Noguerales, J.L. Analisis de Datos Funcionales, Clasificacion y Seleccion de Varia-

bles.

[40] Ugarte, M.D.; Goicoa, T.; Militino, A.F. Empirical Bayes and Fully Bayes procedures to detect

high - risk areas in disease mapping. Computational Statistics and Data Analysis 53 (2009)

2938 - 2949.

[41] Wahba, G. Spline models for observational data. CBMS-NSF Regional Conference Series in

Applied Mathematics, Vol. 59, SIAM, Philadelphia, PA, 1990.

[42] Wahba, G; Wang, Y; Gu, C; Klein, R.; Klein, B. Smoothing splines ANOVA for exponential

families, with application to the Winsconsin epidemiological study of diabetic retinopathy. The

Annals of Statistics 1995, Vol. 23, No. 6, 1865 1895.

[43] Zipunnikov, V; Caffoy, B.S.; Yousemz, D.M.; Davatzikos, C.; Schwartzyy, B.S.; Crainiceanu,

C. Functional principal components model for high - dimensional brain imaging. Collection of

Biostatistics Research Archive (COBRA).

[44] Zoglat, A. Functional Analysis of Variance. Applied Mathematical Sciences, Vol. 2, 2008, no.

23, 1115 - 1129.

108