UNIVERSIDAD POLITÉCNICA DE MADRID
ESCUELA TÉCNICA SUPERIOR DE
INGENIEROS DE MONTES
TESIS DOCTORAL
Modelos no paramétricos de ajuste de curvas
aplicados al ámbito forestal
Esperanza Ayuga Téllez
Ingeniero de Montes
Madrid, mayo de 1992
UNIVERSIDAD POLITÉCNICA DE MADRID
ESCUELA TÉCNICA SUPERIOR DE
INGENIEROS DE MONTES
Modelos no paramétricos de ajuste de curvas
aplicados al ámbito forestal
Trabajo que se presenta en la
Escuela Técnica Superior de
Ingenieros de Montes para la
obtención del grado de Doctor.
Autor: Esperanza Ayuga Téllez
Ingeniero de Montes
Director: D. J. Eugenio Martinez Falero
Madrid, mayo de 1992
ÍNDICE
AGRADECIMIENTOS
RESUMEN
SUMMARY
INTRODUCCIÓN
0.1 - OBJETIVOS.
0.2 - MÉTODO DE TRABAJO.
0.3 - ESTRUCTURACIÓN DEL TRABAJO.
CAPITULO 1: MÉTODOS DE ESTIMACIÓN NO PARAHETRICA
1.0 - INTRODUCCIÓN.
1.1 - PROPIEDADES DE LOS ESTIMADORES NO PARAMETRICOS.
1.1. Sesgo.
1.2. Consistencia.
1.3. Los estimadores como funciones de densidad.
1.2 - ESTIMACIÓN MEDIANTE EL HISTOGRAMA DE FRECUENCIAS.
2.1. Propiedades estadísticas.
2.2. Elección del ancho de caja.
2.3. Estimadores relacionados.
1.3 - EL ESTIMADOR NÚCLEO.
3.1. Propiedades estadísticas.
3.2. Elección del núcleo.
3.3. Elección del parámetro de alisado.
3.4. Estimadores relacionados.
1.4 - ESTIMACIONES BASADAS EN PROCESOS DE ALISADO LOCAL.
4.1. El histograma de particiones variables.
4.2. Estimadores basados en bloques estadísticamente equi
4.3. El método de los puntos más próximos.
4.4. Estimadores de núcleo variable.
4.5. Estimadores de núcleo adaptado.
1.5 - ESTIMADORES CON SERIES ORTOGONALES.
5.1. Desarrollo ortogonal arbitrario.
5.2. Propiedades estadísticas.
5.3. Elección del número de términos.
1.6 - ESTIMADORES DE DENSIDAD DE SECUENCIA DELTA.
1.7 - ESTIMADORES DE MÁXIMA VEROSIMILITUD RESTRINGIDA.
7.1. Métodos de orden restringido.
7.2. Método de cribas.
7.3. El método de máxima verosimilitud penalizada. 37
1.8 - ESTIMACIÓN DE DENSIDAD POR BÚSQUEDA DE PROYECCIÓN. 39
8.1. El paradigma EDBP. 40
8.2. índices de proyección. 41
CAPITULO 2:ESTIMACIÓN DE LA DENSIDAD BASADA EN FUNCIONES NÚCLEO
2.0 - INTRODUCCIÓN. 46
2.1 - TIPOS DE FUNCIONES NÚCLEO. 47
2.3 - MÉTODOS DE DETERMINACIÓN DEL ANCHO DE VENTANA. 54
3.1. Método de Scott, Tapia y Thompson, 1977. 54
3.2. Método de validación cruzada. 56
2.4 - ELECCIÓN DE LA FUNCIÓN NÚCLEO Y DEL ANCHO DE BANDA MAS APROPIADOS
EN FUNCIÓN DE LAS CARACTERÍSTICAS MUÉSTRALES PARA MUESTRAS PEQUEÑAS. 60
4.1. Funciones núcleo y anchos de banda empleados. 61
4.2. Selección del conjunto de problemas para comparación 62
4.3. Comparación de los núcleos y anchos de ventana 67
4.4 Resultados 96
2.5.- ELECCIÓN DE LA FUNCIÓN NÚCLEO Y DEL ANCHO DE BANDA MAS APROPIADOS
EN FUNCIÓN DE LAS CARACTERÍSTICAS MUÉSTRALES PARA MUESTRAS GRANDES. 98
5.1. Selección del conjunto de problemas para comparar. 100
5.2. Comparación de núcleos y anchos de banda 102
5.3. Resultados. 112
CAPITULO 3:APLICACI0NES A EJEMPLOS FORESTALES DE LOS RESULTADOS ANTERIORES
3.0 - INTRODUCCIÓN. 113
3.1 - TENSIÓN DE ROTURA A CORTANTE EN LINEAS DE ENCOLADO. 115
1.1. Estimación de la función de densidad. 117
1.2. Estimación de los cuantiles. 125
3.2 - PLUVIOMETRÍA Y CRECIMIENTO DE MASAS FORESTALES. 128
2.1. Estimación de cuantiles en la pluviometría. 130
2.2. Estimación de las funciones de densidad del crecimiento. 136
CAPITULO 4:REGRESI0N NO PARAMETRICA
4.0 - INTRODUCCIÓN. 151
4.1 - ESTIMACIÓN DE LA REGRESIÓN POR QUEBRADAS ALISADAS. 154
4.2 - ESTIMACIÓN DE LA REGRESIÓN POR FUNCIONES NÚCLEO. 156
2.1. Estimadores del tipo de Priestley y Chao. 158
2.2. Estimadores del tipo de Nadaraya y Wat son. 160
2.3. Estimación por los puntos más próximos. 162
4.3 - ESTIMACIÓN DE LA REGRESIÓN CON SERIES ORTOGONALES. 164
4.4 - REGRESIÓN POLINOMIAL MÓVIL. 165
4.5 - ESTIMACIÓN DE LA REGRESIÓN POR PARTICIÓN RECURSIVA. 167
4.6 - ESTIMACIÓN DE LA REGRESIÓN POR PROYECCIONES SUCESIVAS. 168
4.7 - UNIFICACIÓN DEL PROCEDIMIENTO DE ESTIMACIÓN DE
LA REGRESIÓN NO PARAMETRICA. 170
CAPITULO 5:ESTIMACION DE LA REGRESIÓN BASADA EN FUNCIONES NÚCLEO
5.0 - INTRODUCCIÓN. 173
5.1 - ESTIMADORES NÚCLEO DE LA LINEA DE REGRESIÓN. 174
1.1. Estimador del tipo de Nadaraya y Watson. 174
1.2. Estimadores del tipo de Priestley y Chao. 177
5.2 - FUNCIONES NÚCLEO. 180
5.3 -MÉTODOS DE DETERMINACIÓN DEL ANCHO DE VENTANA. 181
3.1. Ninimización del ECH(h). 182
3.2. Ninimización del ECHI(h). 184
5.4 -ESTIMACIÓN NÚCLEO DE LA REGRESIÓN. 187
CAPITULO 6:APLICACIONES A EJEMPLOS FORESTALES DE LA ESTIHACION NÚCLEO DE LA CURVA DE REGRESIÓN
6.0 - INTRODUCCIÓN. 212
6.1 - ESTUDIO DE LAS RELACIONES ENTRE LA CANTIDAD DE BIOMASA Y
CIERTAS VARIABLES DENDROMETRICAS. 215
1.1. Relaciones del PFRF con el diámetro y la altura del árbol. 217
1.2. Relaciones del PST con el diámetro y la altura del árbol. 219
1.3. Relaciones del PFT con el diámetro y la altura del árbol. 223
1.4. Conclusiones. 226
6.2 - ESTUDIO DE LAS RELACIONES ENTRE LA EDAD DE POLLOS DE PERDIZ
Y ALGUNAS VARIABLES QUE MIDEN EL CRECIMIENTO. 227
2.1. Relación entre el peso y la edad. 229
2.2. Relación entre la longitud total y la edad.
2.3. Relación entre la longitud de la cola y la edad. 231
2.4. Relación entre la longitud del ala y la edad. 231
2.5. Relación entre la longitud del tarso y la edad. 234
2.6. Relación entre la longitud desde el culmen y la edad. 234
2.7. Relación entre la longitud desde la narina y la edad. 237
2.8. Relación entre la anchura del pico y la edad. 239
2.9. Conclusiones. 242
CAPITULO 7:ESTIMACI0N POR EL MÉTODO NÚCLEO DE LA
FUNCIÓN DE DENSIDAD MULTIVARIABLE. APLICACIONES.
7.0 - INTRODUCCIÓN. 244
7.1 - ESTIMADOR NÚCLEO DE LA FUNCIÓN DE DENSIDAD MULTIVARIABLE. 245
1.1. Funciones núcleo. 246
1.2. Parámetro de alisado. 247
7.2 - ESTIMACIÓN DE LA FUNCIÓN DE DENSIDAD BIVARIANTE. 251
7.3 - ANÁLISIS DISCRIMINANTE NO PARAMETRICO. 266
7.4 - FUNCIÓN DE DENSIDAD ESPECTRAL. 268
7.5 - CONCLUSIONES. 275
CAPITULO 8:CONCLUSIONES
8.1 - REGLAS DE DECISIÓN. 279
1.1. Estimación de funciones de densidad. 279
1.2. Estimación de la regresión. 281
1.3. Estimación de funciones de densidad bivariantes. 281
8.2 - APLICACIONES AL ÁMBITO FORESTAL. 282
2.1. Resistencia a cortante de la madera laminada encolada. 282
2.2. Pluviometría y altura de eucaliptos en Huelva. 282
2.3. Producción de biomasa del rebollo. 283
2.4. Crecimiento de pollos de perdiz de granja. 284
REFERENCIAS 285
APÉNDICE
VALORES MUÉSTRALES
Valores de las 200 realizaciones muéstrales de tamaño n=25 303
Valores de las realizaciones muéstrales de tamaño n=100 308
Valores de la tensión de rotura a cortante 329
Valores de las precipitaciones anuales 331
Valores de alturas medias de eucaliptos 333
Valores de peso de la biomasa de rebollo 337
Valores del crecimiento de la perdiz 340
Valores de las realizaciones muéstrales bivariantes 347
PROGRAMAS
Programa para estimar funciones de densidad y distribución unidimensionales 357
Programa para estimar la curva de regresión con un modelo fijo 365
Programa para estimar la curva de regresión con un modelo aleatorio 372
Programa para estimar funciones de densidad bidimensionales 378
AGRADECIMIENTOS
Agradezco a mi director de Tesis su constante colaboración
y eficaz guia en la realización de este trabajo. También, al
resto de los profesores de la asignatura de Estadística de la
E.T.S.I.M. por su ayuda y apoyo, así como a todos mis compañeros
de la Escuela que me otorgaron amablemente su colaboración. Y
como no, a mi familia.
INTRODUCCIÓN
0.1 - OBJETIVOS.
En muchos campos, entre ellos el de la gestión forestal, es
frecuente encontrar trabajos donde se analiza estadísticamente
información que viola las hipótesis básicas de partida empleadas
por los métodos convencionales. Por ello, se ha hecho necesario
buscar soluciones que permitan el análisis estadístico de tales
situaciones.
En este sentido, el desarrollo de técnicas de estimación no
paramétrica se ha visto favorecido gracias al auge y
perfeccionamiento de los ordenadores, que ha hecho operativos
algunos de los procedimientos planteados con anterioridad. La
aparición de los primeros trabajos que hacen referencia a estos
estimadores data de los años 30-50. No obstante, hasta los años
80, no se inicia su aplicación en la práctica. En los últimos
años abundan las publicaciones sobre estudios de los aspectos
teóricos de los estimadores no paramétricos y aparecen algunos
2
trabajos con aplicaciones prácticas, tanto en revistas de ámbito
internacional, como en textos, que cada vez son más numerosos.
El hecho de que estas técnicas sean objeto de tanta atención
no puede ser fruto de una única circustancia. Aparte su novedad
y aplicabilidad, presentan unas buenas propiedades teóricas y
aportan resultados válidos de indudable interés. Es por esto que
creemos necesaria una revisión de dichas técnicas estadísticas
y un estudio más completo de sus posibles aplicaciones,
centrándonos en las más utilizadas en la gestión forestal.
Como primer objetivo, se plantea la formulación de unas
reglas de decisión básicas para la aplicación de los estimadores
no paramétricos, estas reglas de decisión suponen un primer paso
en la construcción de una interfase usuario-métodos estadísticos
para la aplicación consistente de los modelos no paramétricos por
usuarios no expertos. Para alcanzar este objetivo se analizan los
métodos de estimación de funciones de densidad univariantes y
multivariantes, así como, los estimadores de la regresión, y se
definen, en algunos casos acudiendo a la simulación, los modelos
a aplicar en diferentes situaciones.
Un segundo objetivo, complementario del anterior, consiste
en la validación de los resultados obtenidos mediante la
aplicación de las reglas de decisión a trabajos relacionados con
diferentes aspectos de la gestión de las explotaciones e
industrias forestales y la comparación de los resultados con los
obtenidos al aplicar métodos paramétricos usuales. Para alcanzar
este segundo objetivo se han escogido algunos aspectos que están
siendo en la actualidad objeto de investigación mediante la
aplicación de otras técnicas, para los cuales, el presente
3
trabajo aporta conclusiones complementarias y, en ocasiones,
sustancialmente diferentes de las obtenidas con otras
metodologías.
0.2- MÉTODO DE TRABAJO.
Una vez planteados los objetivos del trabajo, es necesario
establecer un método para su realización que, en líneas
generales, responde al siguiente plan de trabajo:
En primer lugar se describen los estimadores no paramétricos
que pueden emplearse en cada caso, ocupándonos principalmente de
sus propiedades matemáticas. Una vez conocidos los posibles
estimadores, se escoge el que creemos más adecuado para emplearlo
en los trabajos de aplicación relacionados con las explotaciones
e industrias forestales. El método general de estimación
seleccionado es el método núcleo.
En segundo lugar se procede a analizar los estimadores
núcleo: De qué dependen; si existen diferentes tipos de
estimadores núcleo; y, lo más importante, determinar, si es
posible, en función del problema que se plantea y los datos
muéstrales, los diferentes pasos a seguir, seleccionando los
elementos más apropiados que se pueden emplear con este método,
de tal manera que las estimaciones sean sencillas y eficaces.
En tercer lugar se emplea la metodología propuesta para
resolver algunos problemas prácticos de interés para el sector
4
forestal. Estos problemas ilustran el método de trabajo descrito
y permiten además, extraer conclusiones acerca del problema
estudiado.
Estas tres etapas se concretan en la determinación de los
estimadores no paramétricos de la función de densidad
univariable, estimadores de la regresión, y estimadores de la
función de densidad multivariable. La justificación de la
importancia de estos tres tipos de modelos aplicados a la gestión
forestal es inmediata.
En muchos casos se requiere inicialmente, la estimación de
funciones de densidad de las variables objeto de estudio. Por
ejemplo, en los ensayos de control de calidad de fabricación de
los numerosos productos obtenidos por transformación de la
materia prima que se obtiene en las masas arboladas, donde los
límites de tolerancia se obtienen a través de las funciones de
densidad de la variable. También son muy empleadas en los
estudios del medio físico variables multidimensionales, de las
que una estimación de la función de densidad es imprescindible
en muchas circustancias.
Cuando los estudios que se realizan incluyen más de una
variable, generalmente se buscan las relaciones que ligan dos o
más variables. Su importancia es capital para los estudios del
medio forestal. Por ejemplo, en los trabajos de explotación de
las masas arboladas se requiere, con frecuencia, estimaciones de
las existencias del monte, ya que resulta difícil determinarlas
directamente, siendo preciso relacionarlas con variables que sean
más fácilmente medibles.
5
0.3- ESTRUCTURACIÓN DEL TRABAJO.
Los métodos de estimación no paramétrica de funciones de
densidad se describen en el primer capítulo. En él se revisan los
trabajos existentes sobre descripción de métodos y estudio de las
propiedades y características de estos estimadores.
En el segundo capítulo, se estudian a fondo los estimadores
núcleo, los cuales, por medio de una función denominada "núcleo"
y de una constante, llamada "ancho de banda", estiman la función
de densidad. Se emplean distintos procedimientos para seleccionar
entre algunas de las funciones núcleo más conocidas, y entre los
diferentes métodos de cálculo de los anchos de banda, aquellos
que mejor se adaptan a las características muéstrales de los
datos.
Los resultados obtenidos se utilizan en algunas aplicaciones
prácticas, presentadas en el siguiente capítulo. Se estimarán de
esta forma las funciones de densidad de la pluviometría anual,
altura media de eucaliptos y tensiones de rotura a cortante de
la madera laminada encolada. También se calculan por los métodos
desarrollados en el capítulo anterior, los valores que podrían
considerarse como límites de la pluviometría y el valor que
podría servir para determinar las piezas con encolado defectuoso
en los controles de calidad de fabricación de la madera laminada
encolada.
En el capítulo cuarto. se revisan los métodos no
paramétricos de estimación de la regresión, tanto para modelos
de diseño fijo, como modelos de diseño aleatorio. La descripción
de los distintos estimadores y también de sus propiedades y
6
características más sobresalientes, se consideran al efectuar una
elección del método que se empleará en el desarrollo del capítulo
quinto.
Los estimadores de la línea de regresión que se analizan en
dicho capítulo son los diferentes tipos de estimadores núcleo,
que al igual que en el caso de la estima de la densidad, emplean
funciones núcleo y anchos de banda que influyen en la bondad del
ajuste. Se señalan los pasos a seguir en la selección del tipo
de estimador, de la función núcleo y del ancho de banda, y
también se expone un nuevo método que elimina la tendencia, de
la línea de regresión estimada, a disminuir bruscamente en los
extremos del intervalo de estimación.
La metodología definida anteriormente permite una aplicación
sistemática a los problemas generales de regresión con dos
variables y que, en el capítulo seis, se emplea para relacionar
variables que sirven para medir el crecimiento de pollos de
perdiz, con su edad en días; también se relacionan algunas
variables que miden la cantidad de biomasa producida por una masa
arbolada de rebollo con el diámetro normal y la altura del árbol.
En el capítulo siete. se considera brevemente, la
metodología para estimar funciones de densidad bivariantes, junto
con algunas aplicaciones de ésta a otras técnicas estadísticas,
la estimación de la función espectral y el análisis
discriminante.
En el capítulo ocho, se recogen las conclusiones del
presente trabajo, tanto en el plano teórico, como en el aplicado
y se esbozan las líneas de trabajo que pueden seguirse para
completar este estudio.
7
Por último, se recogen en un apéndice, los datos de las
muestras empleadas en las diferentes aplicaciones de los
estimadores núcleo y los programas fundamentales de ordenador,
en lenguaje BASIC, que se emplearon para desarrollar este
trabajo. Dos de ellos para calcular y representar la estimación
de las funciones de densidad univariantes y bivariantes y otros
dos, para representar gráficamente la linea de regresión, con un
modelo fijo y un modelo aleatorio.
8
CAPITULO 1: MÉTODOS DE ESTIMACIÓN NO PARAMETRICA
1.0 - INTRODUCCIÓN.
1.1 - PROPIEDADES DE LOS ESTIMADORES NO PARAMETRICOS.
1.1. Sesgo.
1.2. Consistencia.
1.3. Los estimadores como funciones de densidad.
1.2- ESTIMACIÓN MEDIANTE EL HISTOGRAMA DE FRECUENCIAS.
2.1. Propiedades estadísticas.
2.2. Elección del ancho de caja.
2.3. Estimadores relacionados.
1.3 - EL ESTIMADOR NÚCLEO.
3.1. Propiedades estadísticas.
3.2. Elección del núcleo.
3.3. Elección del parámetro de alisado.
3.4. Estimadores relacionados.
1.4 - ESTIMACIONES BASADAS EN PROCESOS DE ALISADO
LOCAL.
4.1. El histograma de particiones variables.
4.2. Estimadores basados en bloques
estadísticamente equivalentes.
4.3. El método de los puntos más próximos.
4.4. Estimadores de núcleo variable.
4.5. Estimadores de núcleo adaptado.
1.5 - ESTIMADORES CON SERIES ORTOGONALES.
5.1. Desarrollo ortogonal arbitrario.
5.2. Propiedades estadísticas.
5.3. Elección del número de términos.
1.6 - ESTIMADORES DE DENSIDAD DE SECUENCIA DELTA.
1.7 - ESTIMADORES DE MÁXIMA VEROSIMILITUD RESTRINGIDA.
7.1. Métodos de orden restringido.
7.2. Método de cribas.
7.3. El método de máxima verosimilitud penalizada.
1.8 - ESTIMACIÓN DE DENSIDAD POR BÚSQUEDA DE
PROYECCIÓN.
8.1. El paradigma EDBP.
8.2. índices de proyección.
CAPITULO 1
MÉTODOS DE ESTIMACIÓN NO PARAMETRICA
1.0 - INTRODUCCIÓN.
En los últimos años, la frecuente aplicación del análisis
estadístico a todo tipo de problemas ha originado la búsqueda de
soluciones no habituales que se adapten a los requerimientos y
circunstancias actuales. El campo no paramétrico es uno de los
más populares y se está empleando como una nueva herramienta de
análisis estadístico. Esta herramienta ofrece una alternativa más
o menos sofisticada a los modelos paramétricos tradicionales en
la exploración de datos univariantes o multivariantes sin
presuponer ninguna distribución específica. La estimación no
paramétrica de la densidad, ha llegado ha ser un importante
objeto de investigación estadística. Aunque los primeros intentos
de estimación no paramétrica de la densidad comenzaron en la
década de los treinta, la preocupación por desarrollar este tema
no surge hasta los años ochenta, siendo numerosas las
publicaciones de trabajos realizados sobre los aspectos teóricos
de este tipo de estimación.
11
Si X,, X2, ..., Xn es una muestra aleatoria d dimensional de
una función de probabilidad continua f, donde
f(x)*0, íRd f(x)dx=l, (0.1)
el problema que plantea la inferencia es la estimación de f sin
emplear una estructura formal paramétrica, para lo cual se
considera f como perteneciente a una clase muy general y extensa
de densidades que no pueden ser representadas por un número
finito de parámetros. A las densidades así estimadas y a sus
derivadas se les suele imponer ciertas condiciones de alisado.
El primer estimador no paramétrico de una densidad
univariante f propuesto por Glivenko (1934) es el histograma.
Posteriores trabajos considerando diversas modificaciones de este
estimador abren nuevos caminos -inicialmente con el estimador
núcleo, las series ortogonales y el método de los puntos más
próximos- donde se fundamentan las aplicaciones de discriminación
no paramétrica y sirven de base en el desarrollo de las
estimaciones de densidad espectral para series de tiempo
estacionarias. Más adelante y con otros objetivos distintos se
emplearán métodos como la verosimilitud penalizada, alisado
polinomial, núcleo variable, de cribas y por búsqueda de
proyección (P.P.D.E.). La popularidad creciente de los
estimadores de densidad no paramétricos se debe a la utilización
de los ordenadores en la investigación estadística, tanto por su
capacidad de proceso, como por las ventajas de las
representaciones con gráficos de alta calidad.
Las estimas no paramétricas de densidad han demostrado su
efectividad en los siguientes casos: a) En los análisis
exploratorios para determinar las características descriptivas
12
de la estima de la densidad especialmente en lo que se refiere
a multimodalidad, comportamiento de las colas y asimetría; en
estos casos un método no paramétrico puede ser más flexible que
los métodos paramétricos tradicionales; b) En análisis
confirmatorio, las estimas no paramétricas de densidad se emplean
en análisis discriminante, clasificación no paramétrica,
contrastes para modas y contrastes de variación aleatoria; c) En
la presentación de resultados, las peculiaridades estadísticas
de los datos se pueden explicar fácilmente a través de los
gráficos de las curvas de densidad estimadas.
En las últimas dos décadas se ha presenciado una
consolidación y una valoración critica de estos métodos que se
ve reflejada en los numerosos trabajos, fundamentalmente
teóricos, que se han publicado en relación a este campo (ver
Izenman, 1991).
El éxito en las técnicas de estimación de densidad no
paramétrica ha llevado a su vez a la formulación de la regresión
no paramétrica incluyendo el análisis no paramétrico de curvas
de crecimiento (Eubank 1988; Müller 1988; Nadaraya 1989) y el
reconocimiento estadístico no paramétrico de patrones ( Devijver
y Kittler 1982; Fukunaga 1972, cap. 6).
1.1 - PROPIEDADES DE LOS ESTIMADORES NO PARAMÉTRICOS.
El uso de estimadores de densidad no paramétrica sólo es
recomendable, como cualquier procedimiento estadístico, si se
cumplen determinadas propiedades. Estas propiedades, en general,
confirman su utilidad en muestras grandes; sin embargo también
13
son aplicables en muestras pequeñas que satisfacen condiciones
especiales (ver por ejemplo, Deheuvels, 1977 y Fryer, 1976). A
continuación se analizan algunas propiedades de estos métodos de
estimación.
1.1. Sesgo.
Sea un estimador f de una función de densidad f. Se dice
que este estimador es insesgado para f si, para todo xeRd,
Ef [ f (x) ]=f (x) . Aunque hay estimadores insesgados de densidades
paramétricas tales como la normal o la exponencial, ningún
estimador de densidad auténtico, es decir, que satisfaga la
definición general, puede existir y ser insesgado para todas las
funciones de densidad de tipo continuo (Rosenblatt, 1956). Por
esto se ha enfocado la atención a la posibilidad de encontrar
secuencias f n> neN de estimadores de densidad no paramétricos que
sean asintóticamente insesgados para f. Es decir, para todo xeRd,
Ef[fn(x)]-f(x) si n oo.
1.2. Consistencia.
La propiedad más estudiada de estos estimadores de densidad
es la consistencia, debido a su aplicación para muestras grandes.
Un estimador de densidad f es consistente (débilmente) para una
P función univariante f cuando f (x)-+ f (x) para todo xeR ; será
fuertemente consistente si se mantiene la convergencia casi
segura para f. Se pueden definir, además, otros tipos de
14
consistencia dependiendo del criterio elegido para medir el
error. Los métodos de medida de la consistencia más empleados son
los denominados Lj y L, (Hall, 1989b).
El método L2. El método 1 restringe la estimación a
funciones de densidad con cuadrado integrable. En este caso el
error en la estima f (para xeR) puede medirse por el error
cuadrático medio,
E.C.M.= Ef[£(x)- í(x)]2= var[£(x)] + sesgo[£x)) 2, (l.l)
si el E.C.M. tiende a cero para todo xeR cuando n-+oo entonces f
se dice que es un estimador consistente de f en media cuadrática.
Otro tipo de criterios considera cómo la curva completa f
se aproxima a f. Una medida de la bondad de ajuste en este caso
se encuentra integrando el E.C.M. en todos los valores de x,
E.C.M.I.= f " Ef[£(x) - f (x)]2dx. (1.2) J —oo
Otra medida empleada usualmente es el error cuadrático integrado
(E.C.I.) o Norma 1^ ,
E. C. J.= f ~[£(x)- f(x)]2dx. (1.3) J —oo
Tomando esperanzas sobre f en el E.C.I. obtendríamos el E.C.M.I.
Suele emplearse preferentemente el E.C.I. en lugar de su valor
esperado ya que éste determina la cuantía de la aproximación de
f a f para un conjunto dado de datos, aunque el E.C.M.I.
promedia sobre todos los posibles conjuntos de datos. Bajo
condiciones suaves se ha demostrado que el E.C.I. es una
aproximación aleatoria bastante razonable del E.C.M.I. (Marrón
y Hardle, 1986) mientras en ciertas situaciones el E.C.M.I. puede
15
ser un mejor criterio de error que el E.C.I. (Hall y Marrón,
1988). Farrel (1972) expuso que la posible mejor razón de
convergencia asintótica para el E.C.M.I. en estimas de densidad
auténticas es 0(n"4/5), un infinitésimo de orden n"4/5, y Boyd y
Steele (1978) probaron que no puede existir una estima de f cuya
razón de convergencia para el E.C.M.I. sea mejor que 0(n"1).
El método L,,. En este caso, la única restricción impuesta al
espacio paramétrico de funciones de densidad estimables, es que
se traten de funciones integrables. El método L2 presenta un
problema para estimas de densidad no paramétricas y es que el
comportamiento de la cola de una densidad pierde importancia,
posiblemente como resultado de las peculiaridades que presenta
la estima de la densidad en las colas. Otras objeciones fueron
planteadas por Donoho y Jhonstone (1989). Por estas razones, en
multitud de trabajos se propone e investiga la alternativa L,, a
la teoría anterior de la estimación de densidad no paramétrica.
Devroye y Gyorfi (1985) consideraron más natural para las
densidades el espacio L1 y demostraron que el error absoluto
integrado, también conocido como la variabilidad total o la norma
E.A.I.=f °° \£x)- f(x)\dx, (1.4) J —00
está siempre bien definido como una norma en ese espacio, es
invariante por transformaciones monótonas y 0< E.A.I.< 2. Si
E.A.I.-»-0 en probabilidad cuando n-*°o se dice que f es un
estimador consistente de f. También se dice que el estimador es
fuertemente consistente cuando la posible convergecia es casi
segura. Tomando la esperanza del E.A.I. obtendremos el E.A.I.M.
16
Hall y Wand (1988) llegaron a obtener una expresión
asintótica general para el E.A.I.M. y demostraron que su
minimización se reducía a la solución numérica de una ecuación
particular. A pesar de los logros obtenidos en este método puede
observarse claramente que la labor técnica para obtener
resultados de L1 es sustancialmente más complicada que la
necesaria para obtener análogos resultados con L2.
1.3. Los estimadores como funciones de densidad.
Algunos de los métodos de estimación de la densidad nos
llevan a funciones de densidad auténticas mientras otros pueden
conducir a estimas con ordenadas negativas (especialmente en las
colas) o bien tener una integral infinita. La negatividad puede
darse de forma natural, obteniéndose como un resultado de la
dispersión de los datos en ciertas regiones (ver los trabajos de
Boneva, Kendall y Stefanov, 1971 y Kronmal y Tarter, 1968), o
puede ser causada por relajación de la restricción de no
negatividad en orden a obtener una mejor razón de convergencia
en el estimador de f. La búsqueda de estimadores con razón de
convergencia más rápida ha decidido a algunos investigadores a
relajar la restricción en la integral en lugar de la no
negatividad. Gajek (1986) propuso un esquema simple por el cual
cualquier estimador de densidad que no tuviera una densidad
auténtica se puede hacer que converja a ésta.
17
1.2 - ESTIMACIÓN MEDIANTE EL HISTOGRAMA DE FRECUENCIAS.
Tradicionalmente, el histograma se ha utilizado para
proporcionar un índice visual de la forma de f. Supondremos que
f tiene un soporte A= [a,b], donde a y b son tales que abarcan
todos los datos observados. Para el cálculo del histograma se
realiza una partición de A en franjas no superpuestas:
Ti = tVi' V¡+i)' c o n i = 1/2,...,m , donde
a= tn ,,< tn 2< ...< t „„..,= b, y donde los extremos tní> dependen
del tamaño muestral n. Si ITi es la función indicador del
subintervalo i-ésimo y si H. es el número de valores muéstrales
encontrados en Ti (i= l,2,...,m), ( £ N,-= n ) , entonces el
histograma queda definido por
m
esta estimación satisface (0.1). Si la amplitud del intervalo
hn= t -+1- tn ,• (i=l,2, . . . ,m) es la misma, entonces
1 m
V*>= -ér E NiirM)- (2.2) lula i=l
Sin embargo, como un estimador de la densidad el histograma
presenta algunos defectos, que incluyen, la naturaleza fija de
la partición, las discontinuidades en los extremos de los
subintervalos y sobre todo la sensibilidad de la forma del
histograma a la elección de un origen.
18
2.1. Propiedades estadísticas.
El histograma es un estimador máximo-verosímil basado en la
muestra aleatoria y constituido por funciones quebradas con nudos
en los puntos tn1,..., ^ 1 / ver De Montricher, Tapia y Thomson
(1975) y Tapia y Thompson (1978) para versiones más generales del
histograma.
Bajo ciertas condiciones de f y de fhn, Scott (1979) y
Freedman y Diaconis (1981) demostraron que si hn->0 y nhn-«» si
n-"», entonces E.C.M.I->0 y se minimiza asintóticamente para
6 h\=
i 1 3 n 3. (2.3)
f °°[f'(x)]2dx J —00
La razón de convergencia E.C.M.I. óptima es 0(n~2/3),
substancialmente más lenta que la mayoría de las otras clases de
estimadores de densidad, lo que constituye el principal motivo
para no emplear el histograma cuando puedan emplearse otros
procedimientos de estimación. Devroye y Gyorfi (1985) demostraron
que fhn era fuertemente consistente para todo f y que la razón de
convergencia del E.A.M.I. era de orden 0(n"1/3).
2.2. Elección del ancho de caja.
Como h*n depende de la densidad desconocida f, puede
emplearse una estima de ésta función. Scott (1979) propone un
ancho óptimo aproximado íi*n= 3'49sn"1/3 donde s es la desviación
típica muestral y trabaja bien para muestras gaussianas mientras
que sobrealisa en otros casos. Freedman y Diaconis (1981)
sugieren ñ*n=2 (RIQ)n"1/3, donde RIQ es el rango intercuartílico de
19
los datos. A su vez, Taylor (1987) emplea el criterio de
información de Akaike para determinar un ancho óptimo. Scott
(1988) estudia formas de cajas hexagonales y cuadráticas para
histogramas bivariantes.
2.3. Estimadores relacionados.
Se puede alcanzar una razón de convergencia de E.C.M.I. más
rápida modificando la forma de los bloques del histograma. Los
estimadores que permiten obtener un orden de convergencia de
0(n"4/5) son los siguientes:
El histograma promediado variable de Scott y Thompson (1983)
y Scott (1985a) se construye promediando varios histogramas con
igual ancho de caja pero en diferente posición.
El polígono de frecuencias estudiado por Scott (1985b), se
construye uniendo los valores de mitad del intervalo por líneas
rectas.
El histo-quebrado de Boneva, Kendall y Stefanov (1971) es
una quebrada cuadrática cardinal ajustada al histograma.
El histograma ponderado propuesto por Vítale (1975) y
Gawronski y Stadtmuller (1980), en que los conteos en los
intervalos son ponderados mediante probabilidades de Poisson
empíricas.
20
1.3 - EL ESTIMADOR NÚCLEO.
El estimador núcleo de densidad multivariable de f tiene la
forma:
donde xeRd ; la elección de la función K y el ancho de ventana
h=hn> 0 determina el comportamiento del estimador núcleo como
estimador de f. Silverman (1982a) y Jones y Lotwick (1984)
recomiendan la transformación rápida de Fourier para calcular
(3.1) en el caso univariable. Como se aprecia en su expresión el
estimador núcleo abarca las propiedades de la función núcleo
siendo por tanto de gran importancia que K tenga buenas
propiedades.
Para que una función K(x) se considere función núcleo debe
cumplir ciertas propiedades (Nadaraya, 1989):
a) Kx) =K(-x)
b) ¡K(x) dx=l
c) sup \K(x) \<.A<<*> -<*><x<°°
d) fxiK(x)dx=0, i=l, s-1
con s par y mayor o igual que 2;
e) fxsK(x) dx*0
f) fxs\K(x) \dx<<*>
La clase más sencilla de núcleos consiste en las funciones
de densidad de probabilidad. Es decir, las que satisfacen (1.1).
Si se emplea un núcleo de esta clase en la estimación, fn siempre
21
será una auténtica densidad. Las funciones núcleo más conocidas
incluyen el núcleo Gaussiano con soporte no acotado y los núcleos
polinomiales con soporte compacto
K(x)= *„<l-|x|*)T[Wsl],
kzs= 7ñ7 5 „ / x > r>0. SZO. (3.2) zs 2B(s+l,l/r)
(Ver Izenman, 1991).
La estima de densidad del núcleo triangular ( r=l, s=l) está
asintóticamente relacionada con el histograma promediado variable
ya que el primero se obtiene como limite de este último cuando
el número de histogramas variables tiende a infinito. Los núcleos
multivariables (xeRd) suelen ser densidades unimodales
radialmente simétricas tales como el Gaussiano,
K(x)= (2it)"d/2 e"^(X'X), (3.3)
y el de Barlett-Epanechnikov,
cd= nd/2T[(d/2)+l] . (3.4)
Cacoullos (1966) y Nadaraya (1989) proponen productos de
funciones núcleo univariables donde K(x)= ndj=1 K(Xj) . Este método
es el empleado en los estudios con datos reales de Kasser y Bruce
(1969) y Scott, Gotto, Colé y Gorry (1978).
3.1. Propiedades estadísticas.
Devroye (1983) emplea el enfoque L1 para demostrar que el
estimador núcleo es fuertemente consistente si K satisface las
condiciones (0.1) y además hn->0 y nh-*» cuando n-«» sin
22
condiciones sobre f. Devroye y Penrod (1984) también demostraron
que, para el caso univariante, la razón de convergencia del
E.A.M.I. era de orden 0(n"2/5). Hall y Wand (1988) obtuvieron con
este planteamiento las expresiones explícitas del E.A.M.I. mínimo
y del parámetro de alisado óptimo.
Siguiendo el planteamiento 1^ y bajo ciertas condiciones de
regularidad de K y f, Parzen (1962) demostró que si hn-»-0 cuando
n-«» entonces el estimador núcleo es asintóticamente insesgado y
asintóticamente normal. Cacoullos (1966) demostró que la
expresión asintótica de E.C.M.I. en el caso d-dimensional era
minimizada por todo hcn= a(K)/?(f ) n~1 / ( d + 4 ) que cumpla las condiciones
de regularidad y E.C.M.I.-+0 con razón de convergencia de orden
0(n"4/(d+4)) . La razón de convergencia es más lenta a medida que
aumenta el número de dimensiones. Resultados adicionales sobre
la consistencia fueron obtenidos por Hall y Hannan (1988).
3.2. Elección del núcleo.
Si bien el núcleo de Barlett-Epanechnikov minimiza el
E.C.M.I. asintótico óptimo, Marrón y Nolan (1987) comprobaron la
insensibilidad del E.C.M.I. a la forma de K. Otros estudios
debidos a Kazakos (1980) se inclinan por una función núcleo de
soporte compacto [-T, T] y con ancho de banda que minimizan la
cota superior de Wahba (1975) para el ECM,
K(x)= (1+a"1) (2T)-1 [1-T"a|x|a],
donde a= 2-p-l y p> 1.
Sin embargo las tendencias actuales consisten en investigar
tipos más exóticos de núcleos. Los desarrollos más importantes
23
conciernen al orden de las funciones núcleo, definido por la
existencia de ciertos momentos de K. Son interesantes aquellos
núcleos que presentan varianza nula lo cual sólo puede obtenerse
si K toma valores negativos, tales funciones reducen el sesgo y
mejoran la razón de convergencia del E.C.M.I. ya que ésta, si K
es de orden s, tendrá un orden de 0(n"2s/2s+1) . Hall y Marrón (1988)
consideraron la selección óptima del orden s. Otro resultado
importante obtenido por Schucany y Sommers (1977) es el empleo
del método "jacknife" generalizado usando estimadores tipo núcleo
de orden cuatro, lo que permite reducir el sesgo, la varianza o
ambos con un menor ECM asintótico.
3.3. Elección del parámetro de alisado.
El principal foco de investigación en estos momentos lo
constituye la determinación del parámetro de alisado o ancho de
ventana óptimo. Como hcn depende explícitamente de la función f
desconocida a través de /3(f) no se puede calcular exactamente.
Se han propuesto varios procedimientos para estimar el parámetro
de alisado donde j0(f) se emplea para estimar /3(f) con diferentes
resultados ( Scott y Factor, 1981 ; Scott y Terrell, 1987).
Un método automático muy empleado es el de validación
cruzada (VC). El algoritmo empleado consiste en extraer un valor
de la muestra y calcular la estima de la densidad en ese punto
a partir de los restantes valores muéstrales,
^ 2 (n-l) h f£ \ h )
eligiéndose, a continuación, un criterio de optimización para
24
determinar h. Los dos criterios que se han empleado son el de
validación cruzada máximo verosímil (VCV), para encontrar un
valor de h que maximice la función de pseudo verosimilitud, L(h) =
IIfhi(Xi)/ y la validación cruzada mínimo cuadrática (VCC) para
encontrar el h que minimice MC(h)= J(fh)2dx -(2/n)Sfh • (X-) .
Marrón (1987b) proporciona una excelente revisión de varios
métodos de cálculo del parámetro de alisado.
Se ha demostrado que cuando el núcleo se define en un
intervalo cerrado, VCV proporciona estimas consistentes de
densidades (definidas también en intervalos cerrados, ver por
ejemplo, Chow, Germán y Wu, 1983) mientras que no sucede esto en
estimas de densidades de soporte infinito (Schuster y Gregory,
1981). Hall (1987a) estudia la compleja influencia que las colas
de K y f tienen sobre la VCV. Estudios de simulación de Scott y
Factor (1981) indicaron que el VCV conducía frecuentemente a
estimas de densidad sobrealisadas o subalisadas siendo además muy
sensible a datos anómalos.
La VCC no precisa condiciones rigurosas sobre las colas de
f y K para probar su optimalidad asintótica (Hall, 1983a y Stone,
1984) . Hall y Marrón (1987a y b) demostraron que el ancho
obtenido con este método trabaja tan bien asintóticamente como
el hcn óptimo, el cual, es realmente inalcanzable, si bien el
algoritmo converge muy lentamente.
La alta variabilidad de las estimas VC en relación al
muestreo llevan a Terrell (1990) a proponer que se elija la
estima más alisada que sea compatible con la escala estimada de
la densidad.
25
3.4. Estimadores relacionados.
Aplicando ideas del análisis secuencial al estimador de
densidad núcleo, Deheuvels (1973) llega a los estimadores
secuenciales en que se emplea el muestreo secuencial; el
estimador núcleo se calcula en cada tamaño de muestra hasta
satisfacer cierta regla de convergencia. Un estimador relacionado
es el estimador de densidad recursivo (se obtiene calculando fn
a partir de fn.1) que fue introducido por Wolverton y Wagner
(1969) y Yamato (1971); Sus propiedades teóricas fueron
estudiadas posteriormente por Prakasa Rao (1983).
1.4 - ESTIMACIONES BASADAS EN PROCESOS DE ALISADO LOCAL.
Los métodos de estimación descritos anteriormente son
relativamente insensibles a peculiaridades regionales de los
datos, tales como agrupaciones locales y dispersión de datos en
algunas zonas, particularmente en las colas. Los estimadores que
se exponen a continuación soslayan este inconveniente.
4.1. El histograma de particiones variables.
Originalmente sugerido por Wegman (1969, 1975), el
histograma de partición variable se construye de forma similar
al de partición fija pero en este caso la partición depende de
los espacios entre los estadísticos ordenados (X(1),..., X(n)) . Se
puede obtener la partición de tal manera que cada intervalo
contenga aproximadamente k valores muéstrales (k=n/m, m es el na
26
de cajas del histograma) . Entonces para un xe[X(1)/ X(n)],
?=t (X -xn \VX)- u'1]
Devroye y Gyorfi (1985) demostraron que si k=kn-»°o y k n- O cuando
n- «>, entonces la f anterior es un estimador fuertemente
consistente para el procedimiento K,. Resultados similares para
Lj se encuentran en Prakasa Rao (1983) y Kogure (1987) . El radio
de convergencia para el E.C.M.I. del estimador (4.1) es 0(n"2/3),
el mismo orden que para el caso de partición fija.
4.2. Estimadores basados en bloques estadísticamente
equivalentes.
Una versión multivariable del histograma de partición
variable fue concebido por Gessaman (1970) y aplicado por
Gessaman y Gessaman (1972) a la discriminación no paramétrica.
Se define el estimador sobre una partición del espacio muestral
en bloques estadísticamente equivalentes, analogía multivariable
del espacio entre dos estadísticos de orden contiguo, y cada
cuadrado de probabilidad Bn es la unión de, aproximadamente, kn
bloques estadísticamente equivalentes que contiene kn
observaciones. Si Bn es un cuadrado de probabilidad acotado y
xeBn entonces, f(x)= [ky (n+1) ]/Area(Bn) . Sobre cuadrados de
probabilidad sin acotar se estima f como 0. Gessaman (1970)
demostró que si kn-»oo y k n- 0 cuando n-"» entonces el estimador es
débilmente consistente para f. La razón de convergencia y la
elección óptima para kn no han sido determinadas aún.
27
4.3. El método de los puntos más próximos.
Fix y Hodges (1951) propusieron el estimador por puntos más
próximos. Dado un punto x y fijado un entero k, sea Dk(x) la
distancia euclídea de x a su k-ésimo punto más próximo entre los
X.,,..., Xn, y sea Volk(x)= Cd[Dk(x)]d el volumen de la esfera d-
dimensional de radio Dk(x) donde Cd es el volumen de la esfera
unidad d-dimensional. El estimador de densidad por puntos más
próximos viene dado por
*M= T, y ? x • (4-2)
Volk(x)
Una ventaja de éste estimador es que siempre es positivo aún en
regiones donde los datos están muy dispersos. Loftsgaarden y
Quesenberry (1965) probaron su consistencia si k= kn-+oo y k n- O
cuando n-+<». Abramson (1984) propuso, para el caso d-dimensional,
la elección de un kn proporcional a n4/(d+4), y con constante de
proporcionalidad en función de x. Moore y Yackel (1977) y Mack
y Rosenblatt (1979) analizaron el sesgo y la varianza del
estimador (4.2) . Rosenblatt (1979) estudió el comportamiento
global de las estimas generalizadas de f por éste método que se
reveló adecuado para estimar la densidad en un punto pero no para
la función completa de densidad. El estimador (4.2) conduce a una
estima de densidad discontinua y con integral infinita debido a
sus grandes colas. Estas dificultades hacen imposible el estudio
de sus propiedades en L,, (ver Devroye y Gyorfi, 1985) .
28
4.4. Estimadores de núcleo variable.
El estimador de núcleo variable fue estudiado para evitar
los problemas del estimador por puntos más próximos y se definió:
J-i « jk \ nJk )
donde el ancho de ventana variable H¡k= hDk(x) no depende de x
como en el estimador (4.2), h es el parámetro de alisado y k
controla el comportamiento local de Hjk. Si K es una densidad
auténtica el estimador (4.3) también lo es y tiene las ventajas
de poseer las propiedades de alisado del estimador núcleo y el
carácter de adaptabilidad a los datos del estimador por puntos
más próximos con un pequeño aumento de cálculos. Meisel lo
propuso por primera vez siendo estudiado empíricamente por
Breiman, Meisel y Purcell (1977) que en un estudio de simulación
comprobaron el mal funcionamiento del estimador a menos que k
fuera grande (del orden de O'ln). Las condiciones para la
convergencia fueron obtenidas por Wagner (1975) y Devroye (1985) ;
Devroye y Penrod (1986) probaron la consistencia fuerte uniforme
del estimador (4.3).
4.5. Estimadores de núcleo adaptado.
Abramson (1982a,b) propuso un algoritmo en dos pasos para
el cálculo de un ancho de ventana que se adaptara a los datos.
Primero se obtiene una versión abreviada, f°h que se construye de
una estima de densidad núcleo f°h piloto con un ancho de ventana
fijo h para definir en el paso siguiente el estimador núcleo
29
adaptado como
donde hj= h[f°h(Xj) ]"1/2. Silverman (1986) propone un valor distinto
del parámetro 11,-= h[ (1/g) f°h(X¡) ]'", donde g es un factor de escala
tal como la media geométrica de f fX,.) [i= l,...,n] y 0< a< 1
refleja la sensibilidad del ancho de ventana a las variaciones
y a la estima piloto. Hall y Marrón (1988) establecen otro valor
hf= hF[ f °hp(Xf) ]"1/2, donde h es el parámetro de alisado de la
estima piloto y hF el de la estima final. Esta modificación tiene
una razón de convergencia del E.C.M. muy rápida.
1.5 - ESTIMADORES CON SERIES ORTOGONALES.
Estos estimadores de densidad fueron introducidos por Cencov
(1962) y han sido aplicados desde entonces a diferentes áreas
especialmente reconocimiento de patrones y discriminación y
clasificación asi como para estimar densidades multivariables.
5.1. Desarrollo ortogonal arbitrario.
Este método asume que una función de cuadrado integrable
puede ser representada por desarrollo en series ortogonales
convergentes,
oo
f(x)=^2 ak<pk(x) , xeQ, (5.1)
donde q>k es un sistema ortonormal completo de funciones en un
conjunto íl de la recta real (esto es, que satisfagan
30
¡a<p. (x)<pk(x)dx= <Sjk, donde S-k es la S de Kronecker) y ak> son
coeficientes definidos por ak= Ef[<p*k(X)], donde <p*k es el complejo
conjugado de <pk. Esta formulación tiene en cuenta sistemas de
funciones ortonormales de valores reales o complejos. Los
sistemas ortonormales propuestos para <pk son con soporte
compacto (como el de Fourier, trigonométrico y los sistemas de
Haar en [0,1] y el sistema de Legendre en [-1,1]) y aquellos con
soporte no acotado [como el sistema de Hermite en R y el de
Laguerre en [0,w)].
Tomando una muestra independiente X1, . . . , Xn de f y un
sistema <Pk, ak puede estimarse insesgadamente por
á*= i; ¿<P¿(*i>- (5.2) 12 2=1
El estimador obvio de f, obtenido de sustituir (5.2) en (5.1) en
lugar de ak, no está bien definido ya que su varianza sería
infinita y además no es consistente según el criterio E.C.I. Por
ello, se han estudiado estimadores de la forma
oo
£(*)=£ bkák(pk(x) , XEÜ, (5.3) jc=-«
donde, 0< bk< 1 es un peso simétrico que traslada ák hacia el
origen, y S|bk|< oo es una condición necesaria para la
convergencia de (5.3). Ver Watson (1969), Rosenblatt (1971),
Brunk (1978) y Hall (1986). Johnstone y Silverman (1990) usaron
estos estimadores con series ortogonales restringidas en un
estudio de estima de densidad bivariante (distribución de la
glucosa en el cerebro) eligiendo bk=l si -r< k< r (siendo r el
número de términos del desarrollo) y 0 en otro caso. Wahba (1981)
considera un sistema biparamétrico de pesos, bk=[l+A (27rk)2m]"1 para
31
-r< k< r, donde A> 0 es un parámetro de alisado y m> 1/2 es un
parámetro determinado. Otros sistemas de pesos son discutidos por
Hall (1987b) y Lock (1990). Para estimar bk>, Wahba (1981)
propone la V.C.V. y Hall (1987b) la V.C.C.
5.2. Propiedades estadísticas.
El estimador de series ortogonales para densidades con
soporte no acotado más empleado es el estimador de series de
Hermite. Las funciones Hermite normalizadas:
(p*(x)= ck(x)Hk(x) (£=0,1,2, ...) ,
c = exp[ -x 2 / 2 ] k (2kk\U1/2)1/2
Hk(x) = (-l)ke~x2/2 (e-*2) (polinomio k-ésimo de Hermite) , dxk
forman bases ortonormales para un planteamiento L2. Hall (1987b)
estudia su relativa insensibilidad frente al comportamiento
inusual de las colas de X. Schwartz (1967) demostró que si r= rn,
en las series ortogonales restringidas, satisface que r n-t-O si
rn~K>0' entonces el E.C.M.I.- O si n-n»; además si rn= 0(n1/q) para
q> 2, entonces el E.C.M.I.= 0 (n"(1"1/q)) , que presenta una ventaja
de estos estimadores frente a los estimadores núcleo al no
depender de la dimensión de los datos; sin embargo, el sistema
Hermite no constituye una base según el planteamiento L.,.
Si f tiene soporte compacto [0,1], se tiene el conocido
estimador con series de Fourier o trigonométricas, que es la
parte real de los estimadores de series ortogonales restringidos,
y está formado por el sistema de funciones discretas de Fourier,
32
definido por <pk(x)= e2irikx [k= 0,1,2,...]. Whaba (1975a, 1975b,
1981) y Hall (1981) estudiaron la influencia de la periodicidad
y el efecto Gibbs sobre las estimas de densidad con las series
de Fourier. Devroye y Gyorfi (1985) probaron que bajo ciertas
condiciones de f y si r^n-^0 cuando rn-*oo, entonces el E.A.M.I.-+0
si n- oo.
5.3. Elección del número de términos.
El comportamiento y alisado de los estimadores con series
ortogonales restringidas dependen del número de términos en el
desarrollo (r). Kronmal y Tarter (1968) proponen una regla de
parada óptima, término a término, para la elección de un r que
minimice el E.C.M.I. estimado. Crain (1973) señaló las
desventajas de esta regla y Hart (1985) comprobó con estudios de
simulación que llevaba a estimas sobrealisadas. Hart (1985),
Diggle y Hall (1986) y Lock (1990) propusieron algunas mejoras
de esta regla.
1.6 - ESTIMADORES DE DENSIDAD DE SECUENCIA DELTA.
Muchos de los estimadores de densidad descritos
anteriormente se pueden considerar casos especiales de este tipo
de estimador no paramétrico.
Sea SX(X,Y), (X,YeR), una función acotada con índice el
parámetro de alisado A>0. La secuencia (5A(X,Y) se llama
secuencia 5 sobre R si j 6x(X,Y)<p(y)dy-*<p(x) cuando A-*» para cada
función 0 sobre R infinitamente diferenciable. Cualquier
33
estimador que se pueda escribir en la forma
íAU)= - ¿ S ^ U , ^ ) , XER, (6.1) 11 2=1
donde SX(X,Y) es una secuencia 6, se llama un estimador de
densidad de secuencia 6. Asi los histogramas, los estimadores
núcleo y los estimadores con series ortogonales pueden expresarse
de la forma (6.1). En algunos casos (como histogramas y series
ortogonales) A. será un entero, que representa el número de
términos en un desarrollo; mientras que en otros (como
estimadores núcleo) es un número real. Estos estimadores fueron
estudiados por Whittle (1958); Watson y Leadbetter (1964)
demostraron que son estimadores de la densidad asintóticamente
insesgados. Walter y Blum (1979) y Prakasa Rao (1983) dieron una
extensa lista de casos especiales y establecieron las razones de
convergencia para el E.C.M. Marrón (1987a) utilizó los
estimadores de secuencia S como un medio de comparar diferentes
estimadores de densidad.
1.7 - ESTIMADORES DE MÁXIMA VEROSIMILITUD RESTRINGIDA.
La aplicación del método de máxima verosimilitud no puede
proporcionar un único resultado cuando la clase de densidades H
sobre la que se maximiza la verosimilitud no está definida. Por
este motivo se estudiaron estos estimadores en los que se añaden
restricciones en H o en la función de verosimilitud L.
34
7.1. Métodos de orden restringido.
Consideramos primero un orden de restricción sobre H, por
ejemplo densidades que son monótonas decrecientes sobre el
intervalo [0,«>) que son especialmente importantes en los
problemas de supervivencia. Grenander (1956) demostró que el
estimador máximo-verosimil para una densidad no decreciente sobre
[0,oo) era una función escalonada con saltos en los estadísticos
de orden X(i). Más concretamente, si Fn es la función de
distribución muestral entonces el estimador máximo-verosimil de
una densidad no decreciente es el mínimo de la máxima pendiente
de la Fn cóncava, expresado
- v min max F„(XÍH) -F„(XtiS) sst-1 tsi X(t)-X(i) U 1] ()
y 0 para x< 0 y x< X(x). Este estimador es fuertemente consistente
para f monótona decreciente (Groeneboom, 1983). Devroye (1987)
estableció la razón de convergencia, 0(n1/3), para el E.A.M.I.
Barlow, Bartholomew, Bremner y Brunk (1972) y Denby y Vardi
(1986) proponen diferentes métodos de cálculo de (7.1) y Birge
(1987a,b) expone métodos alternativos para estimas de densidad
decreciente.
Para estimar densidades unimodales con el método de orden
restringido se supone, en principio, la moda conocida e igual a
0. Como una densidad unimodal f es no decreciente en los x
anteriores a la moda y no creciente después, basta considerar
sólo la estima máximo verosímil de f+ que es la densidad
condicional sobre el intervalo [0,«). Un razonamiento similar se
emplea para f.. La estima máximo-verosímil de f viene dada
35
entonces por
£= &t+(i-&)£_
donde f+ es la parte correspondiente al mínimo mayorante de la
Fn cóncava, y f. es la parte del mínimo mayorante de la Fn
convexa y 0< á< 1 es la proporción de valores muéstrales que
pertenecen a [0,oo) . ver Robertson, Wright, y Dykstra (1988) .
7.2. Método de cribas.
En este método se selecciona un parámetro de criba h> 0 y
para cada criba escogemos un subconjunto Sh de densidades para
las que existe un estimador máximo-verosímil. Una vez calculado
el estimador se deja crecer , de alguna forma, el subconj unto Sh
con el tamaño muestral n, mientras que se permite que h=hn->0
cuando n-«» de tal forma que la convergencia a una función de
densidad queda asegurada. A la secuencia Sh de estos
subconjuntos se le llama cribas. El método fue introducido por
Grenander (1981) y desarrollado posteriormente por Geman y Hwang
(1982) y Walter y Blum (1984) . Como en los demás estimadores que
dependen de un parámetro de alisado, el método de cribas depende
de la secuencia de los parámetros criba, los cuales tienden a 0
con razón suficientemente lenta (Grenander, 1981). Se ha
demostrado que este método lleva a estimas consistentes en el
sentido L. aunque no se han determinado razones de convergencia.
36
7.3. El método de máxima verosimilitud penalizada.
El método más popular para estimaciones de densidad
restringidas máximo verosímiles penaliza la función de
verosimilitud por la producción de estimas de densidad groseras
(ver Good y Gaskins, 1971) . Si $ es un funcional de penalización
dado, no negativo, y definido sobre H, la verosimilitud $-
penalizada de f se define como:
L(f)= ñf^Je"*^. (7.2) 2=1
El problema de optimización de la función definida en (7.2)
o su logaritmo se resolverá con las restricciones feH(n),
J0f(t)dt= 1, y f(t)> 0 (Vteíi) . Si existe una solución, f, de ese
problema se le llama estimador máximo verosímil penalizado (MVP)
de f correspondiente a la función de penalización $ y a la clase
de funciones H. Good y Gaskins observaron que el método de máxima
verosimilitud penalizada podía interpretarse para cierto tipo de
problemas como cuasi bayesiano ya que (7.2) se asemeja a una
densidad a posteriori para un problema de estimación paramétrica.
De Montricher, Tapia y Thompson (1975) establecieron
rigurosamente la existencia y unicidad de la estima de densidad
MVP y demostraron que este método estaba íntimamente relacionado
con los métodos de quebradas, el estimador es una quebrada
polinomial con saltos sólo en los puntos muéstrales, si f tiene
soporte finito.
Cuando f tiene soporte infinito el problema es más
complicado. Good y Gaskins propusieron funcionales de
penalización diseñados para estimar la raíz de la densidad g=f1/2,
así f=g2 sería un estimador no negativo y auténtico de f. Los
37
funcionales de penalización fueron
* x ( f ) = 4a r t s r ' U ) ] 2 dx. a>0 (7.3)
* 2 ( . f ) = 4 a f " [g r /U) ] 2 dx + p f" [gr"(x) ] 2 dx, (a*0, p*0) , (7.4) •r — oo J -co
donde los parámetros a y /3, con <*+/?> 0 en (7.4), controlan el
promedio de alisado. El problema consiste en este caso en elegir
uno de estos funcionales, Good y Gaskins prefirieron (7.4)
basándose en la penalización por este funcional de la curvatura
y la pendiente de la estima de la densidad. En trabajos
posteriores Good y Gaskins (1980) y Good y Deaton (1981)
establecieron a=0 y j8 lo determinaban de los datos. Klonias y
Nash (1983) y Klonias (1984) investigaron una clase muy general
de funcionales, que incluían (7.3) y (7.4) como casos especiales,
cuya motivación primaria fue mejorar la estimación de los picos
y los valles de f.
Para la función de penalización (7.3) y para un valor dado
de a, De Montricher et al. (1975) demostraron que, si el problema
de optimización está correctamente planteado, entonces el
estimador resultante es único y además es una quebrada
exponencial con saltos sólo en los valores muéstrales. Klonias
(1982) demostró la consistencia del estimador determinado con
este funcional en varias normas diferentes, incluyendo L., y L2.
Silverman (1978) sugiere un método gráfico para la determinación
de a. Con la función de penalización (7.4) y valores dados de a
y /3, la estima resultante existe y es única si se establece un
planteamiento correcto del problema de optimización. Good y
Gaskins dieron algunas recomendaciones para los parámetros en
este caso que funcionaban bien en sus ejemplos.
38
Silverman (1982b) desarrolla una estima MVP distinta y que
también garantiza una densidad auténtica empleando una
penalización basada en el funcional g=logf, y demostró que su
método llevaba a un amplio rango de posibles estimas de densidad
probando la existencia, consistencia y normalidad asintótica de
los estimadores resultantes.
La implementación del método MVP depende de la calidad de
las soluciones numéricas para los problemas de optimización
restringida. Como g=f1/2 es de cuadrado integrable, Good y Gaskins
(1980) sugirieron el empleo de mezclas de desarrollos
ortonormales para g, terminando el desarrollo en algún número
finito de términos. Scott, Tapia, y Thompson (1980) estudiaron
una aproximación discreta a las soluciones quebradas de los
problemas MVP y probaron que el estimador discreto resultante
existe, es único, converge al estimador MVP quebrado y es un
estimador puntual fuertemente consistente de f.
1.8 - ESTIMACIÓN DE DENSIDAD POR BÚSQUEDA DE PROYECCIÓN.
Los estimadores de densidad núcleo multivariables tienden
a funcionar mal cuando se manejan datos de dimensión alta ya que
son necesarios tamaños muéstrales extremadamente grandes para
igualar el tipo de fiabilidad numérica que es posible conseguir
en dimensiones bajas. Para soslayar este inconveniente Friedman
y Stuetzle (1982) y Friedman, Stuetzle y Schoeder (1984)
desarrollaron la estimación de densidad por búsqueda de
proyección (EDBP) . El método EDBP ha mostrado en simulación
excelentes propiedades, publicándose varias aplicaciones a datos
39
reales.
8.1. El paradigma EDBP.
Cuando se trabaja con pequeñas muestras de alta dimensión
el procedimiento EDBP puede iniciarse restringiendo la atención
al subespacio comprendido por las primeras componentes
principales significativas (ver Friedman, 1987 y Jee, 1987). Un
EDBP de f se forma entonces empleando el siguiente procedimiento
iterativo. Primero. se transforman los datos para centrar el
origen y que la matriz de las covarianzas sea la identidad.
Segundo, se elige f<0) para que sea una estima de densidad
multivariable inicial de f, usualmente se toma la multivariable
Gaussiana. Tercero, se encuentra la dirección a.,eRd para la cual
el módulo de la densidad marginal fa1 a lo largo de a, difiera más
de la marginal fa1 estimada a lo largo de a.,. La elección de la
dirección no será única en general. Cuarto, dado a1 se define una
función incremento univariable g1 (a^x) como el cociente de las
dos funciones de densidad marginales de la forma,
g1(a1Tx)= fa1 (a/xj/f a1 (at
Tx) , y se actualiza la estima inicial
f(1)(x)= f <0>(x)g1 (a/x) . Se repite este procedimiento sobre la
estima de la densidad modificada, f(1)(x) así como con una
segunda dirección a2eRd, la función incremento g2(a2
Tx) =
fa2(a2Tx)/fa2(a2
Tx) y se modifica de nuevo la densidad, siendo
f (2)(x) = f (1>(x)g2(a2Tx) . El procedimiento se repite tantas veces
como sea necesario y en la k-ésima iteración tendremos
40
£(k) (x) = $(Jc'1) (x) gka£x) = £0) (x) ft gj (a/x) , (8.1)
que será la última estima de densidad multivariable, donde
gj(ajTx)= faj(aj
Tx)/faj(ajTx), j= 1, 2, ..., k.
En (8.1) los vectores a- son direcciones de longitud
unidad en Rd y las funciones incremento (o cresta) g. son
empleadas para construir la estructura de f<0) de manera que f<k)
converja a f en algún sentido adecuado cuando k-«». El número de
iteraciones k opera como un parámetro de alisado y se determina
una regla de parada equilibrando el sesgo frente a la varianza
de la estima. Friedman et al. (1984) sugirieron la inspección
gráfica de las funciones incremento como un criterio para
terminar el procedimiento iterativo.
El cálculo de las funciones incremento ha sido discutido por
diversos autores. Dado a- se estima f • proyectando primero los
datos muéstrales a lo largo de la dirección a- obteniendo asi
z^a^Xj (i= 1, 2, ..., n) y luego calculando una estima núcleo de
densidad a partir de z¡. Se emplea el muestreo de Monte Cario
para calcular faj., seguido por una estima de densidad núcleo.
Alternativas al alisado con núcleo serían las funciones quebradas
cúbicas (Friedman et al., 1984) y los histogramas promedio
variables (Jee, 1987).
8.2. índices de proyección.
El EDBP funciona mediante un Índice de proyección,
usualmente de la forma
I(f)= fj(f(z))f(z)dz= Ef [J(f)]t (8.2)
41
donde J es un funcional de alisado de valores reales y z es una
versión unidimensional proyectiva de x. I(f) será absolutamente
continuo con primeras derivadas fáciles de calcular. Proyecciones
de interés corresponden a valores grandes de I(f) mientras que
a los valores pequeños le corresponderían proyecciones aleatorias
o sin estructura.
Las estimas de I(f) conllevan cálculos rápidos que no son
afectados por la estructura de covarianza de los datos, datos
anómalos o grandes colas (ver Huber, 1985). Friedman (1987)
apuntó la necesidad de encontrar los máximos "substantivos" de
I(f) con una mejora numérica muy fiable y minuciosa, ya que
fluctuaciones muéstrales conducen a encontrar óptimos inadecuados
entre una multitud de máximos locales. Si z,- son los datos
proyectados, entonces (8.2) se estima por
Í(f)=/J(f (z))dFn(z) = (l/n)SJ(f (z,.)). Así si J(f (z) ) =f (z) ,
entonces I (f )=/[f (z) ]2dz puede estimarse por í (f ) = (l/n)Sf h(z¡) ,
donde fh es una estima núcleo con ancho de ventana h; ver
Friedman y Tukey (1974) y Tukey y Tukey (1981). Otra elección
propuesta por Friedman et al. (1984) es tomar J(f(z))=logf(z),
así que I(f)=/f(z)logf(z)dz y (8.2) puede estimarse en la
iteración k-ésima por (l/n)Sf(k) (z,-) . Joe (1987) discutió la
estimación núcleo de funcionales tales como (8.2) y demostró que,
para tamaños moderados de muestra, las propiedades estadísticas
de í mejoraban con correcciones de sesgo o por empleo de un
núcleo reescalado.
Otros índices de proyección que también se han empleado
incluyen un índice momento basado en la suma de cuadrados del
tercero y cuarto orden muestral de los datos proyectados (Jones
42
y Sibson, 1987) y el criterio ECI (Friedman, 1987 y Hall, 1989a).
Procedimientos posteriores diferían sobre la conveniencia de
transformar primero los datos proyectados o no. Friedman empleó
el ECI entre la densidad de los datos transformados proyectados
y la densidad uniforme mientras que Hall empleó el ECI entre la
densidad de los datos proyectados sin transformar y la normal
estándar. Ambos usaron estimadores de densidad de series
ortogonales para estudiar sus índices de proyección.
Cada uno de los índices expuestos se definió para
aplicaciones específicas. Así, Friedman y Tukey buscaron un
índice para evidenciar agrupaciones y también desviaciones de una
densidad parabólica; el índice de entropía buscaba desviaciones
de la normalidad de los datos proyectados ya que la distribución
normal maximiza la entropía; el índice momento y el criterio ECI
también buscan desviaciones de la normalidad.
43
CAPITULO 2:ESTIMACIÓN DE LA DENSIDAD BASADA EN
FUNCIONES NÚCLEO
2.0 - INTRODUCCIÓN.
2.1 - TIPOS DE FUNCIONES NÚCLEO.
2.3 - MÉTODOS DE DETERMINACIÓN DEL ANCHO DE VENTANA.
3.1. Método de Scott, Tapia y Thompson, 1977.
3.2. Método de validación cruzada.
2.4 - ELECCIÓN DE LA FUNCIÓN NÚCLEO Y DEL ANCHO DE
BANDA MAS APROPIADOS EN FUNCIÓN DE LAS
CARACTERÍSTICAS MUÉSTRALES PARA MUESTRAS
PEQUEÑAS.
4.1. Funciones núcleo y anchos de banda
empleados.
4.2. Selección del conjunto de problemas para
comparación
4.3. Comparación de los núcleos y anchos de
ventana
4.4 Resultados
2.5.- ELECCIÓN DE LA FUNCIÓN NÚCLEO Y DEL ANCHO DE
BANDA MAS APROPIADOS EN FUNCIÓN DE LAS
CARACTERÍSTICAS MUÉSTRALES PARA MUESTRAS
GRANDES.
5.1. Selección del conjunto de problemas para
comparar.
5.2. Comparación de núcleos y anchos de banda
5.3. Resultados.
CAPITULO 2
ESTIMACIÓN DE LA DENSIDAD BASADA EN FUNCIONES NÚCLEO
2.0 - INTRODUCCIÓN.
De los estimadores mencionados los mejor estudiados
matemáticamente (y para los que existe un mayor número de
aplicaciones a datos reales), son los basados en la definición
de una función núcleo. Para su empleo es necesario elegir tanto
el "núcleo" como un valor del parámetro de alisado, ambos
determinarán la expresión final de la función de densidad
estimada.
El núcleo es una función K(x), a partir de la cual se puede
establecer el siguiente estimador no paramétrico de cualquier
función de densidad f(x) (Rosenblatt, 1956):
donde hn es el parámetro de alisado y X1# ..., Xn los datos
observados.
Las propiedades que debe cumplir una función núcleo se
recogen en el capitulo 1 (1.3).
46
El parámetro de alisado hn, también llamado "ancho de
ventana" o "ancho de banda", es un número positivo que tiende a
cero con la condición de que si n->- a>, entonces hnxn-> a>.
La determinación del ancho de ventana se realiza de forma
que se minimice algún tipo de error. Hall y Marrón (1988)
proponen minimizar la integral del error cuadrático sobre el
rango de variación de la variable aleatoria:
EMC=f[£(x)-f(x)]2dx, (0.2)
y Devroye y Gyorfi (1985) minimizar la integral de las
diferencias en valor absoluto entre el estimador y la función:
ABSEMC=f \£(x)-f(x)\dx. (0.3)
Sin embargo, el proceso de minimización de estas medidas es
substancialmente más complejo (ver por ejemplo Izenman, 1991) que
la optimización de la medida propuesta por Rosenblatt (1971), la
cual se define como el error cuadrático medio integrado (o el
riesgo medio de la función de pérdida cuadrática entre la función
y su estimador); y toma la siguiente expresión:
u(hn)= ¡E[fn(x, hn)-f(x)]2dx. (0.4)
2.1. - TIPOS DE FUNCIONES NÚCLEO.
Cualquiera de los estimadores no paramétricos a que nos
hemos referido en el capitulo 1 puede emplearse en la estimación
de funciones de densidad unidimensionales. El uso más frecuente
47
de los estimadores núcleo es debido a la aplicabilidad del método
y al conocimiento de muchas de sus propiedades. Estas dependen
fundamentalmente de la función núcleo empleada siendo, por tanto,
de gran interés una elección apropiada de esta función.
A continuación se recogen las funciones núcleo más
frecuentes pudiendo agruparse de la siguiente forma:
A) Núcleos polinomiales o de Lecrendre.
En general responden a la forma K(x)= P(x), |x| < I, donde
P es un polinomio y K(x)= 0 para |x| > I. Dentro de este grupo,
por su frecuente aparición podemos destacar:
(1) Núcleos uniformes:
K(x)= 1, si |x|< 1/2. (Deheuvels, 1977).
K(x)= 1/2, si |x|< 1. (Rosenblatt, 1956).
(2) Núcleos de Epanechnikov (1969):
K(x) = 1- x2, si \x\< 1
K(x)= -A_ 1-^|, si \x\< 5 4v/5 V =»
(3) Núcleos de Legendre (Deheuvels, 1977)
De orden 1,
K(x) = — ( 3 - 5x2) , si \x\< 1 o
De orden 2 ,
K(x) = -^- (15- 10x2+ 63x4) , si \x\< 1. 1 < G O
48
(4) Núcleo polinomial de orden 4:
K(x) = H ( l - - x 4 ) , si |x|< 1 16 3 ' '
B) Núcleos de Gram-Charlier (Deheuvels. 1977):
Su expresión general es K(x)= P(x)exp -x2/2, siendo P un
polinomio. Los ejemplos más importantes son:
(1) Núcleo normal o Gaussiano:
K(x) = —^e 2
^J2^z
(2) Núcleos de Gram-Charlier:
De orden 1,
K(x) =2(i-*?-)-J-e~~* 2 3 J2Ü
De orden 2,
8 3 15 ^
x2
C) Núcleos de Lacruerre (Deheuvels, 1977) :
Responden a la fórmula general K(x)= P(|x|)e"lxl, siendo P un
polinomio. Los más conocidos son:
(1) Núcleo de Picard:
K(x)= -e"W
49
(2) N ú c l e o de L a g u e r r e de o r d e n 1:
K(x) = \YY~ 3|X|+ 3|e-M
D) Otros núcleos;
(1) Núcleo de Cauchy de orden r (Deheuvels, 1977)
?2r-2 f ( r\2
K(x) = ¿ M r ;
w(2r-l) (l + x2)r
(2) Núcleos de Kazakos (1980):
De fórmula general,
K(x)- ( a + 1 ) ( 1 - W a > , si \x\<l
para a= 1 se obtiene el núcleo triangular, K(x)= 1- ¡x| y si a=
2 tendremos K(x)= 3/4 (1- x2) .
(3) Deheuvels, 1977:
K(x) = e
2T(l/a) '
(4) Núcleo de Fejer-de la Vallée Poussin (Scott, Tapia
y Thompson, 1977):
K(x) =M^\2
(5) Núcleo de Jackson-de la Vallé Poussin (Deheuvels,
1977):
50
1977) :
(6) Núcleo de Fourier (Davis, 1975):
K(x) =^[^\
(7) Núc l eo d e l c o s e n o ( E p a n e c h n i k o v , 1 9 6 9 ) .
K(x) = cosx, si \x\< -n.
(8) N ú c l e o p r o p u e s t o p o r Blackman y Tukey , 1959
K(x) = 0 .54+ 0.46COS7IX, si \x\< 1 .
(9) N ú c l e o p r o p u e s t o p o r N a d a r a y a , 1989 .
K(x)= - L - - ^ . si \x\< y/6. V6 6
(10) N a d a r a y a , 1989 :
K(x) =<
| - 8 x 2 + 8 | x | 3 , | x | < - |
|(1-|*|)3, ±£\X\£1
0, |x|>l
(11) El núcleo biponderado (Scott, Tapia y Thompson,
K(x)= 41 i1" * 2 ) 2 ' si W< 1. 16
Para este trabajo, la selección de núcleos se realizó a
partir de los estudios de Deheuvels (1977) y Davis (1975), y de
la frecuencia de aparición de estas funciones en artículos
científicos de estimación de la densidad, se eliminaron aquellas
que no ofrecían resultados prácticos según estudios precedentes,
y se utilizaron las más comunes y aquellas para las que no se
encontraron referencias de aplicaciones prácticas. Las elegidas
fueron trece de estas funciones: las funciones polinómicas
51
exceptuando el polinomio de Legendre de orden 2, los núcleos de
Gram-Charlier, el núcleo de Picard, el triangular, el núcleo
biponderado, el de Blackman-Tukey y los encontrados en el libro
de Nadaraya (1989).
Una posterior selección condujo a la eliminación de aquellos
núcleos cuya derivada s-ésima fuera nula (siendo s el orden de
la función núcleo) y los que generaban funciones estimadas con
valores negativos relativamente abundantes, como es el caso del
núcleo
K(x)= — ( 1 - - x 4 ) , si \x\< 1. 16 3 ' '
El resultado de estas selecciones iniciales es el análisis
de 8 de las funciones núcleo anteriormente citadas y que se
ennumeran a continuación, recogiéndose también en la tabla I los
valores de s y [[xpKr]]= ¡: xpKr(x)dx.
Tabla 2.1. Funciones núcleo.
Función n ú c l e o
iq=-
- | - 8 x 2+ 8 | x | 3 , | x | < - |
| ( l - | x | ) 3 , \i\x\il
0, | x |> l
2 2
s
2
2
[ [K 2 ] ]
0 . 9 6
1 / 4
[ [xsK] ]
2 1 7 / 3 6 5
2
52
Función núcleo [ [K2 ] ] [ [ X S K ] ]
3 3x2
b, \x\>V5
5^5
r _/0 /54+0 /-46cos i t x , * 1 > 1 3 / 4
K5 = - 2
/ 2Ü 2y/%
3 ,„ x 2 , 1 fi = 4(l-^)
2 6 2 721F
27
327Í" - 3
15 ^--^(l-j*^**) 12%
2 6 2 5
2048x/Jí"
1 5
^ J i f d - X 2 ) 2 , |x|*l 41o, |x|>l
1 6 / 2 1 1 / 7
Tabla 2.1. (continuación)
53
2.3 - MÉTODOS DE DETERMINACIÓN DEL ANCHO DE VENTANA.
Una elección correcta del ancho de ventana es fundamental
para btener una buena estimación de la función de densidad. De
la mayoría de los estudios realizados con las funciones núcleo
(Epanechnikov, 1969; Scott, Tapia y Thompson, 1977; Deheuvels,
1977) y de las conclusiones que aporta este trabajo se puede
concluir una escasa insensibilidad del E.C.M.I. a la estimación
con distintas de estas funciones. Sin embargo, la importancia del
parámetro de alisado se ha resaltado en diferentes trabajos (ver
por ejemplo Scott et al., 1977 y Silverman, 1986). Valores altos
del ancho de ventana sobrealisan las funciones y valores pequeños
proporcionan un ajuste extremado a los valores muéstrales.
El cálculo del parámetro de alisado más adecuado ha sido
abordado por diferentes autores de formas diversas. Se puede
considerar un valor óptimo del parámetro de alisado a aquel que
minimice algún tipo de error, o bien, al que haga máxima una
cierta función de pseudoverosimilitud. Se recogen a continuación
algunos de los métodos más empleados para la estimación de este
valor.
3.1. Método de Scott, Tapia y Thompson, 1977.
El procedimiento más utilizado consiste en estimar el valor
del parámetro hn de forma que se minimice el ECMI dado por la
ecuación (0.4). Para los estimadores núcleo esta función puede
expresarse como:
54
u(h^ -srj*(x)* *hl cu» / |f(s) (x) | d x + O 1 xfc2S
nA , ( 3 . 1 )
(Nadaraya 1989). Minimizando esta expresión se encuentra el
óptimo asintótico del parámetro de alisado que depende de la
densidad desconocida f, de la función núcleo elegida y de la
muestra. El valor óptimo viene dado por la fórmula:
siendo:
hn=A(K)B(f)n (2S+1) , (3.2)
A (J0 = ¡K2 (x) dx
2s ' fxsK(x) dx'
si
(2S+1)
(3.3)
B(f)=\J\fs) (x) \2dxJ (2S+1) (3.4)
Este valor no puede obtenerse en el caso real de estimar una
densidad desconocida por el método núcleo, ya que depende de la
derivada de orden s de dicha función. Se hace preciso, por tanto,
estimar el óptimo.
Para ello se han propuesto diferentes algoritmos, utilizando
el estimador núcleo de la función de densidad y el procedimiento
automático de validación cruzada (VC).
Scott et al. (1977) han propuesto un algoritmo que consiste
en emplear el estimador f<s)n (derivada s-ésima de la función
estimada) que, según Nadaraya (1989), es asintóticamente
insesgado de f<s) y, a continuación se aplica el algoritmo
iterativo siguiente: Primero se toma una estima inicial de hn,
por ejemplo el rango muestral, y la denominamos h°n. Segundo, con
55
este valor se estima la derivada de la función de densidad, f(s)0 .
Tercero, se calcula el valor h1n con la ecuación (3.4) empleando
la estimación anterior. Cuarto, se repiten los pasos anteriores
de tal forma que para la iteración i-ésima tendremos:
i
hÍ+1=A(K)B(f¿)n <2S+1) , (3.5)
que proporciona una secuencia de valores de hn que convergen al
valor óptimo. Se requieren por regla general de tres a quince
iteraciones para obtener hn1+1- hn' < 10'
3.
3.2. Método de validación cruzada.
Este procedimiento (VC), parte del estimador núcleo de la
función de densidad en los valores muéstrales según la
ecuación,
para optimizar, a continuación, una de las siguientes funciones:
MC(h) = f[£n(h,x)]2dx- I j f ^ ^ ) , (3.7)
L^=II^iUi)- (3-8) i
denominándose, respectivamente, el método de estimación de hn
como validación cruzada mínimo cuadrática (VCC) o validación
cruzada máximo verosimil (VCV).
56
A) Validación cruzada mínimo cuadrática.
La idea de Rudemo (1982) y Bowman (1984) es la de minimizar
la expresión (3.7), que es el resultado de eliminar términos no
dependientes de hn en la expresión general del ECI.
U(hn)= f[fB(x. hn)-f(x)]2dx=
= ff2n (x, hn) -2J(fnf) (x) dx+ff2 (x)dx. (3.9)
El último término de esta expresión no depende del parámetro de
alisado y puede observarse que el segundo término también se
puede expresar de la siguiente forma:
f(fnf) (x)dx= Ex[fn(X,hn)] , (3.10)
para estimar esta media se define un nuevo estimador
Ex[ínX,hn)= 1 ¿4n,i<*i)' (3.11) " i=i
obteniendo de esta forma la expresión a minimizar.
El estimador de hn por VCC es asintóticamente insesgado (ver
Stone, 1982 y Scott y Terrel, 1987)
B) Validación cruzada máximo verosímil.
El criterio de la elección de hn por máxima verosimilitud
consiste en maximizar la función L(h)= ük f (xk) , obteniéndose
para el estimador núcleo la solución h=0, correspondiente a la
estimación con una función de Dirac para cada punto muestral.
En este caso Duin (1976) y Hermans y Habbbema (1976)
modifican este criterio adoptando el de maximizar la función
57
(3.8) que llamaremos de pseudoverosimilitud.
Los procedimientos bayesianos para optimizar una función
f(x,w), continua en x y medible en w, donde:
x e A c Rm (R conjunto de números reales), y
w c Q (espacio muestral).
a partir de una serie de muestras (xf ,yf), y,-=f (x5) , suponen
definir una regla de decisión (d) que, a partir de un vector de
observaciones zn=(xi,yi i=l, . . . ,n) , permita determinar un xn+1 más
próximo al óptimo. Esta regla de decisión se calcula para
minimizar el riesgo de la decisión R0(d):
R0(d)=ff(xn+1(d) ,w)P(dw)-íopt f(x,w)P(dw) . (3.12)
El segundo término de la expresión anterior es constante, por
tanto la minimiza ion del riesgo supone minimizar el primer
término, que llamaremos k(x); con lo cual:
xn+1e arg opt k(x) . (3.13) XGA
La aplicación del modelo adaptativo es posible al sustituir
la condición de consistencia de Kolmogorov por las de continuidad
de las funciones muéstrales, homogeneidad de P e independencia
de las diferencias parciales (ver Mockus, 1988 o Benveniste et
al, 1990). Bajo estas hipótesis se induce una distribución P
gaussiana con media jx constante y matriz de covarianzas
dependiente sólo de la distancia entre valores muéstrales; en
estas condiciones:
58
k(x)=a2/(\x-c) . (3.14)
La definición de un modelo adaptativo supone referir la
función a optimizar a funciones con soporte en intervalos
convexos de los valores muéstrales:
fx)=fi(x)¡ xeAi; ÚAd=A; A¿rU,=0; i*j¡ i=l,...,n (3.15) i=l J
si f. (x) es una función estocástica gaussiana, /nx' será el valor
observado yi en Air y la varianza una función de la distancia
entre cualquier x y la realización muestral xi; por tanto:
ki(x)=ai/(\ii-c) , (3.16)
donde oi=a2Q g(\\x-x1||) y \ii=yi
De los resultados anteriores se puede deducir:
xn+1e arg min opt a*/ (n¿-c) (3 .17)
con la única restricción de continuidad de las funciones ki (x):
A¿=lx": k¿ (x) úkj (x) , j=l,...,rít. (3.18)
Desde un punto de vista operativo, dado un conjunto de n
realizaciones muéstrales (x^yj), y en el caso de que x
pertenezca a R1, para el cálculo de xn+1 basta determinar los xk
tales que:
giU^W) =9(\\xrxk\) yrc yj-c J
El valor xk con menor yk, determinará el siguiente punto de
muestreo xn+1. La convergencia de este algoritmo está asegurada
59
(Ljung, 1978).
La determinación del ancho de banda por maximización de la
función de pseudo-verosimilidad es inmediata aplicando este
algoritmo. Es suficiente determinar dos realizaciones muéstrales
de partida h1 y h2, que correspondan a los valores mínimo y
máximo posibles del ancho de banda. Estos valores se corresponden
con x1 y x2, de forma que y^Líh.,) e y2=L(h2) . A continuación se
puede calcular h3 mediante la aplicación de la expresión (3.19)
y continuar hasta que el algoritmo converja.
2.4.- ELECCIÓN DE LA FUNCIÓN NÚCLEO Y DEL ANCHO DE BANDA MAS
APROPIADOS EN FUNCIÓN DE LAS CARACTERÍSTICAS MUÉSTRALES PARA
MUESTRAS PEQUEÑAS.
Para elegir correctamente una de las funciones núcleo
propuestas y un ancho de banda, se realiza una comparación por
simulación en ordenador, del ajuste de distintas funciones
núcleo, con diferentes anchos de ventana, a muestras pequeñas
(n=25) caracterizadas por distintos parámetros muéstrales.
La comparación de la eficiencia de algoritmos por simulación
en ordenador presenta algunas dificultades:
-En primer lugar, deberán elegirse los algoritmos a
comparar; en nuestro caso ocho funciones núcleo y dos valores del
ancho de banda que pueden obtenerse sin conocer la distribución
de los datos (uno derivado de la minimización del error
cuadrático medio integrado y otro obtenido por validación
cruzada).
-En segundo lugar deberá seleccionarse un conjunto
60
representativo de problemas para la comparación de los
algoritmos, para lo cual se simularon 200 realizaciones
muéstrales procedentes de cinco distribuciones continuas, que se
agruparon en 10 clases en función de sus características
muéstrales.
-Por último, ha de definirse la "bondad o calidad" de los
algoritmos a comparar para elegir el mejor, en nuestro caso la
función núcleo y el ancho de ventana que mejor se adapten a cada
grupo muestral.
Para conseguir este objetivo, en cada una de las
realizaciones muéstrales se calculó una estimación de la función
de densidad con ocho funciones núcleo diferentes, y con anchos
de banda comprendidos entre 0*2 y 4»8. Posteriormente se calculó
el ancho de ventana con menores desviaciones medias en cada
grupo. Este ancho de ventana se comparó con los dos anchos de
ventana calculados para cada realización muestral. El análisis
del sesgo y la eficiencia de los valores del estadístico: "ancho
de ventana correspondiente al mínimo error medio por grupo de
muestras menos ancho de ventana óptimo correspondiente a cada
muestra" y de la bondad del ajuste de las funciones estimadas a
las distribuciones de partida, permite determinar la mejor
función núcleo a partir de las características muéstrales.
4.1. Funciones núcleo y anchos de banda empleados.
Existen numerosas funciones que cumplen las propiedades
necesarias para ser funciones núcleo. Para el presente estudio
se han escogido las ocho funciones K(x) de la tabla I.
61
Respecto a los parámetros de alisado se han considerado dos
valores para la simulación: el que se denomina en el presente
trabajo Óptimo.-1, que es un estimador del ancho de ventana que
proporciona un menor error medio integrado; y un segundo valor,
que denominamos Óptimo.-2, y que se obtiene por el método de
validación cruzada máximo verosimil.
4.2. Selección del conjunto de problemas para comparación
Una simulación extensiva por el método de Monte Cario
requiere encontrar algoritmos más rápidos que los actuales para
el cálculo de la estimación. Con objeto de comparar los distintos
núcleos se obtuvieron 200 realizaciones muéstrales sobre el
espacio de funciones continuas, con las siguientes
características:
l2) Se definieron cinco tipos de funciones de densidad que
se consideraron representativas del conjunto de funciones
continuas con soporte aproximado [0,1] (ver figura 2.1):
a) Distribución uniforme.
b) Distribución N(O15,0'2).
c) Distribución N(0'5,0'4).
d) Una distribución asimétrica a la izquierda, 6(3,6).
e) Una distribución bimodal, cuya función de densidad es 0'5
por la densidad de una N(0'25,0*125) mas la de otra
N(0,75,0'125).
62
€9
•uoTonqx.iq.sTp ap souoTouná *rz BanoTá
r—1- *
J
"M
in r»
T - 1 I «T •
,-JOT
2a) Se obtuvieron 200 realizaciones muéstrales de tamaño 25
sobre las mencionadas distribuciones de la siguiente manera:
primero se generaron 200 muestras de tamaño 25 de una
distribución uniforme (0,1) con diferente RUN-TIME; a
continuación se generaron otros 200 números aleatorios truncados
a enteros de 1 a 5 que representan a las cinco distribuciones de
partida; finalmente los datos uniformes se transformaron en las
muestras correspondientes a las cinco distribuciones utilizando
el GPSS (Chisman, 1992).
Para efectuar la comparación se ha procedido a agrupar los
200 conjuntos de datos, utilizando un método divisivo y
politético (Hill, 1975), en función de sus características
muéstrales. Para ello se obtuvieron la varianza, el coeficiente
de asimetría de Fisher, el coeficiente de apuntamiento y el
número de modas de las 200 muestras. La finalidad de esta
agrupación es determinar el comportamiento de las distintas
funciones núcleo en grupos homogéneos por características
muéstrales, de forma que puedan establecerse pautas de ajuste a
partir, simplemente, de estas características.
Para efectuar la comparación se ha procedido a agrupar los
200 conjuntos de datos, utilizando un método divisivo y
politético (Hill, 1975), en función de sus características
muéstrales. Para ello se obtuvieron la varianza, el coeficiente
de asimetría de Fisher, el coeficiente de apuntamiento y el
número de modas de las 200 muestras. La finalidad de esta
agrupación es determinar el comportamiento de las distintas
funciones núcleo en grupos homogéneos por características
muéstrales, de forma que puedan establecerse pautas de ajuste a
64
partir, simplemente, de estas características.
Para aplicar el método de agrupación se requiere partir de
una matriz presencia-ausencia de distintos descriptores para cada
uno de los 200 datos analizados. Los descriptores seleccionados
fueron:
Descriptor 1: Varianza alta, cuando la varianza de la
muestra es mayor que la varianza media
muestral mas la mitad de la desviación
típica muestral, (V> V+.5S )
Descriptor 2: Varianza media, (V e[ v-.5S, V+.5S] )
Descriptor 3: Varianza baja (V< v-.SS )
Descriptor 4: Asimetría alta, (As> As+.5SAs )
Descriptor 5: Asimetría media (As e [As-. 5SAs, As+. 5SAs] )
Descriptor 6: Asimetría baja (As< As-.5SAs )
Descriptor 7: Apuntamiento alto, (Ap> Ap+.5SAp )
Descriptor 8: Apuntamiento medio (Ap 6 [Ap-. SSj^, Ap+. 5SAp] )
Descriptor 9: Apuntamiento bajo (Ap< Ap-.5SA )
65
Descriptor 10 : Una moda
Descriptor 11: Más de una moda
Los descriptores definidos, se han seleccionado de forma que
permitan establecer la pertenencia de cualquier realización
muestral a los parámetros definidos. Incluso desde un punto de
vista cualitativo, es fácil establecer si una realización
muestral tiene varianza alta, media o baja, y proceder de
idéntica forma con la simetría y el apuntamiento; la
determinación del número de modas también es posible a la vista
del histograma de frecuencias.
A partir de esta matriz se procede a la clasificación
dicotómica de los datos de partida mediante la definición de dos
gradientes. El primer gradiente, obtenido mediante análisis
factorial de correspondencias, es el factor que absorbe máxima
variación y define una ordenación de las muestras seleccionadas
en función de todos los parámetros descriptores. El segundo
gradiente se forma a partir de los descriptores más
significativos en la ordenación del primer gradiente, y permite
la clasificación dicotómica de las muestras. Al mismo tiempo,
este segundo gradiente facilita la definición de un umbral que
permite la clasificación automática de cualquier otra realización
muestral en alguno de los dos grupos definidos a partir de los
valores cuantitativos de la varianza, el coeficiente de
asimetría, el de apuntamiento y del número de modas. El proceso
se repite iterativamente, en cada uno de los dos grupos
establecidos, hasta definir el número de grupos deseados (en
nuestro caso 10).
El resultado de aplicar este método de clasificación se
66
presenta en la figura 2.2. En el apéndice se presenta, también,
la pertenencia de las muestras analizadas a cada uno de los
grupos obtenidos
4.3. Comparación de los núcleos y anchos de ventana
Para proceder a la comparación de algoritmos se requiere
disponer de algún índice del error que se produce en cada grupo
por el hecho de aplicar diferentes funciones núcleo con distintos
anchos de ventana. Más adelante, se formulan algunas medidas en
este sentido. Por otra parte, la aplicación de estos Índices no
siempre permite determinar unívocamente la mejor función núcleo;
por este motivo, también se presentan medidas generales de la
bondad del ajuste de las funciones núcleo.
La principal dificultad para la obtención de una medida del
error en cada grupo muestral procede de que los grupos están
formados por muestras procedentes de diferentes distribuciones
de probabilidad; por tanto debe prescindirse de la utilización
del error medio integrado. Por otra parte, no basta con
determinar la función núcleo que mejor se adapte a las muestras
del grupo, es necesario definir un ancho de ventana adecuado.
67
Ap <
As = 10 (10)
Ap = As = , Ap <
Multimodal
Ap = , >
As >, <
As <
As >
11 (9)
12 (8)
13 (7)
14 (6)
1 Moda
Ap >
As > , Ap >
Ap = , <
15 (5)
1 Ap
As =
=
1 8
Ap
Ap
<
=
16 (4)
17 (3)
18 (2)
As < 19 (1)
Ap : Apuntamiento As : Asimetría V : Varianza
< : pequeño o bajo = : medio > : alto
Figura 2.2. Clasificación en grupos.
Entre paréntesis aparece la denominación de grupos adoptada para las figuras 3 y 4
68
Estas consideraciones aconsejan acudir a alguna medida del error
propia de cada realización muestral y establecer un promedio de
esa medida para todo el grupo, que sea función del valor del
parámetro de alisado. En este sentido, para cada una de las
realizaciones muéstrales, y cada función núcleo, se obtuvo el
error cuadrático integrado, para valores de hn comprendidos entre
0'2 y 4'8:
ECI= f[£Bx. hn)-f(x)]2dx. (3.20)
La media del ECI para las muestras de cada grupo, y cada núcleo,
que denominaremos MECIGN, es una función del ancho de banda y
proporciona una estimación del error por grupo al aplicar las
distintas funciones núcleo:
MECIGNi:¡ = — £ ([£kjnx,hn) ~fk(x) ] 2dx, (3.21)
donde G es el grupo i
j representa al núcleo j
nf es el número de muestras en el grupo i.
fk(x) es la función de densidad a partir de la que se
generó la muestra k, y
k representa a las distintas realizaciones muéstrales.
En la figura 2.3, se muestran los valores del MECIGN para los
10 grupos y los núcleos 1, 4 y 8, así como los valores del ancho
de banda para las muestras del grupo obtenidas por los
procedimientos óptimo-1 y óptimo-2.
69
MucIeo= -5 Grupo= 1
Opt.-l Opt.-Z
Hucleo= 0 Grupo= 1
Hucleo= 1 Grupo= 1
Opt.-l Opt.-Z
I ••! •
Opt.-l Opt.-Z
Figura 2.3a. MECING Grupo 1.
70
Hucleo= 4 Grupo= 2
Opt.-l Opt.-Z
Hucleo= 6 Grupo= 2
AHCHO DE BñHDft
Mucleo= 1 Grupo= Z
Opt.-l Opt.-Z
Opt.-l Opt.-Z
Figura 2.3b. MECING Grupo 2,
71
f1uclea= \ Grupo= 3
M III
• lili
Opt.-l Opt.-Z
Huclea= 8 Grupo= 3
ñMCHO DE BANDA
je • ni 11
i I « I 1 1
Opt.-l Opt.-Z
Mucleo= 1 Grupo^ 3
E R R 0 R
«i
i
H I I I
• l i l i
7
Opt.-l Opt.-Z
Figura 2.3c. MECING Grupo 3,
- 72
Hucleo= 4 Grupo= 4
• •mi
Opt.-l 0pt.-2
Nucleo= B Grupo= 4
Nucleo= 1 Grupo= 4
Opt.-l Opt.-Z
•••ni
Opt.-l Opt.-Z
Figura 2.3d. MECING Grupo 4
73
Nucleo= 4 Grupo= 5
•••••• •
• U I I
Opt.-l Opt.-Z
HucIeo= B Grupo= 5
Nucleo= 1 Grupo= 5
• • i i
• i i i
Opt . - l 0 p t . - 2
• • • ••
• i Bill I O p t . - l Opt.-Z
Figura 2.3e. MECING Grupo 5.
74
Hucleo= 1 Grupo= 6
•!• i
•ii i
Opt.-l Opt.-Z
Nuclea= 8 Grupo= 6
Hucleo= 1 Grupo= 6
Opt.-l Opt.-Z
Opt.-l Opt.-Z
Figura 2.3f. MECING Grupo 6,
75
Nucleo= 4 Grupo= 7
Opt.-l Opt.-Z
Hucleo= B 6rupo= 7
Hucleo= 1 Grupo= 7
t H M II Opt.-l Opt.-Z
Opt.-l 0pt.-2
Figura 2.3g. MECING Grupo 7
76
Nucleo= 4 Grupo= O
ANCHO DE BANDA
II «IM
• II Mil
Opt . - l Opt.-Z
Nudeo= B Grupo= 0
ANCHO DE BANDA
Opt . - l Opt.-Z
NucIeo= 1 Grupo= O
ftHCHO DE BANDA
•IIIH
• II MU Opt.-l Opt.-Z
Figura 2.3g. MECIN6 Grupo 8,
77
NucIeo= -4 Grupo= 9
• i i i i
•i I I I
Opt.- l 0pt . -2
MucIeo= B Grupo= 9
Opt.-l 0pt.-2
Hucleo= 1 Grupo= 9
6 fiMCHO DE BANDA
• • • I I I
i •• 111
Opt.- l 0p t . -2
Figura 2.3h. MECING Grupo 9
78
HucIeo= 4 Grupo= 10
»ii 11
Opt.-l Qpt.-Z
Hucleo= 8 Grupo= 10
Mucleo- 1 Grupo= ÍO
Opt.-l Opt.-Z
• • • i • •
• IIIIII
Opt.-l Qpt.-Z
Figura 2.3i. MECING Grupo 10,
79
El MECIGN también permite determinar un mejor valor medio
del parámetro de alisado para cada grupo y cada función núcleo
(h*G_N) . La comparación de este valor con los anchos de ventana
óptimo-1 y óptimo-2, en las realizaciones muéstrales de cada
grupo, puede proporcionar otras medidas del error. En este
sentido se definió una nueva variable que, para cada muestra del
grupo, representa la diferencia entre el mejor ancho de ventana
del grupo y el ancho óptimo definido por los dos procedimientos
independientes de la distribución de partida:
dk1 = h Gi-Nj ~ hk,01 (kl=1f ••• / nGi)
dk2= h*Gi-Nj - hk,o2 (^2=1, ... , nGj)
donde nGi es el número de muestras en el grupo i
N- representa el núcleo j.
hk 01 es el valor del ancho de ventana para la muestra
k, obtenido por el procedimiento óptimo-1.
hk 02 es el valor del ancho de ventana para la muestra
k, obtenido por el procedimiento óptimo-2.
La media y la varianza de esta variable, en cada grupo,
representa el sesgo y la eficiencia, respecto del mejor hn del
grupo al calcular automáticamente el ancho de ventana. Las
figuras 2.4 y 2.5 muestran estos valores para cada uno de los
ocho núcleos estudiados.
80
ÓPTIMO 1 Linea super ior SL'SKO, i n f e r i o r UAIÜftflZA
4—4- -I—I 4—I I I 4 - 4 -
6 - 1 G - 2 G - 3
G - 4 G - 5
l i l i G - 6
4—(- 4—)—1—1 G - 7
4 — I I 1 -'I G - 8 G - 9
I I I—1—1 G - 18
Figura 2.4. sesgo y Eficiencia del óptimo.-1.
81
UÍ'TIMU 2 Linea super ior SEÜGU. i n f e r i o r UARIAHZA
G - 1 I I I G - Z
I I- I—I—I-G - 3
l i l i
G - 4 G - 5 G - 6
-I—)—I—f- - I — í — l — — I — h -G - 7 G - 8
H—I—I—f—4-G - 9
G - 10
Figura 2.5. Sesgo y Eficiencia Óptimo.-2
82
Con objeto de comprobar la existencia de algún núcleo que
proporcione sistemáticamente mejores ajustes en muestras de
tamaño pequeño se ha estimado el error cuadrático medio integrado
para cada núcleo:
U(hn)= ¡E[£nU, hn)-f(x)]2dx, (3.22)
a partir de las muestras procedentes de la misma distribución de
partida:
ÜdAhn)= fiil/n,) £ [£kjn(x, hn)-fF.(x)]2dxf (3.23)
donde f Fi (x) es la función de densidad de la distribución Fi,
Fj=l, ... , 5
j representa al núcleo j,
n,- es el número de muestras generadas de la distribución
k representa a las distintas realizaciones muéstrales.
En las figuras 2.6 se muestran los resultados obtenidos para las
cinco distribuciones y los ocho núcleos estudiados. En el eje de
abcisas se representan también los intervalos de confianza, al
95%, de los anchos de banda óptimos obtenidos por los dos
procedimientos de optimización. La tabla 2.1 muestra los valores
del error U(hn) obtenidos para un ancho de banda correspondiente
a la media de los óptimos en muestras procedentes de la misma
distribución de partida.
83
t1ucIeo= Fdd= 1
Hucleo= Fdd= 1
O p t . - l 0 p t . - 2
O p t . - l 0 p t . - 2
Hudeo = Fdd= 1
Hucleo= 4 Fdd = 1
AHCHO DE BAMDA
Opt.-l 0pt.-2
Opt.-l 0pt.-2
Figura 2.6a. ECMI de-Distrib. 1 y los 4 primeros núcleos.
84
Hucleo= Fdd = 1
Hucleo= Fdd= 1
AHCHO DEBAMDft
Opt.-l 0pt.-2
Opt.-l Opt.-E
Hucleo= 7 Fdd= 1
Huclco= Fdd= 1
ANCHO DE BftHDft
Dpt.-l Opt.-Z
Figura 2.6b. ECMI de Distrib. 1 y los 4 últimos núcleos.
85
t1ucleo= 1 Fdd= 2
Nucleo= 2 Fdd= 2
Opt . - l 0pt . -2
Opt . - l 0 p t . - 2
HucIeo= 3 Fdd= 2
Hucleo= 4 Fdd = 2
Opt.-l 0pt . -2
Figura 2.6c. ECMI de Distrib. 2 y los 4 primeros núcleos.
86
Hucleo= 5 Fdd= 2
Mucleo= G Fdd= 2
Opt . - l 0p t . -2
HucIco= 7 Fdd= 2
Hucleo= Fdd = 2
fiMCHO DE BfiMDfi
O p t . - l 0pt.-2
Figura 2.6d. ECMI de Distrib. 2 y los 4 últimos núcleos.
87
HucIco= 1 Fdd= 3
HucIeo= 2 Fdd= 3
AHCHO DE BAHDA
Opt.-l Dpt.-Z
ANCHO DE BAMDA
Opt.-l 0pt.-2
HucIeo= 3 Fdd= 3
Mucleo= 4 Fdd= 3
Opt.-l Opt.-Z
Figura 2.6e. ECMI de Distrib. 3 y los 4 primeros núcleos.
88
Mucleo= 5 Fdd= 3
Nucleo= Fdd= 3
ANCHO DE BñNDñ
Opt.-l Opt.-Z
ANCHO DE BñHDñ
Opt.-l Dpt.-2
Huclco= 7 Fdd= 3
e
•
i
ANCHO DE BñHDñ í
Opt.-l 0pt.-2
1
E R R 0 R
e 1
Hucleo* G Fdd= 3
e
r
•
1
ANCHO DE BñHDñ 5
Opt.-l Opt.-2
E R R O R
Figura 2 .6 f . ECMI de D i s t r i b . 3 y l o s 4 ú l t imos núc leos .
89
Hucleo= 1 Fdd= 4
e
\ —
AHCHO DE BfiMDA 5
Opt.-l Opt.-Z
1
E R R 0 R
e
Hucleo= 2 Fdd= 4
0
—
ftHCHO DE BfiHDfi 5
Opt.-l Opt.-Z
Hucleo= 3 Fdd= 4
e
1
í —
ñHCHO DE BftHDñ í
i
Opt.-l • 0pt.-2
| 1
E R R 0 R
e
HucIeo= 4 Fdd= 4
6
/ • y
AHCHO DE BftHDñ 5
1 1 Opt.-l Opt.-Z
Figura 2.6g. ECMI de Distrib. 4 y los 4 primeros núcleos.
90
Huclco= 5 Fdd= 4
HucIco= 6 Fdd= 4
ANCHO D€ BANDA
E J) R
a H
Opt.-l Opt.-E
Dpt.-l üpt.-2
Hucleo= Fdd = 4
Muciea- 8 rdd= 4
Opt.-l 0pt.-2
Opt.-l Opt.-Z
Figura 2.6h. ECMI de Distrib. 4 y los 4 últimos núcleos,
91
HucIeo= 1 fdd= 5
Hucleo= 2 Fdd = 5
Opt.-l 0pt.-2
Opt.-l Opt .-2
Hucleo= 3 Fdd= 5
Hucleo= 4 Fdd = 5
fiMCHD DE BftHDfi
Opt. Opt.
Opt.-l Opt.-Z
Figura 2.6i. BCMI de Distrib. 5 y los 4 primeros núcleos.
92
Tabla 2.2. ECHZ para los dos métodos.
Núcleo
K1
K2
K3
K4
Distribc.
1
2
3
4
5
1
2
3
4
5
1
2
3
4
5
1
2
3
4
5
ü(Opt.-l)
0,1125
0,1250
0,1250
0,3750
0,1875
0,2625
0,5500
0,0500
0,8250
0,3875
0,3750
0,8125
0,0375
>0,9375
0,5000
0,1375
0,2500
0,1375
0,6250
0,2500
ü(Opt.-2)
0,1875
0,1500
0,1250
0,4875
0,2000
0,2750
0,5438
0,0563
0,8563
0,4130
0,4125
0,8375
0,0375
>0,9375
0,5375
0,1500
0,3125
0,1375
0,7500
0,2625
94
Núcleo
*5
K6
K7
K8
Distribc.
1
2
3
4
5
1
2
3
4
5
1
2
3
4
5
1
2
3
4
5
ü(Opt.-l)
0,3125
0,6875
0,0500
>0,9375
0,4250
0,2250
0,5625
0,0875
>0,9375
0,3250
0,1750
0,5000
0,1250
0,8875
0,3000
0,1500
0,2375
0,3250
0,6125
0,2500
ü(Opt.-2)
0,3313
0,7125
0,0500
>0,9375
0,4500
0,2500
0,6500
0,0875
>0,9375
0,3625
0,2000
0,5625
0,1250
>0,9375
0,3250
0,1375
0,3000
0,3250
0,6875
0,2625
Tabla 2.2. ECNI (Continuación)
95
Estos valores se han empleado para seleccionar entre las
ocho funciones núcleo las que, independientemente de la función
de partida, originen estimaciones con menor error. Esta selección
no debe depender de las distribuciones originarias ya que, en la
realidad son desconocidas, disponiendo sólo de los valores
muéstrales para tomar decisiones respecto a los algoritmos
investigados.
4.4 Resultados
El estudio de los errores MECIGN frente a distintos anchos
de ventana permite la selección de tres de los núcleos
investigados: K,, K4 y K8, en los cuales se obtienen menores
errores que con los restantes para todos los grupos de muestras.
Ninguno de ellos, sin embargo, proporciona mejores estimas,
respecto al MECIGN, que los otros para todos los posibles valores
del parámetro de alisado. Los errores MECIGN correspondientes a
los núcleos K4 y K8 son prácticamente iguales, pero difieren del
núcleo K,, siendo los errores mayores para este núcleo que para
los otros dos cuando se emplea un ancho de banda menor al óptimo.
Es necesario, por tanto, utilizar la información que
proporcionan los gráficos 2.4 y 2.5, respecto al sesgo y la
varianza de los estimadores del parámetro de alisado óptimo.
Entre los tres núcleos, se seleccionará aquel que posea una
varianza y sesgo mínimos para el grupo. Con este criterio se
elige el núcleo K,, para los grupos 1, 5, 6, 8, y 9 y e l K 8 para
los grupos 7 y 10. En los grupos restantes tampoco se puede
determinar el mejor núcleo con este criterio.
96
En estos casos, para elegir la mejor función núcleo se
recurre a las medidas del error medio cuadrático integrado, según
las cuales, en cualquier caso, la elección de K, supone un mínimo
error (tabla 2.2).
Como conclusión, la decisión más adecuada, sería elegir:
Para el grupo 1, el núcleo K,.
Para el grupo 2, el núcleo K1.
Para el grupo 3, el núcleo K1.
Para el grupo 4, el núcleo K,.
Para el grupo 5, el núcleo K,.
Para el grupo 6, el núcleo K,.
Para el grupo 7, el núcleo Kg.
Para el grupo 8, el núcleo K1.
Para el grupo 9, el núcleo K,.
Para el grupo 10, el núcleo K8.
Los dos estimadores del ancho de banda óptimo son
estimadores sesgados para un tamaño de muestra pequeño,
obteniéndose valores superiores al ancho óptimo, lo que origina
estimas sobrealisadas de la densidad; en general el ancho de
banda obtenido por el procedimiento 1 presenta mejores
aproximaciones que el obtenido por el procedimiento 2. Sin
embargo, las diferencias entre los anchos de banda obtenidos por
ambos procedimientos no son significativas. Los intervalos de
confianza al 99% para la razón de varianzas y para la diferencia
de medias entre los dos estimadores, son (para las 200
realizaciones muéstrales y los 8 anchos de banda):
Para la razón de varianzas, (O151797, l107847).
Para la diferencia de medias con varianzas iguales,
97
(-0'139309, 0'006769).
Puede aceptarse, por tanto, la igualdad en ambos casos. En cambio
no puede decirse lo mismo del tiempo de CPU requerido para su
cálculo.
La obtención de un ancho de ventana minimizando el riesgo
de las pérdidas cuadráticas (Óptimo.-1) supone un procedimiento
iterativo, cuya convergencia, en los problemas analizados
conlleva un promedio de 14 iteraciones. En cada una de estas
iteraciones se consume n(n-l) veces más tiempo (n es el tamaño
muestral), que en la obtención de la función de densidad
estimada. La determinación del parámetro de alisado que maximiza
la función de pseudoverosimilitud (Óptimo.-2) representa un
consumo de CPU mucho menor (un promedio de 7 iteraciones con un
tiempo por iteración de orden n) . Por todo esto, creemos
recomendable el empleo del estimador por validación cruzada
máximo verosimil y corregirlo, si fuera necesario, a la vista de
la función de densidad estimada, al menos para tamaños muéstrales
pequeños.
2.5.- ELECCIÓN DE LA FUNCIÓN NÚCLEO Y DEL ANCHO DE BANDA MAS
APROPIADOS EN FUNCIÓN DE LAS CARACTERÍSTICAS MUÉSTRALES PARA
MUESTRAS GRANDES.
Los resultados obtenidos para muestras de pequeño tamaño
pueden ser diferentes de los que se obtendrían con mayores
tamaños muéstrales. Los problemas que se plantean en este estudio
son idénticos que en el caso anterior, en cuanto a la selección
de los algoritmos y también del conjunto representativo de
98
problemas. Los algoritmos objeto de la comparación son las ocho
funciones núcleo seleccionadas para este trabajo y los dos
estimadores del ancho de banda que se emplearon en el caso de
muestras de pequeño tamaño.
En el caso de trabajar con muestras de tamaño grande (100),
el número de realizaciones muéstrales requeridas para obtener una
adecuada representación de todas las muestras posibles es
excesivamente elevado. Por lo que el criterio de selección de
muestras difiere sustancialmente del escogido en el caso de
muestras pequeñas.
Se seleccionó, en primer lugar, un grupo de funciones
paramétricas continuas, las más utilizadas en aplicaciones
forestales, y para cada una, con valores diferentes de los
parámetros, se generó una realización muestral de tamaño 100.
Idénticamente al caso anterior, las realizaciones muéstrales se
agruparon en función de sus características. Con las muestras
obtenidas se ajustaron funciones de densidad correspondientes a
los ocho núcleos y los dos estimadores del parámetro de alisado
óptimo. La comprobación de la bondad del ajuste de las funciones
estimadas a las distribuciones de partida se realizó a partir del
test de Kolmogorov-Smirnov, estableciendo, para cada uno de los
cinco grupos definidos por características muéstrales, una
función núcleo y un estimador del ancho de banda óptimo.
99
5.1. Selección del conjunto de problemas para comparar.
La elección de las distintas funciones de distibución se
basa en un criterio fundamentalmente práctico. Se consideran
funciones paramétricas continuas muy empleadas en la gestión
forestal. Las funciones de distribución exponencial, normal beta,
gamma y Weibull tienen una amplia aplicación en diferentes
sectores de la industria y la explotación forestal. Por este
motivo se han tomado como base para la generación de muestras
aleatorias de tamaño 100 considerando distintos valores de sus
parámetros.
Se generaron 5 muestras a partir de la distribución
exponencial, una para cada valor del parámetro:
f(x) = Xe~Xx
A.=l0#4#l#0/5/0
/0l
A partir de la distribución normal se obtienen 6
realizaciones muéstrales, combinando los valores de los dos
parámetros:
H=-2,0>
c^O'5,1,3
Variando los parámetros de la distribución beta se
obtuvieron 9 distribuciones distintas, generando con cada una de
ellas una realización muestral distinta:
100
t(X) B(«,P)
a=l,4,7
P =(3 , 6 , 8
Idénticamente se procedió con la distribución gamma:
f(x) =i|I P T(a)
a =l, 2, 5
P=fo'l,l,10
Finalmente se generaron 9 realizaciones muéstrales con
distintos parámetros de la distribución Weibull:
fx) = «^e-(f'
P«
a o'5,1'5,2)
p=o/ooi, 1,1000
Por este procedimiento se obtuvieron 38 realizaciones
muéstrales (recogidas en el apéndice) procedentes cada una de
ellas de distribuciones distintas y que se juzgaron
representativas de las funciones de densidad de probabilidad que
podrían encontrarse, al menos en la gestión forestal.
Estas realizaciones muéstrales se repartieron, según la
clasificación obtenida en función de las características
muéstrales reflejada en la figura 2.2, en cinco grupos.
A cada una de estas muestras de tamaño 100 se le ajustaron
101
funciones de densidad obtenidas con los ocho núcleos y con los
dos anchos de banda denominados óptimo.-1 y óptimo.-2.
A continuación, se procedió a comparar los resultados del
ajuste en cada uno de los casos.
5.2. Comparación de núcleos y anchos de banda
Para realizar una comparación entre núcleos y parámetros de
alisado, se procedió de forma distinta en el caso de muestras de
tamaño grande que en el de pequeño tamaño.
Teniendo en cuenta que cada realización muestral procede de
una distribución distinta, el ajuste de la función estimada a
partir de la muestra con el método núcleo deberá compararse con
la distribución origen de la muestra en cada caso.
Se ha tomado, en este caso, una medida del error basada en
el test de Kolmogorov. De la función de densidad estimada se han
escogido 30 puntos equiprobables, obteniéndose así una muestra
aleatoria simple de una variable aleatoria con distribución
continua desconocida. Con esta muestra calculamos el estadístico
»n= -oí<T«» \SnK)-Fjx)\ (5.1)
donde Sn(x) es la función de distribución empírica de la muestra
obtenida a partir de la función de densidad estimada y F(x) es
la función de distribución de partida.
Una vez obtenidos los valores de este estadístico se
comprobó que todos los ajustes podían aceptarse como buenos según
el test de Kolmogorov, para un nivel de significación de 0'05
(según las tablas de Massey para muestras finitas). En la figura
102
¡;j;,;t ¡a í«0,3) con kl y híASD
•Z'M%- '/y¿. '#%. >&'. ^ % # # % í ¿¿2 %& <%¿
valores estimados
Es tad ís t icos estimados de KOLMOGGECV
Kivel de s ign i f icac ión -
Dmax = 0.0302725 Drain = 0.0844333 DK = 0.0844333
-9 '
Ajuste a la N(0,3) con k2 y h(flSF)
Valores estimados
Es tad í s t i cos estimados de KOLMOGOKOV
Hivel de s ign i f i cac ión afro*. .= .1
Dmax = 0.0300485 M l n = 0.0755952 Dti'= 0.0755952
Figura 2.7a Ajuste con Kt y K2.
103
f r e c u e n c i
Ajuste a la ¡1(0,5) con tí y InASf)
m W4&, ^y-AA. 'AAA&yA
yyZyyyyyyyA,
I'AA ÍZ< ^A :• / AVs'A'/
%A&Z%%
¿AAA
A?A¿ VAZAAÁAA-A
yyy, yA AAy, //•>. yyy, yAAWA/ yAA, yAAWA/ W'ZA" AA> '<AA\ ....•'AW-'Ay, 7sA'yA"yy>y$. yy%'AVfiAyA
Valores estimados
Es tadís t icos estimados de KOLMOGOEOV
nivel de s ignif icación aprox.
Dmax. = 0.030329? Dmin = 0.0649256 DN = 0.0649256
Ajuste a la «(0,3) con 1:4 y MA3F)
Valores estimados
Es tad í s t i cos estimados de KCLM0G0R0V
Nivel de s isni ficacióri .aprox.
Dmax = 0.0302592 Dmin = 0.083317 DN =.0.083317
Figura 2.7b Ajuste con K3 y K4.
104
Ajuste a la N<0,3) con 15 y h(HSF>
>AA> 'AXAAAA 7Z<
-yAA\'?>Á
. , . . . AAAs. As'A, •AX%ÁAA)&^0%>
V0&# '¿fflfrffisAAZ'
^WAAÁyÁZ-VA 'AAA
'AA/.
Valores estirados
Es tad í s t i cos estimados de KOLMQCOSOV
Nivel d e ' s i s n i f i c a c i ó n aprcx.
'ímax. = 0.0307359 Ditin = 0.0550609 I'íí = 0.0650609
f r e c u e
•n
& í
Ajuste a la fi<0,3) con k6 y h(ftSF)
lll^JI|?£|
' Y//A \ WA . ^YA^A.
•i-'AA'i\
-9
Valores estimados
Es t ad í s t i cos estimados de KOLMOGOROV
Nivel de s i g n i f i c a c i ó n arrox. = 1
.Dmax = 0.0309274 Dmin = 0.0818834 CM = 0.0818834
Figura 2 .7c Ajuste con 1^ y K6.
105
Ajuste a la N(0,3) con Y.7 y h(ASF)
Valores estimados
Es tad ís t icos estimados de KOLM0S0ROV.
Nivel de-s igni f icac ión aprox. = i
Dmax = 0.05S53Í8 Bmin = 0.0845013 ¡>N = 0.0845013
Ajuste a la N(0,3> con k8 y h(ñSF)
Valores estimados
Es t ad í s t i cos estimados de KOLMO.GOECV
Nivel de s ign i f i cac ión aprox.
Dmax = 0.0300275 írain ¿ 0.0736467 Í)N ¿0.0736467
Figura 2.7d Ajuste con K7 y K8.
106
2.7 se recogen los resultados del test para la función de
densidad estimada con la realización muestral procedente de la
N(0,3), empleando el óptimo.-1 y las 8 funciones núcleo.
Seguidamente, se calculó, para cada uno de los dos anchos
de banda y para los ocho núcleos, la media y la desviación tipica
del estadístico D . así como el intervalo de confianza del 95%
para la media, en cada uno de los cinco grupos en que
clasificamos las realizaciones muéstrales, en función de sus
características.
Los resultados obtenidos para el óptimo.-1 y el óptimo.-2
se recogen en las tablas 2.3 y 2.4 respectivamente. De estos
datos se desprende que, como ocurría en el caso de pequeñas
muestras, la diferencia entre los dos anchos de banda es muy
pequeña en cuanto a resultados se refiere. Aún más pequeñas son
las diferencias entre los núcleos en la mayoría de los casos.
Esto puede ser posible gracias a la optimalidad asintótica de los
estimadores, tanto del ancho de banda, como de la función de
densidad empleados en este estudio.
El criterio de selección que emplearemos será, en
consecuencia, elegir aquellos algoritmos que consuman un menor
tiempo de CPU y que al mismo tiempo presenten mayor eficiencia
y menor sesgo en el ajuste.
107
NÚCLEO
GRUPO
61
62
63
64
65
K1
.0897018
.0297324
.0527711
.1266330
.0765486
.0262057
.0563994
.0966977
.0842520
.0303090
.0089603
.1595440
.0902045
.0122885
.0814115
.0989976
.1097070
.0295976
.0849559
.1344590
K2
.0813723
.0293618
.0449020
.1178430
.0693443
.0230778
.0516002
.0870884
.0761168
.0277161
.0072661
.1449670
.0779302
.0101712
.0706521
.0852082
.1004470
.0268212
.0780172
.1228760
K3
.0745776
.0245335
.0441045
.1050510
.0735507
.0685019
.0536081
.0833757
.0669197
.0262824
.0016306
.1322090
.0767269
.0146543
.0654595
.0879944
.0951104
.0269986
.0615753
.1286450
K4
.0849373
.0307975
.0466836
.1231910
.0735507
.0250883
.0542607
.0928407
.0812937
.0298185
.0072204
.1553670
.0815819
.0103451
.0741795
.0889843
.1038610
.0246166
.0832746
.1244470
Tabla 2.3. Valores ON con Opt.-l
108
NÚCLEO
GRUPO
Gl
G2
G3
G4
G5
K5
.0697642
.0256437
.0379121
.1016160
.0671230
.0173360
.0537936
.0804523
.0652296
.0263120
-.001331
.1305920
.0787802
.0143771
.0677259
.0898346
.0934612
.0269019
.0600463
.1268760
K6
.0859663
.0304584
.0481339
.1237990
.0718996
.0217876
.0551475
.0886517
.0830512
.0275055
.0147239
.1513790
.1533210
.0339762
.0214264
.2852160
.1130960
.0248597
.0869992
.1391930
K7
.0820062
.0309939
.0435055
.1205040
.0721299
.0185510
.0566164
.0876434
.0842807
.0272473
.0165947
.1519670
.1909550
.1726560
.0582032
.3237037
.1264110
.0383104
.0312428
.2215790
K8
.0792554
.0288246
.0437522
.1150590
.0682807
.0230347
.0505697
.0859917
.0726947
.0286071
.0016307
.1437590
.0744431
.0109610
.0660154
.0828709
.0971924
.0251270
.0761796
.1182050
Tabla 2.3. (Continuación)
109
NÚCLEO
GRUPO
Gl
G2
G3
G4
G5
K1
.0786701
.0457896
-.035077
.192418
.0872928
.0320528
.0474798
.1271060
.0754758
.0296135
.0019117
.1390400
.1371650
.1862360
.0039035
.2704270
.0985248
.0291327
.0623390
.1347110
K2
.0741329
.0396269
-.024305
.172572
.0810143
.0229360
.0445457
.1174830
.0674183
.0278461
.0017552
.1365920
.0790994
.0272279
.0581643
.1000340
.0899430
.0253602
.0584431
.1214430
K3
.0739934
.0375722
-.019341
.167328
.0798497
.0294182
.0433092
.1163900
.0645156
.0268843
-.002268
.131300
.0828600
.0348646
.0537040
.1120160
.0912097
.0280689
.0563452
.1260740
K4
.0756341
.0456625
-.037798
.189066
.0851468
.0331251
.0440019
.1262920
.0745999
.0282085
.0045260
.1446740
.0773338
.0115641
.0684424
.0862253
.0978426
.0296369
.0610304
.1346550
Tabla 2 . 4 . DN con O p t . - 2 .
110
NÚCLEO
GRUPO
61
62
63
64
65
*5
.0738353
.0393561
-.023931
.171601
.0804456
.0272957
.0435356
.1173560
.0667741
.0272957
-.001032
.134580
.0828422
.0330140
.0552338
.1104510
.0918716
.0284839
.0564917
.1272520
K6
.0728795
.0442930
-.037151
.182909
.0811141
.0324480
.0408104
.1214180
.0716033
.0264921
.0057933
.1374130
.0860172
.0224925
.0687230
.1033110
.0994583
.0291213
.0632867
.1356300
K7
.0746237
.0460645
-.039807
.189054
.0823909
.0315049
.0432586
.1215230
.0776865
.0258356
.0135072
.1418660
.1180200
.0471744
.0817488
.1542920
.1173780
.0345604
.0744506
.1603060
«8
.0878422
.0585410
-.043813
.613812
.2037970
.2564620
-.114756
.522350
.0745374
.0279729
.0050488
.1440260
.0770380
.0102136
.0691849
.0848911
.0971905
.0290323
.0611294
.1332520
Tabla 2 . 4 . (Continuación).
111
5.3. Resultados.
Los resultados para cada estimador del parámetro de alisado
son diferentes en cada grupo. Con el estimador que minimiza el
error cuadrático medio integrado, denominado óptimo.-1, la
función núcleo que proporciona un estadístico con menor valor e
intervalo de confianza para los grupos 1, 2, y 3 es K5 y para los
grupos 4 y 5, Kg. Con el estimador VCV, denominado óptimo.-2,
encontramos que K3 es la función con menor valor medio de Dn en
los tres primeros grupos, K8 en el grupo 4 y K2 en el 5.
Comparando estos resultados entre ambos valores del
parámetro de alisado observamos un menor error escogiendo el
óptimo.-1 en los 4 grupos primeros y el óptimo.-2 en el grupo 5.
Sin embargo, el tiempo de CPU consumido en el cálculo del
óptimo.-1 es considerablemente mayor que en el óptimo.-2. También
el soporte no acotado de K5 implica un mayor consumo de CPU que
el soporte acotado de K3.
Por ello se propone, para este caso, la elección del
óptimo.-2 en todos los grupos, y las funciones núcleo siguientes:
Grupo 1, núcleo K3.
Grupo 2, núcleo K3.
Grupo 3, núcleo K3.
Grupo 4, núcleo Kg.
Grupo 5, núcleo K2.
112
CAPITULO 3:APLICACIONES A EJEMPLOS FORESTALES DE
LOS RESULTADOS ANTERIORES
3.0 - INTRODUCCIÓN.
3.1 - TENSIÓN DE ROTURA A CORTANTE EN LINEAS DE
ENCOLADO.
1.1. Estimación de la función de densidad.
1.2. Estimación de los cuantiles.
3.2 - PLUVIOMETRÍA Y CRECIMIENTO DE MASAS
FORESTALES.
2.1. Estimación de cuantiles en la
pluviometría.
2.2. Estimación de las funciones de densidad
del crecimiento.
CAPITULO 3
APLICACIONES A EJEMPLOS FORESTALES DE LOS RESULTADOS
ANTERIORES
3.0 - INTRODUCCIÓN.
El conocimiento de la forma de la función de densidad es,
sin duda, de enorme importancia en la mayoria de las variables
que pueden llegar a considerarse en la gestión forestal. Sin
embargo, es frecuente que las variables utilizadas en trabajos
forestales no se ajusten bien a ninguno de los modelos
probabilisticos conocidos. En muchos casos se suele atribuir a
la variable una forma de función de densidad arbitraria, o lo que
es más frecuente, se consideran dos o más formas posibles,
escogiendo valores significativos intermedios, o bien, utilizando
una u otra de las formas escogidas sin bases de elección
adecuadas. Este es el caso de variables muy dispares como la
tensión de rotura de la madera, o las precipitaciones anuales.
La tensión de rotura de la madera es una variable aleatoria
cuyo modelo de probabilidad, en general, se supone normal,
lognormal o de Weibull. La precipitación anual, considerado el
113
año hidrológico (de octubre a septiembre) y no el año natural,
es una variable aleatoria cuya función de densidad es frecuente
asimilar a una normal, lognormal, gamma o de Gumbel. En estas
circustancias, se impone la necesidad de buscar otras formas para
la función de densidad de dichas variables. La estimación no
paramétrica de funciones de densidad proporciona técnicas
adecuadas para estudiar otras formas no sujetas a más restricción
que la propia muestra obtenida en el estudio de la variable.
El método, desarrollado en los capítulos precedentes, es el
de estimación no paramétrica con funciones núcleo. Del estudio
de una realización muestral concreta se obtiene la información
necesaria para elegir tanto la función núcleo, como un valor
concreto del parámetro de alisado. Esta elección nos permite
llegar a una estimación concreta de la forma de la función de
densidad para cualquier variable. En este capítulo aplicaremos
los resultados obtenidos en los capítulos anteriores a diversas
variables empleadas en trabajos forestales.
La estimación de los cuantiles poblacionales es de gran
interés cuando no se dispone de información suficiente para
suponer una forma paramétrica en la distribución subyacente. Un
estimador tradicional del cuantil poblacional es el cuantil
muestral. El principal inconveniente de los cuantiles muéstrales
es que presentan una sustancial falta de eficiencia causada por
la variabilidad de los estadísticos de orden indivisibles. Una
forma evidente de mejorar la eficiencia de los cuantiles
muéstrales es reducir esta variabilidad, formando un promedio
ponderado de todos los estadísticos de orden usando una función
de ponderación adecuada. El problema en este caso es elegir la
114
función peso. Una clase de estimadores de este tipo son los
estimadores cuantil núcleo, en que la función peso es una función
núcleo. A partir de los años setenta aparecen muchos trabajos en
los que se proponen diferentes estimadores núcleo. Un reciente
trabajo de Sheater y Marrón (1990) establece la equivalencia
asintótica de la mayoría de estos estimadores. Otro camino
diferente es el seguido por Azzalini (1981), que parte de un
estimador de la función de distribución para obtener los
estimadores de los cuantiles con esta distribución. Emplearemos
este último estimador en las aplicaciones estudiadas en este
capítulo.
3.1 - TENSIÓN DE ROTURA A CORTANTE EN LINEAS DE ENCOLADO.
La importancia de la resistencia de la madera en las muchas
aplicaciones de ésta justifica los numerosos ensayos que se
realizan para determinarla. Una importante aplicación de los
métodos núcleo es la estimación de la forma de la función de
densidad que toma una variable relacionada con la resistencia,
como es la tensión de rotura a cortante de las líneas de encolado
de la madera. Otra aplicación de este método es la estimación de
cuantiles, que nos permiten definir límites de tolerancia
adecuados para la tensión de rotura.
Los datos para el estudio de la resistencia proceden de
ensayos a cortante en línea de cola realizados sobre vigas de
madera laminada pertenecientes a una estructura puesta en uso.
Estos ensayos se realizan para evaluar la calidad del encolado
en estructuras de madera laminada encolada, según la norma pr.
115
EN 38 :"Madera laminada encolada.- Ensayo de cortante en líneas
de cola". (Datos procedentes de ensayos de control de calidad de
fabricación de la madera laminada encolada, realizados en el
laboratorio de Tecnología de la Madera de la E.T.S.I. de Montes
de la U.P.M.) Dicha estructura consta de vigas principales y
secundarias. El objeto del estudio es comprobar la calidad del
encolado de dichas vigas, por lo que se ha procedido a obtener
probetas de muestra en los extremos de los elementos descritos,
que componen la estructura. Estos elementos constan de láminas
de madera de abeto (Picea abies) de 33 mm de espesor unidas por
un encolado realizado con resorcina.
La eficacia de las piezas de madera laminada depende de la
calidad del encolado y de su fiabilidad. Por este motivo, el
control de calidad de su fabricación se dirige a ensayos de
encolado. Si el encolado es correcto, en la madera de abeto el
fallo de la unión encolada trabajando a cortante se produce por
la madera. Por tanto, en cierta medida, las tensiones de rotura
obtenidas coinciden con la resistencia a cortante de la madera.
Las vigas estudiadas disponen de 22 líneas de cola, unas y 35
líneas, otras.
Las dimensiones de las muestras obtenidas en cada viga son
diferentes por lo que no se considera la variable "carga de
rotura, en Kg", sino la tensión de rotura que es proporcional al
cociente entre la carga de rotura y la sección de rotura, siendo
necesario, para alturas inferiores a 50 mm introducir un
coeficiente de corrección de la tensión, k=0'78+0•0044h, (h en
mm) .
Para cada línea de cola se dispone de una tensión de rotura
116
de la línea, salvo algunos casos en que el elemento falló por
otros motivos. Así, se dispone para la estimación de la forma de
la función de densidad, de una muestra con 227 mediciones de la
tensión de rotura de la línea de cola en vigas de madera
laminada.
1.1. Estimación de la función de densidad.
En primer lugar se procedió a analizar los datos para
verificar, si éstos podrían suponerse pertenecientes a una
variable con función de densidad conocida. Para ello, se realizó
un estudio descriptivo de los datos muéstrales y, basándonos en
sus características, se escogieron tres tipos de distribuciones
paramétricas a las que podrían responder las observaciones. Las
distribuciones seleccionadas fueron la distribución normal, la
lognormal y la Weibull.
Los resultados del estudio descriptivo de los datos se
recoge a continuación, en la figura 3.1. A renglón seguido, se
muestran los análisis realizados para determinar la bondad del
ajuste de las observaciones a las tres funciones de densidad
anteriormente mencionadas.(Figuras 3.2, 3.3, 3.4).
En los tres casos se realizó el test de la %2, obteniéndose
los resultados descritos, lo que nos permite rechazar la
hipótesis de que la variable en estudio tenga una función de
densidad de forma conocida.
117
'.'ariabíe:
Tamaño muestral Media Mediana Moda Varianza Desviación típica Mínimo Max i mo Rango Cuartil inferior Cuartil superior Rango intercuartíiico Asimetría Curtosis
tensiones
227 i.0086 i.02 0.986 0.0314802 0.177427 0.284 1.43 1.146 0.903 1.127 0.224 -0.332744 0.761997
Figura 3.1. Análisis descriptivo.
118
Histograraa ds frecuencias
l . t >
TfcNSíÜN ¡>E RO'lUKA
Test de la Chi cuadrado
Limite Límite Frecuencia Frecuencia inferior superior observada esperada Chicuadr.
desde
hasta .688 .750 .813 .875 .938
1.000 1.063 1.125 1.188 1.250 1.313
.688
.750
.813
.875
.938 1.000 1.063 1.125 1.188 1.250 1.313
9 7 12 23 24 29 33 33 27 9 11 10
8 8 14 21 27 31 31 28 23 16 10 10
.12962
.25582
.30797
.25491
.31626
.12330
.07315
.77429
.88772 2.96104 .13085 .00242
Chicuadr. = 6.21736 con 9 g.d. 1. Nivel c r i t i c o = 0.717982
F i g u r a 3 . 2 . A j u s t e a una normal .
119
f r e c u e n c i a
¿A T V
30
20
10
Histcgrana de frecuencias
0.3 0.6 0.9 1.2 TENSIÓN M ROTURAS
1.5
Test de la Chicuadrado
Límite inferior-
Limite superior
Frecuencia observada
Frecuencia esperada Chicuadr.
desde
hasta .625 .688 .750 .813 .875 .938
1.000 1.063 1.125 1.188 1.250 1.313
51128
.625
.688
.750
.813
.875
.938 1.000 1.063 1.125 1.188 1.250 1.313
con 10 g.d.1.
4 5 7 12 23 24 29 33 33 27 9 11 10
Nivel crítico
7 5 9 13 18 23 28 31 30 26 19 11 7
= 0.484363
.99894
.03113
.28963
.04956 1.43265 .01295 .01648 .11515 .20941 .04206
4.97540 .00224
1.33569
F i g u r a 3 . 3 . A j u s t e a una l o g n o r m a l .
120
Histograssa áe frecuencias
— i 1 1 i ¡ 1 r
0.3 0.6 0.9 1.2 TENSIÓN DE ROTURAS
1.5
Test de la Chicuadrado
desde
Chicuadr.
Límite inferior
hasta .£88 .750 .813 .875 .938
1.000 1.063 1.125 1.188 1.250 1.313 1.375
= 19.5629 con
Límite superior
.688
.750
.813
.875
.938 1.000 1.063 1.125 1.188 1.250 1.313 1.375
10 g.d.l.
Frecuencia observada
9 7 12 23 24 29 33 33 27 Q
11 6 4
Nivel crítico
Frecuencia esperada
7 10 18 24 29 30 27 23 18 14 10 6
- 11
= 0.033669
Chicuadr.
.6240 1.1537 1.7986 .0740 .7523 .0116
1.1219 4.0313 4.0473 1.5649 .2122 .0303
4.1410
Figura 3.4. Ajuste a una Weibull.
121
En segundo lugar, y sirviéndonos del estudio descriptivo de
los datos, procedemos a clasificar la muestra en uno de los cinco
grupos en que tenemos dividido el universo de las muestas de
tamaño grande unimodales. El grupo al que pertenece esta muestra
es, sin duda, el caracterizado por un apuntamiento alto y una
asimetría también alta. El grupo en que podemos incluir las
observaciones es el grupo 1.
Una vez seleccionado el grupo, la elección de la función
núcleo y del estimador del ancho de banda óptimo es inmediata.
Los resultados del capitulo precedente nos llevan a escoger el
núcleo K3 y el estimador denominado como óptimo.-2. El valor del
parámetro de alisado que se obtiene con el óptimo.-2 es 3'6848.
Empleando este ancho de banda, se obtiene la estimación de la
función de densidad que aparece en la figura 3.5, siendo excesivo
el alisamiento de esta estima. Para evitar éste extremo
emplearemos el óptimo.-1, obteniendo en este caso un valor
h= 9*3864 y la función Kg como un estimador más ajustado de la
función de densidad, llegando a la función de la figura 3.6, que
nos parece más correcta.
La forma de la función de densidad que se consigue en este
caso es bastante ajustada a los datos y, como puede comprobarse
en la figura 3.6, presenta asimetría a la izquierda.
122
Figura 3.5. F. d. densidad estimada con K3 y ópt.-2
123
Figura 3.6. F. d. densidad estimada con Kj y ópt.-l
124
1.2. Estimación de los cuantiles.
Para estimar los cuantiles partimos de la estimación de
la función de distribución. El estimador núcleo más lógico para
ésta función es el propuesto por Nadaraya (1964),
donde,
W(t) = rC Ku)du. (1.2) J — oo
El valor de h que minimiza el error medio cuadrático puede
escribirse como h= C.n"1/3, donde C es un valor que depende de la
función núcleo, de la función de densidad que realmente sigue la
variable, y del valor de x.
Azzalini (1981) propone escoger un valor de C =1,3CT para
estimar el cuantil cuando las colas de la distribución son
grandes y C =0,5a en otro caso. Hill (1985) proporciona un
estudio más detallado del ancho de banda, obteniendo resultados
ligeramente diferentes de los expuestos por Azzalini. No
obstante, muestra que un parámetro de alisado subóptimo apenas
aumenta el error cuadrático medio en la estima de la función de
distribución.
En este capitulo, basándonos en los trabajos precedentes,
emplearemos para estimar los cuantiles correspondientes a la
función de densidad de las tensiones de rotura, el estimador
núcleo de la función de distribución propuesto por Nadaraya
(1964) . En éste, como en el estimador núcleo de la función de
densidad, es preciso escoger una función núcleo entre todas las
125
que cumplen las condiciones de regularidad Hs y además determinar
un valor del parámetro de alisado h.
Una elección lógica es seleccionar aquella función núcleo
que hemos empleado para determinar la forma de la función de
densidad. Para la determinación del parámetro de alisado se ha
procedido a calcular los valores que se obtienen con las
expresiones que propone Azzalini, teniendo en cuenta que estos
valores son inferiores al valor óptimo estimado del ancho de
ventana. Como consecuencia, podremos emplear estos valores ya que
sabemos que el aumento de error que originan, en comparación al
error que obtendríamos con el ancho óptimo, es muy pequeño y el
ahorro de tiempo en cálculos es grande.
Se ha escogido en este caso la función núcleo Kj y un valor
del ancho de ventana h= 4.5537. En la figura 3.7 se representa
la función de distribución estimada frente a los valores de la
frecuencia acumulada muestral.
Con esta función y el procedimiento descrito más arriba se
ha estimado que el percentil 5 es, aproximadamente, P5=0'50.
Tradicionalmente se ha considerado, cuando el fallo de la unión
se produce por la madera en un 100% de los casos, que el valor
límite que determina la aceptación o rechazo de las uniones
ensayadas es una tensión de 0'60 Kg/mm2, valor que representa el
percentil 5 de la función de densidad de la variable y estimado
mediante el percentil muestral en sucesivos ensayos de este tipo.
126
F. d. Distrib.
Frec. acumulada.
Figura 3.7. F de distribución estimada.
127
Puede apreciarse que este límite es superior al valor estimado
por el procedimiento no paramétrico. Basándonos en este estudio
puede concluirse que el valor que se emplea actualmente debería
disminuirse en 10 Kg/mm2, lo que redundaría en un mayor número de
piezas, procedentes de la fabrica, que pueden ser aceptadas.
3.2 - PLUVIOMETRÍA Y CRECIMIENTO DE MASAS FORESTALES.
Las precipitaciones acontecidas durante el año hidrológico
tienen especial importancia para el crecimiento de las masas
forestales y la estimación de períodos de retorno con la
finalidad de planificar los trabajos de tipo selvícola y elaborar
los planes dasocráticos pertinentes. Buscaremos una forma de
función de densidad para esta variable y determinaremos los
cuantiles que separen los años hidrológicos que se pueden
considerar como años secos, húmedos y medios. A continuación,
consideraremos una de las variables que se relacionan con el
crecimiento (altura de los eucaliptos) estimando las funciones
de densidad de dicha variable aleatoria condicionada a los
periodos establecidos anteriormente, para investigar la
existencia de diferencias significativas.
Uno de los problemas con que se encuentra el ingeniero de
montes es encontrar una forma eficaz de evaluar la evolución de
las masas forestales (crecimiento maderable, mortalidad,
evolución de la densidad de masa, etc.) para poder realizar los
planes de ordenación en función de variables dasométricas y
dendrométricas. La gran cantidad de factores determinantes del
crecimiento de un árbol ocasiona la necesidad de plantear
128
diferentes modelos en diferentes circustancias. El modelo único
es una utopía. De aquí la importancia de poder emplear métodos
que no precisen de hipótesis restrictivas que puedan hacer
inservibles las conclusiones obtenidas.
Los métodos no paramétricos son, en efecto, los que pueden
aplicarse sin que la necesidad de suponer una forma de
distribución subyacente limite las posibilidades del estudio.
Los factores que influyen en el crecimiento de las masas
forestales son de tipo climático, edafológico, topográfico y
genético. Los factores edafológicos y geográficos son fácilmente
controlables; los factores genéticos lo son menos y, mucho menos
los factores climáticos, que son más aleatorios y difíciles de
prever.
En la aplicación de los métodos no paramétricos empleamos
datos climáticos de una zona donde, de todas las variables
climatológicas, la de mayor influencia en el crecimiento es la
pluviometría.
Los datos que se han empleado en este estudio son, por una
parte, las precipitaciones anuales medidas en dos estaciones
hidrológicas de la provincia de Huelva, Tharsis y Riotinto. Estas
estaciones corresponden a dos zonas con distinto tipo de suelo;
Riotinto, encuadrada en zona de sierra, de la Sierra de Huelva
y Tharsis en la zona de Andevalo de dicha provincia. Por otra
parte se dispone de mediciones de alturas medias de Eucaliptus
globulus en parcelas de dos plantaciones próximas a dichas
estaciones, con individuos de edades comprendidas entre 7 y 11
años de edad, que es la etapa en la cual el crecimiento de esta
especie alcanza valores máximos. De esta forma se ha pretendido
129
eliminar la excesiva influencia de aquellos factores sobre los
que tenemos algún control. (Datos proporcionados por las
estaciones climatológicas de Tharsis y Riotinto y por E.N.C.E.)
2.1. Estimación de cuantiles en la pluviometría.
Nos interesa, en primer término, una estimación de los
cuantiles de la función de densidad de probabilidad de la
pluviometría anual. Estos cuantiles nos van a permitir,
posteriormente, clasificar los años hidrológicos en años secos,
medios y lluviosos.
Se ha procedido a estudiar las características de los datos
disponibles en ambas estaciones hidrológicas. Los resultados de
este estudio descriptivo aparecen en las figuras 3.8 y 3.9.
Una vez determinados los valores de la asimetría, curtosis
y número de modas, se escogió, para estimar la función de
distribución de la estación de Riotinto y también para la de
Tharsis, la función núcleo K3.
El valor del ancho de banda empleado con las observaciones
de la estación de Riotinto es 1469.32 y en la estación de Tharsis
el ancho usado es 1110.76.
Con las funciones de distribución estimadas por estos medios
(figuras 3.10 y 3.11), se determinaron los valores de los
percentiles 10 y 90 que podrían considerarse como valores
extremos, en cuanto a falta de precipitación anual o abundancia
de la misma respectivamente, para la totalidad de las series
estudiadas.
130
Variable! pluviometría Riotinto
Tamaño muestral Media Mediana Moda Varianza Desviación típica Mínimo Max i mo Rango Cuartil inferior Cuartil superior Rango intercuartílico Asimetría Curtosis
105 743.349 736.4 463.1
57397.2 239.577 225.5
1332.9 1107.4 585.1 881.4 296.3 0.342837 -0.268792
Kistcgrama de frecuencias
0 3 6 9 12 15 (X 100)
PLUVIOMETRÍA RIOTINTO I
Figura 3.8.. Análisis descriptivo pluv. RIOT.
131
Variable: pluviometría Tharsis
Tamaño muestral Hedía Mediana Moda Varianza Desviación t í p i c a Mínimo Max i mo Rango Cuar t i l i n f e r i o r Cuartil superior-Rango in t e r cua r t í l i co Asimetría Curtosis
110 608.758 578.7 696.6
31800.2 178.326 195.9
1046.1 850.2 490.7 748.9 258.2
0.257729 -0.0595891
fíl SXGyT'oiiía \x£ i T&CUvfiOl 3S
0 2 4 6 8 10 12 (X ÍC
PLUVIOMETRÍA THARSIS
Figura 3 . 9 . A n á l i s i s d e s c r i p t i v o p l u v . THARS.
132
F. d. Distrib.
Frec. acumulada^
^=1
Figura 3.10. F de distribución estimada pluv. RIOT.
133
F. d. Distrib.
Frec. acumulada
Figura 3.10. F de distribución estimada pluv. THAR.
134
De esta manera obtenemos, para la zona de Riotinto, que la
pluviometría de los años secos es menor o igual a 457mm, y la de
años lluviosos mayor o igual de llOlmm. En esta estación se
dispone de datos de pluviometría desde el año 1886, hasta el año
1990. En la zona de Tharsis, se estimó que los años secos
correspondían a pluviometrías menores o iguales a 389mm, y los
años lluviosos a pluviometrías mayores o iguales a 868mm. En esta
estación las observaciones comprenden el período de 1881 hasta
1990. Así tenemos, en cada zona, clasificados los años de la
siguiente forma:
Anos secos
RIOTINTO THARSIS
Años lluviosos
RIOTINTO THARSIS
1886
1889
1904
1906
1928
1944
1957
1958
1979
1980
1982
1990
Los años
respectivas.
1881
1889
1904
1943
1944
1956
1957
1982
1986
1990
con pluviometría media
1891
1894
1927
1935
1939
1940
1955
1962
1987
1989
1891
1894
1927
1935
1939
1962
1977
1989
son el resto de las series
135
2.2. Estimación de las funciones de densidad del
crecimiento.
Las mediciones que se tienen en consideración para estimar
el crecimiento de las plantaciones de eucalipto son las alturas
medias de árboles, en las parcelas situadas en las zonas de
Tharsis y Riotinto, con pies de edad comprendida entre 7 y 11
años. Se dispone de datos anuales desde 1975 y bianuales a partir
de 1988. En algunos casos, por tratarse de árboles que han pasado
a otra clase de edad no se dispone de datos de alturas medias.
En la zona de Riotinto, para años lluviosos, no contamos con
observaciones de la altura media. En la zona de Tharsis, sólo se
dispone de alturas medias en un año considerado del periodo
medio, por lo que la estimación de su función de densidad no
resulta en exceso significativa.
En el resto de los casos existen datos que nos permitirán
estimar la forma de la función de densidad para las alturas
medias de las dos zonas en diferentes condiciones pluviométricas.
Ya se ha descrito con anterioridad el proceso a seguir para la
estimación de estas funciones. Se procede, en principio, a
realizar la descripción de las características muéstrales.
En la figura 3.12 se describen las alturas medias en la zona
de Riotinto en años secos; en la figura 3.13 aparece el estudio
en la zona de Riotinto para años de pluviometría media; en la
figura 3.14, para la zona de Tharsis en años secos; en la figura
3.15, en años medios; y en la figura 3.16, en años lluviosos.
136
Variable: ftlturas RIOTINTO-p. seco
Tamaño muestral Hedía Mediana Moda Varianza Desviación típica Mínimo Max i mo Rango Cuartil inferior Cuartil superior Rango intercuartilico Asimetría Curtosis
119 124.42 126 13?
1077.96 32.8323 7
197 190 96 150 54 -0.28795 0.08027
i l i s vuyí aiita uc ijcwutriiwiaa
Figura 3.12. Análisis descriptivo alt. p. seco RIOT.
137
Variable: Alturas RIOTINTG-p. medio
Tamaño muestral Hedía Mediana Moda Varianza Desviación típica Mínimo Max i mo Sango Cuartil inferior Cuartil superior Sango intercuartilico Asimetría Curtosis
271 117.823 117 102 848.369 29.1268 57 196 139 96 137 41 0.162085 -0.359605
Histograma de frecuencias
T — ' — " - p a — ' — • — 1 — • — ' — r
50 80 110 140 170 200
Alturas FI0-p.m.
Figura 3.13. Análisis descriptivo alt. p. medio RIOT.
138
Variable: Alturas THARSIS-p. seco
Tamaño muestral Media Mediana Moda Marianza Desviación estándar Minimo Max i mo Rango Cuartil inferior Cuartil superior Rango intercuar-tilico Asimetría Curtosis
14? 120.02 115 112 764.732 27.6538 61 199 138 101 136 35 0.559233 -0.0664621
Histograma de frecuencias
Alturas TH.-p.s.
Figura 3.14. Análisis descriptivo alt. p. seco THARS.
139
Variable: Alturas THARSIS-f>. media
Tamaño muestra! Media Mediana Moda Varianza Desviación típica Mínimo Máximo Rango Cuartil inferior Cuartil superior Rango intercuartílico Asimetría Curtosis
ii 0.434938 0.470588 0.470588 0.108944 0.330067 0 i i 0.0784313 0.627451 0.54902 0.280378 -0.904512
Figura 3 . 1 5 . A n á l i s i s d e s c r i p t i v o a l t . p . medios THARS.
140
Variable: Alturas THAESIS-p. lluviosos
Tamaño muestral Media Mediana Moda Varianza Desviación estándar Mínimo Max i mo Sango Cuartil inferior Cuartil superior Rango intercuartilico Asimetría Curtosis
273 114.604 113 110 949.784 30.8186 49 220 171 91 134 43 0.458966 0.249906
40
f r e c u <y> e *r n c i a
3 0 -
10
O t
Histcgrama de frecuencias
//•'A
V? '4. fe
•/,
-/>
áa
'/y
v/. '////////y// ?Mfo>>ZX>>Z jfjf v / >v v i myy syi. 'i' •
illllllj^ 40 80 120 160
Alturas TH.-p.ll.
200 240
Figura 3.16. Análisis descriptivo alt. p. lluviosos THARS.
141
Por medio de estas características muéstrales, incluimos las
distintas variables en alguno de los grupos obtenidos con la
clasificación de la figura 2.2. La elección de la función núcleo
es inmediata, seleccionando en todos los casos el núcleo K3 y el
óptimo.-2, -las formas estimadas de las funciones de densidad
para estas variables aparecen en las figuras 3.17, 3.18, 3.19 y
3.20-, salvo en los datos de las alturas de la zona de Tharsis
con años de pluviometría considerada media. En este caso, al
disponer de un pequeño número de datos (n=ll) con un rango de
variación elevado, se plantean dificultades para emplear los
resultados del capítulo anterior. Se ha eliminado este problema
transformando los datos, mediante un cambio de origen y unidad,
llevándolus al intervalo [0,1]; ésta realización muestral se
clasifica dentro del grupo 8 (según el árbol de la figura 2.2).
Para este grupo, según los resultados del presente trabajo, la
elección más apropiada es escoger el núcleo K, y el óptimo.-2. El
resultado de la estimación empleando éstos (h=2'182) se puede
apreciar en la figura 3.21; la estimación de la función de
densidad nos parece en este caso excesivamente alisada y, por
tanto, emplearemos como una segunda aproximación la estimación
del parámetro óptimo con el óptimo.-1, cuyo valor es h=5'733,
obteniéndose una estimación excesivamente ajustada a los datos
(figura 3.22). Un valor de h intermedio (h=3) nos parece la
solución más adecuada en este caso, obteniéndose la estimación
de la función de densidad que puede apreciarse en la figura 3.23.
142
Figura 3.17. F. d. densidad estimada alt. p. seco RIOT.
143
\
V
Figura 3.18. F. d. densidad estimada alt. p. medio RIOT.
144
A / \
/ /
/
i
n ' \ V \
\ I
/ l
> ' • / (
/
Figura 3.19. F. de densidad estimada alt. p. seco THARS,
145
A /
/ V \
/
/ t ( l l
/ \ / \
==p-
Figura 3.20. F. d. densidad estimada alt. p. lluviosos THARS.
146
Figura 3.21. F. de dens. estimada h=2,182 alt. p. medios THARS.
147
Figura 3.22. F. de dens. estimada h=5,733 alt. p. medios THARS.
148
/
/ /
/ \ / \
/ v _ / \ I — \
I \
I
> i
I
\
__L.
Figura 3.23. F. de dens. estimada h=3 alt. p. medios THARS,
149
Se observa, en las dos zonas una mayor asimetría en la
distribución de las alturas en periodos secos. La disponibilidad
de diferente cantidad de información no permite establecer
comparaciones certeras entre ambas estaciones.
150
CAPITULO 4:REGRESIÓN NO PARAMETRICA
4.0 - INTRODUCCIÓN.
4.1 - ESTIMACIÓN DE LA REGRESIÓN POR QUEBRADAS
ALISADAS.
4.2- ESTIMACIÓN DE LA REGRESIÓN POR FUNCIONES NÚCLEO.
2.1. Estimadores del tipo de Priestley y Chao.
2.2. Estimadores del tipo de Nadaraya y Watson.
2.3. Estimación por los puntos más próximos.
4.3 - ESTIMACIÓN DE LA REGRESIÓN CON SERIES
ORTOGONALES.
4.4 - REGRESIÓN POLINOMIAL MÓVIL.
4.5 - ESTIMACIÓN DE LA REGRESIÓN POR PARTICIÓN
RECURSIVA.
4.6 - ESTIMACIÓN DE LA REGRESIÓN POR PROYECCIONES
SUCESIVAS.
4.7 - UNIFICACIÓN DEL PROCEDIMIENTO DE ESTIMACIÓN DE
LA REGRESIÓN NO PARAMETRICA.
CAPITULO 4
REGRESIÓN NO PARAMETRICA
4.0 - INTRODUCCIÓN.
La regresión es una de las técnicas más utilizadas en el
análisis e interpretación de los datos cuando se estudia la
variación conjunta de un grupo de variables. Esta técnica
pretende determinar una relación funcional óptima entre variables
según un criterio predeterminado.
Para la regresión se consideran modelos de la forma
y= g(x)+ e, donde las características en la obtención de los
valores de la x determinan dos tipos de modelos, el fijo y el
aleatorio.
En el modelo fijo se estudia el valor que toma una variable
aleatoria Y para valores predeterminados de una o varias
variables matemáticas x. La distribución es univariada, ya que
la Y es una variable aleatoria, pero no la x. En este caso
tendremos un modelo de la forma:
*i,n= gixitn) + titn, i= i n, (o.i)
donde Y1 n, ..., Ynn son medidas tomadas para los valores fijos
151
X, . ..., X„ „, y e; „ es el error cometido en la medida i-ésima,
estando estos errores idénticamente distribuidos para cada n, con
media cero y varianza a2< <x>.
En el modelo aleatorio X e Y son dos variables aleatorias
con función de densidad conjunta f(x,y). En este caso, la función
de regresión se expresa:
fyfx Y(x,y)dy E(Y/X=x)=¿ ^-—^ , (0.2)
fx(x)
donde fx(x) denota la función de densidad marginal de las X,. El
problema de la regresión multivariable es tomar un vector
aleatorio d-dimensional x, cuyas componentes se denominan
variables explicativas, y una variable aleatoria Y que se
denomina respuesta. El análisis de regresión pretende estimar la
esperanza de Y condicionada a X basándose en la muestra.
Generalmente se supone que la forma funcional de la
superficie de regresión es conocida reduciendo el problema a la
estimación de un conjunto de parámetros. Entonces, la función de
regresión pertenece a una clase de funciones que pueden ser
determinadas por un número finito de parámetros, es decir si en
y= g(x) + e, g pertenece a la familia paramétrica, el modelo de
regresión es llamado paramétrico. Este modelo es adecuado siempre
que el procedimiento paramétrico sea correcto. Pero,
desgraciadamente, el modelo correcto es dificil de verificar en
la práctica y la aplicación de un modelo incorrecto puede
conducir a resultados equívocos. Por este motivo, adquieren
interés los métodos no paramétricos, en los cuales la única
hipótesis de partida consiste en que g e ©k para algún k > 0, es
decir, g(x) pertenece a la clase de funciones k veces
152
diferenciables continuas.
En lo que resta del capítulo nos referiremos sólo al modelo
de regresión no paramétrico, considerando que las distintas
aplicaciones al campo forestal de los modelos de regresión,
requieren el uso tanto del diseño fijo, como del aleatorio.
Los métodos o técnicas de regresión no paramétrica más
extensamente estudiados (núcleo, puntos más próximos y quebradas
alisadas) están basados en la media local d-dimensional: el
estimador de la superficie de regresión en el punto X0 es un
promedio de las observaciones de la variable respuesta para
valores de x próximos a XQ. Estas técnicas presentan las
propiedades asintóticas adecuadas (Stone, 1977). En conjuntos de
grandes dimensiones los métodos tradicionales no se comportan
bien con tamaños muéstrales razonables. La razón que explica este
comportamiento es la dispersión inherente de las muestras en
grandes dimensiones. Para solucionar estos problemas se han
propuesto otras técnicas no paramétricas, basadas en sucesivos
refinamientos de los métodos anteriores. Se forman jerarquías de
modelos de complejidad creciente, que tiene que ver con el número
de grados de libertad empleados en la búsqueda del modelo. Entre
estos métodos se encuentran el de series ortogonales, el
polinomial móvil, el de partición recursiva y el de proyección
sucesiva. En qué casos se presenta la conveniencia de aplicar
estas técnicas de regresión no paramétrica y sus ventajas e
inconvenientes frente a los métodos más estudiados son temas
abiertos aún a la investigación.
El análisis de regresión no paramétrica ofrece posibilidades
todavía poco estudiadas, apreciándose sobre todo una falta de
153
trabajos relacionados con las aplicaciones de estos estimadores
de regresión.
4.1- ESTIMACIÓN DE LA REGRESIÓN POR QUEBRADAS ALISADAS.
Este tipo de estimación se presenta avalado por una larga
tradición y es uno de los más populares entre los estimadores de
regresión univariable.
Si tenemos las observaciones y^ g(Xj)+ ei, donde g(x) es una
función de alisado desconocida definida en [0,1], y ei son los
errores aleatorios de media cero, incorrelados y de varianza
conocida, entonces una función quebrada cúbica alisada, g(x,A)
es la función que minimiza la expresión
- E fy¿- <7Ui)]2 + kf[g//(x)]2dx. (l.l)
La función g depende de las observaciones y del parámetro
A, que por sus características constituye el parámetro de alisado
en esta estimación.
El término J(g"(x))2 dx es similar al término de
penalización empleado en la estimación de la densidad por máxima
verosimilitud penalizada, donde el funcional correspondiente se
emplea para asegurar una estima razonablemente alisada.
La expresión anterior tiene una única solución si
consideramos sólo la clase de funciones diferenciables dos veces
y ésta se conoce como quebrada cúbica. Las quebradas cúbicas son
polinomios de tercer orden pf que unen los puntos Xf, X)+1 y
satisfacen las restricciones siguientes:
Pi(xo->> = Pf-i(x<i>>'
154
P\-(xa-)) = P'MCXO,)»
P",(x(f)) = P"M(x(i)).
Éstas garantizan que la estimación sea continua y dos veces
derivable. En los puntos extremos X. y Xi+1, la segunda derivada
del estimador vale cero.
Las quebradas alisadas fueron propuestas por Whittaker
(1923), Schoenberg (1964) y Reinsch (1967). Estudios sobre
algunas propiedades de este estadístico, cuando g y f son
funciones periódicas, aparecen en los trabajos de Wahba (1975c)
y Rice y Rosenblatt (1981).
Craven y Wahba (1979) y Utreras (1980) proponen y discuten
el método de validación cruzada para estimar el parámetro de
alisado, X, a partir de los datos.
El estimador (1.1) se generaliza fácilmente tomando
yi=(Af(xi)) + e. , donde A es un operador lineal. El estimador
"regularizado" de f es la función g que minimiza la ecuación
- ¿ lYr (Ag) <*i>]2 + X¡[g"x)Vdx. (1.2)
Frecuentemente se asigna a (Af) la forma
(Af) (x)=Jk(x,s)f(s)ds.
Tikhonov y Arsenin (1977) presentan algunos ejemplos de este
tipo. Wahba (1977) y Rice y Rosenblatt (1983) estudian algunas
propiedades del estimador generalizado y de sus derivadas,
principalmente se ocupan de los problemas que presentan en los
valores extremos.
Precisamente la existencia de estos problemas constituye una
importante desventaja para aplicar convenientemente este
estimador. Otra característica negativa achacable a este método
155
de estimación es la inflexibilidad del modelo debida a la
definición implícita del mismo (ver por ejemplo Silverman, 1984
y Müller, 1988).
Métodos robustos relativos a las quebradas alisadas son
desarrollados por Lenth (1977), Huber (1979) y Cox (1883).
Discusiones sobre sus aplicaciones estadísticas aparecen en
Wegman y Wright (1983), Silverman (1985), Eubank (1988), Wahba
(1990), Eubank y Spiegelman (1990), Thomas (1991), etc..
4.2- ESTIMACIÓN DE LA REGRESIÓN POR FUNCIONES NÚCLEO.
La estimación núcleo se basa en la aplicación de las
propiedades de la familia de operadores convolutivos, usados
desde hace mucho tiempo en el análisis matemático para aproximar
las funciones por funciones alisadas (ver Shapiro, 1969).
(Kr*f) (x) = f1 Kx(x-t) f(t)dt, Kx(x)= rK(rx) , r> 0. (2.1) Jo
Hay varias posibilididades de estimación de la función de
densidad a partir de los datos y que emplean la integral
convolutiva, obteniéndose diferentes estimadores núcleo que, en
general, pueden expresarse de la siguiente forma:
•"i-i
Las estimaciones de la línea de regresión con funciones
núcleo presentan varias características comunes. La línea
estimada depende de una función de densidad K(x) , llamada núcleo,
y de un parámetro de alisado hn. La selección de ambos constituye
uno de los problemas prácticos más importante en la aplicación
156
de estos estimadores.
El estudio de las funciones núcleo más apropiadas es
característico de cada uno de los diferentes estimadores núcleo.
La determinación del parámetro de alisado óptimo, en lineas
generales, no depende de los diferentes estimadores, sino del
criterio de optimalidad seleccionado.
Trabajos pioneros en la selección de un ancho de ventana,
a partir de los datos, se deben a Craven y Wahba (1979) para la
quebradas alisadas y a Rice (1984) para estimadores núcleo.
El primer problema que plantea la selección de un ancho de
banda óptimo es la determinación del criterio de optimalidad. Un
criterio razonable es la minimización de algún tipo de error o
medida de la discrepancia entre la curva desconocida g(x) y la
aproximación gn(x) .
Se pueden considerar las siguientes distancias:
A) El error cuadrático medio (ECM),
ECM(h) = - ¿ (SflUj> -giXj))2 w(X¿) . (2.3)
n i=1
El ECM es una variable aleatoria que depende directamente del
diseño especificado para la variable explicativa x. La función
peso w(.) es un factor conveniente desde el punto de vista
matemático, y se introduce para evitar efectos de borde.
B) Error cuadrático integrado (ECI),
ECI(h)= í°° (gjx)-g(x))2 w(x)f(x)dx. (2.4)
El ECI también es una variable aleatoria. Aquí la densidad
marginal f(.) se usa como una función peso además de w(.).
157
C) Error cuadrático condicionado (ECC),
ECCh) = E(ECM(h) | Xx, . . . ,Xn) . (2.5)
La esperanza de ECM para un diseño fijo de x proporciona el ECC.
Donde X es una variable aleatoria y el ECC también.
D) Error cuadrático medio integrado (ECMI),
ECMI(h)= E(ECI(h)) . (2.6)
El ECMI no es aleatorio ya que se contabiliza para todas las
posibles muestras de x e y.
La elección entre estas medidas es dificil ya que cualquiera
de ellas puede emplearse. Hárdle y Marrón (1986) demuestran que
cada secuencia de anchos de ventana que minimizan alguna de las
medidas ECM(h), ECI(h) o ECC(h) es asintóticamente óptima en
relación al ancho de banda que minimiza el ECMI. Hárdle (1991)
propone minimizar el ECM(h) y Gasser et al. (1991) se inclinan
por el ECMI proporcionando una relación entre los anchos de
ventana obtenidos por ambos métodos.
Si la función núcleo es de orden 2, eligiendo un valor de
hn~n"1/5, la razón de convergencia del ECM es de orden 0(n"4/5) .
Los estimadores que se relacionan a continuación pueden
emplearse tanto en el modelo de regresión de diseño fijo como en
el de diseño aleatorio.
2.1. Estimadores del tipo de Priestley y Chao.
Estos estimadores se proponen inicialmente para el modelo
de regresión de diseño fijo.
Supondremos por simplicidad, que las medidas fijas X.
158
satisfacen 0< X.,< X2<. . .< Xn< 1 y que g: [0,1]-*R. Priestley y Chao
(1972) recomiendan el estimador de expresión
$nU.hn)=±^±±K(^)Yi, (2.7)
donde K es una función de densidad simétrica de cuadrado
integrable y hn el parámetro de alisado.
Esta forma del estimador núcleo se obtiene cuando se
sustituye
Whi(x)= Khx-Xi)= K\^A, (2.8)
en la expresión (2.2).
Diversas propiedades, como la convergencia y normalidad
aintótica de este estimador, han sido estudiadas por Benedetti
(1977).
Gasser y Muller (1979, 1984) y Cheng y Lin (1981) proponen
el método siguiente: si X¡ son valores fijos e idénticamente
espaciados y S,- = (X,- + Xi+1)/2, el estimador de la regresión será:
^"•^•tCA^rh0*- <2-9>
El estimador dado por la ecuación (2.7) puede considerarse una
aproximación de Rieman de la integral en (2.9).
Trabajos posteriores proporcionan una definición
generalizada del estimador válida para las derivadas de g y se
estudian sus propiedades de convergencia ( ver Muller, 1988) y
de robustez ( Tsybakov, 1982 y Hárdle, 1984a). También se
construyen núcleos apropiados en función del grado de alisado
159
(Müller, 1984).
Estos estimadores se pueden emplear en modelos de regresión
de diseño aleatorio con algunas modificaciones de sus
características (Mack y Müller, 1989).
En estos estimadores se han basado una gran cantidad de
estudios estadísticos. En particular, se han propuesto varios
estimadores no paramétricos de los cuantiles con funciones
núcleo. Parzen (1979) plantea la siguiente forma del estimador
cuantil núcleo,
1=1 L Jl-l/n X, (i) (2.10)
Yang (1985), Falk (1984), Padgett (1986) y Sheather y Marrón
(1990) estudian las características de este estimador del cuantil
p y de algunas de sus aproximaciones.
Algunas aplicaciones más directas de estos modelos de
regresión aparecen en Robinson (1984), que las emplea en estudios
de series de tiempo, Gasser et al. (1984), Müller y Ihm (1985),
Ribe (1986) y Keiding y Andersen (1989) usan estos estimadores
para calcular probabilidades en las cadenas de Markov. Destaca
que la mayoría de los trabajos enunciados anteriormente
corresponde a estimaciones de curvas de análisis clínico.
2.2. Estimadores del tipo de Nadaraya y Watson.
Nadaraya (1964) y Watson (1964) introducen de manera
independiente un estimador núcleo basado en la expresión de la
esperanza condicional, obteniendo el estimador de la función de
densidad conjunta al aplicar un núcleo multiplicativo del tipo:
160
y el estimador núcleo de la función de densidad marginal.
La expresión que adopta el estimador determinado de esta
forma es la siguiente:
x-X,
(2.12)
donde hn es el parámetro de alisado y K es una función de
densidad arbitraria que satisface las siguientes condiciones:
sup K(x) <°° -oo<X<«>
lim \x\K(x) = 0 |x|-<»
K(x) = K(-x) ,
x2Kx) 6 L± (-°°, ~) .
En este caso, se particulariza la expresión general del
estimador núcleo (ecuación 2.2) tomando:
i K(X~XA h h
4U) whi (*) = A \ ^ • (2 . 13)
El denominador de esta expresión es el estimador núcleo de la
función de densidad marginal de la x.
Este estimador se ha considerado tradicionalmente como el
más apropiado para el modelo aleatorio; Nadraya y Watson
demostraron su convergencia débil; Rosenblatt (1969) obtuvo la
161
expresión del sesgo y la varianza, asi como su distribución
asintótica; Schuster (1972) y Johnston (1979) demostraron la
normalidad multivariable para un número finito de puntos
distintos; la consistencia fuerte fue demostrada por Noda (1976) ;
Collomb (1979) y Stone (1977) establecieron las condiciones
necesarias para este tipo de convergencia. Schuster y Yakowitz
(1979) desarrollaron el estudio sobre convergencia uniforme en
un intervalo finito; Wandl (1980) y Jhonston (1982) estudiaron
la desviación global y, con menores restricciones, Mack y
Silverman (1982c) demostraron la consistencia fuerte uniforme en
un intervalo acotado.
Un estudio completo de este estimador se escuentra en
Nadaraya (1989) y Hárdle (1991).
Frente a los numerosos trabajos sobre las propiedades
teóricas de este estimador destaca la casi inexistencia de
aplicaciones del mismo, siendo uno de los principales
inconvenientes su expresión de cociente, que dificulta
sobremanera el cálculo de los estimadores de las derivadas de la
función f, requeridas en estudios de crecimiento.
2.3. Estimación por los puntos más próximos.
Los modelos de regresión con estimadores núcleo mostrados
anteriormente se basan en promedios locales de observaciones de
la variable respuesta en un entorno fijo de x. En cambio el
estimador de regresión por puntos más próximos emplea entornos
variables alrededor de la x. El estimador de la regresión por los
k-puntos más próximos se define de la siguiente forma: si
162
k = k(n) es una secuencia de enteros positivos y si Rn es la
distancia Euclidea al punto x de los k-ésimos puntos más
próximos, entonces el estimador tiene la expresión:
s-fi?: (2.14)
donde el parámetro k regula el grado de alisado. Si aumenta k se
suaviza la estima.
Mack (1981) proporciona la expresión aproximada del sesgo
y la varianza de este estimador. La varianza aumenta con el
parámetro k y, por el contrario, el sesgo disminuye. Para
equilibrar esta característica se puede seleccionar un k~ n4/5 y,
para este valor, se obtiene una razón de convergencia respecto
al EMC de n"4/5. Aplicando la relación k = 2nhnfx(x) se obtiene
idéntica expresión del EMC que en el caso de los estimadores
núcleo del tipo (2.12). Révéstz (1979) estudia la desviación
global de este estimador obteniendo resultados análogos a los
obtenidos para el estimador de Nadaraya-Watson.
Un estimador, asociado al anterior, es el introducido por
Yang (1981), ampliamente estudiado por Stute (1984) y definido
por la ecuación:
§n (x> hsPP) = ¿ i - i nhspp
K Fn(x)-Fn(X1)
spp Yi> (2 .15 )
siendo Fn la función de distribución empírica de x a partir de la
muestra y h un parámetro de alisado.
Si se emplea h = hnfx(x) la varianza de este estimador es
la misma que la del estimador núcleo pero el sesgo será menor y
163
como consecuencia, disminuirá también el ECM (ver Carrol y
Hárdle, 1989).
4.3 - ESTIMACIÓN DE LA REGRESIÓN CON SERIES ORTOGONALES.
Según Rutkowski (1982), la idea general de esta estimación
para el modelo fijo, consiste en desarrollar la función de
regresión en torno a los puntos muéstrales con series ortogonales
de funciones <p.,
£r(x)-Í2fgr(u)t,(u)du*j(x), (3.1)
al reemplazar los coeficientes de Fourier por sus estimadores se
llega a la expresión:
M n ',*
J=0 2=1 £ ( x ) = E E /'^(uldu^UjU), (3.2)
V si-i
donde Sí es la secuencia de interpolaciones de Xi con S0 = 0, X-
< sf < xi+1 y sn = i.
En la expresión anterior M determina el número de funciones
ortogonales de la expansión que se incluyen en la estima. Cuanto
mayor es M, más exacto es el desarrollo (3.2), lo que significa
que el sesgo del estimador es pequeño. Por otra parte, la
varianza crece con M, que juega en este caso el papel del
parámetro de alisado.
Greblicki et al. (1983) y Hárdle (1984b) proponen para un
modelo de regresión de diseño aleatorio el siguiente estimador
164
§x)= í=1nJ=°M (3.3)
2=1 j=o
Una comparación con los estimadores de densidad por medio
de series ortogonales indica que la calidad del estimador depende
mucho del sistema ortogonal elegido.
4.4 - REGRESIÓN POLINOMIAL MÓVIL.
Este método ha sido muy empleado en el alisado de series de
tiempo (Macauley, 1931). Una revisión de este procedimiento la
realiza Cleveland (1979) que, además, propone un método más
robusto. Algunos ejemplos de sus aplicaciones aparecen en
Schmerling y Peil (1985) . La idea básica es usar un polinomio
ordinario para la regresión local eligiendo intervalos [x-b, x+b]
donde se estimar g(x), en lugar de estimarse globalmente en el
intervalo [0,1]. La denominación de polinomial móvil se debe a
que alrededor de los valores de x que utilizamos para estimar la
curva, se localiza una ventana de alisado y se escoge un
polinomio que se "mueve" conjuntamente con x.
Si la curva g(x) distara de ser polinomial, el alisado local
implica que podría emplearse un desarrollo de Taylor alrededor
de x y de esta forma podría demostrarse que el polinomio local
es una buena aproximación. Este polinomio, en general, se elige
por el método de mínimos cuadrados o mínimos cuadrados
ponderados.
Se pueden emplear dos posibles procedimientos cuya
165
equivalencia se demuestra por el teorema de Gauss-Markov (Müller,
1983):
A) Se elige un polinomio:
Je
P(t)= £ P¿ ( fc- x) (4.1) i=l
de grado (k-1) con los datos contenidos en la ventana de alisado
[x-h, x+h] por el método de mínimos cuadrados ponderados con una
matriz de pesos C, positiva, definida y simétrica. El polinomio
así escogido es el estimador de la curva de regresión y h es un
parámetro de alisado.
B) El estimador g se define por la expresión
§x)=Y/W1x)Yi, (4.2) i=l
imponiéndose a las funciones peso W,-, las condiciones siguientes:
a) Wj (x) *0 sólo si Ix^xl^ h, es decir los pesos serán no
nulos sólo para las observaciones contenidas dentro de la ventana
de alisado, que es lo que caracteriza al método local.
con un valor k >1 dado.
c) WTCW = min, es decir la varianza del estimador ponderado
por C debe ser mínima.
166
4.5- ESTIMACIÓN DE LA REGRESIÓN POR PARTICIÓN RECURSIVA.
Estos modelos de regresión han sido estudiados por Sonquist
(197 0), empleando funciones escalonadas constantes y por Breiman
y Meisel (1976) y Friedman (1979) que emplean funciones
escalonadas lineales.
El procedimiento básico de la estimación es el siguiente,
para una variable explicativa o factor y un valor particular de
ésta, se divide el espacio de los factores en dos regiones, una
a la derecha y otra a la izquierda del valor escogido. Se busca
el conjunto de muestras situado en cada región con una separación
constante o que dicha separación sea siguiendo un modelo lineal.
El factor y el valor de división se eligen de tal forma que
minimicen la suma de cuadrados de los residuos de la muestra. Se
aplica este procedimiento recursivamente a cada una de las
regiones asi obtenidas.
La regresión por partición recursiva se puede considerar
como un método de medias locales pero diferente de los métodos
con funciones núcleo, las regiones locales se construyen
adaptativamente, basándose en la variación de la respuesta.
Por otra parte, si cada separación reduce el tamaño de la
muestra sobre la que se elige la futura partición, el número de
regiones y por tanto, de modelos separados, es limitado.
167
o 4.6- ESTIMACIÓN DE LA REGRESIÓN POR PROYECCIONES SUCESIVAS.
Las dificultades surgidas al emplear los estimadores
tradicionales en problemas de grandes dimensiones pueden
describirse en términos de espaciamiento de los datos. Las
distancias entre puntos próximos crecen con el aumento de
dimensión. Friedman y Stuetzle (1981) y Huber (1985) presentan
ejemplos numéricos de este comportamiento.
Las técnicas basadas en valores medios proporcionan estimas
que enfatizan las características consideradas como transitorias,
tales como la aleatoriedad que tiene lugar en los grupos de
datos. Este comportamiento es debido sobre todo al hecho de que
la varianza de los estimadores tradicionales crece rápidamente
cuando aumenta la dimensión. Igual ocurre con la razón óptima de
convergencia (Stone, 1980 y 1982) que se obtiene equilibrando la
varianza frente al cuadrado del sesgo; en grandes dimensiones el
óptimo se obtiene con un gran nivel de varianza. Como no
buscamos, en principio, características transitorias podemos
suprimirlas construyendo deliberadamente un estimador por debajo
del óptimo, con pequeña varianza y gran sesgo. Desafortunadamente
esta modificación aplana todas las características, buscadas o
no. Por el contrario, la proyección sucesiva enfatiza las
características en pequeñas dimensiones estimando con varianza
relativamente pequeña.
El método de regresión por proyección sucesiva busca un
modelo que es una suma de funciones alisadas, combinación lineal
de las variables explicativas, de una manera iterativa. La
función de regresión estimada tiene la forma
168
£n(x)= Yí§i(d.tix), (6.1)
donde x es un vector, a. son vectores unitarios y cada atx
puede considerarse una proyección de x. Los valores de a,- se
eligen de tal forma que maximicen la función
¿ [r.-^a^)]2 J(fi)=l-^i , (6.2)
n
i=l
donde ri son los residuos del modelo. Así, un modelo de nivel n
es la suma de n funciones alisadas de proyecciones sucesivas de
los factores x.
El concepto y filosofía de la proyección sucesiva en
general, y de la regresión por proyección sucesiva en particular,
ha sido revisado, consolidado y extendido por Huber (1985). La
idea de proyección multidimensional de los datos en un subespacio
de dimensión reducida, de manera que se obtengan estimaciones más
fiables, puede verse en Kruskal (1969, 1972), Switzer (1970),
Switzer y Wright (1971) y Friedman y Tukey (1974). Stone (1985)
trabaja con dimensiones reducidas. Algunas teorías sobre la
proyección sucesiva son desarrolladas por Diaconis y Freedman
(1984), Diaconis y Shashahani (1984), Fill y Johnstone (1984) y
Donoho y Johnstone (1989). Hall (1989c) propone un modelo para
la regresión por proyección sucesiva basada en funciones núcleo,
que permite calcular de forma explícita el sesgo y la varianza
del estimador, mostrando el predominio del sesgo frente al error
en dicho modelo.
169
4.7.- UNIFICACIÓN DEL PROCEDIMIENTO DE ESTIMACIÓN DE LA
REGRESIÓN NO PARAMETRICA.
Una de las cuestiones más importantes que deberíamos
plantearnos al enfrentarnos con una estimación no paramétrica
consiste en determinar ¿cuál de estos métodos es siempre el más
apropiado? y, si esto no fuera posible, ¿cuál es preferible ante
una determinada situación?. Desgraciadamente la mayoría de los
trabajos relacionados con las propiedades teóricas de estos
estimadores no responde a estas cuestiones.
Para diseño fijo, con valores de los factores igualmente
espaciados, se puede encontrar alguna igualdad formal entre los
estimadores tradicionales. Aún para el diseño aleatorio, es
posible seguir un modelo general si el parámetro de alisado varía
con la densidad f de la variable aleatoria x.
Un trabajo pionero en este campo, Silverman (1984), muestra
que las quebradas alisadas corresponden aproximadamente a un
estimador núcleo del tipo Priestley-Chao con un ancho de banda
variable proporcional a f"1/4. Por otra parte, el estimador por
puntos más próximos corresponderá a un estimador núcleo con ancho
de banda proporcional a f"1. El trabajo de Jennen-Steinmetz y
Gasser (1988) muestra el modelo que generaliza los estimadores
anteriores y los estimadores núcleo de diseño fijo y aleatorio.
También es posible establecer una cierta equivalencia entre
los estimadores núcleo, con funciones núcleo polinomiales, y los
estimadores con series ortogonales. En este caso, si las series
son desarrollos polinomiales en [-1,1], los estimadores de curvas
polinomiales ortogonales pueden considerarse como estimadores
170
núcleo de ancho de banda fijo pero con orden creciente del núcleo
si n-«>o. El orden del núcleo deberá ser N+l, siendo N el número
de términos del desarrollo en serie de la ecuación (3.2) (ver
Müller, 1988). En cuanto a la regresión polinomial móvil, la
equivalencia con la estimación núcleo se discute en Müller (1983,
1987) y Lejeune (1984, 1985); estos autores señalan que se puede
considerar como un caso especial del estimador núcleo, donde el
orden de la función núcleo viene determinado por el grado del
polinomio fijado en un punto, en el cual, el orden de la función
es igual al grado del polinomio más uno, y la forma de la función
núcleo corresponde a la forma de la función de peso W.
La generalidad de la estimación núcleo, su flexibilidad ante
cualquier tipo de diseño y la sencillez de su concepto hace que
este estimador sea el más empleado entre todos los estimadores
no paramétricos de la regresión, al menos para dimensiones
reducidas. Los recientes trabajos en el campo de los estimadores
por proyección sucesiva avalan el empleo de estos últimos en el
caso de un fallo en los estimadores núcleo, ya que las
propiedades de ambos se complementan. En el estudio de Donoho y
Johnstone (1989) se muestran algunos resultados que confirman
esta complementariedad.
171
CAPITULO 5:ESTIMACIÓN DE LA REGRESIÓN BASADA EN
FUNCIONES NÚCLEO
5.0 - INTRODUCCIÓN.
5.1 - ESTIMADORES NÚCLEO DE LA LINEA DE REGRESIÓN.
1.1. Estimador del tipo de Nadaraya y Watson.
1.2. Estimadores del tipo de Priestley y Chao.
5.2 - FUNCIONES NÚCLEO.
5.3 -MÉTODOS DE DETERMINACIÓN DEL ANCHO DE VENTANA.
3.1. Minimización del ECM(h).
3.2. Minimización del ECMI(h).
5.4 -ESTIMACIÓN NÚCLEO DE LA REGRESIÓN.
CAPITULO 5
ESTIMACIÓN DE LA REGRESIÓN BASADA EN FUNCIONES NÚCLEO
5.0 - INTRODUCCIÓN.
En el capítulo anterior se muestran algunos de los
estimadores no paramétricos de la regresión más empleados. De
ellos, sin duda, el método núcleo destaca por su flexibilidad y
su mejor adaptación a casi todas las situaciones. Por este
motivo, y cada vez con más frecuencia, vienen apareciendo, en los
últimos años, numerosos trabajos sobre aspectos teóricos de este
estimador.
Ya se ha destacado que, en contrapartida, los estudios en
los que se investiga la aplicación de estos estimadores son
escasos. En caso de existir, son más las aplicaciones en otros
procedimientos estadísticos que en el empleo directo con datos
reales. Sin duda esta circustancia, más patente en el caso de
regresión con diseño aleatorio, ocasiona una desorientación
acerca de las pautas que debe seguir el investigador usuario de
las técnicas de regresión no paramétrica por el método núcleo.
En primer lugar, se hace necesario seleccionar alguno de los
173
estimadores núcleo propuestos para el modelo de regresión. En
segundo lugar, se plantea un problema más complejo, deberá
escogerse una función núcleo y un parámetro de alisado basándose
sólo en los datos y en el estimador ya determinado.
En el presente capítulo se muestran los estimadores núcleo
que podrían emplearse, las funciones núcleo, los criterios de
selección del parámetro óptimo y los métodos de estimación de
dicho parámetro. A continuación, se diseñan unas pautas de
comportamiento que deben seguirse para ajustar una curva,
basándose en los datos y las características del problema.
5.1 -ESTIMADORES NÚCLEO DE LA LINEA DE REGRESIÓN.
Los dos tipos fundamentales de estimadores núcleo de la
curva de regresión son el estimador de Nadaraya-Watson (1964) y
el estimador del tipo de Prietsley-Chao (1972).
1.1. Estimador del tipo de Nadaraya y Watson.
Este estimador de la curva de regresión se basa en un método
denominado de la función núcleo. Su expresión, que emplea las
estimaciones de la función de densidad conjunta y de la función
de densidad marginal de la variable x, es causa de que se le
considere como el estimador propio de la curva de regresión de
y sobre x para un modelo de diseño aleatorio.
Si (X,Y) es una variable aleatoria bidimensional con función
de densidad conjunta f(x,y) y f(x) es la función de densidad
marginal de la variable aleatoria X y seleccionamos una muestra
174
(x,-/ Y¡) / con i=l, .../ n, de la población (X, Y), la
aproximación a la curva de regresión, propuesta
independientemente por Nadaraya y Watson en 1964, viene dada por
el estimador
x-X,
S ' l ^ r 1 SÍ¿*(Í^'|,O
A.U.^.1 j>(^ ) « ^A-
"í'fir6)"0- (1-1>
K(x) es una función núcleo, es decir, que cumple las
condiciones de regularidad expuestas por Nadaraya (1989) y que
se recogen en el capitulo 4.
El parámetro de alisado hn es un número positivo que regula
el grado de alisamiento de la curva. Si h->-0, la estimación de la
línea tiende hacia la interpolación lineal de los datos y, si
h-K», la línea converge a la función constante Y .
La expresión del error cuadrático medio de este estimador,
cuando s=2 (siendo s el orden de la función núcleo empleada en
la estima) , fué deducida por Rosenblatt (1969) . A partir de ella,
se obtiene la siguiente ecuación para el parámetro de alisado
óptimo, en el sentido de minimizar el ECMI(hn), (ver Nadaraya,
1989),
ü> Aí(f(x.y).K)r*n^St (1>2) A2 (f(x,y) ,K)
donde,
175
A± (f(x,y),K)=f Var (Y/X=x) f(x) w(x) dxfic2 (u) du, (1.3)
ü2 (f(x,y),K)=f^jyf(xty)dy]"-f"(x)g(x)Jw(x)dx(Ju2K(u)di¡), (1.4)
La dificultad de estimar el valor de A2 es evidente. Además
la expresión de este valor óptimo para funciones núcleo de orden
mayor que 2 aún es más complicada. Por ello, se recurre a
algoritmos automáticos de cálculo para estimar el valor óptimo
del ancho de banda.
La utilización de este estimador con un modelo de diseño
fijo supone estimar la linea de regresión cuando la función de
densidad marginal de la x es conocida. En el caso particular de
observaciones igualmente espaciadas en un intervalo determinado
(por ejemplo [0,1]), puede suponerse que los valores de X están
uniformemente distribuidas U(0,1).
Algunas propiedades de este estimador se recogen en los
trabajos de en Nadaraya (1989) y Hárdle (1991). En particular,
se demuestra que, bajo ciertas condiciones (ver Nadaraya, 1989),
el estimador sigue una distribución asintóticamente normal,
pudiendo obtenerse los intervalos de confianza ya que, si n-+a>,
entonces
P i\gn(x) -g(x) \< X-^^- - 2<&(A)-1, (1.5)
siendo,
176
x ¿Jrí^W.U)) i ^ i — \ n" I ÍK2(U) o2
n(x)= -4- Ü i 2-i ÍK2(u)du. (1.6)
Las dificultades que presenta este estimador, tanto en el
cálculo del ancho de banda óptimo, como en las derivadas de la
línea de regresión, han llevado al uso de otros estimadores más
sencillos.
1.2. Estimadores del tipo de Priestley y Chao.
Este tipo de estimadores núcleo han sido objeto de la
mayoría de los trabajos y estudios realizados en regresión no
paramétrica. Corrientemente, este tipo de estimadores, se ha
empleado para el modelo de diseño fijo, con datos igualmente
espaciados. Sin embargo, es fácil extrapolar los resultados tanto
al modelo aleatorio, como al caso de valores de X con diferente
espaciado.
Nos encontramos con dos expresiones sencillas de este tipo
de estimadores, la debida a Prietsley y Chao (1972),
*.<*.*,)- g í ^ W p ^ . (1.7)
y la obtenida de forma independiente por Gasser y Müller (1979)
y Cheng y Lin (1981) que toma la forma:
177
^•^--ktxA^y^- (1.8)
donde K es una función de densidad simétrica y de cuadrado
integrable y hn el parámetro de alisado, como se mostró en el
capitulo anterior.
La expresión para obtener un ancho de ventana que minimice
el ECM(h) de esta estima, fue obtenida por Gasser y Müller
(1979). Este valor óptimo sigue la ecuación:
£.= „ r o2í1w(t)f(t)-1dt 1 °i Jo
Cwt)gs) (t)2dt Jo /
n C,
2S+1
(1.9)
con,
q= s\ÍKx)2dx, (1.10)
C2= 2s¡Kx)xsdx, (l.ll)
y w(.) es la función peso.
Esta expresión muestra la dependencia del parámetro de
alisado de la línea de regresión subyacente en los datos. A pesar
de esto, su estimación es más sencilla que la de (1.2) propuesta
por Nadaraya.
Es fácil obtener un estimador de este tipo para un diseño
aleatorio. Los estimadores propuestos por Mack y Müller (1989)
son los siguientes;
'•«•u-i*^*^)*» (1.12)
178
§JX,h„)= A £ £>-»K(^)YW. (1.13)
donde X(i) representa el estadístico de orden de la muestra Xíf
i=l, . .., n, e y(j) la observación Y apareada con el valor X(i).
El valor, en el caso de s=2, de la varianza del estimador
es el doble que la varianza del estimador de Nadaraya-Watson,
siendo el sesgo idéntico.
Sin embargo, las ventajas que presenta este estimador sobre
el (1.1) son manifiestas; y se puede obtener con la misma
facilidad que el estimador de la curva de regresión un estimador
de las derivadas de cualquier orden de dicha línea. Este factor
es de gran importancia en el caso de investigar variables que
representen un crecimiento.
El estimador núcleo generalizado de la derivada v-ésima de
g respecto a x (v> 0), es
donde K es la función núcleo y h= h el ancho de ventana. v -1 n
Las condiciones generales que, en este caso, deben cumplir
las funciones g(v) es que sean v veces derivables con derivada
continua en el intervalo [0,1] y además, que g<v) e Lip a ([0,1]).
Además K debe cumplir las siguientes condiciones de
momentos, para s> v
K,tB € Lip( [-1,1])
/*<*>^(_°1)Vvl, jT'- 3n ( 1 - 1 5 > Por otra parte, se requiere, que si n-«», h-»-0 y nhv+1-«».
179
Las propiedades de este estimador se encuentran ampliamente
estudiadas por Müller (1988).
Los intervalos de confianza propuestos para este estimador
se basan en su normalidad asintótica y tienen la expresión
donde
£<v)(x)± $"1(l-a/2) (p2+í>)1/2, (1.16)
V=d^ 1=1
1 p j; (*^W Av+1 J-i-i M ¿ /
(1.17)
3= As"v£(v) U ) (-1) T^jX <*> x sdx (1.18)
5.2 -FUNCIONES NÚCLEO.
Las funciones núcleo empleadas en el estimador de Nadaraya-
Watson, son todas aquellas funciones que cumplen las condiciones
enumeradas en el capítulo anterior. El estudio de las funciones
núcleo óptimas para estimar la línea de regresión por este
procedimiento no ha sido abordada aún desde ningún aspecto.
Por contra, sí existe un estudio de este problema para el
estimador propuesto por Gasser y Müller. Se busca la clase de
funciones núcleo que minimice la varianza del estimador de las
derivadas de orden v de la línea de regresión.
Müller (1984) demuestra que la única solución posible al
problema de minimizar la varianza es emplear funciones núcleo que
sean, para s y v pares o impares los dos, con v+2< s, polinomios
en x de grado (S+2JU-2) en [-1,1]. Los coeficientes de estos
180
polinomios vienen dados por
a - = ( - D ( i + v ) / 2 ( s+v+2n) ! ( s -v ) (g+2|*-i) ( s + i ) ! ( 1 1 9 ) Í i ! ( i - v - l ) 2 2 ( s ^ ) + 1 ( S " V ) ! ( s + v + 2 > i ) ; ( g + S t i - i ) , ( s+i ,
¿* £* ¿» Á
cuando (s+i) es par, y a¡= 0 cuando (s+i) es impar; \Í es un valor
que determina junto con s el grado del polinomio y, por tanto,
la derivabilidad de la función núcleo y del estimador resultante.
En Gasser, Müller y Mammitzsch (1985) se muestran soluciones
explícitas de las funciones núcleo así obtenidas.
Evidentemente, el hecho de que estas funciones minimicen la
varianza del estimador no implica que minimicen el ECM(h) o el
ECMI(h), que también dependen del sesgo del estimador.
5.3 -MÉTODOS DE DETERMINACIÓN DEL ANCHO DE VENTANA.
El patrón de comportamiento de una estima no paramétrica y
su calidad estadística dependen en gran parte del ancho de
ventana seleccionado. Un parámetro de alisado demasiado grande
puede no tener en cuenta características presentes en la curva
de regresión; si es demasiado pequeño puede llevar a considerar
características espúreas debidas a la aleatoriedad. Una selección
puramente subjetiva también es cuestionable por razones
científicas generales.
Los métodos de determinar un valor apropiado del ancho de
ventana se basan en la optimización de alguna de las medidas del
error que se han descrito en el anterior capítulo. Las medidas
más empleadas son el error cuadrático medio, ECM(h) y el error
cuadrático medio integrado, ECMI(h).
181
3.1. Minimización del ECM(h).
Para minimizar el ECM(h) es preciso estimar de alguna forma
este error ya que depende en su expresión de la curva desconocida
g(x). El estimador tradicionalmente empleado es la suma de
residuos al cuadrado:
P(A)= - ¿ (yj-^Ui))2 wUj) . (3.1)
Desafortunadamente P(h) es un estimador sesgado del ECM(h). Este
estimador tenderá a cero si el parámetro de alisado h tiende a
cero.
Para soslayar este problema se han propuesto dos métodos
diferentes: el primero, utilizar una función de penalización que
corrija el sesgo del estimador; y el segundo, emplear el
estimador de validación cruzada.
A) Método de penalización:
La estimación del error, según Hárdle (1991), puede
expresarse, en este caso, de la forma
G(tl) = 1 ¿ (Yi-SJXj)2 Qn-1Whi(X1))w(X1), (3.2) n i=1
donde,
Whi= K^X-XJ / ía(x) . (3.3)
La aproximación al ancho de ventana óptimo presenta diferencias
sustanciales al emplear diferentes funciones de penalización.
Algunas de las funciones de penalización más empleadas, 9(u), se
recogen a continuación.
182
a) Modelo selector de Shibata (Shibata, 1981)
9(u) = l+2u (3.4)
b) Validación cruzada generalizada (Craven y Whaba 1979; Li
1985)
9(u) = (1-u)-2 (3.5)
c) Criterio de información de Akaike (Akaike 1970)
9(u) = e2u (3.6)
d) Error de predicción finita (Akaike 1974)
Q(u)=±m (3.7) 1-u
e) T de Rice (Rice 1984)
9(u) = (1-2U)'1 (3.8)
B) Método de validación cruzada:
El método de validación cruzada emplea un estimador de la
línea de regresión en un punto de la muestra, eliminando este
punto en el cálculo de la estima, siendo
n-l
§n.i(Xi)= -Z^T JZHHÍXJYJ. (3-9)
En la expresión del error de predicción sustituimos el estimador
original por este último, así obtenemos una función VC, que
depende sólo de h, para una función núcleo determinada.
183
vc(h)= A ¿ (^Í-^,Í(^Í))2 " W • (3-10)
Se deduce inmediatamente del análisis del error que VC(h)-a2
es un estimador asintóticamente insesgado del ECM(h) . Obtendremos
un estimador de h minimizando la función VC(h) respecto a este
parámetro.
La optimización algorítmica de esta expresión no es una
operación trivial. Se han desarrollado dos métodos diferentes
para determinar el mínimo: un método de búsqueda en una malla,
sobre valores de espaciado igual o desigual, siendo importante
esta elección así como la de un criterio adecuado de
convergencia; el otro método, realiza una aproximación parabólica
sucesiva de la función VC(h), comenzando con un ancho de banda
grande y empleando en la siguiente aproximación valores ya
calculados. El primer algoritmo es, sin duda, muy lento, en
particular para tamaños de muestra grandes.
3.2. Minimización del ECMI(h).
Un método basado en un ancho de banda asintóticamente
óptimo, hn, otenido al minimizar la expresión analítica del error
cuadrático medio integrado, es el propuesto por Gasser et al.
(1991).
Se parte de la expresión de este parámetro óptimo que es de
la forma
184
4-( n \
^ r o2[ wt)f(t)-xdt 1 <-i Jo
fV(t)r<s) (t)2dfc Jo /
n C,
i 2s+l
(3.11)
con C1 dado por (1.10) y C2 por 1.11, siendo w(.) la función
peso, (Gasser y Müller, 1984).
La función w(.) se emplea por conveniencia matemática, para
excluir efectos de borde; se supone continua y diferenciable con
soporte [6,1-6], y w(t)> 0 para te (6,1-6). Esta función también
contribuye a estabilizar el procedimiento de cálculo del
parámetro de alisado, no empleándose para la estima de la
regresión.
En esta expresión del parámetro de alisado se observa su
dependencia de la varianza residual, de la derivada de orden s
de la línea de regresión, y de la función de densidad marginal
de la variable x.
Si queremos obtener un valor del ancho de banda a partir de
los datos contenidos en la muestra, será preciso estimar los
valores desconocidos de la expresión anterior.
Un estimador consistente no paramétrico para a2, varianza
del error o residual, puede calcularse rápidamente por alguna de
las dos expresiones siguientes
82= 27¿ir £ lY~-r> ( 3 . 1 2 )
^-Trhr 5 M <^-w)! ( 3 . 1 3 )
Estos estimadores los propone Rice (1984) y estudios sobre sus
propiedades, así como su empleo en otros métodos de estimación
185
no paramétrica, aparecen en Breiman y Meisel (1976), Müller
(1985), Gasser et al. (1986) y Müller y Stadtmüller (1987).
Para estimar la derivada s-ésima de la línea de regresión
que aparece en el denominador de esta expresión se recurre a los
estimadores núcleo para las derivadas (Gasser y Müller, 1984).
Debe tenerse en cuenta que la estimación de las derivadas
requiere la especificación de un ancho de banda distinto.
El algoritmo de enlace iterativo, propuesto y estudiado por
Gasser et al. (1991), consta de los siguientes pasos:
Primero, se toma un valor inicial de h, h 0= 1/n.
Segundo, para i= 1, 2, ..., se calcula
15,= (i q <_* \TITI ( 3 I 1 4 )
n C2 fV(t)^ ( s ) (tíñi__.n2i2s+1) )2dt Jo ,
Tercero, cuando se llega a las 11 iteraciones se para y se
toma ñ opt= h „.
Se han comprobado sus buenas propiedades, en teoría y con
simulación, tanto para pequeñas como para grandes muestras.
Se puede obtener, por este procedimiento, una estimación del
valor del parámetro de alisado para un diseño aleatorio,
multiplicando el numerador por el factor 1,5 y presentando,
también en este caso, una buena aproximación al óptimo real.
Las propiedades del algoritmo más destacables son: La
selección del ancho inicial, que no requiere ningún conocimiento
a priori, y el pequeño tamaño del ancho inicial que capacita para
identificar pequeños anchos de banda óptimos. El ancho de banda
empleado para la estimación de la segunda derivada de la línea
186
de regresión se sobreestima con respecto al ancho de banda de
interés con una razón de n1/1°, para un orden s=2, lo que lleva a
razones de orden n"1/2 para términos del error de la función a
estimar. Se realiza un número alto de iteraciones que propician
un buen funcionamiento del algoritmo.
5.4 -ESTIMACIÓN NÚCLEO DE LA REGRESIÓN.
Se propone en este apartado un método operativo muy general,
que permita la estimación de la línea de regresión en el mayor
número de situaciones posibles. Se han mostrado en este capítulo
distintas opciones que se pueden escoger a la hora de estimar la
regresión por este procedimiento. Hay distintos tipos de
estimadores núcleo, criterios de selección del ancho de ventana
óptimo diferentes y además, varios métodos de estimación del
parámetro de alisado óptimo.
Ya nos hemos referido a las dificultades que se plantean al
escoger un estimador del tipo (1.1) (Nadaraya-Watson) para
estimar la línea de regresión. Los estimadores del tipo Priestley
y Chao (1.7, 1.8, 1.12 y 1.13) soslayan estos problemas a cambio
de aumentar el error cuadrático medio integrado (ECMI) de la
estimación. A pesar de este último inconveniente, las ventajas
que presentan estos estimadores, en tiempo de cálculo y facilidad
en la estimación de las derivadas de la línea de regresión, son
considerables. La flexibilidad y sencillez de la estima nos hacen
considerarlo el más adecuado para un procedimiento general de la
estimación núcleo de la regresión.
Se ha empleado para el diseño fijo, en este trabajo, el
187
estimador del tipo de Gasser y Müller (1979)
«!•'«- -¿* i i i:; * (^)* ^. «* • i> rrzn i-i J=I*'SÍ-I v •" /
donde k es el número de valores fijos de X, y r es la cantidad
de observaciones Y para cada valor de X ,y n=rk.
Para el diseño aleatorio se ha escogido el estimador (1.12)
de Mack y Müller (1989).
Independientemente de la selección del tipo de estimador,
debemos escoger un criterio para el cálculo del parámetro de
alisado. La controversia existente en este punto es grande,
trabajos muy recientes como el de Gasser et al. (1991) y Hárdle
(1991) emplean distintos criterios. Sin embargo, hay que tener
en cuenta que el ancho de banda es una cantidad auxiliar para la
estimación, y el criterio establecido para determinar la bondad
de la estimación es el ECMI. Esta no es una razón suficiente para
preferir el criterio del ECMI, sin embargo, al no constituir
ninguno de los dos criterios una mejora sustancial respecto al
otro, consideramos el criterio del ECMI. Además, la existencia
de una relación entre los dos óptimos permite calcular el óptimo
con respecto al ECM en función del óptimo con respecto al ECMI -
ver Müller (1988)-, por lo que la elección previa de criterio
pierde parte de su importancia.
El método de estimación del parámetro de alisado se ha
escogido basándonos en los resultados y conclusiones de los
trabajos de Gasser y Kóhler (1990) y Gasser et al. (1991), que
proponen un algoritmo de enlace ("plug-in") para la estimación
del ancho de banda óptimo que minimiza el ECMI. Esta estimación
se caracteriza por su baja variabilidad, en contraste con las
188
reglas descritas de validación cruzada; su buen funcionamiento
para muestras de pequeño tamaño; y su flexibilidad, ya que es
aplicable a problemas de regresión con diseños igual o
desigualmente espaciados, fijos o aleatorios, pudiendo emplearse
también en problemas con dimensiones mayores.
Emplearemos, por tanto, el estimador del tipo 1.8, el
criterio del ECMI(h) y para estimar el ancho de banda óptimo el
algoritmo de enlace.
Un problema que se plantea al estimar la línea de regresión,
tanto en un diseño fijo como en uno aleatorio, es la tendencia
de ésta a descender bruscamente en los extremos del intervalo que
contiene al conjunto de datos muéstrales.
Si g(x) está definida en [0,1] este efecto negativo en el
comportamiento de la curva de regresión, que tiene que ver con
el ancho de banda h empleado, se manifiesta en las bandas en las
que x pertenece a [0,h] o [l-h,l]. Así cuanto mayor sea el valor
de h, mayor será la región donde la línea de regresión se
encuentre distorsionada. En el presente trabajo se ha subsanado
este problema de una forma sencilla, sin modificar el ancho de
ventana óptimo estimado. Se ha procedido a crear una
pseudomuestra por reflexión, de tal manera que los puntos de la
muestra inicial que se encuentran en los intervalos [0,h] y [1-
h,l] se duplican de la siguiente forma:
Si (Xi ,Y) son r puntos de la muestra inicial con
X1 < X2 <...< Xp e [0,h], se tomarán otros r puntos (X'^Y'j) de
tal forma que X1,. = -X., e Y', = 2Y1 - Y,-. En el caso de un diseño
fijo con varias observaciones para un valor dado de X, el valor
de Y, de la ecuación anterior es la media de las observaciones Y
189
para el valor X1.
Si (X.,Y.) son k puntos de la muestra inicial con
xn-k - xn-k+i •••^ xn e [1_n/l]/ s e toman otros k puntos (X'.,Y'.)
de tal manera que X'j = 2-X j, e Y1, = 2Yn - Yj. En el caso de un
diseño fijo con varias observaciones para un valor dado de X, el
valor de Y de la ecuación anterior es la media de las n
observaciones Y para el valor Xn.
La pseudomuestra, sobre la que calcularemos la línea de
regresión, contiene los n puntos de la muestra inicial y los k+r
puntos generados con las ecuaciones anteriores.
El procedimiento empleado en este trabajo tiene algunos
puntos de contacto con el propuesto por Hall y Wehrly (1991) para
la estima de la regresión empleando estimadores del tipo de
Nadaraya-Watson.
En la figura 5.1 puede apreciarse, para un modelo de
regresión con diseño fijo, la curva de regresión que se obtiene
empleando los n puntos de la muestra inicial (curva que desciende
bruscamente en los extremos) y la curva de regresión obtenida con
la pseudomuestra. Los puntos que aparecen fuera del cuadrado
[0,l]x[0,l], son los añadidos a la muestra inicial.
En la figura 5.2 se ilustra el mismo procedimiento en el
caso de un modelo de diseño aleatorio.
La mejora en el ajuste de la línea de regresión a los datos
muéstrales es clara. La sencillez y generalidad del procedimiento
empleado lo hacen muy apropiado para formar parte de este método
de actuación en la estima de la regresión.
190
AJUSTE EN [0 ,11 Ho=.508 g= G s= 6 P= 3
n
, ***«ÍÍ^jüí '.fh
Í H * *
f í i ' l
Figura 5.1. Estimación con la pseudomuestra en un Hod. fijo.
191
AJUSTE EN [0,1] Ho=.555 v= 0 s= 6 P= 3
* .<•>
4' í*
Figura 5.2. Estimación con la pseudomuestra en un Mod. aleat.
192
Aún nos encontramos ante varias opciones. Al referirnos al
estimador (1.8), se precisó la forma de las funciones núcleo que
minimizan la varianza del estimador. Estas funciones núcleo son
polinomios en x, de grado S+2/J-2 y con coeficientes a. dados por
la expresión 2.1.
Las funciones obtenidas de esta forma dependen de los
valores que tomen v, s y ¡i. El valor de v es igual al orden de
la derivada que se va a estimar con la función núcleo. El valor
de s es el orden de la función núcleo. Los tres valores son
enteros no negativos tales que v+2 < s . El mayor o menor grado
de alisado de la linea estimada va a depender de los valores de
s y /i.
La elección de los valores de s, para estimar la línea de
regresión (v=0), se limita a valores pares y mayores o iguales
a 2 ; ju se escogerá entre 0 y 3 generalmente.
Las siguientes figuras (figuras desde 5.3 hasta 5.7)
muestran las diferentes estimaciones obtenidas con la misma
realización muestral, para un diseño fijo, variando los valores
de s y JU, con el ancho de ventana óptimo estimado para cada
función núcleo. En este caso apenas se aprecian diferencias en
la línea de regresión estimada. Sí es importante hacer constar
que para un mayor grado de alisado, se obtienen estimaciones de
los anchos de ventana óptimos de mayor tamaño ( íi crece
cuando aumentan s o n).
193
fr6T
(OCTJ *POH) 'E'S wanfeTj
i—i—i—i—i—i—i—i—i—i—rn—i—i—i—i—i—i é é.,^
60T2Tí>¿fr866660"2£ - £¿69H:8EO0OOOT* ST '•!> 2V3. 13d NOIOVIHUA zz - T :x ara iaa woiov&iyf»
UARíACIOM DEL EJE X: 1 - 2 2 UARIACIOM DEL EJE Y: 15.10000038146973 - 32.09999847412109
>" o q> i L_l I I I L_! I I L_J I I L_J L_L
Figura 5.4. (Mod. fijo)
195
VfiBmCiQtj DFT Prr,
*" 1S-^0000381^373 - 32.C 099998^4121O9
Figura 5.5. ÍHod. «jo)
196
UARIBCION DEL EJE X: 1 - 22 UARIACION DEL EJE V: 15.10000038146973 - 32.09999847412109
\ v o i i i i i i i i i i i i i i i i i i
Figura 5.6. (Mod. fijo)
197
UARIACION DEL EJE X: 1 - 2 2 UARIACION DEL EJE V: 15.10000038146973 - 32.09999847412109
i
Figura 5.7. (Mod. fijo)
198
Un mayor tamaño del ancho de banda empleado en la estimación
representa una mayor influencia de los malos efectos en la
estimación de los bordes y por tanto obligan a generar una
pseudomuestra de mayor amplitud. Como puede suponerse esta
circustancia no es deseable en absoluto. Este efecto se puede
apreciar en las figuras 5.8, 5.9 y 5.10.
En el caso de un modelo aleatorio la situación es diferente.
La variación en los valores de s y /i sí representa una variación
apreciable en la línea estimada de la regresión. Con valores s
= 2 y jit = 0 (figura 5.11) la línea estimada presenta oscilaciones
que se pierden por completo estimando con la función de s = 2 y
fj, = 3 (figura 5.12). Se aprecia también un mayor alisamiento en
la estimación con los valores s = 6 y ¡i = 3 (figura 5.13). Un
alisamiento excesivo de la línea de regresión no resulta
conveniente, al menos en la mayoría de los casos, ya que se
pueden perder características importantes de la variable. Además,
como en el caso de un modelo fijo, se presenta junto con el
aumento de s y \Í, un aumento del ancho de banda estimado, con el
efecto "de borde" no deseado que conlleva. Ver figuras 5.^, 5.15
y 5.16.
Por todo esto una elección que creemos conveniente es, por
regla general, la función con valores s = 2 y /i = 3. Si, por las
características de la variable, o del análisis de los datos
muéstrales pudiera inferirse la presencia de oscilaciones
frecuentes o discontinuidades, se recomienda, en el primer caso,
el empleo de la función con s = 2 y / x = l y , en el segundo caso
la función con s = 4, y. =3, que creemos son más apropiadas en
estas circustancias.
199
AJUSTE EN [ 0 , 1 ] Ho- ,132 u= O s= 2 P= 3
Figura 5 . 9 . (Mod. f i j o )
201
UAMACIÜN DEL EJE X: 2.4GG0GGG95367432 - 12.64999961853G27 VARIACIÓN DEL EJE V: .60GGGGG238418579 - 25.5
Figura 5.11. (Mod. aleat.)
203
VARIACIÓN DEL EJE X: 2.400000095367432 - 12.64999961853027 UARIACIOII DEL EJE V: .6000000238418579 - 25.5
Figura 5.12. (Mod. aleat.)
204
VARIACIÓN DEL EJE X: 2.4GG0GGG95367432 - 12.6499996185302? VARIACIÓN DEL EJE Y: .6GGGGG0238418579 - 25.5
Figura 5 . 1 3 . (Mod. a l e a t . )
205
¡¡JUSTE EN [Q JJ
s= 2
Figu** s.a*. <Ho«- « ! • . * . )
2 0 6
AJUSTE EN [0,11 Ho=.555 u= 0 s= 6 P= 3
Figura 5 .16 . (Mod. a l e a t . )
208
El método general para la estimación no paramétrica de la
regresión con funciones núcleo se puede resumir de la siguiente
forma:
Primero. se emplea el estimador (4.1) si el modelo de
regresión es de diseño fijo y el estimador (1.12) si el modelo
es aleatorio.
Segundo, se calcula un parámetro de alisado con el algoritmo
de enlace descrito en (3.2).
Tercero. se crea la pseudomuestra que elimina los defectos
de la estimación en los extremos del intervalo que contiene a los
datos, con el procedimiento que se relaciona en páginas
anteriores.
Cuarto. se escoge la función núcleo que, por defecto, será
v = 0, s = 2, (M =3.
209
CAPITULO 6:APLICACIONES A EJEMPLOS FORESTALES DE
LA ESTIMACIÓN NÚCLEO DE LA CURVA DE REGRESIÓN
6.0 - INTRODUCCIÓN.
6.1 - ESTUDIO DE LAS RELACIONES ENTRE LA CANTIDAD DE
BIOMASA Y CIERTAS VARIABLES DENDROMETRICAS.
1.1. Relaciones del PFRF con el diámetro y la
altura del árbol.
1.2. Relaciones del PST con el diámetro y la
altura del árbol.
1.3. Relaciones del PFT con el diámetro y la
altura del árbol.
1.4. Conclusiones.
6.2 - ESTUDIO DE LAS RELACIONES ENTRE LA EDAD DE POLLOS
DE PERDIZ Y ALGUNAS VARIABLES QUE MIDEN EL
CRECIMIENTO.
2.1. Relación entre el peso y la edad.
2.2. Relación entre la longitud total y la
edad.
2.3. Relación entre la longitud de la cola y la
edad.
2.4. Relación entre la longitud del ala y la
edad.
2.5. Relación entre la longitud del tarso y la
edad.
2.6. Relación entre la longitud desde el culmen
y la edad.
2.7. Relación entre la longitud desde la narina
y la edad.
2.8. Relación entre la anchura del pico y la edad.
CAPITULO 6
APLICACIONES A EJEMPLOS FORESTALES DE LA ESTIMACIÓN NÚCLEO DE
LA LINEA DE REGRESIÓN.
6.0 - INTRODUCCIÓN.
Cuando se estudian conjuntamente dos o más variables, es
lógico tratar de conocer y evaluar el grado de asociación entre
las mismas. El análisis de regresión establece esta asociación
mediante la definición de una relación funcional entre variables.
Resulta evidente que la estimación no paramétrica de la regresión
no puede proporcionar una expresión general sencilla y única de
esta relación; sin embargo supone importantes ventajas respecto
a la regresión paramétrica, que, en general requiere de fuertes
restricciones respecto a la generalidad del procedimiento. No
solo se deben satisfacer unas hipótesis previas con frecuencia
alejadas de la realidad, sino que además al emplear funciones
concretas, las soluciones obtenidas pueden enmascarar
características importantes de la relación. Por tanto, cuando se
busca conocer las características de esta relación entre
variables, por encima de la determinación de una ecuación que nos
212
permita predecir valores de una variable conocido el valor de
otra, es aconsejable el empleo de los métodos de estimación no
paramétrica.
De los métodos no paramétricos, descritos en el capítulo 4,
se ha elegido el método núcleo como el más aplicable en el campo
de la gestión forestal, tanto por su sencillez, como por su
generalidad. Este procedimiento se adapta mejor a la diversidad
de situaciones que pueden presentarse en nuestras aplicaciones.
La regresión se ha empleado ampliamente en los estudios de
gestión forestal. Se podrían encontrar numerosos ejemplos de
búsqueda de la curva de regresión que relaciona dos o más
variables en el campo forestal; en este trabajo nos hemos
limitado a estudiar dos problemas: Las relaciones entre la
biomasa y ciertas variables dendrométricas y, las relaciones
entre variables que miden el crecimiento y los días de vida de
pollos de perdiz.
El estudio de fuentes renovables de energía no deja de ser
un tema de actualidad permanente. De las fuentes existentes, se
presta atención a la proporcionada por las plantas las cuales,
mediante la fotosíntesis, actúan como captadores de la energía
radiante del sol y la transforman en energía bioquímica útil. El
producto final de este proceso es la producción de biomasa -
material constituido por compuestos de carbono reducido- que
produce combustibles utilizables directamente o mediante procesos
de transformación. Por ello, el estudio de la producción de
biomasa de una masa forestal es importante para planificar la
ordenación del monte. Para su determinación se buscan relaciones
con otras variables más fáciles de medir. La regresión no
213
paramétrica, además de resolver los problemas de predicción,
aporta un conocimiento de la influencia de estas variables en el
crecimiento de la biomasa y permite obtener conclusiones respecto
a un mejor aprovechamiento del monte desde el punto de vista
energético. Como ejemplo de aplicación, se parte de un modelo de
diseño aleatorio en el que para un árbol se miden varias
variables relacionadas con el crecimiento y la cantidad de
biomasa. (Datos tomados de González Doncel, 1987) .
Otro de los aprovechamientos tradicionales del monte es la
producción cinegética. La perdiz roja es una de las especies más
comunes objeto de la caza y su importancia en este ámbito ha
originado un gran interés por la cria de los pollos de perdiz.
En la actualidad, se investigan su comportamiento y hábitos
alimenticios. El conocimiento de ambos puede reportar un mayor
control sobre la presencia y número de individuos de esta especie
en las zonas tradicionalmente consideradas como cinegéticas. Un
aspecto importante en la cria de los pollos de perdiz es el
crecimiento en los primeros días de su vida. Para su estudio, se
ha considerado un diseño fijo en el que, durante los primeros 22
dias de vida de los pollos, se han medido varias variables
relacionadas con el crecimiento. (Datos tomados de la tesis
doctoral que está realizando Rueda de Andrés).
214
6.1 - ESTUDIO DE LAS RELACIONES ENTRE LA CANTIDAD DE BIOMASA
Y CIERTAS VARIABLES DENDROMETRICAS.
Ya se ha comentado la importancia del volumen de biomasa
producida por una masa arbolada desde un punto de vista
energético. Se trata de un aprovechamiento tradicional de las
masas de rebollo, que se ha visto impulsado recientemente por la
necesidad de encontrar fuentes de energía renovables y
autóctonas. Además, el empleo de maquinaria forestal hacen
rentable este aprovechamiento desde el punto de vista económico.
Algunas de las cuestiones que se plantean, si se busca un
aprovechamiento óptimo de la masa arbolada, son la posible
utilización completa del árbol y el momento de la corta. En el
primer caso, se debe considerar la posible incidencia sobre el
ecosistema; esto es, las consecuencias ecológicas de la retirada
de unos componentes de la biomasa que anteriormente quedaban
abandonados en el monte, y por lo tanto, incorporados al proceso
de descomposición y reutilización por la vegetación, su
eliminación puede tener efectos importantes. Este riesgo puede
disminuirse dejando en el monte las componentes de mayor riqueza
en bioelementos (ramillas, cortezas y hojas). Como consecuencia
una variable interés ecológico es el peso fresco de ramas finas,
que quedarían en el ecosistema en este tipo de aprovechamiento.
Por otra parte, la producción energética se obtiene del fuste del
árbol y de las ramas gruesas, que se emplearán cuando la madera
esté seca. Como consecuencia, otra variable de interés es el peso
seco de estas partes del árbol. Las consideraciones anteriores
nos llevan a la conclusión de que el mejor momento de corta es
215
aquél en que obtenemos un mayor peso de ramas finas y de madera
seca. Consideraremos también la variable peso fresco total que
incluye el peso del fuste, ramas qruesas y ramas finas.
La estimación de la mayor producción de peso seco del fuste
y las ramas gruesas, que denominaremos PST; de peso fresco de
ramas finas, denominado PFRF; y del peso fresco total de la
biomasa (PFT), requiere obtener unas relaciones entre las
variables de interés y variables que sean fácilmente medibles en
el árbol y que estén relacionadas con el crecimiento; éstas son
el diámetro normal y la altura.
La variable que más aparece en todo tipo de inventarios es
el diámetro normal, o diámetro del árbol a l1 30 metros de altura,
ya que es la que menor dificultad entraña en su medición y es la
mejor correlacionada con la forma y crecimiento del árbol. La
altura también se ha empleado tradicionalmente como variable
independiente en la formulación de modelos paramétricos para
predecir la biomasa, pero este empleo ha sido cuestionado
fundamentalmente por la dificultad y tiempo empleado en su
medida.
Disponemos para el estudio de las relaciones entre estas
variables de mediciones, en una muestra de 105 árboles, de
diámetros normales medidos en centímetros; alturas medidas en
metros; y, PFRF, PFT y PST en kilos. La muestra procede de las
masas de rebollo (Q. pyrenaica Willd) de la provincia de León.
Para obtener esta muestra, se eligieron 27 puntos de muestreo al
azar, dentro de la superficie explotable. En cada punto se
replanteó una parcela circular de 10 m. de radio, midiendo en
éstas los diámetros normales de todos los pies y estableciendo
216
asi clases diamétricas de 1 cm. de amplitud con centro de clase
en los números enteros dentro del rango diamétrico
2'5 cm.-24,5 cm. (con diámetro superior a éste sólo se encuentra
un 10% de la población inventariada). Se seleccionaron a
continuación 105 árboles del conjunto de las 27 parcelas, de tal
manera, que estuvieran representadas todas las clases
diamétricas, y se midió con relascopio las alturas de dichos
árboles, abatiendo a continuación estos pies. A continuación, se
pesaron los distintos componentes del árbol y por medio del
cociente medio "peso seco/peso fresco" se determinó el peso seco
del fuste del árbol y de las ramas gruesas, desecando en estufa
algunos discos de madera procedentes de dichas partes del árbol.
1.1. Relaciones del PFRF con el diámetro y la altura
del árbol.
En la figura 6.1 se muestra la linea de regresión (de trazo
más grueso), estimada por el procedimiento descrito en el
capitulo 5 y el intervalo de confianza al 95% (lineas de trazo
más fino), asi como los datos muéstrales (círculos de la figura).
En el eje horizontal se representan los diámetros y en el eje
vertical el peso fresco de ramas finas (PFRF).
Se observa en esta figura un aumento bastante uniforme del
peso en función del diámetro, aunque se aprecia en dos puntos una
disminución del ritmo de crecimiento.
217
" * & EJE V: ¿L~Z1.S
~ 21
y o s s
/
/ /
o . /
O w o . / /
o o. o /
°S°h
8 ,A .sito cP
o
<V-^o <£
0.°--"
o
• t j
« 9 » « , . , - ^
318
En la figura 6.2 se representa la línea de regresión
estimada y el intervalo de confianza del 95%. En el eje de
abcisas se recoge la variación de la altura y en el eje de
ordenadas, la variación del peso fresco de ramas finas.
Puede apreciarse en esta figura una menor relación entre las
variables. Muchos de los valores se encuentran fuera del
intervalo de confianza, siendo éste de mayor amplitud que el
obtenido en la línea anterior. En este caso se aprecia un menor
aumento del PFRF cuando la altura del árbol es extrema, tanto
cuando es pequeña, como cuando es grande. Sin embargo, en ambos
casos, el máximo peso se obtiene con el diámetro y altura mayor,
lo que nos obliga a concluir que, cuanto mayor es el crecimiento
del árbol, mayor es la cantidad de biomasa que revertiría en el
monte en el caso de un aprovechamiento bien planteado.
1.2. Relaciones del PST con el diámetro y la altura
del árbol.
El estudio del peso seco total (PST) , relacionado con la
producción energética que deseamos obtener con este
aprovechamiento del rebollo, se refleja en las figuras 6.3 y 6.4.
219
UARIACION DEL EJE X: 2.400000095367432 - 12.64999961853027 VARIACIÓN DEL EJE Y: .6000000238418579 - 25.5
Figura 6.2. Relación del PFRF con la altura
220
UARIftCION DEL EJE X: 2.5 - 24 VARIACIÓN DEL EJE V: .6899999976158142 - 209.7100067138672
/
* /
* . r
/ j
V * / •'
y ' *
/ /y
_ / * •
y * *'"* r /**" /
-•••* +
V ^ / * ,
..--'
/'
/ /'
,-'
/ / /
/A / / / • / / f
/ / ' / / / /
* / '' . / / / * / /
/ / / *
<•
Figura 6.3. Relación del PST con el diámetro
221
VARIACIÓN DEL EJE X: 2.4GGGGGG95367432 VARIACIÓN DEL EJE Y: .6899999976158142
12.64999961853G27 176.21GGG67138672
Figura 6.4. Relación del PST con la altura
222
En la figura 6.3 se representan las variaciones del PST (eje
de ordenadas), frente al diámetro (eje de abcisas). La relación
entre ambas variables es bastante buena. El intervalo de
confianza es de pequeña amplitud y casi todos los valores
muéstrales se encuentran dentro de éste intervalo. La línea de
regresión es siempre creciente y cóncava casi siempre,
presentando un valor máximo de PST para el mayor valor
diamétrico.
En la figura 6.4 se refleja la relación entre el PST, medido
en el eje vertical y la altura del pie, medida en el eje
horizontal. En este caso la relación entre las variables no es
tan buena como la anterior. La característica fundamental de esta
línea de regresión es que la curva es siempre creciente,
presentando un punto de inflexión para alturas comprendidas entre
6 y 7 metros. A partir de este punto, el aumento de peso seco del
fuste y ramas gruesas es mayor para un menor aumento de altura.
El máximo peso se encuentra también para una altura máxima.
1.3. Relaciones del PFT con el diámetro y la altura
del árbol.
El peso fresco total del árbol es el conjunto de la biomasa
producida por éste. Se ha relacionado la cantidad de biomasa, con
el diámetro y la altura del árbol.
223
WmciON DPT tf r
2 - I 5 0 0 ^ 9 5 3 6 7 4 3 2 ~ 375. 2 9 9 9 8 7 ? 9 2 9 6 3 8
224
VARIACIÓN DEL EJE X: 2.400000095367432 - 12.64999961853027 VARIACIÓN DEL EJE Y: 2.150000095367432 - 323.6000061035156
Figura 6.6. Relación del PFT con la altura
225
La cantidad de PFT, cuya variación se recoge en el eje de
ordenadas, se relaciona con el diámetro (eje de abcisas) en la
figura 6.5. Esta relación es muy semejante a la anterior, lo que
nos lleva a considerar la poca importancia, desde el punto de
vista de la variación en cantidad de biomasa total que tiene el
peso de las ramas finas.
La figura 6.6 muestra la variación del PFT (eje vertical)
frente a la altura (eje horizontal). Esta variación es similar
a la mostrada en la figura 6.4, aunque se aprecia una ligera
disminución en la amplitud del intervalo de esta segunda linea
estimada.
La producción máxima de biomasa se produce con el mayor
diámetro y altura del árbol.
1.4. Conclusiones.
En general, pueden extraerse de las relaciones anteriores
las siguientes conclusiones:
Primero; La cantidad de biomasa, medida en PFT; la cantidad
de biomasa que se dejaría en el monte (PFRF) y la cantidad de
materia que se aprovecharía en la producción de energía, medida
en PST, se miden más fácilmente y con mayor precisión empleando,
de las dos variables consideradas, el diámetro normal.
Segundo; Se produce un aumento de la velocidad del
crecimiento de la producción de biomasa en peso (PFT) y de la
producción de biomasa destinada al aprovechamiento energético
(PST) a partir de una altura del árbol de 6 a 7 metros. La mayor
velocidad de crecimiento en PFRF, corresponde a alturas
226
comprendidas entre 6 y 11 metros aproximadamente.
Tercero: La mayor producción de biomasa dejada en el monte
y biomasa aprovechada en la producción de energía, coincide con
el mayor diámetro y el mayor tamaño en altura.
Cuarto: De lo anterior se deduce que un mejor
aprovechamiento del monte, tanto desde el punto de vista
económico como desde la consecución del menor daño producido al
ciclo ecológico, implica un turno de corta lo más largo posible.
Se debería cortar cuando el diámetro normal alcanzara el valor
de la clase diamétrica extrema.
6.2 - ESTUDIO DE LAS RELACIONES ENTRE LA EDAD DE POLLOS DE
PERDIZ Y ALGUNAS VARIABLES QUE MIDEN EL CRECIMIENTO.
La perdiz roja (Alectoris rufa) es, entre las diversas
especies cinegéticas que pueblan los montes españoles, una de las
más apreciables por su alto valor faunístico y económico. No es
de extrañar que se haya centrado la atención además de en
diversos aspectos de su ecología, en el conocimiento de su
régimen alimentario. Los estudios realizados sobre la tasa de
mortalidad de las perdices demuestran que el índice más elevado
se alcanza durante las primeras semanas de vida. Entre las causas
de la mortalidad elevada cabe destacar -además de la depredación
y las enfermedades- las condiciones climáticas desfavorables, y
como apartado de relevante importancia, la escasez de insectos
que en este período constituyen un componente esencial de la
dieta. El conocimiento, por tanto del régimen alimentario de los
pollos de perdiz, por las consecuencias que de éste derivan,
227
resulta de gran interés ya que puede traducirse en una posible
ordenación y gestión de los espacios naturales, encaminada a
conseguir un ambiente propicio para que la alimentación natural
de los pollos se desarrolle en mejores condiciones de
supervivencia.
La dificultad existente en la determinación de la edad de
los pollos de perdiz capturados en el campo, hacen necesaria una
estimación de ésta, que se busca por medio de una línea de
regresión entre la edad de pollos de granja y diversas variables
que dependen del crecimiento.
Con el propósito de determinar cuales de las variables
estudiadas serían más eficaces para determinar la edad de los
pollos de perdiz de granja -valores que se extrapolan
posteriormente a los pollos de campo-, y de obtener conclusiones
sobre el crecimiento de los pollos criados en una granja, se
analizó una muestra de pollos en la granja de cría de perdices
de Quintos de Mora (Toledo) , dependiente del ICONA. La muestra
empleada fue de 264 ejemplares (21 lotes de 12 individuos)
correspondientes a los primeros 21 días de vida.
De cada ejemplar se tomaron las siguientes medidas: peso,
longitud total, longitud del ala plegeda, longitud del tarso,
longitud de la cola, longitud del pico desde el culmen, longitud
del pico desde las narinas y anchura del pico, según la
metodología habitual (ver Svensson, 1975).
La estimación de las líneas de regresión se ha realizado con
el método descrito en el capítulo precedente, para el caso de un
diseño fijo, empleando la función núcleo de parámetros v=0, s=2
y ¡1=3 y el método de enlace para la estimación del parámetro de
228
alisado.
En las figuras en que se muestran las estimaciones de la
línea de regresión, se representa en el eje de abcisas la edad
de los pollos de perdiz en días, y en el eje de ordenadas, las
variables que empleamos para determinar el crecimiento. Los
círculos son los valores muéstrales; la linea central, de trazo
más grueso, es la curva de regresión estimada y las dos líneas
exteriores, de trazo más fino, son los límites de confianza, al
95%, de la línea estimada.
2.1. Relación entre el peso y la edad.
La línea de regresión estimada con el método núcleo,
empleando un valor del anho de banda h=0'141, que refleja la
relación existente entre el peso y la edad, medida en días de
vida, del pollo de perdiz se muestra en la figura 6.7. En ella
se aprecia una buena relación entre estas dos variables,
aproximándose la forma de la curva a una línea recta. Se observa,
no obstante, una disminución de la pendiente entre los días 12
y 17, que correspondería a una menor velocidad de crecimiento en
peso de los pollos de esta edad.
229
UARIACION DEL EJE X: 1-22 UARIACION DEL EJE V: 9.699999809265137 106
Figura 6.7. Relación entre el peso y la edad.
230
2.2. Relación entre la longitud total y la edad.
La figura 6.8 muestra la estimación de la línea de regresión
de la longitud total frente a los días de vida del animal, con
un valor del ancho de ventana h=0,122.
El intervalo de confianza es de menor amplitud que el
intervalo de la línea que relaciona peso-días de vida,
encontrándose la mayoría de los valores muéstrales dentro de
dicho intervalo.
Se aprecia en este caso, un máximo relativo de la longitud
total entre los 12 y 13 días de vida y un mínimo local entre los
15 y 16 días. Entre estos dos valores se produce una disminución
de la longitud total del pollo de perdiz.
2.3. Relación entre la longitud de la cola y la
edad.
La línea de regresión entre la variable "longitud de cola"
y los días de vida del pollo de perdiz se ha estimado con un
parámetro de alisado h=0'184 y se muestra en la figura 6.9.
La amplitud del intervalo de confianza es, en general, más
pequeña que en las anteriores estimaciones, aunque en este caso,
el número de datos procedentes de la muestra que no están dentro
de este intervalo es más numeroso.
231
UARIACION DEL EJE X: 1 - 2 2 UARIACION DEL EJE Y: 73 - 202
Figura 6.8. Relación entre la long. total y la edad.
232
VARIACIÓN DEL EJE X: 1 - 22 UARIACIOH DEL EJE V: 6.599999904632568 - 43
Figura 6.9. Relación entre la long. cola y la edad.
233
También en esta curva se aprecia un máximo relativo que se
produce entre los días 12 y 13, así como un mínimo relativo entre
los días 17 y 18. El decrecimiento de la curva entre estos dos
valores es considerable, mucho más apreciable que en la longitud
total. La disminución que se produce por el roce de la cola con
el suelo y por el pisoteo de la cola unos a otros, cuando ésta
alcanza una cierta longitud.
2.4. Relación entre la longitud del ala y la edad.
En la figura 6.10 aparece la línea de regresión estimada con
un valor del ancho de banda h=0'121 y que refleja la relación
existente entre la edad y la longitud del ala de pollos de perdiz
roja.
La amplitud del intervalo de confianza es similar a la que
se obtiene con la longitud total, si bien, los valores fuera del
intervalo son más numerosos.
La forma de la línea de regresión se asemeja a la recta,
aunque presenta una zona entre los 14 y los 18 días en que
disminuye la velocidad del crecimiento, aumentando de nuevo una
vez superada esta etapa.
2.5. Relación entre la longitud del tarso y la edad.
En la figura 6.11 aparece la línea de regresión estimada con
un valor del parámetro de alisado h=0'132 y que refleja la
relación existente entre la edad y la longitud del tarso de los
pollos.
234
UARIACION DEL EJE X: 1-22 UARIACION DEL EJE V: 14.69999980926514 - 102
' * i • • . . . • • • . • i . . • .
Figura 6.10. Relación entre la long. ala y la edad.
235
UARIACION DEL EJE X: 1 - 2Z UARIACION DEL EJE V: 15.100O0038146973 - 32.09999847412
-e-
<r<p i i i i i i i
Figura 6.11. Relación entre la long. tarso y la edad.
236
La amplitud del intervalo de confianza es la menor de todas
las líneas estimadas estando fuera del intervalo un número no muy
grande de valores muéstrales, aunque no sea el mínimo para estas
estimaciones.
La forma de la línea de regresión se asemeja a la recta,
aunque presenta una zona entre los 14 y los 18 días en que
disminuye la velocidad del crecimiento de longitud del tarso.
2.6. Relación entre la longitud desde el culmen y la
edad.
En la figura 6.12 aparece la línea de regresión estimada con
un valor del ancho de banda h=0*131 y que refleja la relación
existente entre la edad y la longitud del culmen de pollos de
perdiz roja.
La amplitud del intervalo de confianza es similar a la que
se obtiene con la longitud del tarso aunque algo mayor y además,
los valores fuera del intervalo son más numerosos.
La forma de la línea de regresión es muy similar a una recta
bastante tendida, aunque presenta una zona entre los 14 y los 18
días en que disminuye la velocidad del crecimiento.
237
UARIACIOM DEL EJE X: 1 - 2Z MARIACIÓN DEL EJE Y: 5.800000190734863 - 1Z.89999961853027
Figura 6.12. Relación entre la long. culmen y la edad.
238
2.7. Relación entre la longitud desde la narina y la
edad.
En la figura 6.13 aparece la línea de regresión estimada con
un valor del parámetro de alisado h=0'136 y que refleja la
relación existente entre la edad y la longitud de la narina de
los pollos.
La amplitud del intervalo de confianza es prácticamente la
misma que en la línea de regresión estimada para la variable
anterior, estando fuera del intervalo un número grande de valores
muéstrales.
Aunque la forma de la línea de regresión sea también en este
caso, muy parecida a una línea recta, es posible apreciar una
zona de menor pendiente que las demás y que es, como en casi
todas las estimaciones realizadas con estas variables, entre los
14 y los 18 días de edad.
2.8. Relación entre la anchura del pico y la edad.
En la figura 6.14 aparece la línea de regresión estimada con
un valor del parámetro de alisado h=0'133 y que muestra las
variaciones de la anchura del pico de los pollos de perdiz, al
variar la edad en días de los mismos.
La amplitud del intervalo de confianza es prácticamente la
misma que en la línea de regresión estimada para la variable
anterior, estando fuera del intervalo un número también muy
similar de valores muéstrales.
239
UARIACION DEL EJE X: 1 - 2 2 UARIACION DEL EJE Y: 4.199999809265137 - 9.100000381469727
Figura 6.13. Relación entre la long. narina y la edad.
240
UARIACION DEL EJE X: 1 - 22 UARIACION DEL EJE V: 3.700000047683716 - 6.800000190734863
-?-"" i i ' ' ' ' ' ' ' ' ' ' I 1 I I 1 L
Figura 6.14. Relación entre la anchura pico y la edad.
241
La forma de la línea estimada es casi la de una línea recta
muy tendida, presentando la tendencia descrita anteriormente -
disminución de la pendiente entre los 14 y los 18 días de edad-
algo más marcada que en el caso de las otras variables, que miden
el tamaño de narina y culmen.
2.9. Conclusiones.
Del estudio realizado se pueden extraer algunas conclusiones
de interés, principalmente sobre las condiciones en que deben
mantenerse los pollos de perdiz en sus primeros días de vida.
Primero: De todas las variables que se han tomado para
relacionarlas con la edad de los pollos, las que podrían
emplearse para determinar la edad, con un menor riesgo de error,
serían la longitud del tarso y el peso. Ambas combinan la
presencia de intervalos de confianza de amplitud no muy grandes
y una pronunciada pendiente, lo que facilitaría una más correcta
estimación de la edad empleando dichas variables.
Segundo: La disminución en la velocidad de crecimiento,
apreciada en todas las variables estudiadas, entre los días 14
y 18 pude producirse por un aumento de la actividad de los
pollos, manteniéndose la alimentación de la etapa anterior, que
se presenta en este caso como inadecuada para el incremento de
su metabolismo.
Sería adecuado reforzar su alimentación en este período de
tiempo para tratar de evitar esta disminución en la velocidad de
crecimiento.
242
CAPITULO 7:ESTIMACIÓN POR EL MÉTODO NÚCLEO DE LA
FUNCIÓN DE DENSIDAD MULTIVARIABLE. APLICACIONES.
7.0 - INTRODUCCIÓN.
7.1 - ESTIMADOR NÚCLEO DE LA FUNCIÓN DE DENSIDAD
MULTIVARIABLE.
1.1. Funciones núcleo.
1.2. Parámetro de alisado.
7.2- ESTIMACIÓN DE LA FUNCIÓN DE DENSIDAD BIVARIANTE.
7.3 - ANÁLISIS DISCRIMINANTE NO PARAMETRICO.
7.4 - FUNCIÓN DE DENSIDAD ESPECTRAL.
7.5 - CONCLUSIONES.
CAPITULO 7
ESTIMACIÓN POR EL MÉTODO NÚCLEO DE LA FUNCIÓN DE DENSIDAD
MULTIVARIABLE. APLICACIONES.
7.0 - INTRODUCCIÓN.
En los capítulos anteriores se ha hecho referencia a los
métodos de estimación no paramétricos de la función de densidad
con observaciones univariantes y de la curca de regresión. Sin
embargo, algunas aplicaciones de la estimación de la densidad
incluyen el análisis de datos multivariantes. Nos ocuparemos en
este capítulo de la estimación, con el método núcleo, de este
tipo de observaciones.
Una primera dificultad que se presenta al trabajar con
dimensión mayor de uno es la obtención de una viusalización de
la función de densidad multivariable, representación necesaria
para determinar características de la distribución. Kronmal y
Tarter (1973) y Silverman (1986) muestran diferentes
representaciones gráficas de las estimaciones de la función de
densidad para dos variables y en el trabajo de Scott y Thompson
244
(1983), se considera la posible representación de funciones de
densidad en 4 y 5 dimensiones. Cuando se busca emplear estas
estimaciones en alguna otra técnica estadística, el problema de
presentación de los datos carece de importancia y la estimación
de funciones de densidad en espacios de grandes dimensiones
adquiere toda su utilidad.
El método que se propone en este capítulo es general,
aplicable en cualquier espacio d-dimensional, y aunque el método
núcleo no se considera el más apropiado para grandes dimensiones,
sí es el más empleado con observaciones bivariantes. Las
aplicaciones que se presentan a continuación de la exposición del
método núcleo, han sido desarrolladas pada un espacio
bidimensional.
7.1- ESTIMADOR NÚCLEO DE LA FUNCIÓN DE DENSIDAD
MULTTVARIABLE.
Se define este estimador como una suma de "funciones núcleo"
centradas en las observaciones. Si una muestra, dada por X1# . . . ,
Xn, es observada en un espacio d-dimensional, entonces la
funciónde densidad subyacente se estima con la expresión
donde h es el parámetro de alisado y K(x) es una función núcleo
definida para x d-dimensional y que satisface la condición
f K(x)dx= 1. (1.2) JRá
Una aproximación intuitiva, propuesta por Fukunaga (1972),
245
consiste en transformar inicialmente los datos por medio de un
cambio de origen y escala, obteniendo la matriz de covarianza
unidad, a continuación se alisa usando una función núcleo
radialmente simétrica, y finalmente, se deshace la transformación
inicial. Este proceso equivale a aplicar un estimador de densidad
de la forma:
tm„.mgpp X-X±)T s-1 (x-X,) (1.3)
donde k se toma como
kxTx) = K(x) (1.4)
y S es la matriz de las covarianzas de los valores muéstrales.
l.l. Funciones núcleo.
Se han propuesto diferentes expresiones para las funciones
núcleo que se emplean en las estimaciones de funciones de
densidad multivariantes.
Silverman (1986) sugiere emplear funciones núcleo K(x)
multivariables (xeRd) que sean funciones de densidad de
probabilidad unimodales y radialmente simétricas como:
A) El núcleo Gaussiano,
K(x) = (27t)"d/2 e"2l(x'x) (1.5)
B) El núcleo multivariable de Epanechnikov,
Kx) 1 o, / 2 ( d + 2 ) c ¿ 1 (l-xTx) , si xTx < 1
otro caso. ( 1 . 6 )
donde Cd es el volumen de la esfera unidad d-dimensional,
246
C) En el caso bidimensional (d=2):
[ 0, otro caso. (1.7)
s ^ / - (l-«r-x)3 , si xTx < 1 K (X) = < 7C
[ 0, otro caso. (1.8)
Otros autores (Cacoullos, 1966 y Nadaraya, 1989) proponen
productos de funciones núcleo univariables donde K(x)= ndi=1 K(x) .
Este es el enfoque más empleado en los estudios con aplicaciones
a datos reales como: Kasser y Bruce (1969) y Scott, Gotto, Colé
y Gorry (1978).
De todos ellos el núcleo normal o gaussiano (1.5) requiere
un mayor número de cálculos debido al soporte no acotado de la
función. Del resto, todos con soporte acotado, el núcleo de
Epannechnikov (1.6) presenta, frente a los otros, la desventaja
de poseer un menor orden de diferenciabilidad.
1.2. Parámetro de alisado.
En la expresión (1.1) del estimador se emplea un sólo
parámetro de alisado h, lo que implica que el núcleo centrado en
cada punto muestral es del mismo orden en todas las direcciones
del plano. Parece lógico suponer que, en algunas ocasiones, sería
más apropiado emplear un vector de anchos de banda o, en caso de
que la dispersión de los valores muéstrales sea mucho mayor en
una dirección de los ejes coordenados que en otra, una matriz de
coeficientes reducidos. Este método requiere una mayor
247
complicación en los cálculos que precisa la estimación.
Cuando las funciones núcleo empleadas en la estimación son
de orden 2, si se define C,= [ [x2K] ] y C2= [ [K2] ], y se utiliza el
Teorema de Taylor en su expresión multidimensional y algunas
aproximaciones que simplifican el problema, se concluye:
Sesgoh(x)»^h2C1V2f(x) (1.9)
Var £n(x) * ¿r1 h.-d C2f(x) . (1.10)
En estas condiciones, una aproximación al ECMI que se
obtiene con el estimador (1.1), es
—hiclf[V2f(x)]2dx + n-1h-dC2l (1.11)
y un valor aproximado del ancho óptimo viene dado por la
expresión
2 1 1
d+4 „ d+4 n d+4 . (1.12) hopt= (dC2C?) d+4 [/(V2/)
El valor aproximado al óptimo tiende a cero cuando n crece,
pero de una forma extremadamente lenta, con razón de convergencia
n"1/(d+4). Además el valor apropiado del parámetro de alisado, según
esta expresión, depende de la densidad desconocida, que se quiere
estimar.
Un método alternativo para estimar este valor, es el
descrito en el capítulo 2 para una dimensión, que podría
ampliarse a más dimensiones. Sin embargo el proceso seguido, se
complica y hace más lento a medida que aumenta la dimensión en
el problema.
Estas razones han ocasionado la búsqueda de métodos de
248
estimación más sencillos, aunque las estimaciones sean, en
general, menos exactas.
Un método simple que Silverman (1986) propone como una
posible aproximación, tanto para el caso de una dimensión como
de varias dimensiones, consiste en suponer que la función de
densidad subyacente es una distribución normal, es decir que la
variable aleatoria de la que se ha tomado la muestra, sigue una
distribución normal de varianza unidad. Entonces,
d. d2^ f(V*f(x))*= (2^F)"d | + -f- (1.13)
Este valor se sustituye en la expresión del ECMI, (1.12)
obteniendo un valor
i
hopt= A(K)n d+i , (1.14)
donde A(K) es una constante que depende de la función núcleo
empleada en la estimación.
Si se considera que el alisado de la función depende en
general de la matriz de covarianzas muéstrales S, y si se emplean
núcleos radialmente simétricos, el ancho de banda óptimo
estimado, y que emplearemos en la expresión (1.1) será
ñ = CThopt'
Una elección posible y sencilla de a es el calculado a
partir de a2, que se tomaría como la media de las varianzas
marginales,
249
E*; a2= i=±- (1.15)
Los valores de la constante A(K), definida en la ecuación
(1.14), para varias funciones núcleo K, se recogen en la tabla
7.1, que se muestra a continuación.
N ú c l e o
N. no rma l m u l -
t i v a r . E c . ( 1 . 5 )
N ú c l e o de
E p a n e c h n i k o v
E c . ( 1 . 6 )
N. E c . ( 1 . 7 )
N. E c . ( 1 . 8 )
Dimensión
2
d
2
3
d
2
2
A(K)
1
[ 4 / ( d + 2 ) J1 / '*4)
2 ' 4 0
2 ' 4 9
[8Cd"1(d+4) (277r)d]1 / ( d + 4 >
2 ' 7 8
3» 12
Tabla 7.1. Valores de A(K)
Otro método sencillo consiste en emplear la función núcleo
propuesta por Nadaraya, calculando valores h,, . . ., hd empleando
cualquiera de los métodos propuestos para estimar el ancho óptimo
en el caso de una dimensión, utilizando para esto las funciones
de densidad marginales, y tomando como valor hd que aparece en el
denominador de la expresión (1.1) igual a ñh, . i=1
250
7.2- ESTIMACIÓN DE LA FUNCIÓN DE DENSIDAD BIVARIANTE.
A continuación se comprueba la eficacia del método
propuesto, desde el punto de vista de la obtención de una
correcta estimación de la función de densidad de probabilidad
para dos dimensiones. Para ello, se toman cuatro funciones de
densidad bivariantes, continuas y definidas en el cuadrado
[0,l]x[0,l]. Estas funciones son:
1. Una doble función uniforme.
2. Una doble %2.
3. Una doble normal formada con la normal univariavle de
media 0'5 y varianza 2.
4. Una doble x2 inversa.
A partir de estas funciones de densidad conocidas se
generaron muestras aleatorias de tamaño 100, siguiendo el
procedimiento de generación de muestras aleatorias descrito en
el capitulo 2.
A continuación se estimó la función de densidad con el
estimador (1.1) . La función núcleo que se emplea en la estimación
es la (1.7) y el valor del ancho de banda es el obtenido con la
expresión h= 2'78(jn"1/6, según el método propuesto por Silverman
(1986).
Para representar la estimación de la función de densidad,
se genera una malla de 80x80, tomando para cada punto de
intersección de la malla el valor de la función de densidad en
ese punto, dibujando la estimación en un gráfico de tres
dimensiones y también se representa por medio de las curvas de
nivel.
251
En la figura 7.1 se muestran los 100 puntos de la
realización muestral que se han obtenido a partir de la
distribución 1, (uniforme bivariante). En la figura 7.2 aparece
la representación gráfica tridimensional de la función estimada,
y en la figura 7.3 las curvas de nivel obtenidas para esta
función. En las representaciones gráficas de la estimación puede
observarse una aproximación, bastante fiel, a la función de
densidad subyacente.
Las figuras 7.4, 7.5 y 7.6 corresponden, respectivamente,
a la representación de la realización muestral de tamaño 100
obtenida a partir de la distribución 2, (x2 bivariante);
representación gráfica tridimensional y representación por curvas
de nivel de la función de densidad estimada. En éstas últimas,
se observa la gran aproximación de la estima a la función de
partida.
Los puntos generados aleatoriamente con la distribución 3
(normal bivariante), se presentan en la figura 7.7, y la función
de densidad estimada con esta realización muestral se observa en
las figuras 7.8 (representación tridimensional) y 7.9 (curvas de
nivel) . El ajuste de la función estimada a la función que da
origen a los datos es, a la vista de estas figuras, bastante
bueno.
252
CP
o o
o
o o
o o
o o
o o
o o
° ° o
^ffur, '« 7. 1 . *ue s t * a 4 . 0 2 .
2S3
Figura 7.2. Representación tridim. de Di.
254
1.00 9.00 17.00 25.00 33.00 41.00 49.00 57.00 65.00 73.00 rr/TrijFmTTininT^^
73.00
65.00
57.00 :
49.00
41.00
33.00 b
25.00
7.00
9.00
1.00 1.00 1.00 9.00 17.00 25.00 33.00 41.00 49.00 57.00 65.00 73.00
Figura 7.3* Representación topogrf. de Di.
255
o o
D O O
O
O O
8 o 0 o
O . o o o b o o <5>
o
O
o
o o
o
o
o o
0 °
o
o ° o o
o
o
o
(
Figura 7 . 4 . Muestra de D2.
256
Figura 7.5. Representación tridim. de D2,
257
00 9.00 17.00 25.00 33.00 41.00 49.00 57.00 65.00 73.00 ¡jmrnTiTTTTmTiTn i m 111111111111111111111 n 111111111111111111111 imTnrm
73.00
65.00
9.00
1:00 . ^ H l W W f T ^ innuuuiuiiiininu-H 1.00 9.00 17.00 25.00 33.00 41.00 49.00 57.00 65.00 73.00
73.00
65.00
57.00
49.00
41.00
33.00
25.00
7 7.00
9.00
1.00
Figura 7.$. Representación topogrf. de D2,
258
o o o
o
o « ° o
°° o ° QD O O
o° o
O o o 0
o o
o ° °
°° *° • : ° n ° °
° ° o
" oo o
O o
o
O o
Figura 7 . 7 . Muestra de D3.
259
Figura 7.8. Representación tridim. de D3.
260
1.00 9.00 l/.Oü 25.0O 33.00 1 i .00 49.00 57.00 65.00 73.00 TTTiTnTTTTnTí rnTnrnn ;m n 111111 jmJOTmnTrrnrtuj 1111111111111111 if
73.00
17.00
9.00 -
- 73.00
= 17.00
, 0 0 ttii.JJJü íiiuim 111 m i n 1111111 n 111111 uutrrn i m 11111111 M I I I n 1111111 m 1.00 9.00 17.00 25.00 33.00 41.00 49.00 57.00 65.00 73.00
1.00
Figura 7.9. Representación topogrf. de D3.
261
En la figura 7.10 se muestran los 100 puntos de la
realización muestral que se han obtenido a partir de la
distribución 4, (inversa de la %2 bivariante). En la figura 7.11
aparece la representación gráfica tridimensional de la función
estimada, y en la figura 7.12 las curvas de nivel obtenidas para
esta función. En las representaciones gráficas de la estimación
puede observarse una aproximación, bastante fiel, a la función
de densidad subyacente.
Los resultados satisfactorios que se obtienen con este
sencillo procedimiento de estimación, contrastados con otras
realizaciones muéstrales, avalan el empleo de este método para
estimar funciones de densidad bivariantes, al menos para un
tamaño de muestra mayor de n=70 (tamaño mínimo con el que se han
contrastado las estimaciones y las funciones de partida). No es
aventurado suponer que la estimación del ancho de banda óptimo
no sea la más apropiada para tamaños muéstrales inferiores a 70.
Este es un camino abierto a las futuras investigaciones sobre el
empleo de los estimadores núcleo.
262
o o
* o o°
o
o ° < * CP
o W o oo0
o °^ ° S o o o ° o o
o 9
o
o o o 0 o
o °° o
o o o
o o o
Figura 7 .10 . Muestra de D4.
263
Figura 7.11. Representación tridim. de D4
264
i.00 9.00 17.00 25.00 33.00 41 .00 49 .00 57 .00 65.00 73.00 rflnrnrrrmTnrrn
73.00
(55.00 rr.
57 .00
49.00
4 ! .00
25.00 -
1 7.00
íi.O'.i
....
, 0 0 t±LiUJJJ.ÍiJlliiilLUlUJ
- 17.00
9.00
111 M 11111 n m H n 111 n 111111111111 ffl 1.00 !.00 <¡.00 1 '/.00 25.00 3.3.00 41 .00 49 .00 57 .00 65.00 73.00
Figura 7.12. Representación topogrf. de D4.
265
7.3 - ANÁLISIS DISCRIMINANTE NO PARAMETRICO.
Un problema frecuente en el campo forestal consiste en la
definición de una frontera para la separación entre dos
formaciones vegetales a partir de la información proporcionada
por localizaciones espaciales de individuos de esas dos
formaciones. Aplicaciones de estos problemas se pueden encontrar
en los estudios del medio físico, enfocados a la planificación
de los trabajos selvicolas, asignación del suelo a usos
diferentes, y en cualquier proceso en el que la clasificación en
unidades diferenciadas sea fundamental.
Un procedimiento sencillo, empleado para la separación en
clases diferentes, es el análisis discriminante. El problema
básico que se plantea en el análisis discriminante es el
siguiente: Dada una muestra X,, ..., Xn, que sabemos procede de
la población A, y una muestra Y v ..., Y,,, que sabemos se ha
tomado de la población B, para una nueva observación Z, deseamos
conocer si Z procede de la población A o de la población B.
El procedimiento clásico empleado se basa en la hipótesis
del conocimiento de las funciones de densidad fA de la población
A, y fB de la población B. Entonces, localizaremos Z por el
método de máxima verosimitilud en la población A cuando
fA(Z)z fB(Z) . (3.1)
En los procedimientos paramétricos clásicos se supone que
la función de densidad es conocida salvo en el valor de ciertos
parámetros que se estiman con los conjuntos iniciales de los
datos para cada una de las poblaciones A y B. Si las
distribuciones de las poblaciones A y B se toman como normales
266
multivariantes con medias los vectores /L¿A y /¿B y matriz de
varianzas común para las dos poblaciones. Si los estimadores de
los valores poblacionales son las medias muéstrales X, Y ,
la matriz de covarianzas muéstrales se puede expresar como:
(3.2) v\n S= (m+n-2)-1 H£ X±-X) XrX)T+ £ (Yj-Y) (Yj-Y)
Con estas estimaciones la ecuación (3.1), se transforma en un
caso especial, la regla de discriminación lineal, en que se
localiza Z en la población A, se convierte en:
Z-— (X+Y) 2
TS-x(X-Y)>0. (3.3)
de esta forma se separan las dos regiones con una línea recta.
Este razonamiento puede ampliarse al caso en que las
varianzas de las dos poblaciones no se supongan iguales,
conservando el resto de las hipótesis. En este caso, se obtendría
una expresión, sustituyendo las densidades en (3.1) por su valor
en función de los parámetros estimados, que es la regla de
discriminación denominada cuadrática, ya que es una expresión en
Z2.
Fix y Hodges (1951), proponen el análisis discriminante
noparamétrico como una solución natural al problema cuando no se
conocen las funciones de densidad de las poblaciones A o B.
El procedimiento empleado seria el mismo, usando en lugar de las
funciones de densidad, las funciones estimadas con los dos
conjuntos de datos muéstrales iniciales, y sustituyendo por estas
estimaciones, las funciones de la ecuación (3.1).
Es indudable que cuanto mejor sea la estimación de la
función de densidad, más correcta será la regla de decisión del
267
análisis discriminante. Un estudio importante acerca de este
procedimiento es el contenido en el trabajo de Remme, Habbema y
Hermans (1980), en que el método no paramétrico usado para las
estimaciones de las densidades en el análisis discriminante es
la estimación núcleo. Se estiman las funciones de forma
independiente para cada población, utilizando el método de
validación cruzada máximo verosimil para obtener un valor del
parámetro de alisado, obteniendo buenos resultados con la
estimación núcleo en todos los casos investigados.
En la figura 7.13 se han empleado los resultados del
apartado anterior para obtener un análisis discriminante. Los
datos proceden de las distribuciones 2 (los marcados con una
cruz) y 4 (que se representan por un círculo) . En la figuras 7.14
y 7.15 se muestra la representación por curvas de nivel de las
dos distribuciones estimadas.
7.4 - FUNCIÓN DE DENSIDAD ESPECTRAL.
Las técnicas tratadas hasta ahora se basan en la hipótesis
de que las observaciones son independientes unas de otras. Sin
embargo, en los procesos donde intervienen variables que
evolucionan con el tiempo, en el espacio, o en ambos a la vez
(caudal de un río, concentraciones en la atmósfera de un agente
contaminante, ...) , la modelización de las observaciones requiere
otro tipo de técnicas que consideren la dependencia entre
observaciones. La teoría de los procesos estocásticos es la base
para el análisis de estas variables.
268
1K-
X
x<
xx
* o c>
* * & x
•f* . * *
X
O oo
°S> ° o
.< X X x .. X X
o o
o o
X*
Figura 7.13. Análisis discriminante.
269
.00 9.00 17.00 25.00 33.00 41.00 49.00 57.00 65.00 73.00 FTTTTITTITTTTmTrrTTnTn
73.00
65.00 -
57.00 =
9.00
-, . 0 0 m wmuHTMMrínnri KI v(\ \tf\ i1 m 11 I/M I I H I I I I I I I J 1.00 9.00 17.00 25.00 33.00 41.00 49.00 57.00 65.00 73.00
73.00
65.00
57.00
3 49.00
41.00
33.00
25.00
17.00
9.00
1.00
Figura 7.14. Curvas de nivel D2.
270
.00 9.00 17.00 25.00 33.00 41.00 49.00 57.00 65.00 73.00
73.00
57.00
49.00
4 ! .00
3.3.00
25.00
17.00 r
9.00
T 00 * * ' ! ' ' ( ! ' » ' 111 n m 11 i i i n i i i i i i n i i i i i i 1111 n 11111 ¡ n i i n H i ¡ 1111111111 n u i n-i.OO 9.00 ! 7.00 25.00 3.3.00 4 1.00 49.00 57.00 65.00 73.00
25.00
17.00
9.00
1.00
Figura 7.15. Curvas de nivel D4.
271
Las aplicaciones de los procesos estocásticos a los Estudios
del Medio son múltiples. Estudios sobre la evolución de la
productividad o naturalidad de un ecosistema en el tiempo, o
sobre la evolución de parámetros de contaminación, son ejemplos
de procesos estocásticos con conjunto de índices unidimensional.
En dos dimensiones, la elección de un conjunto apropiado de
índices sirve para caracterizar distintos procesos: si el
conjunto de índices estuviera formado por todos los posibles
pares de coordenadas en el plano, para cada par de coordenadas
(x,y) existiría una variable aleatoria (profundidad del suelo,
precipitación ... ) que podría analizarse bajo la óptica de un
proceso estocástico. Otro tipo de procesos estocásticos se deriva
de considerar como conjunto de índices a todos los posibles
rectángulos que puedan definirse en el plano, de esta forma es
posible estudiar la densidad o abundancia de diferentes elementos
del medio en cada rectángulo como procesos estocásticos.
La función de densidad espectral se emplea para contrastar
si las suposiciones de un experto en el medio sobre la frecuencia
de aparición de una variable se corresponde con la realidad.
Buenos estimadores de la función de densidad espectral se
pueden obtener mediante transformaciones de la función de
autocovarianza truncada (estimada a partir del correlograma
muestral) o mediante suavizaciones del periodograma, que,
aplicado directamente no es un buen estimador de la función de
densidad espectral.
La estimación de la función de densidad espectral para dos
variables se realizó por medio de la llamada "ventana espectral",
272
£(w,v)= [* r I(k,\i)W(<¿-X,v-\L)dkd\i, ,(4.1)
Para el cálculo del periodograma se aplicó la siguiente
expresión:
j(x, n) =- i -y; y; c(u, V)COSA. ucos\iv-senkusen\i.vsi, ( 4 . 2 )
4rc2'6-^' ^
con u variando entre -XMAX y XMAX y v entre -YMAX e YMAX (XMAX
e YMAX representan el número de pixels de la zona de estudio),
y donde c(u,v) es el correlograma muestral: M1 M2
C^'S) = ^ E E (Zuv-& ^u+ZiV+s-Z) , (4.3)
donde: m.,=max(l, 1-r) m2=max(l, 1-s)
M1=min(XMAX,XMAX-r) M2=min(YMAX,YMAX-s) y
N=XMAX*YMAX
La llamada "ventana espectral" se asemeja a una función
núcleo. Priestley (1981), utiliza para obtener la ventana
espectral de dos dimensiones, el método propuesto en el caso de
la función núcleo por Cacoullos (1966) y Nadaraya (1989), para
la función núcleo de dos variables, que consiste en emplear el
producto de dos ventanas espectrales unidimensionales.
Para aplicar la estimación propuesta se ha empleado el doble
producto de la ventana espectral, introducida por Priestley
(1962) y Barlett (1963) independientemente, obteniéndose la
siguiente expresión
W(x,y)= ><¥! -m 71 7C
,six¿— e yi£ —
0 resto, (4.4)
Los valores de M., y M2 son los valores correspondientes a
273
los anchos de banda en las funciones núcleo.
Estos valores se calculan independientemente para x e y, de
tal manera que minimicen el error cuadrático medio relativo del
estimador para un valor dado de N y suponiendo que la serie
subyacente siga un proceso AR(2). Esta hipótesis supone una
elección sobredimensionada del parámetro M, lo que favorece una
disminución del sesgo del estimador. Se tomarán los valores K-=
(2833'8567Ni)1/5, para i=l,2.
Otra forma de obtener función de densidad espectral f(w)
por métodos paramétricos, se realizó a partir a una función g(w)
que es el resultado de aplicar una suavización, del tipo media
móvil, al periodograma de forma que:
log10g(w)=log10f (w)+ TI (4.5)
donde r\ es una distribución normal con media 0 y varianza:
TI (log10e)2/N a 2. (4.6)
Una aplicación espacial del análisis espectral surge como
respuesta a la pregunta: ¿qué elementos del medio se pueden
considerar significativos para definir una característica o
cualidad del medio, o para definir la capacidad o el impacto de
una actividad?. En general, esta pregunta se responde por
preguntas directas a los expertos en el proceso considerado, los
cuales suelen responder "por exceso", presentando un número
elevado de mapas de partida.
Para reducir esta información a la realmente relevante se
pueden presentar al decisor las características espectrales
274
(función de densidad espectral) de los distintos mapas
seleccionados, con objeto de que determine si la variación
espacial de los distintos mapas está de acuerdo con el
conocimiento que, a priori, posee del elemento.
En la figura 7.16 se presentan las funciones de densidad
espectral de dos elementos que se consideraron significativos
para estudiar el paisaje (altitud y cuenca visual relativa), de
una zona cuyo mapa topográfico se presenta en la figura 7.17.
Al analizar la función de densidad espectral de la cuenca
visual relativa se pueden apreciar las variaciones producidas por
los valles paralelos en dirección Noroeste, y en menor medida
Norte, según se podria esperar de la observación de la figura
7.17. Esta variación no se refleja de la función de densidad
espectral de la altitud. Por tanto, en este caso, la cuenca
visual relativa es un buen indicador de la complejidad
topográfica de la zona, mientras la altitud, por si sola, no
parece ser un buen indicador del relieve.
7.5 - CONCLUSIONES.
Se propone el método recogido por Silverman como válido para
estimar las funciones de densidad bivariantes para tamaños
muéstrales mayores de 70, empleándose en una técnica estadística
como el análisis discriminante. Por otra parte, se ha usado el
procedimiento clásico de estimación de funciones de densidad
espectral propuesto por Priestley (1981) empleando "ventanas
espectrales".
275
Figu espectral .
2 7 6
Figura 7.17 Mapa topográfico.
277
CAPITULO 8¡CONCLUSIONES
8.1 - REGLAS DE DECISIÓN.
1.1. Estimación de funciones de densidad.
1.2. Estimación de la regresión.
1.3. Estimación de funciones de densidad
bivariantes.
8.2 - APLICACIONES AL ÁMBITO FORESTAL.
2.1. Resistencia a cortante de la madera laminada
encolada.
2.2. Pluviometría y altura de eucaliptos en
Huelva.
2.3. Producción de biomasa del rebollo.
2.4. Crecimiento de pollos de perdiz de granja.
CAPITULO 8
CONCLUSIONES
Las conclusiones que pueden extraerse del trabajo realizado,
de acuerdo con los objetivos marcados al comienzo del mismo, son
de dos tipos: Conclusiones sobre los aspectos de la interfase
usuario-métodos estadisticos, y aquellas correspondientes a la
aplicación de las reglas anteriores.
8.1 - REGLAS DE DECISIÓN.
1.1. Estimación de funciones de densidad.
Se considerarán dos casos diferentes, cuando el tamaño
muestral es pequeño y otro, cuando el tamaño muestral es grande.
1.- Si la muestra es pequeña, se clasifica la muestra por
sus características, dentro de alguno de los 10 grupos muéstrales
cuyas peculiaridades se recogen en la figura 2.2.
A continuación, dependiendo del grupo, se escoge la función
núcleo y el método de estimación del ancho de ventana de la forma
siguiente:
279
Para el grupo 1, el núcleo K,.
Para el grupo 2, el núcleo K1.
Para el grupo 3, el núcleo K,.
Para el grupo 4, el núcleo K,.
Para el grupo 5, el núcleo K,.
Para el grupo 6, el núcleo K,.
Para el grupo 7, el núcleo K8.
Para el grupo 8, el núcleo K,.
Para el grupo 9, el núcleo K,.
Para el grupo 10, el núcleo K8.
El procedimiento de estimación de ancho de banda óptimo es
el de validación cruzada máximo verosimil.
2.- Si la muestra es grande, se clasifica dentro de los
cinco grupos muéstrales unimodales que se recogen en la figura
2.2, seleccionando:
Grupo 1, núcleo K3.
Grupo 2, núcleo K3.
Grupo 3, núcleo K3.
Grupo 4, núcleo K8.
Grupo 5, núcleo K2.
El procedimiento de cálculo de la estimación del parámetro
de alisado óptimo es el mismo que para el caso de muestras de
pequeño tamaño.
280
1.2. Estimación de la regresión.
El método general para la estimación no paramétrica de la
regresión con funciones núcleo se puede resumir de la siguiente
forma:
Primero. se emplea el estimador núcleo del tipo Priestley
y Chao, según la ecuación 4.1 del capítulo 5 si el modelo de
regresión es de diseño fijo y el estimador 1.12 del capítulo 5
si el modelo es aleatorio.
Segundo, se calcula un parámetro de alisado con el algoritmo
de enlace descrito en 3.2 (capítulo 5)
Tercero, se crea la pseudomuestra que elimina los defectos
de la estimación en los extremos del intervalo que contiene a los
datos, con el procedimiento geométrico de reflexión que se
propone en este trabajo.
Cuarto, se escoge la función núcleo que, por defecto, será
v = 0, s = 2, /i =3.
1.3. Estimación de funciones de densidad
bivariantes.
Se propone el método recogido por Silverman como válido para
estimar las funciones de densidad bivariantes para tamaños
muéstrales mayores de 70, y se emplea en una aplicación de tipo
estadístico como el análisis discriminante y en la estimación de
la función de densidad espectral, se emplea el procedimiento de
Cacoullos y Nadaraya, contrastado por otros autores para
densidades espectrales bivariantes.
281
8.2 - APLICACIONES AL ÁMBITO FORESTAL.
2.1. Resistencia a cortante de la madera laminada
encolada.
Tradicionalmente se ha considerado, cuando el fallo de la
unión se produce por la madera en un 100% de los casos, que el
valor límite que determina la aceptación o rechazo de las uniones
ensayadas es una tensión de 0'60 Kg/mm2, valor que representa el
percentil 5 de la función de densidad de la variable y estimado
mediante el percentil muestral en sucesivos ensayos de este tipo.
Este límite es superior al valor estimado por el procedimiento
no paramétrico. Basándonos en este estudio puede concluirse que
el valor que se emplea actualmente debería disminuirse en 10
Kg/mm2, lo que redundaría en un mayor número de piezas,
procedentes de la fabrica, que pueden ser aceptadas.
2.2. Pluviometría y altura de eucaliptos en Huelva.
Se obtienen estimaciones de los percentiles 10 y 90, que se
consideran valores limites de la pluviometría en dos zonas de la
provincia de Huelva, para la zona de Riotinto, la pluviometría
de los años secos es menor o igual a 457mm, y la de años
lluviosos mayor o igual de llOlmm y para la zona de Tharsis, se
estimó que los años secos correspondían a pluviometrías menores
o iguales a 389mm, y los años lluviosos a pluviometrías mayores
o iguales a 868mm.
Se observa, en las dos zonas antes mencionadas que la
282
distribución de alturas de eucaliptos no presenta grandes
diferencias considerando estos diferentes periodos, pudiendo
apreciarse una mayor asimetría en la distribución de las alturas
en periodos secos. La disponibilidad de diferente cantidad de
información no permite establecer comparaciones certeras entre
ambas estaciones.
2.3. Producción de biomasa del rebollo.
Del estudio de las relaciones entre diámetros normales y
alturas, con la producción de biomasa se obtienen las siguientes
conclusiones:
Primero: La cantidad de biomasa, medida en PFT; la cantidad
de biomasa que se dejaría en el monte (PFRF) y la cantidad de
materia que se aprovecharía en la producción de energía, medida
en PST, se miden más fácilmente y con mayor precisión empleando,
de las dos variables consideradas, el diámetro normal.
Segundo: Se produce un aumento de la velocidad del
crecimiento de la producción de biomasa en peso (PFT) y de la
producción de biomasa destinada al aprovechamiento energético
(PST) a partir de una altura del árbol de 6 a 7 metros. La mayor
velocidad de crecimiento en PFRF, corresponde a alturas
comprendidas entre 6 y 11 metros aproximadamente.
Tercero: La mayor producción de biomasa dejada en el monte
y biomasa aprovechada en la producción de energía, coincide con
el mayor diámetro y el mayor tamaño en altura.
Cuarto: De lo anterior se deduce que un mejor
aprovechamiento del monte, tanto desde el punto de vista
283
económico como desde la consecución del menor daño producido al
ciclo ecológico, implica un turno de corta lo más largo posible.
Se debería cortar cuando el diámetro normal alcanzara el valor
de la clase diamétrica extrema.
2.4. Crecimiento de pollos de perdiz de granja.
Del estudio realizado se pueden extraer algunas conclusiones
de interés, principalmente sobre las condiciones en que deben
mantenerse los pollos de perdiz en sus primeros días de vida.
Primero: De todas las variables que se han tomado para
relacionarlas con la edad de los pollos, las que podrían
emplearse para determinar la edad, con un menor riesgo de error,
serían la longitud del tarso y el peso. Ambas combinan la
presencia de intervalos de confianza de amplitud no muy grandes
y una pronunciada pendiente, lo que facilitaría una más correcta
estimación de la edad empleando dichas variables.
Segundo: La disminución en la velocidad de crecimiento,
apreciada en todas las variables estudiadas, entre los días 14
y 18 pude producirse por un aumento de la actividad de los
pollos, manteniéndose la alimentación de la etapa anterior, que
se presenta en este caso como inadecuada para el incremento de
su metabolismo.
Seria adecuado reforzar su alimentación en este período de
tiempo para tratar de evitar esta disminución en la velocidad de
crecimiento.
284
REFERENCIAS
REFERENCIAS.
-ABRAMSON, I. S. (1982a): "On bandwidth variation in kernel estimates-A square root law". The Annals of Statistics, 10, 1217-1223.
-ABRAMSON, I. S. (1982b): "Arbitrariness of the pilot estimate in adaptative kernel methods". Journal of Multivariate Analysis, 12, 562-567.
-ABRAMSON, I. S. (1984): "Adaptative density flattening-A metric distortion principie for combating bias in nearest neighbor methods". Annl. Stat., 12, 880-886.
-AKAIKE, H. (1970): "Statistical predictor information". Annl. Inst. Stat. Math., 22, 203-217.
-AKAIKE, H. (1974) : "A new look at the statistical model identification". IEEE Transac. Autom. Control AC, 19, 716-723.
-AZZALINI, A. (1981) : "A note on the estimation of a distribution function and quantiles by a kernel method". Biometrika, 68, 326-328.
-BARL W, R. E., BARTHOLOMEW, D. J. , BREMNER, J. M. , y BRUNK, H. D. (1972): Statistical inference under order restrictions. John Wiley, Nueva York.
-BARLETT, M. S. (1963): "Statistical estimation of density functions". Sankhyá a, 25, 245-254.
-BENEDETTI, J. K. (1977): "On the nonparametric estimation of regression functions". J. Royal Stat. S o c , B, 39, 248-253.
-BENVENISTE, A; METIVIER, M. y PRIOURET, P. (1990): "Adaptive Algorithms and Stochastics Approximations". Springer-Verlag. Berlín.
-BIRGE, L. (1987a): "Estimating a density under order restrictions:nonasymptotic minimax risk". Annl. Stat., 15, 995-1012.
-BIRGE, L. (1987b): "On the risk of histograms for estimating decreasing densities". Annl. Stat., 15, 1013-1022.
-BLACKMAN, R. B. y TUKEY, J. W. (1959): The Measurement of Power Spectrum from the point of view of Communications Enqineerinq. Dover, Nueva York.
-BONEVA, J. I., KENDALL, D. G. , y STEFANOV, I. (1971): "Spline transformations: Three new diagnostic aids for the statistical data-analyst". J. Roy. Stat. S o c , Ser. B, 33, 1-70.
-BOWMAN, A. W. (1984): "An alternative method of cross-validation for the smoothing of density estimates". Biometrika,
286
71, 353-360.
-BOYD, D. W., y STEELE, J. M. (1978): "Lower bounds for nonparametric density estimation rates". The Annl. Stat., 6, 932-934.
-BREIMAN, L. y MEISEL, W. S. (1976): "General estimates of the intrinsic variability of data in nonlinear regression models". JASA, 71, 301-307.
-BREIMAN, L. , MEISEL, W. y PURCELL, E. (1977): "Variable kernel estimates of multivariate densities". Technometrics, 19, 135-144.
-BRUNK, H. B. (1978): "Univariate density estimation by orthogonal series". Biometrika, 65, 521-528.
-CACOULLOS,T. (1966): "Estimation of a multivariate density". Ann. Inst. Stat. Mathc, 18, 178-189.
-CARROLL, R. J. y HARDLE, W. (1989): "Symmetrized nearest neighbor regression estimates". Statistics & Probability Letters., 7, 315-318.
-CENCOV, N. N. (1962): "Evaluation of an uknown distribution density from observations". Soviet Math., 3, 1559-1562.
-COLLOMB, G. (1979): "Conditions nécessaires et suffisantes de convergence uniform d'un estimateur de la regression, estimation des dérivées de la regression". C. R. Acad. Sci. Paris, 288, 161-164.
-COX, D. D. (1983): "Asymtotics for M-type smoothing spline". Annl. Stat., 11, 530-551.
-CLEVELAND, W. S. (1979): "Robust locally weighted regression and smoothing scatterplots". JASA, 74, 829-836.
-CRAIN, B. R. (1973): "A note on density estimation using orthogonal expansions". Annl. Stat., 2, 454-463.
-CRAVEN, P. y WAHBA, G. (1979): "Smoothing noisy data with spline functions". Numer. Math., 31, 377-403.
-CHENG, K. F. y LIN, P. E. (1981) : "Nonparametric estimation of a regression function". Z. Wahrsch., Verw. Geb., 57, 223-233.
-CHISMAN, J. A. (1991) : "Introduction to Simulation Modeling Using GPSS". Prentice Hall. Nueva Jersey. Englewood Cliffs.
-CHOW, Y. S.; GEMAN, S. y WU, L. D. (1983): "Consistent cross-validated density estimation". Annl. Stat., 11, 25-38.
-DAVIS, K. B. (1975): "Mean square error properties of density estimates". Annl. Stat., 3, 1025-1030.
287
-DEHEUVELS, P. (1973): "Sur l'estimation sequentielle de la densite". Comptes Rendus de l'Academie des Sciences de Paris, 276, 1119-1121.
-DEHEUVELS, P. (1977): "Estimation noparametrique de la densite par histogrammes generalises". Revue Statq. Applq. , 25/3, 5-42.
-DE MONTRICHER, G. M. , TAPIA, R. A., y THOMPSON, J.R. (1975): "Nonparametric máximum likelihood estimation of probability densities by penalty function methods". Annl. Stat., 3, 1329-1348.
-DENBY, L. y VARDI, Y. (1986): "The survival curve with decreasing density". Technometrics, 28, 359-367.
-DEVIJVER, P. A. y KITTLER, J. (1982): Pattern Recoanition: A Statistical Approach. Prentice-Hall, Londres.
-DEVROYE, L. (1983): "The equivalence of Weak, strong, and complete convergence in L1 for kernel density estimates". Annl. Stat., 11, 896-904.
-DEVROYE, L. (1985) : "A note on the L1 consistency of variable kernel estimates". Annl. Stat., 13, 1041-1049.
-DEVROYE, L. (1987): "A curse in density estimation". Birkhauser, Boston.
-DEVROYE, L., y GYORFI, L. (1985): "Nonparametric densitv estimation: The L1 view". Jhon Wiley, Nueva York.
-DEVROYE, L. y PENROD, C. S. (1984): "The consistency of automatic kernel density estimates". Annl. Stat., 12, 1231-1249.
-DIACONIS, P. y FREEDMAN, D. (1984): "Asymptotics of graphical projection pursuit". Ann. Stat., 12, 793-815.
-DIACONIS, P. y SHASHAHANI, M. (1984): "On nolinear functions of linear combinations". SIAM J. Sci. Stat. Comput., 5, 175-191.
-DIGGLE, P. J. y HALL, P. (1986): "The selection of terms in an orthogonal series density estimator". J.A.S.A., 81, 230-233.
-DONOHO, D. L., y JOHNSTONE, I. M. (1989): "Projection-based approximation and a duality with kernel methods". Annl. Stat., 17, 58-106.
-DUIN, R. P. W. (1976) : "On the choice of smoothing parameters for Parzen estimators of probability density functions". IEEE Transactions on Computers, C-25, 1175-1179.
-EPANECHNIKOV, V. A. (1969): "Nonparametric estimates of a multivariate probability density". Th. Prob. Applic, Vol. 14,
288
153-158.
-EUBANK, R. L. (1988): Spline Smoothing and Nonparametric Regression. Maree1 Decker, Nueva York.
-EUBANK, R. L. y SPIEGELMAN, C. H. (1990): "Testing the goodness of fit of a linear model via nonparametric regression techniques". JASA, 85, 387-392.
-FALK, M. (1984): "Relative deficieney of kernel type estimators of quantiles". Annl. Stat., 12, 261-268.
-FARRELL, R. H. (1972): "On the best obtainable asymptotic rates of convergence in estimation of a density function at a point". Annl. Mat. Stat., 43, 170-180.
-FILL, J. y JOHNSTONE, I. M. (1984): "On projection pursuit measures of multivariate location and dispersión". Ann. Stat., 12, 127-141.
-FIX, E. y HODGES, J. L. (1951): "Discriminatory analysis, nonparametric estimation:Consistency properties". Report N*4, Project ^21-49-004, USAF Scool of Aviation Medicine, Randolf Field, Tejas.
-FREEDMAN, D. y DIACONIS, P. (1981b): "On the histogram as a density estimator: 1^ teory". Z. Wahrsch. verw. Geb., 57, 453-476.
-FRIEDMAN, J. H. (1979): "A tree-structured approach to nonparametric múltiple regression" en Smoothing Techniques for Curve Estimation. Springer-Verlag, Nueva York, pp. 5-22.
-FRIEDMAN, J. H. (1987): "Exploratory projection pursuit". JASA, 82, 249-266.
-FRIEDMAN, J. H. y STUETZLE, W. (1981): "Projection pursuit regression". JASA, 76, 817-823.
-FRIEDMAN, J. H. y STUETZLE, W. (1982): "Projection pursuit methods for data analysis" in Modern Data Analysis, eds. R.L. Launer y A.F. Siegel, Academic Press, Nueva York.
-FRIEDMAN, J. H. , STUETZLE, W. y SCHOEDER, A. (1984): "Projection pursuit density estimation". JASA, 79, 599-608.
-FRIEDMAN, J. H. y TUKEY, J. W. (1974): "A projection pursuit algorithm for exploratory data analysis". IEEE Trans. Comput., C-23, 881-889.
-FRYER, M. J. (1976): "Some errors associated with the nonparametrics es imation of density functions". J. Inst. Math. Appl., 18, 371-380.
-FUKUNAGA, K. (1972):Intrduction to Statistical Pattern Recognition. Academic Press, Londres.
289
-GAJEK, L. (1986): "On improving density estimators which are not bona fide functions". Ann. Stat., 14, 1612-1618.
-GASSER, T. ; JENNEN-STEINMETZ, C. y SROKA, L. (1986): "Residual variance and residual pattern in nonlinear regression". Biometrika, 73, 625-633.
-GASSER, T. ; KNEIP, A. y KÓHLER, W. (1991): "A Flexible a fast Method for Automatic Smoothing". JASA, 86, 643-652.
-GASSER, T. y KÓHLER, W. (1990): "Selection of smoothing parameters in nonparametric regresión: A simulation report". manuscrito no publicado.
-GASSER, T. y MÜLLER, H. G. (1979): "Kernel estimation of regression functions", en Lecture Notes in Mathematics. Springer-Verlag, Berlín, pp. 23-68.
-GASSER, T. y MÜLLER, H. G. (1984): "Estimating regression functions and their derivatives by the kernel method". Scand. J. Stat., 11, 171-185.
-GASSER, T. ; MÜLLER, H. G. ; KÓLER, W. ; MOLINARI, L. y PRADER, A. (1984): "Nonparametric regression analysis of growth curves". Annl. Stat., 12, 210-229.
-GASSER, T.; MÜLLER, H. G. y MAMMITZSCH, V. (1985): "Kernels for nonparametric curve estimation". J. Royal Stat. Soc., B, 47, 238-252.
-GAWRONSKI, W. y STANDMULLER, U. (1980): "On density estimation by means of Poisson's distribution". Scand. J. Stat., 7, 90-94.
-GEMAN, S. y HWANG, C. R. (1982): "Nonparametric máximum likelihood estimation by the method of sieves". Annl. Stat., 10, 401-414.
-GESSAMAN, M. P. (1970): "A consistent nonparametric multivariate density estimator based on statistically equivalent blocks", Ann. Math. Stat., 41, 1344-1346.
-GESSAMAN, M. P. y GESSAMAN, P. H. (1972) : "A comparison of some multivariate discrimination procedures", JASA, 67, 468-472.
-GLIVENKO, V. I. (1934): Course in probability theory. Moscú.
-GONZÁLEZ DONCEL, I. (1987): "El rebollo (Quercus pyrenaica Willd) de la provincia de León como opción energética: Regeneración tras la corta y tablas para la estimación en peso de la biomasa". Tesis doctoral de la E.T.S.I. de Montes de la U.P.M.
-GOOD, I. J. y DEATON, M. L. (1981): "Recent advances in bump huntinq ", Springer-Verlag, Nueva York.
290
-GOOD, I.J. y GASKINS, R. A. (1971): "Nonparametric roughness penalties for probability densities", Biometrika, 58, 255-277.
-GOOD, I.J. y GASKINS, R. A. (1980): "Density estimation and bump-hunting by the penalized likelihood method exemplified by scattering and meteorite data" (con discusión), JASA, 75, 42-73.
-GREBLICKI, W.; RUTKOWSKA, D. y RÜTKOWSKI, L. (1983): "An orthogonal series estimate of time-varying regression". Ann. Inst. Stat. Math., 35, 315-328.
-GRENANDER, U. (1956): "On the theory of mortality measurement. Part II". Skandinavisk Aktuarietidskrift, 39, 125-153.
-GR0ENEB00M, P. (1983): "Estimating a monotone density". Proceedings de la conferencia de Berkeley en honor de Jerzy Neyman y Jack Keifer, eds. 1. m. LeCam and R. A. Olshen, 2, 539-555. Belmont, CA: Wadsworth.
-HALL, P. (1981): "On trigonometric series estimates of densities". Annl. Stat., 9, 683-685.
-HALL, P. (1983): "Large sample optimality of least squares cross-validation in density estimation". Annl. Stat., 11, 1156-1174.
-HALL, P. (1986) : "On the rate of convergence of orthogonal series density estimators". J. Royal Stat. Soc., Ser B. , 48, 115-122.
-HALL, P. (1987a): "On Kullback-Leibler loss and density estimation". Annl. Stat., 15, 1491-1519.
-HALL, P. (1987b): "Cross-Validation and the smoothing of orthogonal series density estimators". J. Multv. Annl., 21, 189-206.
-HALL, P. (1989a): "On polynomial-based projection Índices for exploratory projection pursuit". Annl. Stat., 17, 589-605.
-HALL, P. (1989b): "On convergence rates in nonparametric problems". International Stat. Review, 57, 45-58.
-HALL, P. (1989c): "On projection pursuit regression". Ann. Stat., 17, 573-578.
-HALL, P. y HANNAN, E. J. (1988): "On stochastic complexity and nonparametric density estimation". Biometrika, 75, 705-714. J. Multiv. Analysis, 26, 59-88.
-HALL, P., y MARRÓN, J.S. (1987a): "Extent to which least-squares cross-validation minimises integrated square error in nonparametric density estimation". Probability Theory and Related Fields, 74, 567-581.
291
-HALL, P. y MARRÓN, J.S. (1987b): "On the amount of noise inherent in bandwidth selection for a kernel density estimator". Annl. Stat., 15, 163-181.
-HALL, P. y MARRÓN, J.S. (1988): "Choice of kernel order in density estimation". Annl. Stat., 16, 161-173.
-HALL, P. y WAND, M. P. (1988): "Minimizing L, distance in nonparametric density estimation". J. Multv. Analysis, 26, 59-88.
-HALL, P. y WEHRLY, T. E. (1991): "A geometrical method for removing edge effects from kernel-type nonparametric regression estimators". JASA, 86, 665-672.
-HARDLE, W. (1984a): "Robust regression function estimation". J. Multivar. Anal., 14, 169-180.
-HARDLE, W. (1984b): "A law of the iterated logarithm for nonparametric regression function estimatiors". Ann. Stat. 12, 624-635.
-HARDLE, W. (1991): Smoothinq Techniques. With Implementation in S. Springer-Verlag, Nueva York.
-HARDLE, W. y MARRÓN, J. S. (1986): "Random approximations to an error criterion of nonparametric statistics". J. Multivar. Anal., 20, 91-113.
-HART, J. D. (1985): "On the choice of truncation point in Fourier series density estimation". J. Stat. Compt. Simul., 21, 95-116.
-HERMANS, J. y HABBEMA, J. D. F. (1976): Manual for the ALLOC discriminant analysis programs. Universidad de Leiden, Dept. de Estadística Médica.
-HILL, M. O. et al. (1975): "Indicator species analysis, a divisive polythetic method of classification, and its application to a survey of native pinewoods in Scotland". Journal Ecology, Vol. 63, 597-613.
-HILL, P.D. (1985): "Kernel Estimation of a distribution function". Commun. Statist.-Theor. Meth., 14, 605-620.
-HUBER, P. J. (1979): "Robust smoothing", en Robustness in Statistics. Academic Press, Nueva York.
-HUBER, P. J. (1985): "Projection pursuit" (con discusión). Annl. Stat., 13, 435-525.
-IZENMAN, A. J. (1991): "Recent developments in nonparametric density estimation". J.A.S.A., 86, 205-224.
-JEE, J. R. (1987): "Exploratory projection pursuit using nonparametric density estimation". Proceedings Stat. Comp. Sect. American Stat. Assc, 335-339.
292
-JENNEN-STEINMETZ, C. y GASSER, T. (1988): "A unifying approach to nonparametric regression estimation". JASA, 1084-1089.
-JOE, H. (1987) : "Estimation of entropy and other functionals of a multivariate density". Thecnical Report, Universidad de British Columbia.
-JOHNSTON, G. (1979): "Smooth nonparametric regression analysis". Instit. of Stat. Mineo series N- 1253. Universidad de Carolina del Norte.
-JOHNSTON, G. (1982) : "Probabilities of maximal desviation of nonparametric regression function estimation". J. Multivariate Anal., 12, 402-414.
-JOHNSTONE, I. M. y SILVERMAN, B. W. (1990): "Speed of estimation in positrón emission tomography and related inverse problems". Annl. Stat., 18, 251-280.
-JONES, M. C. y LOTWICK, H. W. (1984): "Aremark on algorithm AS 176. Kernel density estimation using the fast Fourier transform". Appl. Stat., 33, 120-122.
-JONES, M. C. y SIBSON, R. (1987): "What is projection pursuit" (with discussion) . J. Royal Stat. S o c , A 150, 1-36.
-KASSER, I. S. y BRUCE, R. A. (1969): "Comparative effects of aging and coronary heart disease on submaximal und maximal exercise". Circulation, 39, 759-774.
-KAZAKOS, D. (1980): "Choice of kernel function for density estimation". IEEE Trransactions on Pattern Analysis and Machine intelligence, 2, 255-258.
-KEIDING, N. y ANDERSEN, P. K. (1989): "Nonparametric estimation of transition intensities and transition probabilities: a case study of a two-state Markov process". Appl. Stat., 38, 319-329.
-KLONIAS, V. K. (1982): "Consistency of two nonparametric máximum penalized estimators of the probability density function". Annl. Stat., 10, 811-824.
-KLONIAS, V. K. (1984): "On a class of nonparametric density and regression estimators". Annl. Stat., 12, 1263-1284.
-KLONIAS, V. K. y NASH, S. G. (1983): "On the computation of a class of máximum penalized likelihood estimators of the probability density function" en Computer Science and Statistics: The Interface. North-Holland, Amsterdam, pp.365-395.
-KOGURE, A. (1987): "Asymptotically optimal cells for a histogram". Annl. Stat., 15, 1023-1030.
-KRONMAL, R. y TARTER, M. (1968) : "The estimation of
293
probability densities and cumulatives by Fourier series methods". J.A.S.A., 63, 925-952.
-KRUSKAL, J. B. (1969): "Toward a practical method which helps uncover the structure of a set of multivariate observations by finding a linear transformation which optimizes a new "index of condensation"", en Statistical Computation. (Milton y Nelder eds.) Academic, Nueva York, 427-440.
-KRUSKAL, J. B. (1972): "Linear transformation of multivariate data to reveal clustering", en Multidimensional Scaling; Theory and Application in the Behavioural Sciences. I. Theory. (Shepard, Romney y Nrelove eds.), Seminar, Nueva York, 181-191.
-LEJEUNE, M. (1984): "Optimization in nonparametric regression", en Compstat 1984. (Havranek, Sidak y Novak eds.) Physica-Verlag, Viena,421-426.
-LEJEUNE, M. (1985) : "Estimation non-paramétrique par noyaux: regression polynomiale mobile". Revue Stat. Aplliq., 33, 43-67.
-LENTH (1977): "Robust splines". Commmun. in Stat., A6, 847-854.
-LI, K-CH. (1985): "From Stein's unbiased risk estimates to the method of generalized cross-validation". Annl. Stat., 13, 1353-1377.
-LIUNG, L. (1978): "Convergence of an adaptive filter algorithms". Int. J. Control, 27, 673-693.
-LOCK, M.D. (1990): "Optimizing density estimates based on unweighted and weighted mean integrated squared error". Conferencia sin publicar, Universidad de California, Berkeley, Grupo de Bioestadistica.
-LOFTSGAARDEN, D. O. y QUESENBERRY, C. P. (1965) : "A nonparametric estimate of a multivariate density function". Annl. Math. Stat., 36, 1049-1051.
-MACAULEY, F. R. (1931): The smoothinq of time series. National Bureau of Economic Research, Nueva York.
-MACK, Y. P. (1981): "Local properties of k-NN regression estimates". SIAM J. Alg. Disc. Meth., 2, 311-323.
-MACK, Y. P. y MÜLLER, H. G. (1989) : "Convolution type estimators for nonparametric regression". Statistics & Probability Letters, 7, 229-239.
-MACK, Y. P. y ROSENBLATT, M. (1979): "Multivariate k-nearest neighbor density estimates". J. Multv. Anal., 9, 1-15.
-MACK, Y. P. y SILVERMAN, B. W. (1982): "Weak and strong
294
uniform consistency of kernel regression estimares". Z. Wahrsch. verw. Gebiete, 61, 405-415.
-MARRÓN, J. S. (1987a): "A comparison of cross-validation techniques in density estimation". Annl. Stat., 15, 152-162.
-MARRÓN, J. S. (1987b): "Automatic smoothing parameter selection: A survey". Empirical Economics, 13, 187-208.
-MARRÓN, J. S. y HÁRDLE, W. (1986): "Random approximations to some measures of accuracy in nonparametric curve estimation". J. Multv. Analysis, 20, 91-113.
-MARRÓN, J. S. y NOLAN, D. (1987): "Canonical kernels for density estimation". Technical Report, Universidad de Carolina del Norte, Chapel Hill.
-MOCKÜS, J. (1988): "Bayesian Approach to Global Optimization". Kluwer. Dordrecht.
-MOORE, D. S. y YACKEL, J. W. (1977): "Consistency properties of nearest neighbor density function estimators". Annl. Stat., 5, 143-154.
-MÜLLER, H.G. (1983): "Beitráge zur nichtparametrischen Kurvenschátzung". Conferencia, Fuk. für Naturwissenschaften und Mathematik de la Universidad de Ulm.
-MÜLLER, H.G. (1984): "Smooth optimum kernel estimators of densities, regression curves and modes". Annl. Stat., 12, 766-774.
-MÜLLER, H. G. (1985): "Empirical bandwidth choice for nonparametric kernel regression by means of pilot estimators". Stat. Decis. Suppl., 2, 193-206.
-MÜLLER, H.G. (1987): "Weighted local regression and kernel methods for nonparametric curve fitting". JASA, 82, 231-238.
-MÜLLER, H.G. (1988): "Nonparametric regression analysis of longitudinal data". Springer-Verlag, Berlín.
-MÜLLER, H.G. y IHM, P. (1985): "Kernel estimation techniques for the analysis of clinical curves". Meth. Inform. in Medicine, 24, 218-224.
-MÜLLER, H. G. y STADTMÜLLER, U. (1987): "Estimation of heteroscedasticity in regression analysis". Annl. Stat., 15, 610-625.
-NADARAYA, E. A. (1964): "Some new estimares for distribution functions". Th. Prob. Applic., 9, 497-500.
-NADARAYA, E. A. (1989) : "Nonparametric estimation of probability densities and regression curves". Kluwer Academic Publishers, Dordrecht.
295
-NODA, K. (1976): "Estimation of a regression function by the Parzen kernel type density estimators". Am. Inst. Math. Stat., 28, 221-234.
-PADGETT, W. J. (1986): "A kernel-type estimator of a quantile function from right-censored data". JASA, 81, 215-222.
-PARZEN, E. (1962): "On estimation of a probability density function and mode". Annl. Math. Stat., 33, 1065-1076.
-PRAKASA RAO, B. L. S. (1983): "Nonparametric functional estimation". Academic Press., Nueva York.
-PRIESTLEY, M. B. (1962): "The analysis of stationary processes with mixed espectra II". J. Roy. Stat. Soc. B, 24, 511-529.
-PRIESTLEY, M. B. (1981):" Spectral Analvsis and Time Series". Academic Press, Londres.
-PRIESTLEY, M. B. y CHAO, M. T. (1972): "Non-parametric function fitting". J. Royal Stat. S o c , B, 34, 385-392.
-REINSCH, C. (1967): "Smoothing by spline functions". Numer. Math., 24, 383-393.
-REMME, J., HABBEMA, J. D. F. y HERMANS, J. (1980): "A simulative comparison of linear, quadratic and kernel discrimination:". J. Stat. Comput. Simul., 11, 87-106.
-RÉVÉSZ, P. (1979): "On the nonparametric estimation of the regression function". Prob. Control. Inform. Theoty, 8, 297-302.
-RIBE, M. (1986): "Kernel estimation of regional mortality". American Statistical Association. 228-233.
-RICE, J. A. (1984): "Bandwidth choice for nonparametric regression". Annl. Stat.
-RICE, J. y ROSENBLATT, M. (1981): "Integrated mean square error of a smoothing spline". J. Approx. Th., 33, 353-369.
-RICE, J. y ROSENBLATT, M. (1983): "Smoothing splines: regression, derivatives and deconvolution". Annl. Stat., 11, 141-156.
-ROBERTSON, T. , WRIGHT, F. T. y DYKSTRA, R. L. (1988): "Order restricted statistical inference". John Wiley, Nueva York.
-ROBINSON, P. M. (1984): "Kernel estimation and interpolation for time series containing missing observations". Annl. Inst. Stat. Math. 36, 403-417.
-ROSENBLATT, M. (1956): "Remarks on some non-parametrics estimates of a density function". Annl. Math. Stat., 27, 832-837.
296
-ROSENBLATT, M. (1969) : "Conditional probability density and regression estimates" en Multivariate Analysis II. Krishnaiah, 23-51.
-ROSENBLATT, M. (1971): "Curve estimates". Annl. Math. Stat., 42, 1815-1842.
-ROSENBLATT, M. (1979): "Global measures of deviation for kernel and nearest neighbor density estimates", in "Smoothing techniques for curve estimation". Springer-Verlag, Berlin, pp 181-190.
-RUDEMO, M. (1982): "Empirical choice of histogram and kernel density estimators". Scandv. J. Stat., 9, 65-78.
-RUEDA DE ANDRÉS, M. J. (1992): "Aspectos bioecológicos y alimentarios de la perdiz roja (Alectoris rufa L.)". Tesis doctoral en realización.
-RUTKOWSKI, L. (1982): "Orthogonal series estimates of a regression function with applications in system identification" en Probabilitv and Statistical Inference. (Grossmann et al. eds) . North Holland, 343-347.
-SCHMERLING, S. y PEIL, J. (1986): '• Improvement of the method of kernel estimation by local polynomial approximation of the empirical distribution function and this application to empirical regression". Gegenbaurs morphologisches Jahrbuch, 132, 29-35.
-SCHOENBERG, I. J. (1964): "Spline functions and the problem of graduation". Proc. Nat. Acad. Sci. U.S.A., 52, 947-950.
-SCHUCANY, W. R. y SOMMERS, J. P. (1977): "Improvement of kernel type density estimators". J.A.S.A., 72, 420-423.
-SCHUSTER, E. F. (1972): "Joint asyntotic distribution of the estimated regression function at a finite number of distinct points". Am. Math. Stat., 43, 84-88.
-SCHUSTER, E. F. y GREGORY, C. G. (1981): "On the nonconsistency of máximum likelihood nonparametric density estimators" en Computer Science and Statistics: Proceedinas of the 13th symposium on the interface. Springer-Verlag, Nueva York, pp. 295-298.
-SCHUSTER, E. F. y YAKOVITZ, S. (1979): "Contributions to the theory of nonparametric regression with application to system identification". Annl. Stat., 7, 139-149.
-SCHWARTZ, S. C. (1967): "Estimation of probability density by an orthogonal series". Annl. Math. Stat., 38, 1261-1265.
-SCOTT, D. W. (1979): "On optimal and data-based histograms". Biometrika, 66, 605-610.
297
-SCOTT, D. W. (1985a): "Average shifted histograms: Effective nonparametric density estimators in several dimensions". Annl. Stat., 13, 1024-1040.
-SCOTT, D. W. (1985b): "Frecuency polygons". J.A.S.A., 80, 348-354.
-SCOTT, D. W. (1988) : "A note on choice of bivariate histogram bin shape". J. Offl. Stat., 4, 47-51.
-SCOTT, D. W. y FACTOR, L. E. (1981): "Monte Cario study of three data-based nonparametric density estimators". J.A.S.A., 76, 9-15.
-SCOTT, D. W. , GOTTO, A. M. , COLÉ, J. S. y GORRY, G. A. (1978): "Plasma lipids as collateral risk factors in coronary artery disease-A study of 371 males with chest pain". J. Cronic Diseases, 31, 337-345.
-SCOTT, D. W. ; TAPIA, R. A. y THOMPSON, J. R. (1977) : "Kernel density estimation revisited". Nonlinear Analysis, Th., Met. Appl., 1, 339-372.
-SCOTT, D. W. ; TAPIA, R. A. y THOMPSON, J. R. (1980) : "Nonparametric probability density estimation by discrete máximum penalized-likelihood criteria". Annl. Stat., 8, 820-832.
-SCOTT, D. W. y TERRELL, G. R. (1987): "Biased and unbiased cross-validation in density estimation". J.A.S.A., 82, 1131-1146.
-SCOTT, D. W. y THOMPSON, J. R. (1983): "Probability density estimation in higher dimensions". in "Computer science and Statistics: Proceedincrs of the fifteenth symposium on the ínterface". North-Holland, Amsterdan, pp. 173-179.
-SHAPIRO, H. S. (1969): Smoothinq and Approximation of Functions. Van Nostrand, Nueva York.
-SHEATER, S. J. Y MARRÓN, J. S. (1990): "Kernel quantile estimators". JASA, 85, 410,416.
-SHIBATA, R. (1981): "An optimal selection of regression variables". Biometrika, 68, 45-54. -SILVERMAN, B. W. (1978): "Density ratios, empirical likelihood, and cot death". Appl. Stat., 27, 26-33.
-SILVERMAN, B. W. (1982a): "Algorithm AS 176. Kernel density estimation using the fast Fourier transform". Appl. Stat., 31, 93-97.
-SILVERMAN, B. W. (1982b): "On the estimation of a probability density function by the maximun penalized likelihood method". Annl. Stat., 10, 795-810.
-SILVERMAN, B. W. (1982c) : "Kernel density estimation using the fast fourier transformation". Appl. Stat., 31, 93-97.
298
-SILVERMAN, B. W. (1984): "Spline smoothing: the equivalent variable kernel method". Annl. Stat., 12, 898-916.
-SILVERMAN, B. W. (1985): "Some aspects of the spline smoothing approach to non-parametric regression curve fitting" (with discussion) . J. Royal Stat. S o c , B47, 1-52.
-SILVERMAN, B. W. (1986) : "Density estimation for Statistics and data analysis". Chapman and Hall, Londres.
-SONQUIST, J. (1970): "Multivariate model building: The validation of a search strategy". Report, Instit. Social Research, universidad de Michigan, Ann Arbor.
-STONE, C. J. (1977): "Nonparametric regression and its applications" (with discussion). Annl. Stat., 5, 595-645.
-STONE, C. J. (1980): "Optimal rates of convergence for nonparametric estimation". Annl. Stat., 8, 1348-1360.
-STONE, C. J. (1982): "Optimal rates of convergence for nonparametric regression". Annl. Stat., 10, 1040-1053.
-STONE, C. J. (1984): "An asyntotically optimal window selection rule for kernel density estimates". Annl. Stat., 12, 1285-1297.
-STUTE, W. (1984) : "Asymptotic normality of nearest neighbor regression function estimates". Annl. Stat. 12, 917-926.
-SWITZER, P. (1970): "Numerical classification" in Geostatistics. (Merriam ed.) Plenum, Nueva York, 31-43.
-SWITZER, P. y WRIGHT, R. M. (1971): "Numerical classification applied to certain Jamaican eocene nummulitids". Math. Geol., 3, 297-311.
-TAPIA, R. A. y THOMPSON, J. R. (1978): "Nonparametric probabil ty density estimation". Johns Hopkins University Press., Baltimore MD.
-TAYLOR, C. C. (1987): "Akaike's information criterion and the histogram". Biometrika, 74, 105-112.
-TERRELL, G. R. (1990): "The maximal smoothing principie in density estimation". JASA, 85, 470-477.
-THOMAS, W. (1991): "Influence diagnostics for the cross-validated smoothing parameter in spline smoothing". JASA, 86, 693-698.
-TIKHONOV, A. N. y ARSENIN, V. Y. (1977) : Solutions of 111-posed Problems. V. H. Winston & Sons.
-TSYBAKOV, A. B. (1982): "Nonparametric estimation of signáis with incomplete information on the noise distribution". Problems. Inform. Transmission, 18/2, 44-60.
299
-TUKEY, P. A. y TUKEY, J. W. (1981) : "Data-driven view selection; agglomeration and sharpening" en Interpreting multivariate data. John Wiley, Nueva York, pp. 215-243.
-VÍTALE, R. A. (1975): "A Berstein polynomial approach to density estimation". in "Statistical inference and related topics" (Vol. 2). Academic Press, San Francisco, pp. 87-99.
-UTRERAS, D. F. (1980): "Sur le choix du parametre d'ajustement dans le lissage par fonctions spline". Numer. Math., 34, 15-28.
-WAHBA, G. (1975a): "Optimal convergence properties of variable knot, kernel, and ortogonal series methods for density estimation". Annl. Stat., 3, 15-29.
-WAHBA, G. (1975b): "Interpolating spline methods for density estimation I. Equi-spaced knots". Annl. Stat., 3, 30-48.
-WAHBA, G. (1975c): "Smoothing noisy data wiyh spline functions". Numer. Math., 24, 309-317.
-WAHBA, G. (1977): "Practical approximate solutions to linear operator equations where the data are noisy". SIAM J. Numer. Anal., 14, 651-667.
-WAHBA, G. (1990): Spline Models in Statistics. SIAM, Filadelfia.
-WAHBA, G. (1981): "Data-based optimal smoothing of orthogonal series density estimates". Annl. Stat., 9, 146-156.
-WALTER, G. y BLUM J. R. (1979): "Probability density estimation using delta sequences". Annl. Stat., 7, 328-340.
-WALTER, G. y BLUM J. R. (1984): "A simple solution to a nonparametric máximum likelihood estimation problem". Annl. Stat., 12, 372-379.
-WANDL, H. (1980): "On kernel estimation of regression function". Wiss. Sitz. Zur. Stochastik, WSS-03, 1-25.
-WATSON, G. S. (1964): "Smooth regression analysis". Sankhya, A, 26, 359-372.
-WATSON, G. S. (1969): "Density estimation by orthogonal series". Annl. Math. Stat., 40, 1496-1498.
-WATSON, G. S. y LEADBETTER, M. R. (1964): "Hazard analysis I". Biometrika, 51, 175-184.
-WEGMAN, E. J. (1969): "Máximum likelihood histograms". Technical Report, U. Carolina del Norte, Chapel Hill.
-WEGMAN, E. J. (1975): "Máximum likelihood estimation of a probability density function". Sankhya, Ser. A, 37, 211-224.
300
-WEGMAN, E. J. y WRIGHT, I. W. (1983): "Splines in Statistics". JASA, 78, 351-365.
-WHITTAKER, E. (1923): "On a new method of graduation". Proc. Edinburgh Math. Soc., 41, 63-75.
-WHITTLE, P. (1958): "On the smoothing of probability density functions". J. Royal Stat. S o c , Ser. B, 20, 334-343.
-WINTER, B. B. (1973): "Strong uniform consistency of integráis of density estimators". Can. J. Stat., 1, 247-253.
-WINTER, B. B. (1979): "Convergence rate of perturbed empirical distribution functions". J. Appl. Prob., 16, 163-173.
-WOLVERTON, C. T. y WAGNER, T. J. (1969): "Recursive estimates of probability densities". IEEE Transactions on Systems, Science, and Cybernetics, 5, 307.
-YAMATO, H. (1971): "Sequencial estimation of a continuous probability density function and the mode". Bulletin of Math. Stat., 14, 1-12.
-YANG, S.-S. (1981): "Linear functions of concomitants of order statistics with applications to nonparametric estimation of a regression function". JASA, 76, 658-662.
-YANG, S.-S. (1985): "A smooth nonparametric estimator of a quantile function". JASA, 80, 1004-1011.
301
APÉNDICE
VALORES DE LAS REALIZACIONES MUÉSTRALES
EMPLEADAS.
toe
* O S r o O v O r - i n o r j i - r o w o í > N e o o i ^ < > v O i A s í e o o o > o ^ N f 0 ^ n N í ^ ^ > O i n < ) ^ o e o O ' f O f O O i A v í
0 0 0 O * ~ O O O 0 » - 0 O O 0 0 0 « — 0 O O O 0 0 0 O » - O C > 0 0 0 0 O 0 * - 0 0 * — O C - r - r - t - O O O O <— «~
Kvó(00*eO^<>iASo*CONin^O'0»eOCSO»'0*ONN^eO<>ODcOKO.^cOO'íg^N><>JCOCK(>0(>OKN(0(>0*-0 0 0 O 0 0 0 0 O 0 0 0 0 0 O O 0 0 0 O O 0 0 0 O 0 O 0 O 0 0 0 0 0 * - O O ^ - 0 O O « - ^ 0 ^ O 0 0 0'»-^
^inN.o»co^co^^OHCO^tA%oooc>N^CNü^vr*OK>ON(>SS^ooinN.(Oa3i-NtOr-a303a)o^c>(>^<)NeO o o o o p o o o o o o o o o o o o o o o o o o o o o o o o o o o o o * - o o ^ o o o o o o o
^ * o r j o o » K N r - i n o o o * O N r - n N ( M o 3 i n e o C h ^ c o > í i n v í O N < > i r i M ' O i A S < r u i ^ f s j O ' O M O ^ N O O * N M ^ < > « n N £ > N i n C 0 s í > 0 N C 0 > 0 ^ ^ N C ^ N 0 . ( > v í s í l A S ' 0 N í 0 N N ^ N u ^ K C 0 C 0 O N C 0 0 » c 0 C 0 « N C K C N l A ' 0 S t 0 ( > O O O O O O O O O O O O O O O O O O O O O O O O O O O O G O O O O O O ^ O O O O O O O O O O O O O O ^
^V)r-^^Ncoo(>o<o^nNoooorj%írain(\JCNSrj'-víSiAO.Ncorü^rjoinNrjovOON'-K>>o,o«-<>f-
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o - —
(>ví«-t-^>ocsoNOooeoMeo<)o»fOO»íAMOWNco^r-^vt(\jino3NN^^ícp<>inNr-o»-WMNfO O O O O O O O O O O O O O O O O ^ O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
o»^(Or-r-CK^oin«o^»-víS(>cs<>«)^iA<>NteQMSnMrjninNweofvJNO'^N»-^>o^oorj»-oo'00. iA^*oeONvf^»íi/»inSinsísT^'O^So»Mn^*o^*oK^*o<)N\f^Seoco^oa)cocosstn(oNiAiA*oseoeo o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o
> 0 i n i ^ N ^ e 0 l 0 0 % N ^ N ^ ^ > 0 C ? < > ^ N ( > . ^ S í \ l S r 0 O r 0 W T - C K f n ( > ( M ' 0 ^ * 0 0 0 O ^ c 0 i A ^ N ( > O 0 ^ n O « í g
inví>o»o<)vr^niniANsfsrví>Ó^^ScoíOK)^>o*ú<)K^^inSro<)NcocO'OooíONNNNjS^Ní*í»ON(Oa)
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
^^wui^cov)eoo^í^iA^síiAOT-SN^*o^^roinN*oro£OtoN'-toosjrwc>in[Osí^^stor«jT-<-cs'íto
O O O O O O O O O Q O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
vfNw>OinMfviinor^«-in(>o»o^cO^O(\lin<>MNM^inoSin>o^^conNCS«-NruT-i^(>ffl
O O O O O O O O O O O O O O O O O O o O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o
M £ 0 C 0 o n « - 0 0 v f O « ( > N Í ^ c 0 i n ^ l ^ r - r - f J * - ^ r - ( > o ^ N > í r - N s 3 - i - 0 ' < ) > 0 O M ( > * Í C Q ' 0 M ^ > 0 ^ N * - »
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
T - N 0 N c 0 O ( > s í M 0 a ^ O O O V D i n N f a 3 N N T - ( > O « - N 0 ^ i ^ i A f v J i n > í N V D i n N ( > a D n ' 0 S r - ^ c 0 M > í l > M C 0 N ^
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
^vTS*oNcon^niAC^Neo^r-csf^w»-(>CN(>CNinr-%jinfvjinnt-^eoNcoinNín^in(>^CNKN-íO(Ocou^
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
W ( > n ^ N n T - i n ^ K ) N N C 0 C > i ^ c 0 S r J r - S ( 0 t 0 N r J ^ s í K > ^ O O 0 > O N N Í O N í i n N ' 0 ^ ^ * í ( N J - t f v í ( > i n < ) í 0 < >
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o_o O O O O O O O O O O O O O O O O O O O
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o
o ^ o r a i > c O i n ' - ^ ' J O N í < > N O c o r - < i ^ K » ^ W V J ^ ^ t í \ J O r - i n N i n a M » - r - e O ' - O N i n c s o O v i - ' - o S ( O O c O N O n » - vf f\i«- »— ^-(MrorvJKirvjf^rvJc\JíNjf\jro«sTroruf\j>í-vj-»— vj %j- ro N OJ T- roí\ j*j , tAf\jfOfNJí\ j(Nj-r-o«-NKi»-Kt ' íOO o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o
^ M C > r - o ^ u > \ f ' 0 » O f O ( > o u ^ ^ i > ^ M n i n N r \ J O N O N j N n o r J ^ f \ j c o o c > N j i n o > - i A > o n N N n S i O v O ( N J * í ' í ÍM«—forao*— *— r - M N N N N t M T - Í\J«— f \ j N í N ( N j r v j f o « j - * - K i n n r J « - ' r - r o r \ i r j v j n j r n o ( \ j T - * - o ^ o r v J « - r O M O O o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o
I
m ^ c o o \ o ^ N . n c o o r g o M o o O N O * e O A J N C o c > * í i A e o N í N j ( \ i r - i n o ^ i n i n ' O c o o t o o j r j n ^ ^ N f j ^ N ' 0 0 v í ' " r o r - h O ( \ j o ^ O T - r o r o N N r o N r - N O ' - N í N T - ^ c j ( N í o n n N N « - O K > T - o J K > r a o J o r j T - o O ' - o N ' - f O r o o o O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
O T - N . ^ ^ c 0 ^ N v í N O e 0 0 * O c 0 N > 0 ^ < > ' ^ ^ N 0 « s í V ) ^ C > < O ( > ^ * 0 O ' - r - > 0 O f v í C 0 > 0 < - ^ r J ( > » - « - r * O O ( > £ * - « - f O r - O O O r - r ü r - f y r - r - ( \ J O ( M O < - ( N J f v J t - « - r - ( \ l O N Í N J N » - T - O M « - N r > J f V J N O ^ r - 0 0 0 » - N T - | 0 ( V J O O
o o o o o o o o o o o o o o o o á o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o I t i » I •
>í^^^'j<>víO'r-scovíiAOMNíiAiAcoo^<)^fysí»-r\jr-NNííAt-ioK^oco^^coioo>í'OiAOino3'0(0 O O n ' - 0 O O » - N r - r - r - r - r - 0 ' - O 0 r - ( \ J 0 r - » - ( \ J O f v J | N J t - ^ ' - 0 r - 0 ' - O ( \ J « - t - T - O T - f - O N ' r « - C J O ' r ' "
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o
O O í \ I O O O O « " »— T - 0 « ~ O O 0 O O O « ~ * — O O O O " — O <\ O r- *— O » - » - " — O O »— *~ t - O 0 0 ( 0 0 W • - O T - O N ' " O O O O O O O O C ? O O O O O O O O O O O C D C D O O O O O O O O O O O O O O O O < 0 ' 0 0 0 0 0 0 0 0 0 0 0
^ » - r - ^ ^ T - r - r - ^ ' - o j n j ( N j r g r v j r i j r j r g f \ j f \ j f o ^ f O r ' ' i ^ •** i -i o T Í S Í ^ ^ ^ V Í ^ S Í ^ ^ ^
soe
- ro *- <\j VT ir> f \ j ^ M v í N r y r O s r r O i n s j í 0 ^ i n ^ M ^ f o r j r - i n f O i n n i r t s f u ^ ( \ j n ^ i n v í K > f v j ^ r y ^ i A r « i n N í T - N T ^
0 > N O « í > N ( > c o r j n N - ( > e Q ^ ^ r j ( > v ú ^ o ^ y ) ^ y i o j c o o * o > í O N O c o a ) o Q ( v j o ^ ( > c O o j c o c > e o ( > ( > < > O N O * N ^ 0 « - 0 0 0 0 0 * — •— O O O < 0 « r - 0 0 » — * - 0 0 * — O-— o o * - « - * - * - *— o o o « — o o o » — o o o o o o « — o o o o
C S C > * C > c O > O N a 3 t - M ' O c O N v j S r o c O i n O C ^ O > ^ O ^ T - S O ^ ( ^ N ( > O e O S ) e O c O f v j i > c O ^ O N O * c o C > « C > ' a 3 0 » ^
o o o o o o o » - * — o o o < — o • 0 0 * ~ 0 0 0 « — O »— O O O ' o *- o o o o • O O O - r - O O O O O O O O O O O
! > Ú O r - O n C O O M O W S « - - í f M C O O C N ^ l A v í r j i r j n N »— *— f ^ - ^ - r j f M t n - j - v í - f o ^ j ' i / i ! O c O » 0 0 < M > c 3 0 * 0 ( f l C o i / i O ' N ( >
O O O O O O O * — «— O O O * — 0 * - O O O O O O O O O O O O O O T - 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
_ _ _ _ _ _ - - . . , ._ _ . - r ( n o s r v J e o C K S J O ' N J r . O r - s t ^ S N C * > f y * - c > 0 ( \ j s í ( > T - * í » - o o c o * -^ N C N N - ^ S ^ 0 O O i T i í 0 « O < I O N i n c 0 t 0 0 0 ' 0 c 0 > 0 C ^ - C 0 C 0 0 ^ ^ O í 0 ^ N * 0 e 0 N C Q _ _ N ^ S i n o o o r v j r - c o í M c o i n f M O f ^ O h - i n N - o o -
o o o o o o o * - * . .3
O O O
o «— o r*- o o i " • o o N m t o i O «— 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ^ - 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
C^SN^-n^0^C^C^IA<0N3O<tON^c0c0«lAC0ir»S>0c0N0*0-Ol0s»N0^0W
o o o o o o o o o o o o - O»— O O O O O O O O O O O O O O T - O O O O O O O O O O O O O O O O O O O O
o o ^ ^ ^ ^ u ^ ^ n ^ c o t r t s r K > c o o o ^ ( > N T - o n ^ - r - ( n ^ M o * O f y « - c o v o i n o o _ n j ^ M C ^ ^ N . _ s r v o i / i K c ^ ^ N ^ o i A c o S v í > o c o c O i n - O i n N ^ c o K í o c o c o c o ^ , ^ ^ a 3 < ) S ü ^ O O O O O O O O O O O O » — O O O O O O O O O O O O C > O 0 O 0 O 0 0 O 0 0 O O 0 O 0 O O O 0 0 0 0 0 0
N « 0 _ ' 0 ^ _ i r i _ ( 0 ^ N i n O i n S N v f ' 0 C 0 N ^ < 0 i A > 0 _ N N K c 0 ( 0 S v í t n i A S i n S i A 0 3 ü ^
O O O O O O O O O O O O T — O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
N _ n _ i n * í _ i r i _ S f O N u ^ c ^ u i N l ^ N í i n K S ^ c o ^ _ i n S - t ^ N K S ^ ^ O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o
c \ j r \ i c * c o « — ^ _ ^ O T ~ ^ i n N _ " r \ J c o r \ J r ^ O - n r v J c O f O r ^
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
v f > O O n a n ^ O O K l ' - Os O ^ vO N CO «- O^Nr-^^^xfT-fOOO^SCOeOCOKI-if-vft-l>fMO>*0'-K10 0.^«í,0
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
M M l A N N O O > j e O r - r - C ^ C s c O ^ ' O i n C ^ N l A C O * - L n S M C N Í > i n N C N _ ^ a D N ^ O l A - n
MDsa-_ninro<r_r^vTvT^<)^dr^i^^^^^íinu^!0<>tOMu^ 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 o o o o o o o o o o o o " o o o o o o o o o o o o o o o o o o ' o o o o Nvf-ir.inoo^>oc^o(OK^w^^'O^S<)in'fsjo-ito^o^(>o^ON>onMi/>roo*cON(>in^ iAnu^_^M*í-avj-víN^>4'^fO_>OMNj^hOMinrotoininu^^n^^Kíf^ O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
N o ^ c ^ u ^ s c o N L n c o o < ) N s í i r i r o r ^ r o 4 O S - N N O c O N f > o ^ ^ o i n t n ^ M i n r o f . c O ' 0 ^ c O N o ^
O O O O O O O O O O O O O O O O O O O O O O O O O O O Q O O O O O O O O O O O O O O O O O O O O O O
n O f . K J v í ( \ J ( 0 s í N f C t ) c 0 - Í O ( N J 0 ^ O 0 . ( 0 C 0 ' 0 » - s í C 0 M ^ 0 O N N O C 0 K l f y i n - r - K C 0 ^ N - C Q N 0 0 c 0 a 3 ( 0 s r 0 » ^ N í O O
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o " o o
^ O - 0 v T ^ r J - 0 « - ( > N N « - O ' - N ' í ) C 0 S ^ i n O O a 3 ' í i n O ' - , 0 N N N O O C S K r - M < í ) O s f « 0 N « ) T - W i n K l í V 0 ' O
i o r > _ c \ j < r r n r o ^ i ^ r o c u i n ^ \ o ^ v r > 4 r r v j K . ^ r o M o o o o o o o o o o o o o o o o o o o o o o o o o o c ^ o ^ o o o o o o o o o o o o o ' o o o o o o o o o O N ' 0 n S C N s f N f < 0 i n O O C ^ ( > N « ) < 5 u ^ M ' , 0 ' C > N v í ( \ J i n O i n N ( \ J N C ^ O í 0 C 0 ^ ^ ' - ^ N f 0 N * 0 » - i A T - O K _ i N r o ^ c \ j v _ c u r \ j ^ o - r o r U i / % ^ v r r \ j N < r r o f \ J r o ^ r o r ^ O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
f. Í\J CO r , O O *- r - s t s j f . o N - ^ n « O N r - í\J «— i n i O s í - f . T - i A M r O ^ t O ^ N c O S ^ N O ^ O N t - v O ' J C M n O S N í O O ™ r - ^ N r r \ 4 r \ J ^ r v j r o r \ J v _ - ^ r n r ^ r o r o r ü r o ^ t ^ o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o O O O O O O O O O O O O O O
r - o K O v j " O N O r - s f t - c o N f O c o r y r . * j - e o r - v í r j ^ ' o o ( 0 ' - r . - ^ c O ' O r o s - ^ " O N c o r v J N _ N L n ( > N - f \ J O L n \ i s í O r\j.— r - ^ r v _ o - r o r v i h o r \ j ^ r o r o r \ í r g r n c \ J r v - r ^ O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
r - ^ n N v f < ) < i o c > f o o ^ v t ^ o i A o « - » O r - r - ( \ j ^ r o o ^ f \ i > o N K i O M r . o ^ c o n ^ i o o i n f . ^ r \ J O ^ r o r \ _ o j f o r \ j r \ _ C N j r o r o r o r \ J o r o r v j ^ r o r o O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O Q O O O O O O O O O O O O O
c ^ l ^ T - ^ ^ o ^ í , - t o v o r - ^ K l n c o ^ ' 0 0 ( > o o « - ^ o o ^ o ^ o ^ ( ^ J ^ f O l ^ ( > ^ o ^ í c o r • o N c o a 3 l n ^ ' - N ^ N O M ' " *-o«—foc\jr\JK>»— rv.fNjroK.rn»— O N N O f O M A i N N r - r o t - T - rs_r*jroruc\ j»—f^J^- '^r^40Jc^lc^i^o^^of_^-í^í-^Jí^Jí^J '— O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O Q O O O O O O O O O O O O O O O O O
* 0 O ^ i A t o ^ N - c 0 r j N v 0 r O C 0 l A ^ ^ i n K l N N . C K 0 0 C ^ 0 ^ > t C ^ - n N Í £ 0 N v 0 r - e 0 f 0 ^ - O _ O N «— o o r \ j r \ j í \ i r \ J o < \ j « — ro ro r\j •— o r j r - o <M rg «— •— »— o OJ *— T— o «— *— r \ j r _ » — r \ i ^ * - c v t ^ r u c v j M ^ o » ~ « — Í > J « - - " — - \ - « — 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
r - O O W r - f \ J ( \ J O t - r - n r O » - ' - ' - - - r - O N ' - ' ' ' - ' - O i - t - » - ' - r - O t - P J r - N O ' - « - ' - ' - N O t V J O ' - ' - N * - « - t \ I O
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o
r - r - O T - r - O O J O « - r - n P ^ « - ' - ^ O r - 0 < V J i - ' - r - » - 0 ^ 0 « - r O r - 0 » - T - » - T - ^ ^ r - ^ O T - O C V j O ' - 0 ' - ' - , " ' - 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
o - m r- n co ^Í f - o D O v í " 0 < * - • n co vj o ( > * - ' - ( M , 0 - i < > o u n N i r » r - r , r o ' 4 c o c \ j r ^ o * ~ o » f > J r \ j r \ j r \ . c u « ^ ^ - n r o K ) ' ' - * o * - o - ~ - — o r j o o * - ^ - f N J O * - ^ o o « - o o « ~ w n - r - o o r \ J o * - * - » - o o r v « - - - T - - - - - o o o o o o O ' — « ~ o o o o o o o o o o o o o o o o o o o o o o o o o o o c o o o o c o o c - O o o o o o o o ó o o o o o o
S LA *c CC CO coco c o r > o o - o c > 0 \ > í > - v > < > (
"1 n.oi 0.13 0.13 0.14 0.17 0.22 0.25 0.27 0.27 0.28 0.35 0.42 0.44 0.53 0.60 0.61 0.63 0.70 0.75 0.75 0.79 0.83 0.84 0.89 0.91 5 02 -0./..'. -0.31 -0.04 0.03 0.05 0.11 0.13 0.17 0.19 0.27 0.35 0.36 0.40 0.42 0.44 0.59 0.6.0 0.70 0.71 0.81 0.86 0.86 0.96 1.08 1.20 3 "3 <",.IA 0.20 0.31 0.32 0.33 0.35 0.37 0.38 0.39 0.40 0.41 0.44 0.45 0.48 0.50 0.55 0,55 0.58 0.61 0.63 0.67 0.75 0.77 0.77 0.84 2 04 0.21 0.26 0.28 0.29 0.30 0.33 0.38 0.38 0.39 0.39 0.41 0.42 0.43 0.43 0.46 0.46 0.50 0.52 0.53 0.55 0.57 0.59 0.62 0.64 0.84 4 05 0.08 0.10 0.12 0.13 0.24 0.25 0.26 0.26 0.27 0.30 0.31 0.34 0.35 0.37 0.50 0.56 0.67 0.69 0.69 0.75 0.77 0.80 0.83 0.90 0.92 5 nó O.na 0.10 0.18 0.19 0.24 0.27 0.33 0.43 0.46 0.50 0.52 0.53 0.56 0.58 0.61 0.62 0.62 0.66 0.69 0.70 0.73 0.75 0.81 0.95 1.03 2 07 n.no o.21 0.34 0.36 0.37 0.41 0.41 0.42 0.43 0.51 0.53 0.55 0.57 0.73 0.73 0.73 0.76 0.77 0.88 0.90 0.93 1.00 1.06 1.16 1.23 3 •S -0.70 -0.26 -0.23 -0.04 -0.03 -0.02 0.01 0.01 0.03 0.18 0.22 0.24 0.24 0.34 0.34 0.44 0.54 0.63 0.70 0.71 0.71 0.75 0.83 0.90 0.99 3 •'9 0.17 0.17 0.24 0.27 0.28 0.29 0.35 0.35 0.37 0.43 0.45 ' 0.47 0.59 0.62 0.64 0.64 0.68 0.68 0.72 0.72 0.73 0.79 0.83 0.85 0.91 5 ^0 0.05 0.10 0.15 0.20 0.30 0.35 0.38 0.4C 0.40 0.41 0.42 0.43 0.52 0.56 0.60 0.62 0.69 0.74 0.80 0.81 0.81 0.87 0.90 0.96 1.00 1 11 -0.59 -0.05 -0.05 0.01 0.05 0.19 0.20 0.21 0.34. 0.40 0.42 0.42 0.44 0.53 0.54 0.56 0.64 0.65 0.71 0.85 0.92 0.97 0.97 1.06 1.20 3 M2 0.18 0.21 0.22 0.23 0.24 0.26 0.27 0.29 0.30 0.33 0.33 0.35 0.38 0.39 0.41 0.41 0.41 0.45 0.50 0.51 0.54 0.58 0.60 0.61 0.61 4 '13 0.10 0.13 0.16 0.17 0.27 0.29 0.30 0.38 0.40 0.40 0.45 0.61 0.61 0.64 0.66 0.69 0.72 0.82 0.82 0.84 0.92 0.93 0.95 0.97 0.99 1 '14 -0.35 -0.09 0.16 0.22 0.23 0.33 0.35 0.46 0.47 0.53 0.57 0.58 0.59 0.60 0.62 0.70 0.74 0.75 0.78 0.78 0.98 1.02 1.07 1.11 1.23 3 •15 0.03 0.03 0.16 0.23 0.25 0.26 0.29 0.32 0.33 0.34 0.37 0.45 0.51 0.51 0.53 0.60 0.62 0.66 0.76 0.78 0.78 0.85 0.85 0.86 0.93 1 116 -0.02 0.07 0.08 0.14 0.18 0.19 0.20 0.21 0.23 0.31 0.31 0.32 0.39 0.41 U.51 0.66 0.69 0.70 0.71 0.77 0.77 0.79 0.80 0.86 0.95 5 117 0.05 0.09 -0.09 0.09 0.11 0.19 0.27 0.30 0.34 0.34 0.36 0.41 0.44 0.56 0.57 0.57 0.60 0.66 0.68,0.76 0.85 0.86 0.90 0.96 0.97 1 118 -0.13-0.12-0.02 0.04 0.19 0.20 0.29 0.31 0.33 0.37 0.38 0.45 0.47 0.49 0.51 0.54 0.60 0.71 0.71 0.89 ¡0.91 0.97 1.00 1.18 1.21 3 119 C.16 0.23 0.25 0.25 0.27 0.27 0.28 0.30 0.38 0.42 0.44 0.46 0.50 0.52 0.68 0.73 0.75 0.78 0.78 0.81 0.81 0.82 0.91 0.92 1.31 5 120 0.02 0.05 0.05 0.14 0.14 0.15 0.15 0.16 0.17 0.17 0.17 0.20 0.20 0.29 0.37 0.40 0.48 0.54 0.70 0.72 0.72 0.73 0.78 0.81 0.85 1 121 -0.17 -0.07 -0.02 0.08 0.08 0.15 0.20 0.22 0.23 0.24 0.28 0.41 0.42 0.50 0.57 0.58 0.59 0.59 0.64 0.71 0.77 0.80 0.84 0.86 1.17 3 122 0.08 0.13 0.15 0.19 0.19 0.20 0.21 0.26 0.29 0.34 0.34 0.35 0.35 0.37 0.37 0.39 0.41 0.47 0.49 0.52 0.53 0.57 0.57 0.67 0.72 4 123 0.08 0.14 0.18:^0.26 0.27 0.27 0.27 0.32 0.35 0.37 0.38 0.40 0.43 0.43 0.43 0.44 0.44 0.45 0.50 0.51 0.53 0.54 0.56 0.72 0.75 4 124 0.12 0.16 0.22 ' 0.25 0.25 0.26 0.42 0.44 0.49 0.59 0.60 0.61 0.63 0.69 0.74 0.76 0.77 0.80 0.84 0.85 0.88 0.92 0.95 0.95 0.97 5 125 0.04 0.10 0.12 0.14 0.15 0.22 0.26 0.27 0.32 0.35 0.36 0.37 0.37 0.38 0.41 0.44 0.47 0.52 0.57 0.58 0.59 0.69 0.71 0.72 0.84 4 126 0.03 0.18 0.21 0.23 0.33 0.34 0.37 0.38 0.38 0.38 0.38 0.47 0.50 0.58 0.58 0.- 7 0.69 0.70 0.71 0.73 0.77 0.81 0.83 0.86 0.97 1 127 0.05 0.09 0.12 0.15 0.20 0.27 0.29 0.32 0.38 0.43 0.51 0.60 0.65 0.67 0.69 0.80 0.82 0.85 0.88 0.90 0.92 0.93 0.94 0.98 0.99 1 128 0.11 0.20 0.28 0.30 0.32 0.34 0.35 0.42 0.42 0.53 0.54 0.55 0.55 0.58 0.59 0.59 0.59 0.62 0.65 0.69 0.71 0.71 0.72 0.72 0.77 2 129 0.14 0.21 0.22 0.24 0.36 0.39 0.42 0.43 0.43 0.51 0.51 0.51 0.55 0.56 0.57 0.62 0.65 0.65 0.65 0.75 0.78 0.85 0.87 0.92 1.03 2 130 -0.03 0.01 0.08 0.12 0.19 0.20 0.26 0.30 0.36 0.38 0.38 0.40 0.47 0.53 0.58 0.60 0.61 0.63 0.76 0.78 0.79 1.00 1.01 1.07 1.65 3 131 -0.17 -0.14 -0.12 -0.05 0.15 0.16 0.16' 0.24 0.27 0.29 0.30 0.31 0.35 0.47 0.50 0.54 0.55 0.63 0.64 0.67 0.68 0.73 0.73 1.01' 1.04 3 132 0.12 0.18 0.20 0.23 0.25 0.29 0.30 0.35 0.35 0.38 0.38 0.39 0.44 0.44 0.45 0.47 0.47 0.48 0.48 0.52 0.54 0.55 0.57 0.61 0.65 4 133 0.07 0.14 0.18 0.19 0.20 0.26 0.29 0.29 0.30 0.31 0.32 0.34 0.36 0.38 0.41 0.41 0.41 0.47 0.49 0.50 0.53 0.59 0.62 0.6Ó 0.70 4 134 0.04 0.06 0.12 0.14 0.23 0.25 0.25 0.25 0.26 0.33 0.40 0.42 0.53 0.59 0.64 0.65 0.65 0.70 0.71 0.73 0.74 0.75 0.76 0.79 0.84 5 135 0.06 0.09 0.11 0.12 0.15 0.16 0.17 0.18 0.19 0.20 0.24 0.27 0.28 0.34 0.38 0.41 0.43 0.64 0.66 0.67 0.74 0.79 0.82 0.90 0.92 5 136 0.02 0.02 0.09 0.09 0.10 0.11 0.11 0.17 0.18 0.20 0.23 0.23 0.33 0.36 0.36 0.55 0.56 0.65 0.65 0.66 0.79 0.81 0.82 0.86 0.97 1 137 0.23 0.27 0.30 0.34 0.37 0.37 0.39 0.42 0.42 0.44 0.46 0.49 0.50 0.50 0.53 0.54 0.58 0.61 0.65 0.72 0.73 0.75 0.84 0.84 0.89 2 138 -0.48 -0.47 -0.02 0.01 0.05 0.18 0.22 0.32 0.34 0.39 0.41 0.44 0.52 0.62 0.68 0.72 0.76 0.79 0.87 0.88 0.98 1.06 1.10 1.22 1.38 3 139 -0.07 -0.04 0.04 0.05 0.12 0.15 0.22 0.28 0.30 0.30 0.31 0.41 0.46 0.52 0.62 0.69 0.72 0.74 0.83 0.86 0.92 0.94 1.05 1.09 1.15 3 140 0.08 0.12 0.18 0.23 0.24 0.26 0.29 0.29 0.30 0.34 0.34 0.40 0.43 0.49 0.51 0.52 0.52 0.53 0.56 0.57 0.58 0.74 0.76 0.77 0.85 4 141 0.08 0.15 0.16 0.20 0.22 0.27 0.29 0.30 0.37 0.39 0.40 0.41 0.44 0.46 0.46 0.52 0.53 0.54 0.54 0.55 0.59 0.63 0.64 0.66 0.80 4 142 0.13 0.14 0.17 0.20 0.25 0.40 0.58 0.61 0.63 0.65 0.66 0.68 0.68 0.68 0.69 0.75 0.76 0.80 0.81 0.81 0.82 0.83 0.86 0.95 0.97 5 143 -0.52 -0.25 0.11 0.12 0.16 0.33 0.38 0.42 0.43 0.51 0.51 0.54 0.54 0.55 0.58 0.67 0.74 0.78 0.88 0.90 0.93 0.96 0.99 1.11 1.13 3 144 0.14 0.15 0.17 0.18 0.24 0.27 0.29 0.31 0.35 0.38 0.38 0.39 0.42 0.44 0.44 0.47 0.48 0.48 0.49 0.51 0.54 0.57 0.57 0.58 0.66 4 145 0.17 0.18 0.18 0.19 0.21 0.21 0.21 0.23 0.24 0.24 0.30 0.33 0.34 0.36 0.36 0.37 0.37 0.39 0.44 0.46 0.55 0.61 0.65 0.66 0.75 4 146 0.17 0.18 0.21 0.23 0.23 0.24 0.30 0.31 0.33 0.35 0.36 0.39 0.39 0.42 0.44 0.45 0.49 0.49 0.51 0.51 0.56 0.59 0.61 0.64 0.68 4 147 0.09 0.13 0.13 0.15 0.15 0.17 0.18 0.23 0.34 0.37 0.42 0.43 0.59 0.63 0.64 0.64 0.67 0.68 0.69 0.73 0.75 0.77 0.82 0.87 1.00 5 148 0.03 0.05 0.06 0.12 0.12 0.14 0.15 0.19 0.28 0.31 0.44 0.45 0.47 0.49 0.50 0.59 0.63 0.67 0.73 0.77 0.81 0.88 0.88 0.96 0.97 1 149 0.01 0.02 0.16 0.18 0.19 0.19 0.23 0.24 0.25 0.27 0.31 0.40 0.46 0.48 0.50 0.51 0.53 0.75 0.79 0.91 0.91 0.91 0.94 0.96 1.00 1 150 0.15 0.23 0.24 0.24 0.29 0.32 0.33 0.38 0.41 0.41 0.44 0.46 0.46 0.47 0.50 0.57 0.58 0.59 0.61 0.62 0.72 0.79 0.87 0.87 0.89 2
O ' O ' O ' O O O O O ' O - O O C o O ' O C o S O v U l M W N ^ O ' O
< •-* O (..-" o *-/i *vi v/i \yi v/i v i v/i ^yi i ^ l-J W -> O O 13 N ( M " *"* ^ 'O - 1
O O O O O O O O O O O O O O O O O O O O O O O C ) i O O O O i o o o o o o o a o o o O C D O O O O o - * w o o r o o o — » r o o o — » - * o o o t - » i — » — > r \ j _ * o -•-*—*• - * _ » o r o o — • — » o ^ o — * O Í > O - * - » — * o o — « o o — * o 0 H O * * N 0 1 ^ W N V , O 4 0 - * , 0 O M - 1 O f u W í ' N M ^ í - M ' O W o ^ C O - ' - ' c o ^ - n í ^ - N j O C O O J O u i J ^ o u i J ^ c n ^ r O l W O v
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O ^ ^ 0 - ^ O N O O W W - 4 O W - « - i O - i O W - i - ' W - - ' - * - * - « - » - » 0 - ' - ' - ' 0 0 - » - ' - > 0 0 - i - » - » ^ O W - » - » - > 0
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O _ i ^ f O - » - » w - * o w w - * o i \ ) - * - » M - ' o r o r \ ) O N - » w - * w - ' N - » — * — * r \ j r u — * r u — * i v — » o - * r o r o — * r \ j o r o — » r j r o — *
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O r o l » N N - » í N - » o w * ' - » O N - » - * f v ) n j o W N O w - * L ^ i \ í W W w r v - ^ - * f \ > r \ j — » r o ^ r o - * - * - * r \ j r v í r \ j r o — » O J - » r o r o r o
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o ^ o ^ W N ^ ^ ^ ^ ^ í ^ ^ o w ^ ^ w w ^ w ^ o o N N W N W W W N ^ ) r o u ^ ] N W N N W J ^ ^ J W ^ ) N ^ ^ ^ ) r o ^ ) r J c > s o W ( > i N 0 * w u i w ^ ^ o ^ 0 3 C D W W ^ ^ ^ u i o c n í s < ) r o w i w w o O N C > r j n j o u i o C D W w ^ - ^ u w - » o ( > , 0 0 '
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o W N W ^ J N ^ N ^ W ^ ^ ^ w w N W ^ ) f ^ ) ^ l ^ J ^ N W ^ ^ í ^ ^ w w N r o w w M W N N N ^ ^ O M N W r o w ^ w r o w w
O W ^ S W N S W ^ ^ ^ ^ W ^ s D y ) W O ^ < ) O N O W ^ V l < ) ^ - J ' 0 W < ) r 0 W W C 0 - v | ' 0 ( > O 0 ) ^ O C D W U l C D C D O f N
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O w r o x ^ w w v / i o J — » o J - t ^ r \ ) — » o J r \ j L * i í ^ ( \ j r u ^ O J — » w w ^ ^ J ^ w ^ w w ^ o • ^ w w ^ w w w u l ^ J U w ^ w r o u l ^ J W W w
I N j V l - ^ J P J W O ' - n C a u í - s j ^ ' O O - ^ O O — " O ^ N O - , - , - i W O ) N U ' O N W O . N C D , O W Ü » W ü l O W W O - * ' O C » W ' O U i - » 0 3
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O w w u 1 ^ w u l ^ ^ ) ^ u l W f ' ^ w ^ ^ w w u l ^ ^ J W W w w u l • « J ^ ^ ^ w ^ ^ ^ ^ ^ w w u l W U ^ ü I U l ^ ^ u l w ^ w ^ u i -o — w ^ w ^ a > ^ w ^ s r o c o ^ c D > N W w o o í N s w w w < ) N W O < ) ^ ^ c o r o c o » c a N v i o N ( > o v i v i N W ' W
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
v l W ^ w s N ^ s w N C D C D ^ C D N ^ J C D ^ ^ ( ^ w o o N C ^ ^ w o ) W w o ^ o ^ W N W < l ^ u l C D N V l ^ J l • o - » ( ^ O D C » ( ^ w
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o ^ f - u i j s m i f i L n r o ^ u i ^ O N ^ ^ - ^ u i r - w w x ^ ^ ^ x * ) . . * N V / T - - j t - n . r * . r * W < - n L n . r * o - r , - - r - - f , - < N ^ N C » ^ N w < ) N N O w w o o 5 ^ ( ^ ^ ^ ( ^ w o w ^ ^ s w w ^ c ^ - » - > r o • ^ u l u 1 0 ^ ) C ^ - ' • ^ ^ u l V l - i S N 0 3 U o ^ )
- M ^ U l O O Í » W l W ^ ^ ü l
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
^ ^ r u ^ w c o c ^ W ' O o o ^ c ^ - ' , o ( ^ O N ^ w - * w w w ( ^ w u l • - > ^ s w - » u l - » • o ( ^ o ^ J C O N N ^ J C ^ ^ J - » o o w o u l
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O i v_n f - x- o »-n -C- O ' l o W I \ ) ' 0 - * O U l i
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
6 ^ 6 ^ o * u 1 ^ 0 í N w ^ w w u ^ r o ^ w ^ ^ c » o * s c o s ^ o ^ O N ^ o w c ^ s D ^ ) w o 3 w w ^ ^ o s D N W W s • ^ c ^ N ^ J O > ^ u l ^ J o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o
i^C>C>C^-CN*W*-n-t,,-CN0,»"*J,-n,-"V'<>,-"",NÍC0-^O%»OCN' Í » > 0 W ^ ( > O ^ U I C > C D - Í > 0 S , 0 - * , 0 N W N 5 » - » 0 Í C 0 O U 1 C > 6 I
. t_n O» <-n <-n O <
o o'o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o
rf>JO»N^w^-J^o•^Jul•^Jvl^oNo«oowoCDW^JWVl•o,o^)ON^)c>-'WJ•ulsco->cD-*^)•oul^NO(^
O O ^ O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O O
o o - * o o o o o o o o o o o o o o o o o - * o o o o o o o o o o o o o - * o o o - * o o o o o o o o o o o
o o - * o o o o o o o o o o o o o o o o o — » o o o o o o o o o o o o o - » o o o - » o o o o o o o o o o o
CX3COr\JCOC3^^CO^^U1<)p^V^^<)CD^^^CD^CD<>C»C»<)OO^COCO(>CN»
O 0 - * O 0 O 0 O 0 O O O O 0 O O 0 0 0 O — » 0 0 - » O O 0 0 0 O O 0 O O - * O 0 O — » O O Q O O O O O O O O c a c o w c o ' O N t o c o N C a o - o o O ' C O ' O ' O O S C D - • N C O O O J C O ' O W O J P O ' O N N ' O W N 1
>. -*J _* VI o -o —»-sj-*i \ j—*-*jo«-nfNj-o N r w o r o r - ^ w w í ^ ^ o u - * » ui ro - * r j -» «o • o o ~ » o o o o o o o o - » o o o —• o o o o • o o - » o o o o o - * o o o o — » • • • O O — ' - « O O O — - O O O O O O ^ < ) w y 5 < ) O o C a ^ C o C n N O N ^ < ) 0 < < ) N t o ^ N O J N ^ 0 3 ^ C o C O N < ) C » N < > W O U i ( > O O N C O ^ O ^ ^ N O O « C o
i_ni^nu^'-rtLnrNjr\jv,nr\jrv.rNJ.rvr-.—» j ^ u w r u w f \ j v ^ w u i N ^ r \ j i N j W u i r o r v í - » W f u f ' í s w - » x ^ w v / i - * - * N ^ - i í , f \ J
307
VALORES DE LAS 200 REALIZACIONES MUÉSTRALES DE TAMAÑO n=25.
VALORES DE LAS REALIZACIONES MUÉSTRALES DE TAMAÑO n=100
REALIZACIÓN MUESTRAL DE LA EXPONENCIAL(10).
0 3
14 4 0, 5, 9, 7.
18. 34. 16. 10. 0. 2.
17. 24. 8. 1. 3.
20.
.9020510
.5474550
.8415978
.8073690
.9217500
.3934107
.7700207
.6785915
.2773281
.5369020
.0549509 ,8379650 ,0989389 ,2344575 ,1251027 ,5544520 ,1640254 3057784 3971109 7659511
10 0 8,
14, 0
34, 0.
43. 8.
29. 18. 19. 0.
20. 16. 0. 1.
18. 4. 5.
.1527207
.7564856
.4471839
.7483126
.9276676
.6012755
.6767993
.0474055 ,8705040 ,1762912 ,8961406 ,7430750 ,9265404 ,0290319 ,3805741 .8469251 4148920 8069583 0188790 6065657
0 8, 4, 6, 13 15. 31. 3.
17. 1. 8. 7. 1. 3. 8. 0 4.
15. 0.
32.
.3516957
.5017330
.7364460
.4195344
.4627685
.7331026
.5623555
.0472566 ,6426179 ,4498056 ,8406141 ,9600559 ,2252511 ,3073856 ,9793052 .5036986 ,3471442 0109567 9844794 2285449
33 8, 5, 4. 1 4. 2. 4. 2.
12. 1. 7.
11. 3.
18. 6 5. 5.
18. 8.
.7639264
.8386805
.3019404
.0049232
.0994659
.0718515
.3789083 ,7056415 ,7633431 ,3591033 ,0445705 ,7170365 ,6818904 ,7028437 ,4995902 .9334195 1760087 4146610 6962904 8976855
21 3.
11. 5. 17 14. 6.
16. 1. 0.
14. 26. 4. 1. 4. 1 1. 4. 9. 0.
.7944181
.7722910
.7582339
.9514488
.7646384 ,6909541 ,1779037 ,9891099 ,0212275 ,4375607 ,4242726 ,4101515 ,1623490 ,1349678 ,4157886 .6081052 8178410 1726778 4653502 3961374
REALIZACIÓN MUESTRAL DE LA EXPONENCIAL(4).
1.7646065 7.8662941 1.3771997 2.0248925 7.7346071 1.2618125 5.2320701 0.8189046 9.3040424 1.4692512 3.7730242 2.5117723 4.3397002 6.9766709 4.4926209 0.1776129 2.6411974 4.6932200 0.5184042 1.3929739 3 0 3
12, 0, 7. 3. 3. 0. 1. 0. 0. 0.
10. 2. 8.
.2505103
.8777664
.2957722
.9539999
.3641178
.7829231
.3914612
.5989833
.9750372 ,0883453 ,4331192 ,1470741 ,4519304 0941410 6874964 4719317
18 3 0 5, 1, 4, 0. 4. 3. 0. 0. 3.
14. 4. 9. 6.
.8712489
.2927436
.4726830
.1060877
.5486738
.2731672
.1991438
.9691111 ,0938498 ,7734669 ,5549598 ,0593936 ,4720571 5719586 5848961 0122526
3 2 1
12, 5, 1, 0,
12. 2. 0. 0. 1. 0. 8.
15. 6.
.4548963
.2713445
.8915865
.9325238
.8458623
.4212062
.0171069
.2396624
.7619281 ,3427174 ,1569826 ,2009843 ,5855329 ,9455755 ,4467251 5644580
1 0 3, 2, 0, 2, 4. 4. 1. 4. 3.
14. 4. 1. 6. 3.
.8895929
.0607328
.3487370
.3971218
.7924155
.5382664
.7167478
.5212486 ,4479299 .7727196 ,8600317 ,1455388 ,7394646 ,0113242 1881577 6323056
6 0 7, 1,
10, 0, 0. 3. 1. 2. 5. 4. 2. 5. 7. 2.
.2511361
.7053117
.4995503
.4259785
.0124056
.4057841
.6310236
.6239757 ,8103364 ,5694799 ,1804507 ,7311251 ,6255162 ,0454998 3606212 8539653
309
REALIZACIÓN MUESTRAL DE LA EXPONENCIAL(1).
0.02072067 0.70829099 0.52616100 1.33537669 0.41062114 1.20401446 1.02008993 0.20967059 0.17400002 0.57047236 0.26331394 2.35566224 0.19889134 1.62779903 0.15941982 0.21574436 0.76491252 1.59637175 0.88029965 0.89600785
0.22970120 0.02280776 0.12986037 1.04725550 0.28609297 0.14607375 0.12030852 0.01361365 0.15682270 0.15322403 0.48321659 0.50678626 0.53163561 0.20716171 0.84895769 0.19724622 0.84450059 0.66698396 0.46326741 0.08165929
0.45205675 0.18443320 1.44145695 1.28170362 1.77313466 1.00374467 0.49168547 4.39552696 0.71693909 0.01800519 0.29608638 1.97172563 0.71012419 0.18372015 0.58668117 0.21031970 0.36196829 0.32467859 0.57047921 0.55931784
0.90099047 1.70587937 0.07032068 2.05376525 0.67031634 0.17485348 0.42435092 1.03003991 0.28195789 0.86994033 0.16308319 0.45002548 0.06991074 0.61449031 0.33716066 1.11831118 1.14558100 0.31657352 0.08372718 0.13958214
1.16801532 1.05928868 0.18171961 2.07626716 0.08334582 2.86347228 1.11462203 0.41550552 0.61398690 1.92007213 0.60642953 0.19194320 1.42282129 0.07141548 0.51659072 0.24175380 0.98187890 0.34767990 0.39353901 0.46983437
0.04895849 0.05735290 0.05454563 1.40283632 0.05894666 0.48485065 0.09984077 0.05166942 0.60578620 0.25249399 0.26718063 0.14875750 1.20048983 0.03668217 0.96937005 0.73877433 0.36187071 0.48139458 0.03285825 0.95721299
0.60442614 0.25614901 0.02572818 1.12981986 1.04552985 0.25415249 0.48490284 1.68420090 1.32744478 0.43418341 0.22572473 0.64733869 4.05785157 0.43443070 0.29227113 0.17317199 0.08608749 0.63149891 2.03770079 0.74058690
0.94379842 0.10639005 0.95244157 0.01060929 0.63685681 0.73827449 0.13265455 0.36474127 0.42784236 0.17053089 0.28610038 0.91316301 0.77243085 1.03917123 0.87733917 0.13749813 0.13953244 0.00991726 0.52582096 0.04626743
0.36050600 1.34889436 0.88997250 1.53561433 0.32676223 0.83637570 0.00127454 0.59082640 0.19386591 0.01105964 2.97928589 0.53495539 0.96908331 0.69500060 2.26185913 2.27422024 0.04307226 0.25366368 0.23203079 2.16221671
0.27091319 0.13785090 0.46215923 0.07427447 1.85536074 0.49690845 0.58590435 0.32816064 0.32643079 0.09579615 0.20516877 0.41876658 0.15746507 0.91612381 0.65951511 1.24133303 0.52869357 0.47226468 0.04879552 0.14513043
REALIZACIÓN MUESTRAL DE LA EXPONENCIAL(0•5).
310
REALIZACIÓN MUESTRAL DE LA EXPONENCIAL(0•01).
0.03143589 0.00062397 0.00033877 0.00293390 0.01778295 0.00174861 0.01457896 0.00676476 0.00191280 0.02189642 0.00177336 0.00001754 0.01784932 0.00035954 0.00101232 0.02034520 0.00262234 0.00030566 0.00531942 0.00399059 0.00145976 0.02352521 0.00494236 0.00834609 0.00461615 0.00161697 0.02327120 0.03638075 0.00850071 0.03337064 0.00261134 0.00224827 0.00247711 0.00921559 0.00747076 0.03694121 0.00480876 0.01403048 0.01190789 0.00637958 0.00518601 0.00618177 0.02450747 0.00161344 0.04755101 0.00741588 0.00572873 0.00821319 0.00213390 0.00270103 0.00317734 0.00078617 0.00352953 0.00267427 0.00098074 0.00292186 0.00429691 0.01309334 0.00510541 0.00943756 0.00348355 0.00128563 0.01731213 0.00008069 0.01133858 0.00042579 0.00103094 0.01748188 0.01875739 0.01530731 0.00421320 0.00748350 0.00032021 0.00144764 0.00144416 0.00354800 0.01015706 0.00178353 0.01151147 0.00516709 0.00005971 0.00703130 0.00570127 0.02500741 0.00589760 0.00997525 0.04004055 0.01653609 0.00628446 0.02671828 0.01256130 0.00660738 0.00186281 0.01013846 0.00990315 0.00290516 0.00716957 0.00618760 0.00728026 0.02154421
-2 -2 -1 -1 -1 -2 -2, -1, -2, -1. -2. -2. -1. -2. -2. -2. - 2 . - 2 . - 2 . - 1 .
REALIZACIÓN MUESTRAL DE LA
.31975
.75484
.94684
.01938
.85155
.73780
.66421
.97849
.44216
.74610
.19909
.41420
.43585 ,10290 ,52029 20012 23583 79829 00918 43164
-1.74095 -1.37156 -1.46283 -2.17830 -2.35482 -1.80034 -1.32841 -1.45674 -1.77571 -2.04796 -2.36534 -2.42032 -2.08245 -1.06236 -1.84086 -2.47492 -2.12601 -1.01076 -2.53150 -2.16894
-2.29436 -2.10950 -2.40314 -1.39891 -1.89498 -2.28392 -2.63442 -1.39727 -1.98414 -1.51901 -2.37636 -2.40799 -2.32092 -1.98769 -1.24837 -2.49817 -1.98458 -1.63372 -1.60245 -2.57958
N(-
-2 -2 -2 -2 -1, -2, -1, -2, -2, -1. -.
-3. -2. -1. -1. -1. -1. -1. -2. -1.
-2,0'5)
.10148
.14782
.21301
.22788
.15311
.64880
.46384
.47253
.20551
.39159
.80550 ,02418 .71374 .84724 ,46829 ,99294 ,71052 32027 34853 86732
•
-1 -2 -2 -2 -2, -2, -1, -2. -2. -1. -1. -1. -1. -2. -2. -1. -1. -1. -2. -2.
.58921
.32342
.20712
.30180
.54411
.04364
.98153
.43642
.01953
.62241
.70310
.82418
.63489 ,11069 ,15083 ,17913 ,31209 90815 16742 43257
311
REALIZACIÓN MUESTRAL DE LA
-1 -3 -2 -1 -2 -2 -1. -, -,
-1, -1, -2. -1. -1. -.
-1. -1. -.
-1. -1.
.99532
.01572
.45174
.35045
.36724
.88603
.96569
.67518
.92752
.95941
.15919
.45849
.75633
.84997
.92585 ,84892 51855 .85372 29792 99211
-2 -
-1
-5 -
-1, -5, -2, -3. 1. -.
-4. -7. 1.
-2. -4. -3. -2. 3.
.89425
.57743
.66327
.55913
.17423
.92617
.18118
.19348
.03396
.78308
.58745
.60772
.25951
.14397
.63151 ,02065 65064 51214 90546 65459
-2.15909 -3.04496 -1.28262 -1.18827 -1.20857 -2.85507 -.96935
-1.24115 -2.09331 -3.44967 -1.97647 -2.48721 -.93834
-1.81087 -2.95513 -1.81525 -1.60565 -3.01926 -.77044
-3.28253
1 -8
2 3 1,
-7, -5. -3. -4. 1.
-6. -4. 1. 6. 1.
2. -4. - 4 .
.37251
.37352
.08698
.10927
.59441
.80503
.44381
.17786
.91705
.37458
.32866 ,55368 ,50105 ,31198 ,55217 34882 11408 93406 62397 15416
-2.30231 .04649
-1.60993 -1.62297
.31963 -1.15958 -2.20866 -2.90046 -1.34516 -2.90576 -2.04332 -1.40917 -1.30868 -1.32516 -2.28171 -3.58650 -.02521
-3.22263 -2.02956 -2.31945
3 -4 -
-2 1
-7 -3 1.
-7, -, -,
-4, -1.
4
-2.
-6.
.29555
.32419
.61869
.79633
.39177
.42753
.09347
.09561
.34176
.14771
.27106
.42379
.58220
.32628
.08711 ,85231 ,38964 ,00252 ,41557 62262
N(-2,l).
-1.48532 -3.13698 -2.52724 -.19082
-2.76817 -1.59130 -.73779 -.96690 -.58811
-2.94510 -2.23901 -1.31382 -1.95340 -4.15465 -2.29198 -2.08376 -1.95284 -1.48893 -1.85417 -1.72675
N(-
3 -5 -1 1 1. -,
-5, -3. -2, -5. -4. -.
-7. 5.
-6. -4.
• -1. -.
-2,3).
.26475
.34477
.48393
.23413
.48447
.74147
.37490
.33280
.55010
.20250
.44733 ,84085 ,86314 ,11899 ,27658 ,36630 39858 88514 97976 37580
-1.22175 -3.01444 -2.59487 -2.14559 -.83104
-1.49628 -2.13233 -2.44254 -.94917
-5.63011 -3.36916 -2.26765 -2.56146 -1.53013 -2.25387 -1.81498 -1.93801 -1.76260 -.58487
-3.27482
-4 -1 -3 2 -, -, 2,
-1, -1, -5. -4. -1. -. 2.
-3. -2. -1. -5. -5. -3.
.30304
.09366
.01866
.82184
.14069
.80900
.03172
.44677
.05747
.44772
.18207
.98788 ,56597 ,46013 .64685 ,85993 ,10618 ,03103 90043 39053
REALIZACIÓN MUESTRAL DE LA
312
REALIZACIÓN MUESTRAL DE LA N(0,0'5).
-.66898 -.09444 .07638
-.48365 -.55589 .61280
-.80740 -1.10453
.86809 -.40631 -.21820 -.37262 -.14227 .16399
-.13690 .06615
-.47960 .32739
-.61022 -.06053
.55446
.26663
.10392 -.06928 .35840
-.71538 .31815
-.33966 .28326 .46052
-.66240 -.91975 -.59315 -.39767 -.03088 .20966
-.62649 .96378
-.07747 -.25110
-.33726 .71436 .47287
-.51634 .78421 .03453 .16260 .49841
-.04285 -.24789 .78300
-1.00585 -.12069 -.28876 -.86537 -.63451 .06815 .26922
-.70514 .08416
-.28430 .45332 .12992
-.91378 .31107 .00783
-.03040 -.59136 -.58206 -.27396 -.36364 .02722 .16753 .79187 .55728 .38507 .13021
-.75251 .30055
-.25161
.72216
.50858 1.38636 .63876 .02684 .88510 .61684 .22393
-.64482 .08396
-.61367 .88384 .29705 .02509
-.10397 -.08996 .55027 .52822 .37778 .28662
REALIZACIÓN MUESTRAL DE LA N(0,1)
.28082
.20906 -.03259 .88843 .57666
-.79131 .52231
-.95333 .17588 .50295
-1.99440 -2.46353 -1.14412 -.09047 -.64724 2.03620 .51989
-.08270 -.06500 -.81603
.74644 -.52768 -.06226 1.68378 1.01406 .28544 .16282
-.73830 .64898
-.41532 .05733 .70439
-.60531 2.62535 -.17441 .87639
1.62752 -.11491 -.47792 .26916
1.23329 -.47476 2.35378 -.44617 -.19565
-1.32092 -2.28650 -.00044 -.06277 1.60017 -.19462 .74024
-1.09032 1.31076 .32542 .09585
-.93086 .13403
-.74995 -.19527
.86780
.13651 -.20257 1.03983 -.10748 -.83579 -.57648 -.91428 -.50159 .65261
-.71145 .34115
2.41170 2.08060 -.56787 .10679 .52956
1.08527 -.77797
-1.11015
1.50852 -.78062 .04247
-.00596 .25067
-.38263 -1.08529 1.66295
-1.88566 -.16939 .87294
1.14339 -1.12652 -1.32172 -1.10387
.20366 -1.02473
.17595 1.29895 -.70932
313
REALIZACIÓN MUESTRAL DE LA N(0,3)
2 --3 6 •1
2 --, •2,
2. 1. 5. -. 3. 4. 4. 1.
*
.06232
.30796
.82047
.88115
.06074
.35253
.74312
.67306
.33339
.69201
.03785
.88853
.11616
.59159
.48825 ,12310 ,39762 ,53022 ,01085 ,08478
-4 3
-4
-1 1, 7,
-2, 5,
-2. -.
-2. 3. -. 7. -.
-1.
.89342
.21255
.42392
.95066
.14391
.67132
.32865
.96912
.32696
.39572
.58964
.23956
.11609 ,90614 ,75073 ,69315 ,04579 ,00802 ,24283 97015
-.70805 2.60386
-2.13230 1.61313 3.06661 1.80370 .23559
3.23189 -3.04529 -1.66327 2.38331 -.02509 .14281
1.79351 1.53832
-1.81089 .42628
-2.66207 -1.39366 -4.00775
2 2
-4 4,
-2 -2,
-3, -7, -2. -2. -4. -1. 1.
-3. 1.
-3.
-1.
.61153
.10036
.90532
.52441
.22727
.69252
.11992
.55917
.74082
.42508
.07731
.08151 ,77035 ,17469 ,09068 ,62004 ,31617 ,42982 ,33084 70122
-4 -8 2 4, 2 1,
-10,
1, -2, 2. 3.
-6. 5.
-5. 1. 1.
-3. 5.
-2.
.06970
.45811
.15045
.80030
.42243
.84318
.64451
.00030
.39288
.00321
.51612
.53926
.89097 ,53668 ,31413 ,87446 ,30825 ,15020 ,98739 22592
REALIZACIÓN MUESTRAL DE LA B(l,3)
0.15102646 0.06543129 0.24457924 0.00374343 0.08117529 0 0 0 0 0, 0, 0, 0, 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
.03699618
.45794330
.03923174
.10960307
.77169021
.26211443
.13506402
.27729800
.01557653
.51628343 ,45305787 ,45989611 ,23248394 ,06714080 13128520 34301790 10956195 76105023 06737604
0 0 0, 0, 0, 0, 0, 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
.02723019
.01327735
.55795979
.23370221
.64317296
.13948671
.48275079
.42639097
.11110149 ,05375130 .57092241 ,14388364 ,36506528 ,43433259 29455158 18980048 60216629 05209541 26367641
0 0 0 0, 0, 0, 0, 0, 0. 0. 0 0. 0. 0. 0. 0. 0. 0. 0.
.38598779
.06896885
.35910389
.05820967
.35016570
.23054521
.53212070
.05687780
.14485275 ,04776538 .07749332 ,56218485 ,25451710 ,09537627 ,27438382 21273006 02554508 16192875 04027208
0 0 0, 0, 0, 0, 0, 0. 0. 0. 0 0. 0. 0. 0. 0. 0. 0. 0.
.31538936
.50236316
.27958933
.00763712
.05934081
.04286483
.14843437
.66531976
.10148772 ,06555584 .05635570 ,55510054 ,17683526 ,58091537 ,05747224 49240021 57496717 63228164 04587684
0, 0, 0, 0, 0, 0. 0. 0. 0. 0. 0 0. 0. 0. 0. 0. 0. 0. 0.
.24383253
.24955433
.34859572
.67281483
.42415055
.63926866
.09133226 ,01199059 ,11236935 ,03520606 .31018763 ,73235686 ,07576303 32226691 49413495 27832837 08617710 14393662 03683339
314
REALIZACIÓN MUESTRAL DE LA B(l,6)
0 0 0 0 0, 0, 0, 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
.22473417
.29076734
.29275776
.05896906
.06446930
.08228292
.09287312
.16249087
.53149909
.10038086
.19288420
.00295449
.11906992 ,24419691 06561050 00837872 06216326 01476496 05177804 31437349
0, 0. 0, 0. 0, 0. 0, 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
.05057174
.05293164
.13428398
.03934432
.10197877
.25867075
.18758461
.03855289
.10672121
.15906285 ,01903013 ,20590252 ,08201917 04972813 07499727 09788386 01629979 08334805 23239125 32046862
0 0 0 0, 0. 0, 0, 0. 0. 0, 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
.12509526
.17827430
.09056756
.18432297
.03991507
.41370856
.25870688
.02945944
.06084136
.13484057
.24662740
.35085026
.08159157 ,23394690 ,03093449 ,30463777 09269494 24318106 10239877 15318733
0, 0. 0, 0, 0, 0, 0, 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
.14390721
.02781925
.28580183
.03451418
.02821196
.08933900
.07017082
.18212064
.03136329
.14937051 ,23959928 ,07572617 ,04767847 ,03896067 ,10038854 ,09924280 15919882 33705789 08115527 14373554
0, 0, 0, 0, 0, 0, 0, 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
.14315375
.02046488
.03706052
.13310814
.06813177
.02770139
.15929063
.10419272
.03979478
.02755441
.14253392 ,05182282 ,18902128 ,03609161 ,01708586 ,24766052 10260278 22410289 13631399 27736310
REALIZACIÓN MUESTRAL DE LA B(l,8)
0 0 0 0 0 0, 0, 0, 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
.07590994
.03241985
.04587981
.09115066
.04630545
.28719554
.63499707
.07862346
.05204642 ,03813412 ,08598324 ,08426231 ,05716376 15768105 05155951 32602958 03265841 05245590 04793769 08269070
0 0 0 0 0 0, 0, 0, 0, 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
.11060996
.06792631
.09863600
.31301620
.14616599
.00132512
.28093603
.02839278
.04681552
.14708129
.07043709 ,09161499 ,00277121 ,02412784 12705119 30713048 07068670 05609515 10020899 21519205
0 0 0 0 0 0, 0, 0, 0, 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
.25474807
.04626304
.10911026
.04317402
.10056522
.32967438
.01511666
.08437075
.08804804
.03359530 ,09743328 ,09878089 ,06587320 ,04443084 15779046 05312231 33189151 04621505 10870273 12990728
0 0 0 0, 0, 0, 0, 0, 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
.01135284
.08192227
.08446233
.22141586
.22276681
.10083715
.08097659
.12719459
.22306313
.11341400 ,08036320 .01555374 ,01886301 ,19433403 ,04751189 00627430 20255953 18819087 07146518 04038854
0 0 0, 0, 0, 0, 0, 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
.03282933
.17266850
.01720998
.06486962
.31557067
.20577429
.04517607
.00924747
.23282958
.06223660 ,01147406 ,46031171 ,00614483 ,08344470 16895316 14922724 00857553 00033934 00513857 01254416
315
REALIZACIÓN MUESTRAL DE LA B(4,3)
0.620003 0.481507 0.763572 0.628373 0.689422 0.641903 0.616590 0.456628 0.375374 0.532189 0.521709 0.342799 0.649466 0.729036 0.474906 0.615867 0.809064 0.530283 0.516759 0.769456
0.5954814 0.4901938 0.2988124 0.5299706 0.2404412 0.3698745 0.3909384 0.5331971 0.6155639 0.3506533 0.3087709 0.2666259 0.4410057 0.4656348 0.4939896 0.6704880 0.3264645 0.4095729 0.4192372 0.5184784
0.120592 0.591380 0.546769 0.606540 0.489539 0.825006 0.748491 0.205624 0.572833 0.821853 0.857789 0.764042 0.718728 0.515505 0.442209 0.699024 0.417332 0.632846 0.737497 0.846189
0.2516154 0.2493486 0.4996589 0.3378013 0.6124530 0.4845436 0.2853123 0.5834345 0.6128286 0.2922156 0.1804770 0.2742611 0.3763466 0.5918507 0.5102936 0.2503397 0.4899450 0.2156052 0.1677225 0.2987463
0.559223 0.449118 0.700796 0.442586 0.580025 0.671163 0.304249 0.506148 0.385223 0.446743 0.703275 0.609522 0.847168 0.618437 0.586348 0.751561 0.590800 0.485802 0.861990 0.715168
0.3320890 0.6445975 0.3456498 0.3616082 0.3323573 0.1649600 0.3214664 0.4340477 0.2897797 0.6038169 0.4396974 0.5517297 0.4682511 0.4042468 0.6627579 0.2593345 0.1830669 0.3220047 0.4832002 0.5425818
0.539350 0.432439 0.751076 0.617944 0.372073 0.671051 0.447994 0.547169 0.737567 0.722853 0.810439 0.671485 0.526146 0.562789 0.609177 0.720447 0.802263 0.545072 0.567673 0.443642
0.4177844 0.3051478 0.0762728 0.7345340 0.6136689 0.5383647 0.3980212 0.1093896 0.4464452 0.3143303 0.3400446 0.5252893 0.5402127 0.4322302 0.3268638 0.5216045 0.6488367 0.3025225 0.4640702 0.4164735
0.320396 0.817993 0.439923 0.672839 0.595332 0.498729 0.674219 0.650762 0.442743 0.336694 0.228926 0.769975 0.575718 0.650178 0.379665 0.269558 0.221448 0.864504 0.459059 0.504073
0.5819566 0.3149236 0.3078722 0.4140780 0.5311139 0.4731031 0.4814065 0.6409673 0.5371976 0.4188922 0.5379292 0.3087476 0.5198298 0.4715887 0.5013463 0.4825485 0.3254791 0.6169667 0.3002159 0.3010891
REALIZACIÓN MUESTRAL DE LA B(4,6)
316
REALIZACIÓN MUESTRAL DE LA B(4,8)
0.3987101 0.1749029 0.2885224 0.3857321 0.2803405 0.2959167 0.1405731 0.2832032 0.3835353 0.2827576 0.2471452 0.5216555 0.4243285 0.3126546 0.3420990 0.4688858 0.1672410 0.5872983 0.3398844 0.2376111
0.822848 0.627014 0.668786 0.761195 0.700191 0.929262 0.532272 0.489145 0.457764 0.588804 0.836235 0.816699 0.785539 0.532704 0.603955 0.389860 0.309963 0.823126 0.758969 0.814772
0.4708591 0.3417043 0.4891574 0.4460176 0.4384723 0.3423498 0.2392387 0.0805225 0.3606277 0.3085494 0.2479090 0.3082583 0.4091579 0.5047306 0.3223319 0.2116149 0.4469719 0.6610392 0.4398838 0.2840482
0.3430902 0.4228470 0.4387915 0.4402802 0.4146774 0.5901493 0.1094047 0.4005479 0.2271687 0.3055390 0.4364943 0.5892290 0.4422069 0.2825612 0.3557750 0.3002314 0.3124328 0.2382188 0.2581539 0.3127412
0.3438034 0.4376773 0.3870515 0.3030717 0.4290156 0.3286431 0.6315672 0.2471514 0.2837629 0.3090828 0.3994036 0.5369557 0.1822337 0.3679469 0.4725178 0.2409663 0.5513237 0.3619701 0.2027630 0.2676277
0.2622814 0.4123837 0.3268622 0.1861674 0.2962601 0.2689176 0.2682189 0.2683967 0.3269050 0.5344532 0.1826179 0.4869043 0.3582005 0.2611953 0.3076376 0.2019523 0.3500725 0.5707013 0.3776314 0.2021569
REALIZACIÓN MUESTRAL DE LA B(7,3)
0.610807 0.606021 0.874225 0.879174 0.903594 0.607530 0.494890 0.572605 0.667749 0.827440 0.649242 0.595584 0.709066 0.770134 0.783687 0.469193 0.771443 0.736893 0.653905 0.893124
0.634077 0.890107 0.768826 0.826156 0.889439 0.841480 0.687488 0.783902 0.826412 0.773296 0.777089 0.762105 0.577942 0.687184 0.741714 0.637545 0.838571 0.786885 0.494231 0.435240
0.743342 0.664845 0.612749 0.592651 0.345978 0.656372 0.712431 0.715018 0.709000 0.714648 0.792750 0.867717 0.890951 0.543288 0.882791 0.444306 0.824156 0.814713 0.664724 0.553642
0.532233 0.554923 0.724112 0.783308 0.671205 0.762026 0.871957 0.463940 0.612377 0.765355 0.566318 0.892589 0.939179 0.827203 0.639736 0.706599 0.844111 0.807515 0.853601 0.729580
317
REALIZACIÓN MUESTRAL DE LA B(7,6)
0.836797 0.492801 0.547155 0.521039 0.765806 0.675447 0.529233 0.676711 0.709956 0.411409 0.649797 0.452753 0.583382 0.630648 0.714518 0.399676 0.523486 0.619664 0.435814 0.633784
0.436103 0.329294 0.658835 0.314747 0.618565 0.711586 0.543569 0.459440 0.742011 0.659039 0.560559 0.299491 0.647613 0.586721 0.379496 0.505787 0.470489 0.453481 0.359434 0.571859
0.383939 0.553276 0.729378 0.570831 0.495593 0.682995 0.202237 0.486717 0.267120 0.261311 0.511026 0.393226 0.640737 0.571252 0.731281 0.766909 0.533590 0.577280 0.551934 0.537644
0.391485 0.258264 0.520411 0.356890 0.369534 0.478044 0.428933 0.486396 0.411673 0.653912 0.357145 0.265227 0.249766 0.337632 0.544113 0.492548 0.565209 0.482423 0.393145 0.257385
0.539371 0.669163 0.536584 0.616798 0.349929 0.431231 0.564862 0.345186 0.489144 0.726267 0.482447 0.438587 0.430789 0.609374 0.557611 0.425166 0.455591 0.430906 0.651726 0.487144
0.521387 0.460473 0.673381 0.440905 0.343864 0.234132 0.481910 0.226743 0.427867 0.406733 0.437491 0.248518 0.425616 0.629663 0.453498 0.428664 0.528501 0.297807 0.265918 0.347793
0.302367 0.539847 0.379567 0.610869 0.705935 0.705192 0.683278 0.626474 0.422574 0.312111 0.581750 0.354559 0.289317 0.761108 0.315082 0.431826 0.622787 0.634576 0.285317 0.365491
0.165684 0.538914 0.597551 0.577878 0.481127 0.456946 0.646123 0.363863 0.500265 0.561386 0.320459 0.488794 0.554352 0.511637 0.557811 0.384858 0.675078 0.355249 0.417113 0.590034
0.376417 0.479797 0.487194 0.687095 0.503348 0.370571 0.574241 0.564529 0.442286 0.444317 0.445741 0.665950 0.527786 0.280004 0.623091 0.335685 0.558465 0.445257 0.453405 0.476020
0.788758 0.532930 0.268964 0.517738 0.412329 0.462510 0.302432 0.505814 0.476849 0.320267 0.554169 0.424906 0.381156 0.478050 0.445798 0.476917 0.432736 0.521670 0.424149 0.294483
REALIZACIÓN MUESTRAL DE LA B(7,8)
318
REALIZACIÓN MUESTRAL DE LA G(1,0'1)
5 4
15 10 15 3 2 3,
30, 5.
18, 1,
22, 26. 11. 3.
12. 7. 4. 9.
.41043
.43710
.54139
.83288
.34977
.89194
.04197
.00428
.30732
.24716
.63914
.41660
.80163
.07309 ,08950 ,90276 ,78075 ,81438 73495 13685
2.42264 4.06035 .30018 .94217 .50192
2.78435 1.42307 .19826
1.13748 .63924 .18746
1.70822 .12985
3.53756 .79886 .07900
1.02949 .16839
4.39082 2.04203
5.12821 .56984
6.33067 1.58039 8.30632
38.88408 35.82634 7.18021
25.38923 .97905
29.85621 1.75345
10.34889 16.89529 14.46774 2.41259
11.79166 8.84734 6.19536
19.24145
3.18636 .23549
3.75079 .24566 .54984 .60295
1.38346 .97560
1.06595 .22641
1.43607 .37604 .86013
1.29665 5.73374 1.16478 .30505 .42884 .38175 .30659
3.51149 5.89760
15.20353 8.67002
13.51476 1.76145 1.29081
32.52770 9.98699
17.03848 2.21185
22.11548 18.94489 5.65400 1.07679
18.01543 2.70826 2.39862 1.95624 2.73310
.39362
.56315
.43405
.16316
.13840
.77931
.13717
.01923 1.83961 .95549
1.55212 2.63118 .07373
3.78379 1.67313 .14645
2.95879 .19730 .48428 .71278
3 19 2
15, 4,
34, 3, 2, 3. 3. 7. 9. 4.
14. 40. 26. 6.
12. 1. 4.
.14832
.59893
.62856
.29045
.59095
.93430
.34807
.80839
.11118
.21166
.54275
.78766
.56153
.36453 ,44548 ,84286 ,07586 45208 79280 ,45709
1.24309 .21841 .33579 .42828 .46705
1.15137 1.45237 .24048 .22584
1.71889 .20543
1.50856 .15540
3.80413 1.28876 2.26242 1.10470 .35632 .41220 .12351
.21626 16.33436 1.38816 5.06876
15.94655 1.87124
38.08251 11.70078
.28385 13.06634 3.84566 1.28214 8.84660
14.16753 7.95268
10.46988 .42678
3.21250 3.69659 3.51886
.28205
.74923 1.97539 1.47692 1.64618 1.14877 3.22475 2.76332 .52142 .03915
2.31077 .52441 .42860 .22248
1.08194 .51624 .30700
1.68261 .02004 .02541
REALIZACIÓN MUESTRAL DE LA G(l,l)
319
« S U C D O O v J K J O U l O U l O l N I - J U O W O O O N W O
c jo<y>wtovou iwoo« joo
P U P U M H H H N H H
H<J>*>ovoai<y>ooio<jio
*>u>o(Ovjvouiocoait-> •>J-»J-v]<»*>l¿5*»VDfOtOO M Q V J I O U N J U O I O U I »
*> .<T i00OtvJ00<^ (» -JPO^J
o - ^ J O o v o ^ t n o o u i ^ w H H Í > P Ü 1 H O ^ O » U I O > ( 3 \ U H 0 O H I O » W H U l W W O W N J V O O i t O t O O O O t O O O H V O W O O O # » H O V O O \
^ H I O H tO *» NJ N 1 * J « ) W V O C D [ 0 0 \ O I - , A
P I O ü l H U l H i l i M W O O
( J \ H U Ü 1 ( 0 0 * H U I P - J
w o o u o p o a i o M o p w
^1 NJ H W NJ M P U U M U ) O C \ V O V 0 ^ 1 H O O * > U W
N I P U I O U O A - J ' X O U
t o - J w > J H ^ J ^ J v o o o c n t o * > » I ^ P ' J U U 1 I | Í H W O H ( J i w c y > < r > c o i í ) * > ^ o o
W H H W NJ H W
( O O X H P 1 D H U 1 U 1 5d U O \ v J ^ M I O O U U 1 f j U U k O i ^ > J U ! U O O O > u u i u p ^ m w o p ir1
ffiOUlOPOOHO^J H
> I O W P I O w w o ^ I Ü O M U H 0 - J O > 1 H
O w N j a i o o c n ^ ^ ü i v o s; O O W W ^ H V D O - v l
W O ^ V D ^ 0 0 0 \ 0 > U l C¡
w P3
V O W H H H K> H td ^ I V O O ^ O ^ J P O O O P O ¡>
f P M v J U I O l D W O W O O ^ J O O O O W V D O W O O V D t O M ^ I C t O O O M O O N > V O ~ J U l f O > J W O 0 0 0 0 W * * H H U l O * * M H U >J NJ H O ( J l v j y n O D N J O J ^ H C T i —.
W U f f i P O l P f f l P U U l -( O O S M Ü l - J P H v J ü l O • f » . O H I - , U H t O i t » . < ¿ ) *.u)oooocy>wootoui H
^ H H N J H H H H H v l v J W O P U I W W P
O W U 1 H Ü I H W O Ü 1 0 > J U l W > J U 1 * > . N J t O
W^JVOOOCOHVDOOPO
O O O O H O N J t O O O O O O O P - ' W I - ' N J O O U l O U l O U W U O t O I O W O O W A ' J I O O W U I p i D ^ P U M O O ^ O P O O t O O P W t O ^ M * > O O Ü l v H O ^ v H O P ( » O W * ' ^ * > U l [ O f r v l ( » • 0 H U l W U H 0 P ( O * i M O 0 ) 0 1 s ) ( J \ p ( o « ) u ( J
O t O O O O O O O O O O W O O O H O W N J O
* » U C ^ C 0 H C T > < J l ^ J - J U l M * > . N J W < J l . t » O ^ ] O H « 0 0 0 K > U l V 0 W < y » < » H O > I > W 0 0 O H ~ 0 V 0 t O V 0 U s l l f l ( O O » J v J I O U W \ O U W 0 \ 1 t » P 0 \ 0 0 ( Í O ' J
O O W O I - ' O O O H O W H O W O O O H O O O V 0 O t O * » 0 0 i P » Ü l O W U 1 0 0 0 0 H H V 0 ( » * > U 1 * »
* » O \ V 0 O O W U l U ( ? i C T \ ( J 1 0 \ O O O O < » O O O U W < y i > J ^ v J t O W H U l ^ í ^ O N H V O W ' v J M N J U l V D U l O O t O
O H O O H O N J O H O <irf i .ui tow<yiNJ(ocriH tO(JltO.f»t0CT><JlV£>^JV0
O 3 0 0 « ) 0 0 U l v J M ( B H ^
O O O H H O O O O t O
< J U ^ U U l « O K ) ( J P U 0 0 P M - J W U I M U Ü 1 H ^ S t P V I U i ^ i f P t O U
> H ISJ
> O H O as M
•-3
O w
c o
H O
O t O O t O H O H H O H I O O H ' O W O O H H O P P O U l O O O U Ü 1 0 P t > > J O ^ ( 0 » U O U O O H W W O \ B O í Ü l U ^ H t O O \ > J ( O O J O í O O \ W v j | j v j ^ « j f t W U l U O \ ( M O W H P P I O O P < J Ü H O t D P P O í P í i P W U I P f l í ^ U U O O l í »
U P H U M U H H H M H P P P O M P H I O I O H O l U U l H O ^ U H O O U O H V O U l O O O O t O O O O O < y i H ( j i 0 3 v o ^ . ( O H O J 0 3 ü i i í ) * > * » ( j i i t ^ ( y i U i w < y 1 O 3 W H W ^ V O H * ' ^ J C T > U C r i - J > J a i ( J 1 0 0 U | - > H 0 0 0 0 C T i V 0 0 \ < r i H O 0 1 O H O \ H t O W N ) U ) ( J l N ) 0 0
t O O * > O t O O H H H H O H O H O O t O t O W O
u v j t o n o u u ^ o ^ t o i O N i ^ o J P U i i o o s u
0 ( J \ U » W O N 1 W « ) U ( ! \ M H O \ ( M O U 1 V J P ( »
( 0 W O P W f t O P Í > P U O P W U P O W P ( 0 cr>w(j i<?i i - '^ jvDO'Juioo(T»Wi(^<yiOoai towai M - > U 1 U 1 ^ O 0 0 U ) O U ^ O M N I U ^ O M M \ U l v ] N l U 1 ^ i O O f f \ O O m O \ W ^ H P Ü l ^ < J H W t O W O l O a i ^ O O O O U l V D Ü l U l U U V O H C M O O H
> tr1
H tSJ > o H
o S¡
1-3
o
(Ti W H O >J J^ U1 ^ U *» 00 H 00 ^J C* 00 t o o u u
NJ 0> Ül W
o\
H H> *J H *» 00 U> * • CO U
U ^ H W H C T í O l S J t - ' O t O H I - ' O P O ^ O H O \ W < J U H O W U 1 ^ ( C O P ^ > J l 0 í > M W O P 0 0 U l U W Ü l V D ^ Ü i m O O W k D O ^ H ^ ^ i o o o o o i c y i ^ w c T i u i a i
Q
H O
O W O O W C J O O l j O W N J O N J H H H O H W t O « ) U 1 > J Ü 1 W P O M J W O \ Ü 1 0 3 ( S O M O ^ U 1 0 0 I ^
( y i C ^ w u i v j t o u i u i o O í N i o t j i í y i v o u i ü i ^ ü i * » ( Í H ( » P v J i ^ « ) i | i « í k p O I O O O P f r O « J 0 1 U ( O P O U v J ^ P Í O U « O i ^ ^ ( » s l O O O U ) ^ v l
U 1 H H H H U W W U H H H N J w p u p
( J < J > J U H P U O 0 \ U 1 O N J U Í D I D Ü I U H 0 I I » H N ) ^ O H £ ) N J U I i ( i ( » P H O O U l l O i t » 0 > J H U > 4
o v J p u i M M u o o o x n u ^ p u a i u o o p t o o u f t U i m p i M O p i o o o i M U i í ' U u i o o - J
* . NJ tO H H H Ül N) H H w m p w
O P W Ü 1 S 1 0 \ - J O H V 1 ( » I Í N 1 « J O P I O U 1 ( 0 > J W ^ O O U O O O U 1 » * > Ü 1 0 \ O O I U I » 1 U H ( » 0 « S I O t f l U O \ « > P v J U 1 ^ M ( S P ( J U U U U 1 U u t u ^ ^ m ^ ^ ^ u ^ p s i o o o i o u i u ^ M i o
W H U t O i ^ t O w NJ v] tJ u ui en OJ
w w > t-< H CS] > o H
o s;
w i-3
O i t O O O . P ' O C O - J H N J HCTiÜlVDVDOOtOtOOD
u i o v o c y > o o o 3 ^ J ^ p j ^ v o u i w o o v o v o ^ j
*>• 00 NJ VO H
i u o m m « m ^ » p 03 U VO tO O
00 00 tO H 00 O N) NJ VO 00 vj 00 P P P M J 1 ül <y\ 03 O* W *» H
o
53 H H H H *» H H W W H tO —N
0 \ ^ J 0 M J \ 0 \ U 0 í ( 0 Ü I O Ü l W P O « ) ^ Ü l 0 0 ( H ü l O\«J.t».*^ÍUlOO<?>OOÜlOOOOOOV0UlUO^J<Jl o o v o v D ^ j ^ H ^ J ^ H ^ ü í a i a í ^ v o a i ^ o w u i ^ 0 0 \ 0 0 0 \ W W > J Ü l ( O U l ( » « ) P U t J Ü l M J U -Jcy>Ül(?iVDI- '*»N3Ul00O>>*>(Jl*>.cy>^J^O\HUl
H W W 4^ NJ ro H U UltO u to
W Oí <J3 H <¿> 0 3 *> *í>
H Ü l W C T í O O Ü l O O O - O H ^ l H W O O O l
( J 1 V O O \ W C T > * ' > J ^ J W ( J 1 W O vo w *> <n H > O O W U l * J ^ J O
0 0 ) U W > J P ( O U
H W O O ^ ^ l ^ O ^ J P N j O I i t » P - > J P t O W P > ¡ ) W W U 0 1 P U U K J \ W 0 í U O 5 \ « j o \ u i o o m u u i
REALIZACIÓN MUESTRAL DE LA G(5,0'l)
58.738161 42.574756 44.727739 42.226426 70.232621 20.071459 65.082784 59.450222 66.236145 86.696199 48.669318 20.228108 50.626863 30.597174 84.438632 56.923276 30.752035 58.337452 29.839198 36.744182 44.195916 26.970896 55.036130 61.733605 34.360608 40.251374 49.070278 47.358635 35.447848 90.727604 23.039797 56.833650 52.453251 38.304717 52.664961 73.430455 56.740501 21.658347 46.134447 37.193931 30.645091 45.049515 61.747737 38.793777 25.089496 56.746626 39.788866 34.908058 24.581176 94.468526 36.353847 75.364242 68.322907 50.714398 41.261301 99.386135 35.542883 14.449020 15.990185 66.140629 60.156557 57.650959 27.250112 55.245494 33.429123
110.838637 7.439373 50.101949 26.559454 44.116236 50.040473 36.520509 48.273260 20.787444 68.415023
109.802120 70.479477 44.783122 50.125607 20.897288 35.887141 20.754206 34.295857 24.739315 31.071690 59.360267 13.957629117.015702 59.122820 51.167518
120.732532 35.854574 70.135151 43.356511 27.466462 23.820910 58.165902 34.888350 49.001731 20.055843
REALIZACIÓN MUESTRAL DE LA G(5,l)
9 7 1 7 5 3 1, 6, 4, 2. 4. 2. 1. 6. 6. 1. 5. 4. 4. 6.
.89056
.68760
.03248
.00068
.74664
.68293
.42803
.11620
.99136
.51391
.58746
.19283 ,83191 ,14053 ,76884 ,64462 13063 77095 33743 66507
4 5 4
11
4, 3, 2, 9, 3, 4. 6. 3. 3. 4. 2. 1. 6. 5. 5.
.98953
.36619
.35295
.43003
.84965
.03513
.44160
.90680
.28558
.73993
.15164
.45490 ,43234 ,37899 ,35832 ,97031 67047 23830 19591 29721
7 3 6 1 6 2 3, 6, 6, 1, 5, 4. 6. 2. 4. 6. 8. 4. 7.
12.
.18777
.95609
.33859
.78238
.98327
.37036
.70018
.15179
.81186
.19928
.72692
.22987 ,83206 ,64878 ,32396 ,04029 ,40590 76159 69038 89498
4 5 2 3 4, 4, 4, 5.
5, 4. 8. 3. 5. 3. 3. 4. 4. 9. 5.
.81167
.85475
.31541
.22040
.34611
.25425
.33319
.75496
.88549
.29721
.05040
.81491 ,73206 ,02560 ,63804 ,04122 ,66340 65957 03102 ,54481
4 2 7 8 6 2, 5, 4, 4, 3, 5. 9. 5. 2. 6. 1. 3. 7. 6. 3.
.75147
.83942
.57035
.23100
.41963
.54912
.71020
.72314
.44226
.21607
.57218
.65487 ,34988 ,38443 ,98942 ,99533 ,97989 37413 29049 17070
322
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o O O O O O O H H O O t O O ^ O O H O O - J t O o o i o o o o M t O N J o a a i o o o o o ^ a i o u u i o o « ) - > J t f l i t » O W U l U I - J ( J > N | v J H W v J H U U l ^ U I O H O í W W O N O O U l O O W O H t O V D U l ^ O O ^ V O H U l 0 0 » ( 0 O , J U - > J U l M » J W Ü 1 0 l 0 3 H 0 \ [ O U Ü l
o a » N J u ) o o a > w o o o o o o w o o o w o o t o o H
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o H O O O O o O O O O O « X ) O O O H O H H > J H O O U t O H H C y i ^ J O H O O ^ H V O O H t O H W O H U I O O P ^ M O O B O f f i H H O O O m i ^ C D W W H O U W H O O O Ü l f f l W H U f f i U U l i ^ ( O U O M O - J ( J \ U 1 0 0 ü l W [ O U i f ( J \ W P ^ U l V D C n * * 0 0 0 0 H W ^ l V 0 ( » H t O 0 0 * » 0 0 ^ . W U ^ J O
O O O O O O O O O O O O O O O O O O O O
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o O O H O O o O O O O O W O O O O O H H O O U 1 0 0 O O « j O O O H H t O O O V D * > . O U l V 0 a > O O H O O ^ ] O i * » O - > J v 0 t s J 0 0 O 0 0 H O O U t 0 U l ( J l H W O i _ i ' - ' O t o ' - ' ' t s ' - ' w ' - , ( J 1 0 0 O O v £ ) < y >
( 0 ( 0 ^ P 0 0 ( D ( J \ - J * . i M í H t f ) i l ¡ » O l 0 W ( » ( 0 [ 0 - v ] r f ^ * k W * » . 0 V D W | - ' l - i N J V O U l V D l í ) O J ^ J i í » O O i P »
O O O O O Q O O O O O O O O O O O O O O
o o o o o o o o o o o o o o o o o o o o O O O O O Q O O O O H O H O O O O O O O
< y i o o ( j i o ¿ O H O o w o c y i o o o o o o o H < ^ O U 1 W o O c ^ O | > 0 ' s J V D * J O C P > O C 0 U 1 O O U O O I O l í 0 U ) ^ O M l í U O H 1 0 0 , J ' J O f > V 0 Ü l O V 0 O l ( 3 H H 0 0 0 0 C T > > J c y i W C » O * > [ O V 0 - > J ^ - « J t O t O t n ^ j O Ü l ^ O O O W ^ J C T í ^ O - v l ^ J H C O
0 0 0 0 0 - 0 0 0 0 0 0 0 0 0 0 0 0 0 0
o o o o o o o o o o o o o o o o o o o o O O O O O o O O O O O 0 0 0 0 0 0 0 0 0 0
O O O O O r i O H H H U l O O O O O O O O H ^ • O O O O U O V O N J O O l H O ^ a i U O N O O O
U O ^ U O , j O I 0 U O O 0 ) H H 0 0 U 0 l » O O
O O ^ i t ^ V O N > r , O O U l ^ J ( J l * > ( » H W C y i * > . C T \ H O W
i t » V D O \ P ^ - U f l M » « ) P P O O P W U U O ^ ^
H
> t-1
H IS1 > o H o ¡25
w i-3
ü l t O U l U i f ' P i t i M S N j v J U U l l O M í Ü l v J t O ^ H f r M s J P Ü l 0 0 » P ^ U 0 3 0 3 > J O P H > J « ) 0 0 U t 0 O « 0 O ^ 0 \ i t » U l U ) Q 0 P N j t O P U 1 U U U v J ( O P P W v J \ D ^ P í » « ) P ( J \ a O W N j U J k f f \ v J
U l M O U J i p U l ü l ^ W Ü l t O Ü l Ü I W U N W U s J U l U ^ J V O ^ ^ C f t O O O O O O t O ^ H C ^ - « J H W ^ ] * > V D O O * > 0 0 ^ O Ü I P N I Í H D ^ P W V J ^ U
M P U N I U U ) U I 0 9
Ü 1 0 0 * > . ^ 4 0 0 ( J 1 H ^
> f H N > o H
o 52!
H9
o w
c o Ul
o o o H
^ i t > P ( » U P P U l M n i ( > N ] p ^ U 1 U ^ U U I i ^ s i p ^ v j o o m w u o í B P S i w w t J p a i o o a > > 0 0 0 0 O ^ J V 0 < y i H O O W t 0 Ü l M O i t ^ H V D N J N ) > 4 0 \ > J U 0 \ 0 D W U i P i t » k D P O Ü l M 0 \ O * > W 0 \ • t * U l ~ J v J ( j l 0 l * > . U H ^ J 0 0 ( » V 0 C T \ J * 0 J C 0 ^ J Ü l O
• ^ • N J i t ^ t O Ü l ^ Ü l C ^ W i f ^ O O J ^ ^ i ^ H O N ^ a » ! ^ A O t O H M U l O H O O O t O U l U P P U I ^ O O U C 0 ( J l O V 0 [ O 0 0 < J \ t O ^ J V 0 ( J l ^ ^ ] 0 0 ^ ] V 0 N J V 0 O O l O O U 1 H ^ W V 0 V 0 O » i t ^ 0 0 0 3 0 0 < ? > ^ J V 0 U 1 0 N i ^ h > « « X O í O P W W U I t J M v J P W W P O O M M U l
o w
Ul
o
( J W v l v J 0 M » 0 0 s ) 0 \ P 0 í N l O « ) O t f > O ( » t 0 O « W ^ O Ü I M O O N I O ^ U I P O - J O O O O ^ P O ^
w u - j « n j i u v j w o » ( » i o p u u i i o p i o p ( n 0 M O P ^ ) 0 ^ v J O ( » U ( M » U U I C D U 0 3 l 0 O P
REALIZACIÓN MUESTRAL DE LA W(0'5,l)
0 1 2 0 0, 0, 7. 2. 1. 0. 0. 0. 3.
38. 0. 0. 2. 0. 1. 1.
.55097800
.15612357
.11290053
.01041486
.25072943
.18928147
.74412788
.39774649
.19896287
.43365688
.58748643 ,14781522 ,81634812 04360782 15899600 09335432 08853545 34001393 83611742 55231778
3 3, 0 0 0. 5, 0, 4, 1, 0. 0. 0. 0.
12. 5. 3. 0. 1. 0. 0.
.86189322
.75751553
.07391543
.06072643
.09336752
.38297680
.58696012
.73322095
.39741155
.00607380
.07504146
.00888407 ,36254493 ,97605300 ,89499253 ,22725964 27080466 95908792 09022134 01489980
0 0, 5 0, 0. 0, 0, 0, 0. 3. 5. 0. 8. 0. 0. 0.
14. 0. 0. 1.
.52414144
.00110584
.57871455
.00868991
.66045871
.00005340
.03071524
.13240471
.05584684 ,71240371 ,24662267 ,07959431 ,14382435 ,02117750 ,34944540 ,01889008 ,89966107 ,98795550 26333868 69238066
3, 7, 0 0, 0. 0, 0.
13. 3. 0. 0. 1. 0.
14. 0. 1. 0.
12. 0. 0.
.30887182
.22760719
.72002087
.04142242
.25725671
.15685150
.05385619
.45488073
.74922281
.83528815 ,61637051 ,67194645 ,36620943 ,43652185 ,32154605 ,34799758 09595453 00705407 00498236 13780367
0 0, 1 0, 6. 0, 1, 0, 1. 1. 1.
11. 3. 0. 0. 0. 0. 0. 0. 0.
.07102851
.03425524
.31597032
.90033861
.28054649
.05096068
.55463734
.00143267
.49211419
.42672646
.13862815
.44381466
.89270544 ,00551708 ,00957556 ,00007326 ,09605590 ,09970860 ,60147811 ,37738076
REALIZACIÓN MUESTRAL DE LA W (0«5,1000)
20.659894 2707.857991 33.983645 0.004612 2425.203918 170.325607 18161.718635 267.128174 66.966927 13.258650 73.240677 1.638088 742.319101 842.851726 57.317038
1856.551120 299.319473 480.757606 660.000659 1489.712328 85.952224 38.423147 3949.205508 1.028513 603.346265
741.659588 885.403183 2015.926922 1511.316052 1286.872459 4701.971722 205.700595 3119.756452 649.781875 330.436752 4795.781170 22151.807818 618.247797 5875.648994 5.095491 997.382136 1047.560347 50.155219 2981.743256 49.178010
1369.141241 2.480968 83.699142 42.306448 2164.438259 770.935896 4260.819967 4884.506930 176.704193 787.992048
1302.658340 12162.625809 13973.081614 104.119972 1528.669210 1095.089474 181.219144 318.548378 2193.104442 126.729727
80.435858 297.861649 2985.738289 2274.938206 3863.583296 4981.392931 1004.512825 20873.678276 1874.969704 1423.341044
1.544808 1653.353992 227.747425 284.114846 927.941180 10.549018 8705.792772 5.742068 2026.717174 151.509180
631.332446 41.104617 696.671946 587.751131 0.595554 174.028342 27.846561 71.953671 11.553419 3.548508
1837.301138 7.399674 1393.530773 2325.784022 994.202437
324
REALIZACIÓN MÜESTRAL DE LA W(l'5f0'001)
2.28437E-003 1.85653E-004 8.74265E-004 1.09070E-003 1.39594E-003 5.15185E-004 4.47332E-004 8.93048E-004 4.82771E-004 4.02112E-006 5.50529E-004 5.21873E-004 2.03258E-003 1.78092E-003 5. 18452E-004 1.38442E-003 2.84976E-003 2.29801E-003 2.54555E-004 1.61778E-004 1.98804E-003 2.50004E-004 2.19982E-003 1.01949E-003 1.21571E-004 8.85258E-005 2.04680E-003 1.45958E-005 3.79555E-004 8.21710E-004 4.57399E-004 6.57867E-004 2.03057E-003 9.18719E-004 3.79129E-004 8.36149E-004 5.12891E-004 6.82388E-004 1.08601E-003 1.59990E-003 1.51308E-003 6.82414E-004 1.95635E-003 9.54437E-004 1.06759E-004 1.24453E-003 7.20921E-005 6.37044E-004 6.99247E-003 4.48917E-004 3.48512E-004 7.67044E-005 1.20165E-003 2.57472E-004 5.58954E-004 2.19138E-003 1.60703E-004 7.52488E-005 2.49349E-004 6.46899E-004 4.87028E-004 1.43487E-003 1.56625E-004 5.61959E-004 3.52643E-005 8.90360E-004 1.05447E-0031.87947E-004 4.37675E-004 1.28994E-003 9.84479E-005 9.96376E-004 7.67831E-004 1.17757E-003 5.71029E-005 2.08909E-004 2.55208E-0031.44654E-003 1.39355E-003 5.91911E-004 9.61632E-004 1.66728E-003 5.42471E-004 9.48359E-005 2.63436E-003 5.60904E-004 3.60059E-003 1.50200E-004 3.59034E-004 4.35810E-004 1.02017E-003 4.88035E-004 7.13387E-004 9.43819E-004 1.10379E-003 7.70633E-004 2.41463E-003 4.77747E-003 3.84298E-004 1.02153E-003
REALIZACIÓN MÜESTRAL DE LA W(l'5,l)
2.3912385 0.0682971 0.0247360 0.8863580 0.6862875 0 0 0 0 0, 0. 0, 1. 0. 2. 2. 0. 0. 1. 0. 1. 0. 0. 0.
.0286599
.7506168
.9036603
.1318055
.6613557
.2623322
.3115701
.7250378
.1029497
.0500694
.0539144
.6372212 ,3139671 ,3909224 ,2655309 ,9218354 8675258 0861853 8216928
0 0 0, 0, 0, 0, 1, 0, 0. 0. 1. 0. 0. 0. 0. 1. 0. 0. 0.
.3418358
.4095621
.2553437
.5859370
.2025029
.3354906
.5290009
.0594911
.7713025 ,1734326 .1251672 .1115428 ,6995004 ,6156996 ,1351348 8282346 2417000 2357624 8103365
1 1. 0, 2, 0, 0, 0, 1, 1. 3. 0. 1. 0. 0. 0. 0. 0. 0. 0.
.1835875
.3557725
.9366933
.1364490
.6583237
.3581477
.8769804
.0005632
.4968730
.0015666 ,4059312 .5118231 ,1063834 ,0112994 ,8540588 ,4392002 5555872 1384717 3416724
0, 1. 0, 1, 1. 0, 1. 0. 1. 1. 0. 0. 0. 0. 0. 2. 0. 1. 0.
.7090118
.2821950
.5162596
.1178376
.1290202
.8106504
.1181169
.6066705
.3443502
.0503249 ,9350790 ,3748652 ,6357592 ,7248423 ,3533479 2157346 8600138 3642903 1028155
0 2 0, 0, 2. 2, 0, 0. 0. 0. 3. 0. 0. 0. 3. 1. 0. 0. 1.
.0138760
.1720835
.0512189
.2625927
.3999716
.0414112
.3362152
.1642462
.3812594
.1039421 ,5295764 .2080455 ,4238626 ,3201936 ,3999853 ,9651795 1092535 6500788 1028496
325
REALIZACIÓN MUESTRAL DE LA W(l'5,1000)
********** 901.314103 ********** 151.741679 999.412875 569.911569 ********** ********** 594.699308 62.277656 193.325635 92.443727 ********** 675.827803 468.296541 ********** 487.169692 817.150507 ********** 534.246927 77.696190 657.663702 581.385377 800.396394 989.901818
638.430247 ********** ********** 881.646945 ********** 92.630253 ********** 295.503051 502.483382 189.953661 31.316836 319.718665 ********** 709.716307 599.814425
651.298198 ********** 223.282794 436.865101 ********** ********** ********** ********** 367.739313 73.830312 ********** 439.791821 ********** ********** 289.531072 481.640236 27.290410 403.132664 206.414684 52.415188 548.936003 66.904982 ********** ********** 864.026823 368.690748 348.288446 ********** 499.495620 ********** 165.680830 21.446026 63.936088 594.077215 695.640767 106.828230 ********** 84.397380 ********** 803.546701 205.805253 ********** 128.544366 ********** 43.705722 ********** 746.272090 13.532235 90.401266 186.124223 ********** ********** ********** ********** ********** ********** 332.874546 809.233503 ********** 268.299485
REALIZACIÓN MUESTRAL DE LA W(2,0'001)
4.43190E-004 7.61443E-004 8.66475E-004 2.05189E-003 1.67055E-003 1.12812E-003 1.20231E-003 1.42560E-003 9.36571E-004 7.91476E-004 8.49997E-004 1.13112E-003 4.04015E-004 7.66459E-004 9.20764E-004 9.45880E-004 6.26904E-0041.11134E-003 5.76131E-004 9.06190E-004 9.40942E-004 1.13617E-003 2.92255E-004 1.21791E-003 7.65655E-004 8.86464E-004 4.83575E-004 9.26907E-004 2.60627E-004 6.18167E-004 1.62214E-003 1.58215E-003 1.22036E-003 1.24021E-003 6.64235E-004 1.12089E-003 6.69893E-004 1.32977E-003 1.02457E-003 7.92747E-004 4.72553E-004 6.16318E-004 5.01002E-004 1.19149E-003 1.02581E-003 2.69322E-004 4.56508E-0041.72002E-004 6.78583E-004 4.78301E-004 3.85176E-004 1.71439E-003 7.22172E-004 8.71725E-004 4.77782E-004 1.26076E-003 1.47846E-003 7.28940E-004 2.08539E-004 5.07843E-004 3.41061E-004 1.68563E-003 5.71294E-004 1.40275E-004 1.04442E-003 7.36322E-004 1.14768E-003 6.06452E-004 7.91266E-004 5.40889E-004 1.11060E-003 3.96282E-004 4.06212E-004 1.08157E-003 1.37396E-003 6.99982E-004 1.23679E-003 9.36143E-004 1.98306E-003 4.13742E-004 5.32580E-004 1.29832E-003 4.75751E-004 5.00306E-005 1.98695E-004 1.92414E-003 3.35266E-004 9.50834E-004 1.11066E-003 9.62894E-004 8.90758E-004 1.34347E-003 1.30044E-003 8.15003E-004 3.89903E-004 5.34687E-004 1.25252E-003 6.61357E-004 9.74381E-004 8.72644E-004
326
REALIZACIÓN MUESTRAL DE LA W(2,l)
REALIZACIÓN MUESTRAL DE LA W(2,1000)
1.1010985 0.6916132 0.2154741 1.2941995 0.7397081 0.4842056 0.5993755 0.9252764 1.3777215 0.6197608 0.5053723 1.4149233 0.7268851 1.4145772 1.1246763 0.7669580 1.3383348 0.4879284 1.9194226 1.1924939
1 0 0 1 0, 1, 0. 0. 0. 0. 0. 0. 0. 1. 0. 1. 1. 0. 1. 1.
.1673412
.9123679
.4277034
.1447113
.6166368
.3166080
.9933520
.9342265
.3504990
.3518969
.6139970 ,7175382 ,5069292 ,0086558 ,7543609 ,3292518 5666868 9911066 5796542 1068103
1.7100533 0.5297856 0.7371605 1.6049310 1.6333344 1.5742021 0.9510471 0.4181481 1.0806324 0.8067941 0.3525623 1.1094559 0.1555492 0.5770433 1.3011201 1.0667357 0.7013435 0.9555629 1.3510427 1.2685915
********** 553.314766 781.914301 874.736345 731.251465 335.921777 ********** 731.592703 ********** 737.891274 373.065182 615.769711 ********** 51.972751
237.553259 ********** ********** 527.304188 ********** 370.967241
0.0782386 0.5354783 1.2612845 0.7343425 0.7137695 0.8258383 0.6162827 0.9910482 1.0648838 0.6745060 0.1717097 1.1737271 0.7745756 1.0350770 0.5541889 1.1010146 1.4778976 0.4442338 1.0945870 0.2361418
********** 638.319669 810.216392 ********** 452.383691 ********** ********** ********** 476.632102 ********** ********** 602.448299 957.100379 342.934223 906.654353 498.992947 815.138194 318.201089 434.166374 547.128334
0 0 1 0, 1, 0. 1, 1, 0. 0. 0. 0. 0. 0. 0. 1. 1. 2. 0. 1.
.5370334
.5222482
.0924310
.7767500
.4909321
.2765572
.6511419
.0097625
.2126936
.5732576 ,4337825 ,6153675 ,4099877 ,6721353 ,5850288 ,6264854 0284986 3481653 3557466 1574958
304.236910 ********** ********** 969.749731 518.644975 ********** ********** ********** 915.904321 529.370515 774.543677 513.694763 622.521346 ********** 361.770062 ********** ********** 218.952848 187.766716 **********
473.285949 791.986900 **********
400.773418 979.108913 492.668847 **********
707.410239 ********** 323.356191 444.514906 ********** ********** 782.159396 697.656460 695.878235 513.673516 697.043450 **********
743.296015
477.614316 580.199202 525.499228 682.204910 370.674647 ********** ********** ********** 679.263518 638.526064 419.845018 625.928852 393.426580 801.359281 **********
395.628416 ********** 453.093844 885.602778 **********
327
VALORES DE LAS TENSIONES DE ROTURA A CORTANTE.
TENSIONES EN Kg/mm2
1.430 1.103 1.071 0.823 1.001 0.715 1.120 1.251 1.005 0.985 0.908 0.677 0.924 1.158 1.008 1.077 1.325 1.099 0.950 0.982 1.002 0.677 0.900 0.908 0.897 1.036
1.127 1.026 1.218 0.968 0.950 0.795 0.977 1.050 1.059 1.046 0.800 0.820 0.956 1.174 1.089 1.210 0.609 0.903 1.223 1.060 1.072 0.755 0.710 1.137 0.842 0.978
1 1. 1 0 1. 1. 1. 0, 1. 1, 0, 1. 0. 0. 0. 0. 1. 1. 1. 0. 0. 0. 0. 0. 0.
.167
.159
.031
.831
.255
.021
.087
.981
.095
.185
.820
.003
.948
.983 ,935 ,951 ,376 ,082 ,061 ,951 947 931 761 955 768
1, 1, 0, 1, 1, 0, 1, 1, 1, 0, 1. 1. 1. 1. 1. 1. 1. 1. 1. 0. 0. 1. 0. 0. 0.
.091
.147
.869
.155
.143
.639
.112
.075
.218
.840
.035 ,127 .003 ,388 ,178 ,012 ,133 ,056 ,048 ,911 986 080 928 827 687
1, 1, 1, 1, 0, 0. 1, 1, 1, 0, 0. 1. 1. 1. 1. 0. 1. 1. 0. 0. 1. 1. 0. 0. 0.
.200
.281
.118
.022
.906
.694
.140
.218
.104
.916
.928
.175
.151 ,166 ,153 ,987 ,279 ,086 ,532 ,927 150 037 807 807 559
1.349 1.313 1.022 1.076 0.799 0.962 1.087 1.067 1.300 0.912 0.852 1.107 1.047 0.793 0.983 1.243 1.069 1.069 0.924 1.119 0.876 0.986 1.009 0.629 0.714
1. 1, 0, 0, 0, 1, 0, 1, 1, 0, 0. 0. 0. 1. 0. 1. 1. 1. 0. 1. 0. 1. 0. 1. 0.
.050
.345
.972
.856
.858
.149
.821
.194
.328
.864
.928
.972
.826
.182 ,866 ,153 ,154 ,129 ,933 ,025 970 ,072 ,831 ,009 ,842
1, 1, 1. 0, 0, 0, 1, 1, 1. 1. 1. 1. 1. 1. 1. 0. 1. 1. 1. 1. 0. 0. 0. 0. 0.
.256
.264
.026
.947
.927
.858
.410
.095
.144
.043
.075 ,099 ,166 ,121 ,356 ,941 ,312 ,304 ,021 056 825 912 978 811 963
1, 1, 0, 1, 0, 1, 1, 1, 0. 0, 0. 0. 0. 1. 1. 1. 0. 1. 0. 0. 0. 0. 0. 0. 0.
.022
.244
.810
.064
.284
.271
.312
.104
.883
.856
.824 ,760 .890 ,020 ,105 ,086 ,988 ,142 ,747 986 743 935 726 834 869
329
VALORES DE LAS PRECIPITACIONES ANUALES.
PRECIPITACIONES EN RIOTINTO.
4 3 7 . 8 1 3 0 7 . 9
8 1 2 . 2 1 0 4 8 . 9
6 0 8 . 6 5 6 3 . 4 5 1 4 . 1 7 8 3 . 8 7 4 6 . 0 4 5 1 . 7 5 4 3 . 8 5 7 3 . 5 4 3 3 . 2 2 3 5 . 0
1 0 4 3 . 0 6 0 4 . 2 6 6 6 . 8 8 5 8 . 6 6 5 8 . 1
1 1 1 8 . 3 1 2 1 8 . 3
4 6 8 . 7 1 0 4 3 . 9
8 8 1 . 4 6 5 9 . 3 5 3 1 . 2 9 2 4 . 6
4 6 3 . 1 7 6 5 . 7 3 1 7 . 1 5 8 9 . 7 7 3 6 . 4 4 2 6 . 8 7 8 8 . 5 2 2 5 . 5 8 4 0 . 4 7 9 7 . 3 9 2 7 . 9 8 3 2 . 4 8 4 7 . 1
4 1 1 . 8 7 8 8 . 4 6 3 9 . 7 8 1 1 . 2 6 4 5 . 1 6 9 5 . 6 6 3 1 . 5 9 5 3 . 8 5 5 4 . 0
1 0 2 0 . 3 9 9 2 . 0
1 0 1 9 . 0 5 8 7 . 2
4 6 3 . 1 1 0 0 3 . 8
4 5 1 . 6 8 1 2 . 4 7 5 0 . 6 5 3 3 . 0 7 8 6 . 0
1 0 6 6 . 0 6 5 4 . 4
1 2 0 7 . 7 7 0 7 . 5 9 4 4 . 4 8 2 4 . 2
1 3 3 2 . 9 7 7 4 . 6 5 9 9 . 2 7 7 8 . 8 9 0 7 . 6 7 8 5 . 8
1 2 7 2 . 4 7 8 2 . 1
1 1 2 0 . 5 1 0 3 3 . 6 6 1 1 . 1 4 2 1 . 6
1 1 4 6 . 8
6 9 2 . 6 6 4 6 . 3 6 1 1 . 3 8 6 4 . 5 5 8 5 . 1 7 3 1 . 5
1 1 1 1 . 8 5 7 6 . 4 5 1 7 . 4 6 4 0 . 8
7 6 4 . 9 3 5 1 . 3 9 9 9 . 8
6 8 6 . ! 9 2 8 . 3 5 9 5 . 5 5 3 5 . 6 8 0 7 . 4 6 2 5 . 4 7 7 4 . 9 6 3 0 . 6 4 3 6 . 7 8 4 3 . f
4 7 5 . 5 6 1 8 . 1
1 1 8 4 . 4
PRECIPITACIONES EN THARSIS.
2 5 4 . 0 3 7 5 . 9 8 3 7 . 0 6 2 5 . 7 7 2 8 . 2 5 1 3 . 0 5 9 5 . 6 5 7 1 . 1 8 0 9 . 8 4 1 3 . 0 7 4 6 . 2 8 2 1 . 2 9 0 2 . 7 4 6 5 . 0
5 7 9 . 0 4 0 6 . 7 5 5 1 . 7 5 2 8 . 3 6 7 4 . 6 5 7 6 . 2 4 1 1 . 9 5 8 8 . 7 8 3 7 . 7 4 9 0 . 7 9 7 3 . 1 7 5 0 . 6 8 2 5 . 7 3 5 8 . 2
6 9 6 . 6 1 0 2 1 . 4
6 2 7 . 0 6 8 0 . 1 6 2 8 . 8 6 6 2 . 5 5 6 7 . 9
1 0 4 6 . 1 5 4 4 . 6 7 5 1 . 9 7 4 8 . 9 5 3 1 . 8 5 7 0 . 0 5 8 2 . 8
8 0 6 . 8 6 0 7 . 3 5 6 7 . 0 5 8 3 . 4 6 9 0 . 3 4 5 5 . 3 4 8 9 . 2 7 9 0 . 0 5 2 4 . 3 3 3 1 . 5 4 7 1 . 7 6 2 9 . 8 3 9 1 . 8 4 6 3 . 9
6 4 3 . 2 5 2 3 . 4 5 6 9 . 6 5 0 0 . 2 5 1 2 . 8 6 1 6 . 3
5 6 9 . 8 8 0 0 . 9 5 4 3 . 6 3 0 1 . 2 7 8 6 . 7 4 1 7 . 6 5 6 5 . 3 8 9 1 . 4
7 0 4 . 8 1 0 0 5 . 6
6 3 5 . 6 7 6 2 . 6 5 0 7 . 7 4 6 0 . 8
4 4 3 . 4 7 5 5 . 8 5 0 0 . 6 5 7 8 . 4 4 3 5 . 0 4 6 1 . 8 3 6 1 . 0 1 9 8 . 7
8 3 8 . 1 4 8 8 . 6 5 6 8 . 4 7 7 6 . 5 6 2 4 . 8
1 0 3 1 . 0 9 2 9 . 0 3 6 7 . 6 6 8 3 . 8 6 9 6 . 6 8 0 0 . 1 4 2 5 . 0 7 5 4 . 8
7 8 0 . 9 5 7 6 . 9 3 2 9 . 9 5 1 6 . 5 5 1 9 . 0 5 0 8 . (
5 5 6 . 9 1 9 5 . 9 4 6 7 . 0 5 9 3 . 2 8 1 1 . 3 7 1 5 . 4 6 8 0 . 2
331
VALORES DE ALTURAS MEDIAS DE EUCALIPTOS.
ALTURAS DE EUCALIPTOS EN THARSIS EN P. SECOS
9 0 . 0 9 7 . 0
1 0 8 . 0 9 7 . 0
1 3 6 . 0 1 2 3 . 0 1 5 8 . 0 1 1 3 . 0 1 9 0 . 0
9 1 . 0 1 0 4 . 0
8 5 . 0 1 3 0 . 0
8 3 . 0 1 1 2 . 0 1 2 1 . 0 1 3 8 . 0
7 2 . 0 1 7 1 . 0
9 4 . 0 1 3 0 . 0 1 0 1 . 0 1 2 6 . 0 1 4 6 . 0 1 4 6 . 0 1 5 6 . 0 1 0 2 . 0 1 2 6 . 0 1 3 1 . 0 1 1 2 . 0
8 8 . 0 1 1 2 . 0 1 5 2 . 0 1 2 6 . 0
1 1 1 . 0 1 1 0 . 0
1 3 2 . 0 1 5 5 . 0 1 2 7 . 0
8 2 . 0 1 3 1 . 0 1 3 1 . 0 1 0 9 . 0 1 0 2 . 0 1 2 7 . 0
9 0 . 0 1 1 1 . 0 1 1 6 . 0
1 2 4 . 0 1 4 0 . 0 1 4 4 . 0
8 4 . 0 7 7 . 0
1 2 7 . 0 1 3 3 . 0 1 0 1 . 0
8 4 . 0 1 3 7 . 0 1 5 5 . 0 1 1 1 . 0 1 0 4 . 0 1 2 3 . 0 1 1 7 . 0 1 6 1 . 0 1 2 4 . 0 9 7 . 0
1 7 4 . 0
9 9 . 0 1 0 9 . 0 9 9 . 0
1 4 3 . 0 1 5 5 . 0
1 8 1 . 0 1 3 5 . 0 1 3 7 . 0 1 0 3 . 0 1 1 9 . 0 1 1 5 . 0 1 0 5 . 0
9 7 . 0 1 0 2 . 0
1 1 2 . 0 1 7 0 . 0
ALTURAS DE EUCALIPTOS EN THARSIS EN P. MEDIOS
108.0 116.0 135.0 111.0 88.0 99.0 115.0 87.0 84.0 128.0 97.0
8 7 . 0 6 9 . 0 1 0 0 . 0 1 0 7 . 0
1 1 6 . 0 9 6 . 0 1 0 8 . 0 1 0 8 . 0 1 1 2 . 0 7 9 . 0
1 2 9 . 0 1 9 9 . 0 1 6 6 . 0 1 3 5 . 0 1 4 2 . 0 1 6 6 . 0
8 8 . 0 1 0 4 . 0 1 3 0 . 0 1 3 0 . 0 1 2 9 . 0 9 5 . 0 1 5 5 . 0 1 2 3 . 0 1 3 0 . 0 9 4 . 0
9 2 . 0 1 1 5 . 0 1 0 2 . 0 1 3 9 . 0 1 4 1 . 0 1 7 3 . 0
6 1 . 0 1 1 8 . 0 1 1 4 . 0 9 5 . 0
1 1 0 . 0 9 0 . 0 8 4 . 0 1 0 5 . 0
1 6 2 . 0 1 2 1 . 0 1 7 4 . 0 1 0 2 . 0
1 7 0 . 0 1 5 7 . 0 1 8 7 . 0 1 7 9 . 0
9 7 . 0 1 2 1 . 0 1 4 6 . 0 1 0 5 . 0 1 0 7 . 0 8 2 . 0 1 0 9 . 0 1 1 8 . 0
9 6 . 0 1 1 2 . 0 1 1 5 . 0 7 7 . 0
1 1 0 . 0 8 3 . 0 1 3 3 . 0 1 4 5 . 0
333
ALTURAS DE EUCALIPTOS EN THARSIS EN P. LLUVIOSOS
1 4 5 . 0 1 0 2 . 0 1 3 1 . 0
9 9 . 0 1 0 3 . 0 1 1 9 . 0 1 4 5 . 0
6 1 . 0 7 6 . 0 7 9 . 0
1 1 3 . 0 1 2 4 . 0 1 7 4 . 0 1 6 4 . 0
7 6 . 0 9 7 . 0
1 0 6 . 0 1 2 1 . 0
9 7 . 0 1 2 8 . 0
8 9 . 0 1 3 9 . 0 1 2 6 . 0 1 1 8 . 0 1 3 9 . 0
8 9 . 0 1 1 7 . 0 1 2 4 . 0 1 2 8 . 0
8 8 . 0 1 1 5 . 0
1 1 0 . 0 1 0 3 . 0 1 1 9 . 0 1 5 5 . 0
5 7 . 0 6 2 . 0 7 3 . 0
1 0 3 . 0 7 8 . 0
1 2 1 . 0 1 1 1 . 0 1 2 0 . 0 1 4 4 . 0
8 7 . 0 8 2 . 0
1 0 3 . 0 8 0 . 0
1 2 5 . 0 1 2 0 . 0 1 2 7 . 0 1 1 2 . 0 1 0 3 . 0 1 2 5 . 0 1 2 1 . 0 1 4 6 . 0 1 3 1 . 0 1 6 8 . 0 1 4 6 . 0 1 1 1 . 0 1 2 1 . 0 1 0 8 . 0
1 3 6 . 0 1 5 3 . 0 1 4 0 . 0 1 1 4 . 0
7 8 . 0 8 7 . 0 8 4 . 0 9 7 . 0 7 6 . 0
1 0 4 . 0 8 5 . 0
1 3 6 . 0 1 8 0 . 0 8 3 . 0 8 8 . 0
1 0 2 . 0 9 4 . 0
1 7 1 . 0 1 2 1 . 0 9 1 . 0
1 4 4 . 0 1 1 8 . 0 1 1 7 . 0 1 3 4 . 0 1 3 2 . 0 1 2 8 . 0 1 0 4 . 0 1 0 7 . 0
1 2 7 . 0 1 1 5 . 0
1 1 4 . 0
1 4 9 . 0 1 7 1 . 0 1 2 1 . 0
5 7 . 0 9 3 . 0
1 1 3 . 0 8 4 . 0 9 6 . 0
1 0 6 . 0 1 0 4 . 0
8 1 . 0 1 4 6 . 0 1 4 0 . 0 8 5 . 0 9 9 . 0 9 5 . 0 8 9 . 0
1 1 1 . 0 1 1 0 . 0
1 5 2 . 0 1 8 5 . 0 1 5 2 . 0
6 9 . 0 7 1 . 0 9 4 . 0
8 9 . 0 1 3 5 . 0 1 1 6 . 0 1 4 2 . 0 1 4 8 . 0 1 8 2 . 0 1 5 1 . 0 7 5 . 0
1 2 9 . 0 1 1 3 . 0 1 2 6 . 0
1 3 0 . 0 9 2 . 0
1 4 4 . 0 1 6 7 . 0 1 2 9 . 0 1 5 4 . 0
5 7 . 0 6 0 . 0
9 6 . 0 8 9 . 0
1 1 5 . 0 1 0 3 . 0 1 9 3 . 0 1 4 4 . 0 2 0 8 . 0 7 7 . 0
1 0 5 . 0 7 9 . 0
1 1 7 . 0 1 0 5 . 0 1 2 0 . 0
1 1 8 . 0 1 1 0 . 0 1 4 1 . 0
9 3 . 0 1 5 1 . 0 1 5 3 . 0 1 6 9 . 0 1 3 3 . 0
9 9 . 0 1 1 1 . 0 1 3 4 . 0
1 1 0 . 0 1 4 0 . 0 1 0 5 . 0 1 2 1 . 0 1 4 6 . 0 1 2 0 . 0 1 3 6 . 0
9 9 . 0 1 3 9 . 0
1 5 1 . 0 1 3 7 . 0
1 4 7 . 0 1 1 2 . 0 1 4 0 . 0 1 1 0 . 0 1 7 2 . 0 1 2 8 . 0 1 2 3 . 0 1 1 0 . 0
1 2 3 . 0 1 2 4 . 0
1 0 8 . 0
94.0 128.0 149.0 114.0 156.0 171.0 69.0 80.0 68.0 116.0 49.0 55.0 72.0 57.0 64.0 87.0 76.0 74.0 74.0 70.0 96.0
101.0 66.0 90.0 89.0 94.0 110.0 77.0 140.0 104.0
134.0 91.0 136.0 176.0 175.0 133.0 220.0 175.0 205.0 82.0 97.0 75.0
112.0 86.0 82.0 88.0 64.0 73.0 111.0 113.0 124.0
101.0 118.0 87.0 109.0 68.0 103.0
1 0 9 . 0 1 6 0 . 0 1 2 4 . 0 1 3 9 . 0 1 3 2 . 0
9 5 . 0 1 2 3 . 0 1 2 3 . 0
8 9 . 0 1 2 5 . 0 1 4 0 . 0 1 1 7 . 0 1 1 9 . 0
9 2 . 0 1 2 8 . 0
9 1 . 0
1 0 8 . ( 1 4 0 . 0 1 9 1 . 0 1 1 6 . 0 1 4 4 . 0 1 3 8 . 0 1 0 7 . 0
8 2 . 0 80.0 144.0 118.0
90.0 85.0 88.0 139.0 115.0 128.0
334
H H H H H H H I - ' I - ' I - ' H I - ' H H M H H I - ' H h> H -> h> H \-> ( J N l l O M H U H O H ( O O O m ^ H W m i » U l l » O N ( ! \ U I O W H O O H U l O ( T H D O í U l v l « ) * ' 0 0 ( J \ W W - > J O a < J U H O W U I ( J l O ( » P v J t O [ O Ü H D O N l
o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o
H H H H H H H H \^> t-> H H H H H H H H H H H O U H O ^ W ^ H U l v J s j p M O O v J o O J p U l u i H ^ ^ O v U D M H U H I O , ík»Juic í>H*''>Jo^CTi~jHUi** -*JtoHH t 'JCT*too3c>t-Jo3C\U1HH>^ui ° 0 0 O O O O O O O O O 0 O O O o O o 0 0 O C 5 O O C ) O O O 0
|—* I—*|—i p H |-> |_i |—i u p M p P u H u u u H H u i_i " U K M O M u O U l U H U ( D » u O U u « U U N P ^ O ) ( » ¡ ; O o \ [ O l f i
0 O O O O O o O O O O O O ° O O o 0 0 0 0 0 0 0 0 0 O o O O
Q H H H ¡ Í P P P P H P ^ ^ H ^ P H . , £ P f f l H H H ^.*üi.*<a£o.t*.*H<Ji^°£^£^£wwoo^5o\05vooHto .HH^NJ°OO^OOOOMH 0 3^ DW^VO^ DWW 1^..W<^.OtOVDO o o o o ° o o o o o o 0 0 o 0 o ° o o o o o o o o o
03 H H H m H H H H H H ^ H £ H H H O 00 O H H H
. ^ v J ^ s J ^ v J P O ( J ^ P , U , * r w , W ^ O w . . o o u i . <¡ o o\ o
o o o o o o o o o o o t J o 0 o ° o o o OO O O O O
H H H H H S H H H £ y, ^ t - i ^ H H H ^ C M O H H H O O v J ^ ^ ! j 0 0 U U » v l ( » ^ 0 . l » ( n u 5 ) I O U l u P Í « ) 0 > « ü l i l i W H • Ü I H N U l . O í V D V O H O W , , U . U . Ul <?> *> • • ot N • H O W W
© • • • • o o o , o , o , , , 0 0 , , 0 , , , #
o o o o o o o o o o o o o o o o o O O O O H H
V D H H H H ¡ ^ H H H H | _ . y j f j a i ( _ , £ H H H ° >0 H ^ ^ ^
« W U M I O j i O U P H H a i o i D m o H o W H U ^ O p a ^ s J v J l J O • l O O l P » ] ! V O ^ J U I C ^ O V O . . 0 3 . 0 0 . s J W s l ' * O l t O * W Ü l O O U )
° • • • • o o o • o ' o • • • 0 0 • • 0 • • • • o o o o o o o o o o o o o o o O O O O O O
J * ? H H H H « J H H H H W tf m P U H H P ^ P 2 H H , P v J ^ P k O W O > U P O O O \ 0 \ ü l f f l s l O O M O Ü I p * u U - J , N 0 0 3 ^
^ J * > ^ 4 * > . . NJ H Ul VO «J (?i • • H • *» • P * J i ^ n o O i t » n i M O I O O < J • • • • O O O * O * O * • • • • • • • •
O O O O O O O O O O O O O O O O O O O O O H ^ H CJ H H H (jj o oo i _ i H H H H 0 0 H H H 00 tO <ji H *« H H I J I J > P P m P P P . i > O P I O O l O O l í H f i U ( » f l \ U W I » P W U W H , . t O t O . M H H V D Q Ü 1 1 O 0 0 N ) . 0 \ v j m P U W • • >J • ül • U l O 0 ) o o U ^ o ( J \ v l f t ( £ )
• • • • o . . . . . . o o # o # o » » » •• . . . . o o o o o o o o o o o o o o o O O O O O O
H i-'Ht-,Ht->\-,\->i->h> H Ü K » O ^ U I Ü I U U I O \ O \ V I v o o Ü I W O W P U I I O ^ U J ^ O O N J U I H
o o o o o o o o o o o o o o
H H H H H H H H H H H H M P P O 0 j U l a U l v J > l ^ O U U
u i u M ^ ^ a í p > j p i o o W N j p o o o o o ° o o o o o o o o
H H L J H M I _ J H H " g o ^ V O ^ V O - J O O O M J l t O O O ^
• • . . " o o o o o o o o o 0 © 0
H H
(Jl *»
• • o o
H H H o vD w o> >J
u i < n ; w w - J t o H ,
O O O O O O O 0
H 00 >J .(!> O • •
O O
H H H H H 00 H H H 10
o o
H H
• • o o
H H
•vi O
• • o o
w o u i - j o o - j w u i r H H . VO O >J VO >J ,
o o o o o o o ' - '
H H tO W O 0^
. . o o
H H 03 H H H £ W P - J v I v J M W M y 0^ CJ • H O ^ O N i t ^ ^ , • • 0 » # , * * Q
OO o o o o o
H O3 H H H H H p » H u a \ ^ w u n o U? W) • to \o UI W -J .
o o o o o o o H H
4^ tO ^ H H H H VO
l D 0 \ „ O O H M 0 D .
H H O *»
• • O o
H 03 W
. . o o
H
o o v w w o ^ w r i v w ' o o o o o o o
o o o H H * • ¿> O tJ • • O o
H H
P P ¡ j H H H ^ V O O O
. . . . . . . o o o o o o o o o o
> t-1
a 9 w D
w w c¡ o > Ir1
H H3 O w M £5
W H O P3 H
P3 O
w 55
ti
W W O O
VALORES DEL PESO DE LA BIOMASA DE REBOLLO.
PFRF ALT. PFT PST D.
5 . 2 5 4 . 7 0 5 . 0 0
1 2 . 1 0 1 1 . 4 0
7 . 6 5 1 2 . 1 5 1 0 . 8 0 1 0 . 4 0 1 2 . 0 5 1 2 . 4 0
9 . 3 5 5 . 1 5 4 . 9 0 5 . 6 5 6 . 0 0 5 . 1 0 5 . 6 0 5 . 6 0 5 . 1 5 6 . 4 0 8 . 3 0 8 . 4 5 6 . 3 5 6 . 8 5 6 . 3 5 6 . 9 5 5 . 6 0 5 . 8 5 6 . 9 5 6 . 6 5 4 . 7 5 7 . 2 5 8 . 1 5 8 . 2 5 8 . 5 0 8 . 1 0 8 . 7 5 9 . 3 0 7 . 2 0 6 . 0 5 9 . 0 5 4 . 8 0 4 . 4 0 4 . 8 5
1 0 . 5 5 1 1 . 5 0 1 0 . 4 5 1 1 . 5 0
6 . 0 0 1 0 . 6 5 1 1 . 6 5 1 0 . 0 0
9 . 0 0
8 . 0 0 6 . 6 0 8 . 2 5
1 3 . 1 0 1 7 . 7 5
3 . 0 0 1 9 . 5 0 1 2 . 0 0 2 2 . 5 0 2 1 . 5 0 2 3 . 0 0
6 . 7 0 6 . 2 0 6 . 7 5
1 0 . 0 0 5 . 0 0 2 . 7 0 3 . 7 0 4 . 3 0 3 . 3 0 7 . 5 0
1 3 . 0 0 1 3 . 2 5
9 . 5 0 3 . 2 5 4 . 4 5
1 2 . 0 0 2 . 8 0 2 . 5 0 4 . 4 0 4 . 6 0 1 . 0 0 2 . 0 0
1 0 . 5 0 1 0 . 7 5
9 . 0 0 6 . 3 0 7 . 2 5 6 . 9 0 2 . 4 0 3 . 0 0 6 . 9 0 1 . 8 0 0 . 9 0 4 . 6 0
1 6 . 5 0 5 . 4 5 4 . 6 0 4 . 9 0 0 . 7 5 8 . 7 5
1 4 . 5 0 1 1 . 7 5
7 . 0 0
2 3 . 4 0 1 9 . 7 0 4 2 . 7 0
1 4 9 . 8 0 2 4 4 . 7 5
2 7 . 5 0 1 4 7 . 5 0 1 5 6 . 2 0 1 6 5 . 8 5 2 2 6 . 7 5 2 4 7 . 9 5
5 1 . 7 5 2 1 . 3 0
9 . 5 0 2 9 . 2 5 1 9 . 3 0
7 . 4 5 1 5 . 0 0 1 5 . 6 5 1 1 . 9 0 2 8 . 7 5 9 0 . 4 5 8 4 . 7 5 4 7 . 9 0 2 0 . 4 0 2 3 . 7 5 6 0 . 1 0 1 0 . 7 0 1 5 . 1 0 2 3 . 3 0 2 0 . 1 5
5 . 9 5 1 4 . 3 5 5 1 . 2 0 4 6 . 0 5 5 3 . 7 5 4 0 . 7 5 4 7 . 5 0 5 3 . 8 0 1 8 . 5 5 1 8 . 3 5 6 5 . 7 5
6 . 9 5 4 . 0 5
1 7 . 5 5 1 5 2 . 4 0
6 9 . 9 5 5 3 . 4 5 6 8 . 3 0
9 . 2 5 1 2 9 . 8 5 1 3 9 . 5 0
9 3 . 5 5 4 5 . 7 5
9 . 5 2 8 . 3 7
2 1 . 5 8 8 0 . 5 2
1 3 7 . 1 1 1 5 . 3 3 7 7 . 3 4 8 5 . 0 1 9 0 . 0 2
1 2 5 . 2 9 1 3 6 . 0 5
2 8 . 2 7 8 . 9 8 7 . 5 8
1 2 . 0 4 8 . 3 5 2 . 7 4 6 . 6 3 6 . 7 4 5 . 1 4
1 3 . 0 0 4 4 . 1 0 4 1 . 5 2 2 2 . 8 2 1 0 . 3 2 1 1 . 5 3 2 8 . 6 6
4 . 9 2 7 . 8 6
1 1 . 4 3 9 . 6 9 3 . 1 2 7 . 7 1
2 4 . 4 4 2 1 . 9 5 2 8 . 0 2 2 0 . 9 0 2 4 . 6 3 2 8 . 5 4
9 . 8 9 9 . 4 5
3 3 . 3 3 3 . 0 6 1 . 8 8 7 . 8 3
8 2 . 3 2 3 8 . 4 8 2 9 . 2 4 3 7 . 7 6
4 . 9 3 6 9 . 5 3 7 0 . 4 4 4 8 . 0 1 2 2 . 8 3
7 . 3 6 . 2
1 0 . 9 1 6 . 9 1 9 . 7
8 . 1 1 6 . 3 1 6 . 3 1 9 . 2 2 0 . 5 2 1 . 0 1 1 . 2
7 . 6 6 . 8 8 . 0 6 . 5 4 . 5 5 . 9 5 . 9 5 . 2 8 . 3
1 3 . 8 1 3 . 5 1 0 . 5
7 . 3 7 . 7
1 1 . 9 5 . 7 6 . 4 7 . 2 6 . 9 4 . 5 5 . 9
1 0 . 2 9 . 0
1 0 . 6 9 . 7 9 . 8 9 . 8 6 . 7 6 . 8
1 1 . 5 4 . 7 3 . 5 7 . 0
1 5 . 6 1 2 . 2 1 0 . 6 1 1 . 3
5 . 6 1 3 . 8 1 5 . 6 1 3 . 0
9 . 6
337
ALT. PFT PST D.
1 2 . 4 0 1 1 . 5 0 1 1 . 0 0
5 . 2 0 5 . 8 0 5 . 1 5 4 . 1 5 6 . 9 5 7 . 3 5 6 . 7 5 6 . 9 0 6 . 1 5 7 . 1 5 5 . 4 0 3 . 7 5 4 . 2 5 6 . 7 0 7 . 0 0 7 . 0 5 6 . 4 5 7 . 1 0 7 . 3 0 8 . 5 0 9 . 4 5 9 . 5 0 7 . 7 0 4 . 6 5 6 . 4 0 8 . 6 0 9 . 7 0 9 . 6 5
1 0 . 1 0 1 2 . 3 5 1 2 . 2 5 1 2 . 1 0 1 4 . 0 5 1 4 . 5 0 1 5 . 1 0
2 . 4 0 2 . 7 5 2 . 8 0
1 2 . 1 0 1 2 . 6 5 1 1 . 7 0 1 2 . 1 5
9 . 5 0 9 . 6 0
2 5 . 5 0 1 7 . 5 0 2 4 . 0 0
5 . 6 0 1 0 . 7 5
3 . 7 0 2 . 1 5 3 . 5 0 6 . 4 0 4 . 7 5 4 . 0 0 2 . 5 5 4 . 0 0 1 . 8 0 1 . 8 0 1 . 6 0 5 . 3 5 5 . 8 0 4 . 0 0 3 . 0 0 8 . 0 0 8 . 0 0
1 0 . 0 0 1 4 . 3 0 1 8 . 7 5
7 . 0 0 0 . 7 0 2 . 8 0 8 . 2 5
2 0 . 2 5 1 6 . 5 0 1 7 . 5 0 1 1 . 7 5
5 . 4 0 1 7 . 7 5 2 5 . 7 5 1 7 . 0 0 1 5 . 5 0
0 . 9 0 0 . 6 0 0 . 6 5
1 4 . 2 5 1 9 . 4 0 1 5 . 0 0 2 0 . 7 5 1 1 . 8 0 2 0 . 2 5
3 2 1 . 1 0 3 1 0 . 1 5 2 0 4 . 9 0
1 4 . 9 0 2 8 . 6 0 1 3 . 4 5
6 . 2 5 2 2 . 6 0 3 1 . 8 5 2 9 . 6 0 2 5 . 5 0 1 4 . 7 5 2 3 . 8 0 1 3 . 1 0
5 . 0 5 7 . 9 5
3 2 . 6 5 4 2 . 7 5 3 5 . 7 5 1 7 . 6 5 3 9 . 6 0 5 4 . 9 5 8 3 . 9 5
1 3 1 . 1 0 1 6 8 . 7 5
3 6 . 8 0 3 . 4 5
1 2 . 2 5 5 3 . 1 0
1 8 7 . 6 0 1 4 4 . 4 0 1 2 6 . 1 5 1 7 3 . 8 5 1 8 1 . 3 0 3 2 3 . 6 0 4 0 4 . 2 0 3 3 5 . 1 0 3 7 5 . 3 0
2 . 1 5 2 . 2 0 2 . 7 5
1 3 3 . 1 5 2 2 7 . 7 5 2 3 7 . 2 0 2 4 5 . 5 5
9 8 . 7 5 1 8 8 . 9 0
1 7 3 . 4 1 1 7 1 . 3 9 1 0 7 . 3 9
5 . 6 3 1 0 . 7 5
5 . 9 3 2 . 4 1
1 0 . 6 0 1 3 . 6 5 1 3 . 6 9 1 1 . 8 6
7 . 1 2 1 0 . 5 1
6 . 8 1 1 . 9 6 3 . 8 4
1 5 . 8 8 2 1 . 6 4 1 8 . 7 5
8 . 7 3 1 8 . 4 7 2 7 . 4 3 4 2 . 3 0 6 6 . 4 2 8 8 . 0 0 1 7 . 2 6
1 . 5 9 5 . 5 5
2 5 . 9 1 9 6 . 3 9 7 8 . 2 7 6 5 . 8 2 9 3 . 3 3 9 8 . 5 3
1 7 6 . 2 1 2 1 8 . 9 2 1 8 3 . 8 4 2 0 9 . 7 1
0 . 6 9 0 . 9 0 1 . 1 3
7 0 . 3 3 1 1 7 . 0 7 1 3 2 . 7 7 1 3 8 . 0 0
5 2 . 3 6 9 9 . 8 5
2 3 . 3 2 4 . 0 1 8 . 6
5 . 6 7 . 8 5 . 4 4 . 4 7 . 5 8 . 5 8 . 7 8 . 1 5 . 6 7 . 4 6 . 1 4 . 2 4 . 7 9 . 7
1 0 . 8 9 . 6 6 . 7
1 0 . 0 1 1 . 8 1 3 . 4 1 5 . 9 1 7 . 8
9 . 0 3 . 4 5 . 2
1 0 . 5 1 9 . 4 1 6 . 8 1 5 . 4 1 7 . 5 1 8 . 0 2 4 . 0 2 4 . 3 2 2 . 4 2 3 . 4
2 . 5 2 . 6 3 . 0
1 5 . 2 2 0 . 8 2 3 . 0 2 1 . 5 1 4 . 6 2 0 . 0
338
VALORES DE CRECIMIENTO DE LA PERDIZ.
O H t ^ r g o g C T i a ^ o o H O i o o r ) O l O l H O J O r i H m t O O O H m n i n M t ^ r i f n ' í ' v o m c N ' * v o s j < n i n c M C N i n o j i r ) n v £ ) v o
^ ^ n ^ ^ n c i c i ^ p i n ^ 1
t o c M C O v o t - ^ n a i c N O W H
^ i , i n ^ í ' ^ i , ^ , ^ ' ' > * ' í , i f ) i n < ! i , m
n<ncoCT»t^^ ,cy>>£>ogvD'*H
v o v o m v o v o v o m v o t ^ v o v o r " »
I D f M V O O H C ^ O V O f O N t ^ t ^ > ( T l V O O > C 0 C 0 ( 7 > C 0 C 0 C 0 C 0 O l
O M H n h M ^ n w H N i n
H H H H H H H H H H H H
o o v o o i H v o c ^ L n r - a i ^ v o H
H H H H H H H H H H H H
O O O O O O O O O O O O
cocot-»cocoa>cot^cocot-»co
" N C O f í n i n o j w o w í o n H ( « H H H H H H H H H H H H -H O
n c o ^ * ^ , * d < ^ , ^ * f o n ^ , ^ , ' s j <
> ' * o o H o o H O v o v o r g < ^
<5i'^t'^i<inioiniom'*ir)in'*
> f o c o o < y i c v j c s i o « í , H n H
v o v o v o r ^ v o r ^ r ^ r ^ v o r ^ r ^ r * -
r o m c o o o v O ' i ' n c n o r q t ^ r o
C O O O l C T l O C O O C T l O O O O O H r^ <-i r^ H H
OfOVO(JlCOI^O(Mt^H<,fO
r-inr-voinr^cot^incocot^ H H H H H H H H H H H H
t O O i l ) O H O H N ' f O < l n
covocr>>vDaicn<r iLnovDcy i H H H H H H H H H H H H
O O O O O O O O O O O O
co r^cocooocoooco t^coooco
t ^ c o c n o o c o o r ^ ^ o n c ^ c M r j
« J H H H H H H H H H H H H •H Q
^* ^* < * ^* ^* ^* J* ^* ^* ^* ^* ^*
M H ^ O l V O V O C O O C T l C J O V O
mif) iO'*in<*^ , i f ) ' í ,mini í )
H O ( N O H ( O i n C O ( Í O ( M ' í
f » t ^ t ^ t ^ t ^ V O V O V £ > V O > > t ^
H f M t ^ O J C O C N J O C ^ H H r - c n
O g O O H H O l H H n c O C O N H H H H H H H H H H H
n ^ N O i n n f f l H f f l p i o i n
a > v o c o c o c o w v o v o > > r - c o H H H H H H H H H H H H
i n i n o i í i o o e o o ^ o o i ^
n i ^ o o c y i o g i n t ^ c o H M C N j n < N H H H f > g H H H O g O J f M C M
O O O O O O O O O O O O
o o t ^ c o o o o i t ^ t ^ c o o o o o o i c n
n • • V £ > H ^ , i r > C 0 O l O < 4 , < * * * V £ > V £ >
« J H H H H H H H H H H H •H Q
3* ^* ^* *3* ^1* 3* ^* í* " 3* " 3* 3* ^*
O H o q ^ v o o - t f i n v o m c o c o
i n m i n m i n i n i n i n i o i n m í n
n > * r ) r g o o c o o o o o ( M ^ j ' m
o
n i n i n v o o o o m i n o i n m
H H H H H H H H H H H
C N V O O ^ O O C T l V O C O t O l O H C O
c o c o r ^ c o c o r - r - » r ~ r ^ c o r - c o H H H H H H H H H H H H
t n o ^ o i n w v o o i n o H c n
' * r>M , i f )CNrn , « i , vDoco i f >vo ( M N N N N M N N N N N N
O O O O O O O O O O O O
CTifMinon<nn<yivovoHir) o\o\<y\oo\ooo\coooa\a\o\
n o n o i w n m t o i n o i n o «*
H o c o H v o v o v o v o w o w o ( O M M H C Q H H H H H ( N H f M
•H Q
27.3 18.7 27.1 19.1 27.4 18.3 28.2 19.9 27.6 19.4 28.4 19.3 26.4 19.7 21.8 17.0 25.7 17.6 26.4 18.3 28.9 18.1 25.5 17.9
26.6 18.3 30.7 19.2 32.5 19.9 32.8 19.4 28.9 18.0 32.3 19.1 25.6 17.1 30.2 20.0 28.6 19.4 27.6 19.8 33.6 19.3 33.7 19.4
16.1 7.4 15.6 7.3 16.2 7.8 16.6 8.3 11.8 7.6 15.2 7.3 17.1 7.9 13.7 7.1 16.1 7.2 14.5 8.0 16.2 7.3 15.5 8.1
15.2 7.8 14.9 7.7 18.0 8.7 17.3 8.3 13.8 7.3 17.8 8.2 12.8 7.1 17.4 8.0 17.5 8.6 11.4 7.6 17.2 7.9 16.7 7.3
Dia 5 18.0 100.0 18.2 101.0 18.7 97.0 22.7 98.0 20.5 94.0 21.7 93.0 21.3 100.0 17.0 93.0 18.4 94.0 18.2 95.0 19.6 102.0 22.2 91.0
Dia 6 21.0 98.0 23.4 101.0 25.3 106.0 25.0 111.0 18.4 98.0 21.3 110.0 16.4 95.0 27.0 107.0 22.6 104.0 19.8 98.0 23.3 105.0 22.7 105.0
Dia 7 25.0 109.0 24.3 101.0 28.1 111.0 23.9 102.0 26.8 109.0 30.0 109.0 25.7 110.0 25.2 112.0 22.2 108.0 36.0 113.0 24.2 108.0 23.4 108.8
Dia 8 30.0 113.0 23.3 105.0 21.5 100.0 34.3 121.0 35.8 125.0 27.2 113.0 28.0 112.0 30.0 111.0 30.2 115.0 27.5 116.0 23.0 110.0 36.8 122.0
39.0 19.4 30.0 18.6 37.0 19.7 34.0 19.3 32.0 19.4 40.0 20.0 42.0 20.3 39.0 19.5 36.0 18.6 43.0 21.0 41.0 19.2 37.0 18.9
39.0 20.5 36.0 18.3 41.0 18.5 48.0 20.1 47.0 21.0 39.0 21.6 39.0 19.5 38.0 20.0 43.0 21.2 37.0 19.8 35.0 19.6 43.0 22.0
15.5 8.5 16.0 7.8 16.0 8.7 15.5 7.7 16.0 7.5 17.4 8.4 17.4 8.2 19.8 8.5 15.5 7.7 20.0 8.8 19.0 8.1 14.5 7.8
19.0 8.3 17.8 7.7 18.5 7.6 20.0 8.5 19.0 8.6 16.8 8.4 17.0 8.2 17.5 8.5 19.0 8.4 17.0 8.5 15.5 7.5 17.5 8.7
5.5 5.6 5.9 6.0 5.3 5.5 5.8 5.2 5.4 6.0 5.2 5.3
5.8 5.5 6.2 6.1 5.4 5.8 5.3 5.4 6.1 5.5 6.0 5.2
6.0 5.1 5.3 4.8 6.4 4.8 5.4 5.0 5.4 4.6 6.0 4.9 6.3 5.0 6.2 4.8 5.3 4.8 6.2 5.2 5.9 5.0 5.6 4.9
5.9 5.2 5.2 4.5 5.4 4.6 6.1 4.9 6.7 5.2 6.2 5.1 5.9 4.9 6.1 5.2 6.7 5.3 6.4 4.8 5.5 4.6 6.2 5.4
4.3 4.5 4.5 4.8 4.5 4.4 4.6 4.2 4.3 4.8 4.3 4.3
4.5 4.7 4.6 4.7 4.3 4.5 4.2 4.4 4.6 4.6 4.7 4.6
341
O C l H C l P l h f n O H H I O M w n h O O H N O í i n ^ H
i n ^ i , i n i O ' < t ' * i n t f i i r i i o i n ' ^ '
CTiH^innocoonoívoH
i n v o v o v o i n v o v o v o v o v D v o v o
N ^ > V O » 0 0 \ n i í ) M O ( 0
cooooooor^oocooocooococo
M N ^ h H l O l f l C l O ^ W O M 0 0 i o \ » i í i o n o \ o o < í H H H H H H O K N H N N r l
« i f ^ n o i n t o H o i ^ N H
O H O O t ^ O O H O i O H O N t M ( M N H ( N ( N ( \ H N ( > ) < M
O O O O O O O O O O O O C O C N H O í V O C T l C O r ^ C O O ^ C O
O O O O O O O O O O O O ( M ( » 0 \ N N C n n r l n t f H O H H H H O O H O l H H c S t - l H H H H H H H H H H H H
en
•H Q
m ' * i n ^ , i f > i f ) t n m « í , L n i n m
o i n r - c o c N v o ^ ' o i n c o f N j n
v o v o v o i o v o v o v o v o v o v o v o v o
c o v o H o n o j c N i n t ^ o m c q
C^OOOlCOCTíOOíTlCOCOCTlCOOO
O H O O l ' J ' C M C T l O J V O C O H l f )
O O O O O l f O H H O O O M C T l
0 ! r - » r » H i r > v o o < £ > o v o ( n r >
O H O f f i M H N O H O H O l
o o o o o o o o o o o o
CMno*tf,WfO*3,^,coHinn
o o o o o o o o o o o o
oj"*r^co<ri>ovoco(^Hvo N N N H H N N r I H H N H H H H H H H H H H H H H
O H i n i o m o o o n o o m i n o
< j > o r i T í , i o H o i v o t ^ c O ' * o Q
•H Q
^ H t ^ H c r i ^ r g H i O r g n v o t ^ o v o r ^ o c N H v o o o n ^ ' i n
i n i n i n i f í ' ^ i n i n i n i D i n i n i f )
voc r i (N jco inoog^ i<oo ro ' d< i r )
VOVO>lf)VO>VO>VÍ)VOVDVO
h W ^ n i O h W n r j N M í
c o c o < n c o c o c r > c o o ( 7 i c o c o c o H
' í C T i a i i r i c o o o o j i n c N v o v D H
r ^ u n c o t ^ c o t ^ C N j H n c N i n t ^
N C O N ^ O O O M O H ^ r i C O O
( M H n m m o o N O O N o C N C N C N j H H C M r M C N Í N f N J C J f v J
o o o o o o o o o o o o
<ÍMrlm(Mr^Offl^^H'f
o o o o o o o o o o o o ^ o m n c o w H ' í o o H m h
H H H H H H H H H H H H
H o o i n m o i í i n o i n i N i n o H
H O O l i n W M ! í H M t l H H •H Q
i n v o i n m i n m i n i n i n i n i n i f i
O V 0 0 0 O a > V £ > C T \ O « * C M < T l t ^
p > . > v o t ^ i n v o v o > r ~ t ^ v o v o
M ' H M C N j f N j v D n c n n v o o i ^
O í O a i O i o o c o a i c o O C T i a i c o H H
> m o r " » r * - i n o r - c o o c g n
H O c o r ^ i n n o v o H H v o t ^
O H > V O H l T ) O O C N C O O i n
rg r>gcMcgHf> j fMO0(N(MCNjog
O O O O O O O O O O O O n r ^ o o n c y i ' í ' c r i H t ^ H v o C T » v o i n i n v o ^ v o i n v o v o v o i n i r )
o o o o o o o o o o o o
H H H H H H H H H H H H
N i f l o i f l d i f i o n i í K n i f l o i n c o n i o o v o r ^ ^ r ^ H v o H f N
•H Q
62.0 22.7 74.0 25.2 57.0 21.9 51.0 20.8 62.0 22.4 49.0 21.7 62.0 22.3 69.0 24.0 60.0 22.5 70.0 24.5 57.0 21.9 65.0 22.0
58.0 22.0 70.0 23.9 71.0 24.3 63.0 22.6 61.0 23.0 72.0 25.4 73.0 24.1 69.0 25.5 68.0 23.0 73.0 23.8 64.0 23.7 67.0 23.2
30.5 10.2 34.6 9.8 27.8 8.6 25.7 8.3 31.7 10.4 25.6 9.0 31.7 9.3 32.7 9.6 28.8 9.1 34.2 9.2 26.8 8.9 31.9 9.0
29.0 8.5 19.8 9.9 36.3 9.8 22.7 9.4 21.5 8.7 19.0 10.3 17.0 9.6 19.0 9.5 18.0 9.3 18.2 10.5 17.0 9.6 17.5 9.2
Dia 13 43.8 138.0 53.1 147.0 41.5 131.0 38.3 132.0 47.5 149.0 42.4 138.0 44.5 145.0 51.0 150.0 42.5 134.0 51.3 149.0 40.5 130.0 47.5 144.0
Dia 14 4 5 . 5 1 2 8 . 0 4 9 . 0 1 3 4 . 0 5 4 . 0 1 5 2 . 0 4 6 . 5 1 3 0 . 0 4 7 . 0 1 3 2 . 0 5 5 . 0 1 3 2 . 0 4 7 . 5 1 3 2 . 0 4 7 . 5 1 2 5 . 0 4 4 . 5 1 2 5 . 0 5 0 . 5 1 3 0 . 0 5 8 . 0 1 3 2 . 0 4 6 . 0 1 3 0 . 0
D i a 15 6 2 . 5 1 4 1 . 0 5 3 . 0 1 3 3 . 0 5 8 . 8 1 3 6 . 0 5 8 . 0 1 4 1 . 0 5 0 . 0 1 3 7 . 0 5 4 . 5 1 2 8 . 0 4 6 . 5 1 3 3 . 0 6 2 . 5 1 4 0 . 0 4 2 . 0 1 2 9 . 0 4 7 . 5 1 3 0 . 0 3 7 . 5 1 2 9 . 0 6 1 . 8 1 3 9 . 0
D i a 16 5 5 . 0 1 3 7 . 0 6 0 . 2 1 4 3 . 0 5 3 . 0 1 3 2 . 0 6 3 . 3 1 4 2 . 0 5 7 . 5 1 4 0 . 0 6 0 . 4 1 3 5 . 0 6 6 . 2 1 4 0 . 0 4 9 . 0 1 2 8 . 0 6 1 . 0 1 3 8 . 0 5 7 . 5 1 3 4 . 0 4 6 . 0 1 2 7 . 0 3 8 . 5 1 2 1 . 0
7 6 . 0 2 4 . 0 6 6 . 0 2 3 . 7 7 3 . 0 2 5 . 1 7 1 . 0 2 4 . 4 7 0 . 0 2 2 . 5 6 5 . 0 2 3 . 4 6 0 . 0 2 2 . 6 7 8 . 0 2 5 . 6 5 9 . 0 2 2 . 8 7 1 . 0 2 3 . 1 5 4 . 0 2 2 . 1 7 4 . 0 2 6 . 9
7 0 . 0 2 3 . 6 7 7 . 0 2 5 . 4 6 6 . 0 2 2 . 8 7 0 . 0 2 5 . 7 7 2 . 0 2 3 . 4 7 4 . 0 2 4 . 8 7 3 . 0 2 6 . 2 6 5 . 0 2 2 . 4 7 5 . 0 2 4 . 6 6 5 . 0 2 4 . 0 6 7 . 0 2 3 . 1 6 6 . 6 2 2 . 4
1 0 . 0 1 0 . 3 9 . 0 8 . 6
1 0 . 5 9 . 5 1 3 . 5 1 0 . 2 2 6 . 5 1 0 . 0 1 1 . 5 9 . 7 1 1 . 0 1 0 . 5 1 1 . 5 9 . 9 1 7 . 0 9 . 3 1 9 . 5 9 . 4 1 7 . 0 9 . 0 1 9 . 0 1 0 . 6
1 3 . 0 1 0 . 1 1 5 . 0 1 1 . 1 1 5 . 0 1 0 . 4 1 5 . 8 1 0 . 7 1 4 . 5 1 0 . 1 2 0 . 0 1 0 . 2 1 9 . 0 1 0 . 9 1 1 . 5 9 . 3 1 1 . 0 1 0 . 3 1 1 . 0 1 0 . 2 1 6 . 0 9 . 5 1 3 . 5 9 . 0
7 . 3 6 . 9 6 . 6 6 . 1 7 . 5 6 . 4 6 . 7 6 . 9 6 . 8 6 . 6 6 . 5 6 . 7
6 . 3 7 . 2 7 . 3 6 . 7 6 . 8 7 . 5 6 . 9 7 . 0 6 . 5 7 . 5 6 . 7 7 . 0
7 . 5 6 . 0 6 . 3 5 . 5 6 . 7 5 . 6 7 . 2 6 . 3 7 . 0 5 . 3 6 . 8 5 . 6 7 . 3 5 . 9 8 . 0 5 . 8 6 . 6 5 . 2 7 . 0 5 . 6 6 . 8 5 . 7 7 . 7 6 . 2
6 . 9 5 . 8 7 . 8 6 . 1 7 . 3 6 . 2 7 . 6 6 . 0 7 . 0 5 . 7 8 . 1 6 . 0 7 . 4 5 . 9 6 . 6 5 . 6 7 . 1 5 . 7 7 . 3 5 . 5 6 . 5 5 . 2 6 . 7 5 . 4
5 . 9 5 . 8 5 . 4 5 . 1 6 . 2 5 . 3 5 . 5 6 . 0 5 . 6 5 . 2 5 . 3 5 . 5
5 . 6 6 . 0 5 . 5 5 . 9 5 . 7 6 . 1 5 . 6 5 . 7 5 . 4 5 . 8 6 . 0 5 . 6
343
o H-
CT\-v]vJ00^]-J00VO00C»vJ^JpJ
N)
O Ü l O O U l ü l Ü I Ü I O U l U l t O O
H H H H H H H H H H H H
(J100O>^OC^HCJ-«J^HVD O O O O O O O O O O O O
•vJ-vJOOOOVOVDVDVDVDVDVOOO P W U H O O H U M O M M f f l
O O O O O O O O O O O O
Ü l N j ( D V O > J 0 0 y 5 ( O C O H 0 0 > 0
^ ( J ^ P v l ^ U H l D H O W
H H H H H H H H H H H H N J O l t O W V D W Ü l W t O ü l U l H
o u i o o o o w r o o o o u i
H H H H H H H H H H H H O H H H H O H W I O H H H
U O M N I P N I U ^ O O I U ^
vJ»J0OO3^J-J0O0OVD0O0000
O 0 0 O < T i C T » N J O t O O W H O
<J]0\0\0\<JIO\U¡0\0\<J\0\0\
0 \ U t O * » « D H ^ J W * » O N J H
ONOl^JOO^l-vlOO^lÜl-v lON^JO) i l ^ 0 3 W O V 0 i t » O U 1 O W 0 3 H
H o o o o o o u i f o o o f o o i o
O O O O O O O O O O O O
OO^J^JVOVOOOVOOOOOOOOOVO 0 » H O \ W » 1 H « ) O W U I H
O O O O O O O O O O O O
totototototototototototo
O ^ " J O W H O W 0 > O N ) V D
H H H t O N J H H H H H H W i t » V D ^ J a v H U 1 0 0 0 0 i > H C T > ^
Ü I Ü I O O O U l O W O U l U I s l
H H H H H H H H H H H H O O H H H H W W O O H H
l o ^ t o v i ^ M o t o u a i N i o
CN^JvJOOOO^lTOOO'J^JOO^J
0 0 O \ V 0 . t * U > V 0 O C n H U l C T » 0 0
üiuioiui<j io*o*<?>uio\o\<yi O ^ ^ H U J O O O U U K D U U P
U l H U l O t O U l V D V O O i ^ O f O O O H
O O O O O O O O O O O O 0 3
H H H H H H H H H H H H
O H > O U 1 I O U ( » M O ( » ( » t O
O O O O O O O O O O O O
O O O O O O O O O O O O
(0(JNtO(0t0(01OM(0M(0
U M O N I O W H - J U U I V J O O
(_. H H H H H H W V O O O V D V O t O W W V D O V O
O O Ü I U l U l O W O l i C O t O O
H H H H H H H H H H H H O W t O O H H H V D O O O
P O M O U U ( O P 0 9 v J ( M D
v J < g 0 0 t D v l v J 0 5 v l O \ ( J > ' J s J
O l U 1 U I U K ) ^ t O U ^ ( 0 0 ^
a>uia>ü io iü icy \o \u iu io ic r i 0 < T í * ' ^ D - J V D N J ^ ^ J c y > V D t O
o o o w v J ü i o o w o y i o - J
H H H H H H H H H H H H
0 1 0 « ) < J U l W U l s J U ( O U O
O O O O O O O O O O O O
Ü l H O l H W W V D ^ O V O t O O
O O O O O O O O O O O O
( O t O M M M t O t J M M t O M M
I f l f t v l P O P ^ P U l O O M
H H H H H H H H Q k O P M t O U l U P O O P O O
M O O P O i t O m O U O O O
H H H H H H H H H H O H O H I 0 O V D O O H O H
U l W < y i i t i . > J t O ^ O O t O O < » H
->J00>sJ00CT>W^->JON^J>J^J
t O H « O U l O O U I U U ^ C » U I U 1
( j i a>ü ia iü iu iü i ( j i o i ( j i o \<y i s l O W U ^ v J M ^ J U H D P W
H H i-> ->• o o ^ o o o o ^ i o o v o o u i u j - j o í y 0 \ U H U l U I O H 0 í s ) ( M J l ( 0
o o o o o o o o o o o o t o H H H H H H H t O H H H t O W<J\0\0\030\0\00\0\frO U I O O O Ü I O O O M O O O O
o o o o o o o o o o o o H
VOVOOOOOOOOVO<SOO<£>OOVO
O O O O O O O O O O O O
M U I O U M I O t O U l O U M U l £ O V 0 O U 3 V 0 V 0 O 0 \ O < » ( - >
H U M U I ^ O I A O N I M O O U
O U I O M O O > f i O U 1 ( D O U l
H H H H H H H H H H H H P P P l O H I O H t f M H I O
o * » u i c n « 5 ^ t o < » v j H ^ ] o
OOCO^JWVOOOOOOO-JOOOOOO
O H O O ^ J H t O O O V O H Ü l W ^
0\O\0\(J\O\O\G\Q\U]0\0\0\
O O H- P-&) 0 0 V O > J 0 0 V O 0 0 " « J V O < » < » < » > J 0 >
O H O O W W O ) * . H W Ü I ( J \ Ü 1
to w to O U I O O Ü I O O O O O O W W O H
H H H H H H H H H H H H U l U l U l U l U l * > . t * U l « « J U l < J l * » • J s - H U l O O O O ^ C O U l O O O O O
O O O O O O O O O O O O
0 0 V O V O V O V O 0 0 0 0 O 3 V O 0 0 0 0 0 0
O O O O O O O O O O O O
t O U M M U M M K J I O l O l O M OOH^JVOOVOCTíVOOOVDOO^]
^ J O O ~ j ~ j v j o o v o ^ ^ j t o < y > L o
H H H H H H H H W N J H H U1U1>JO\>JO\00U1VON>N>i^
U l U 1 M ! \ O O f l í O I O W O H
H H H H H H H H H H H H H H H W H H H H t O H O H
t O * » H W O * 0 0 * ' V O H U l Ü l * '
W 0 0 v j v o < » < » 0 3 0 0 0 0 « J ^ J ' v J
U H " J H t O > J U ( M J H D H f f l
( T i a i U i ü i c T \ a > u i a > c n ( j ) a i ( j i
H U ) * > v D < T \ * » u i o o < y s ü i w a i O U v J 0 3 U 1 O U > ( 0 U V ) O I »
VALORES DE LAS REALIZACIONES MUÉSTRALES DE TAMAÑO n=100
PROCEDENTES DE 4 DISTRIBUCIONES BIDIMENSIONALES.
REALIZACIÓN MUESTRAL DE LA CHI-2 BIVARIANTE
21.70928955078125 11.59174799919128 12.79665589332581 3.23746919631958 28.59659910202026 24.67673778533936 26.88998937606812 19.7772479057312 22.30552911758423 29.81747627258301 7.587419748306274 .5849850922822952 2.054795920848846 27.25061655044556 68.39932918548584 10.97193241119385 1.009829491376877 7.099765539169312 19.92155313491821 4.596906304359436 8.793902397155762 17.99476265907288
-1.463124062865973E-002 26.11653804779053 2.171793878078461 9.36842143535614 .4306403547525406 79.76786613464355 .908627063035965
-4.627660848200321E-002 10.44495105743408 30.67809104919434 48.07803153991699 11.07227087020874 6.690796613693237 22.81156539916992 57.14432716369629 32.87837982177734 1.952268183231354 10.485805273 05603 13.23524951934814 17.6259708404541 11.23571872711182 2.711630463600159 9.775254130363464 12.04201936721802 7.499979138374329 11.07304334640503 .6772838532924652 65.33373832702637 .5476433783769608 13.6330258846283
-1.688333286438137E-003
-1.756472745910287E-002 6.802453994750977 33.14339399337769 2.250468283891678 14.7829008102417 46.56737327575684 3.45971018075943 12.96263575553894 55.32169342041016 8.670536875724792 32.06459760665894 .9344229102134705 11.93088173866272 78.80118370056152 26.77781343460083 18.72609496116638
-1.717540668323636E-002 9.704227447509766 42.27802276611328 25.95934629440308 14.15875554084778 7.266374826431274 23.80664348602295 22.77286529541016 2.436758726835251 2.201474159955978 32.11982011795044 6.8238365650177 1.810999661684036 13.41206312179565 11.45783424377441 5.958768129348755 5.724978446960449 31.01595401763916 34.11416292190552 9.054891467094421 15.1107919216156 6.525090932846069 4.609156548976898 12.57438898086548 17.48595237731934 17.91914582252502 7.079900503158569 2.568587362766266 42.45638370513916 17.07352876663208 2.252796590328217 11.79703235626221 11.23860836029053 18.39215874671936 6.467568874359131 11.8578839302063 6.806797385215759
347
2.560622990131378 .158127024769783 .7001306861639023 4.059810638427734 24.2658519744873 6.126643419265747 10.58429479598999 .7279987633228302 24.14555311203003 52.3573112487793 40.20789623260498 8.109065890312195 3.757078349590302 9.013989567756653 15.73699712753296 4.173834323883057 79.71909523010254 3.023195862770081 28.24174404144287 .8387797325849533 14.35510396957397 32.9149317741394 7.013275027275085 2.103640139102936 32.83918380737305 5.413891673088074 17.01259016990662 17.76338219642639 6.68851375579834
-2.033294411376119E-002 -3.923248033970594E-002 5.661431550979614 4.514959752559662 78.99200439453125 17.77223825454712 9.821102023124695 78.83964538574219 8.411842584609985 2.410223484039307 22.20306158065796 1.237083673477173 12.76504278182983 56.83144569396973 17.77203559875488 78.52142333984375 6.686141490936279 8.135708570480347
8.616263270378113 54.14600849151611 54.14458274841309 13.35891246795654 41.72824859619141 6.711865663528442 17.46555924415588 40.33587455749512 1.43164724111557 3.110619783401489 6.18593156337738
-1.308771432377398E-2.70148754119873 1.735063493251801 .3076941333711147 6.781362891197205 6.505416631698608 .9071868658065796 26.72105550765991 .4482457041740417 8.363178372383118 15.68379163742065 19.2291796207428 21.77725315093994 19.25517082214355 32.07581996917725 4.853467345237732 25.84766387939453 2.596826553344727 12.34245538711548 8.121061325073242 8.192342519760132 2.80063807964325 21.14728212356567 79.33924198150635 46.6317081451416 53.67309093475342 18.4611964225769 28.4323787689209 39.89988803863525 35.67372560501099 3.782418072223663
-3.076825756579638E-3.665868937969208 .2243974804878235 25.95268249511719 18.25302720069885
348
REALIZACIÓN MUESTRAL DE LA CHI-2 INVERSA BIVARIANTE
62.7419900894165 77.63501644134521 42.8470516204834 73.45084190368652 71.05066776275635 69.65975284576416 47.88444995880127 78.95665645599365 47.51142024993896 78.06594848632812 52.65521049499512 52.58744239807129 71.26269340515137 77.75189399719238 62.36401557922363 66.44440650939941 76.22748374938965 75.63232421875 47.30618476867676 77.10997581481934 67.49931335449219 68.88514518737793 38.47299098968506 53.7127161026001 78.18346500396729 66.65107727050781 35.80493450164795 73.52534294128418 45.60460090637207 48.2874584197998 64.7583532333374 11.84042692184448 39.01854038238525 77.96360015869141 62.45745658874512 69.1132116317749 77.52943992614746 67.30751037597656 66.10688209533691 79.84715938568115 22.73426532745361 72.12217807769775 50.74401378631592 77.82087802886963 71.53130531311035 64.13671016693115 75.59899806976318 42.51603603363037 70.79967498779297 28.03066492080688 35.63080310821533 73.09585571289062 62.6412296295166
62.12803840637207 56.16441249847412 66.03064060211182 71.52424812316895 56.76024436950684 74.39405918121338 53.92256259918213 72.39457130432129 78.04827690124512 57.05971717834473 42.28047370910645 77.19729423522949 65.80660343170166 72.94955253601074 33.95579099655151 73.71819972991943 37.70300626754761 65.80613136291504 63.02559852600098 75.94570159912109 47.28170394897461 67.83533573150635 76.06975555419922 78.03990840911865 45.90756416320801 76.19753360748291 51.87697410583496 56.03930473327637 72.93996334075928 77.67686367034912 52.37249374389648 42.63253688812256 67.17440605163574 69.18910026550293 55.89190483093262 44.62098598480225 44.1611385345459 75.8709192276001
-2.349421149119735E-002 59.0055513381958 59.9100923538208 35.90702533721924 59.91168022155762 65.3948450088501 69.39534664154053 68.70751857757568 40.5551815032959 59.35932636260986 73.13330173492432 77.72326469421387 63.69678497314453 31.64259433746338 51.25526905059814
349
61.17253303527832 53.96654605865479 70.95729827880859
-7.424173410981894E-002 50.60924530029297 73.96474361419678 79.45427894592285 34.1615104675293 75.18969535827637 71.97212219238281 60.29769897460938 63.15690040588379 77.70230293273926 46.27545356750488 43.01863670349121 65.80732822418213 72.88958072662354 78.1853723526001 66.48077964782715 74.49021816253662 66.4096212387085 78.10070991516113 47.63398170471191 60.54131507873535 62.45335578918457 73.57975959777832 74.42774295806885 70.82220554351807 78.32923889160156 76.50125026702881 73.45818519592285 55.15058040618896 71.01478576660156 65.87435245513916 77.18653678894043 70.92541694641113 69.921875 61.43876075744629 77.906494140625 73.45829963684082 49.72325325012207 69.51984405517578 36.43886089324951 75.70705413818359 77.82421112060547 38.57999086380005 76.86741828918457
63.29841136932373 71.90168857574463 70.87541103363037 47.63820171356201 41.72600269317627 63.92563819885254 59.59826469421387 54.32009696960449 70.04596710205078 74.12484645843506 45.88528633117676 65.03931522369385 47.81455039978027 35.23534297943115 47.85721778869629 63.77808094024658 59.20117855072021 78.39569091796875 51.8911075592041 71.52819633483887 62.89433002471924 37.61129379272461 78.0387020111084 77.80076026916504 70.883469581604 73.09228420257568 66.57843589782715 71.02134704589844 57.1691370010376 75.89760780334473 63.50406646728516 40.35577297210693 73.1765079498291 72.56679534912109 54.24843311309814 70.08518218994141 73.45910549163818 50.08226871490479 24.27030324935913 52.50065803527832 77.27512359619141 69.82503414154053 21.29788637161255 63.01586151123047 68.03475379943848 69.19628143310547 73.15718650817871
350
REALIZACIÓN MUESTRAL
77.99695491790771 45.71533203125 45.93112945556641 21.16494417190552 18.2839834690094 39.50785875320435 58.16516876220703 6.11406683921814 19.03354644775391 68.82230281829834 .3049460612237453 73.32257747650146 70.98361968994141 14.90712285041809 16.38570189476013 51.93154335021973 44.66373920440674 34.53109264373779 10.85680484771729 7.215140461921692 1.581530421972275 50.91594219207764 58.24482917785645 23.89610052108765 25.79985857009888 46.62207126617432 22.58227825164795 38.28925609588623 59.6545934677124 57.13743686676025 .3519007191061974 28.02321672439575 7.363020777702332 63.91953945159912 20.69666862487793 8.090184330940247 70.27285099029541 5.640541315078735 16.64535880088806 21.97386980056763 17.50187516212463 66.38550758361816 61.1037540435791 16.60556435585022 35.71824550628662 59.55377101898193 1.361499428749084 69.89830017089844 61.81136131286621 26.21342897415161 45.86453914642334 19.60916876792908 42.20339775085449 26.65895223617554
DE LA UNIFORME BIVARIANTE
13.72461915016174 51.85908794403076 38.51311445236206 15.07063627243042 11.18963122367859 62.91423320770264 59.54865455627441 64.59426879882812 78.27182769775391 64.31729793548584 39.88361358642578 49.66406345367432 64.58020210266113 40.5780029296875 44.39078807830811 26.26511096954346 8.145650029182434 72.37824440002441 69.11637783050537 77.8119945526123 21.95910453796387 64.26251411437988 74.73214149475098 17.4095630645752 .275233443826437 11.15649938583374 74.1281270980835 .8167634904384613 38.43177080154419 72.46370792388916 57.89615631103516 8.863658905029297 79.93447780609131 62.49030590057373 41.45374774932861 18.07152986526489 44.55774307250977 65.94802856445312 57.55884170532227 58.22612285614014 31.21076583862305 67.28527069091797 17.96502828598022 15.65402269363403 49.31941509246826 22.59619474411011 27.9674768447876 20.95212697982788 32.47368335723877 62.85812854766846 77.589430809021 39.92028713226318 28.09077501296997 57.24691390991211
351
37.00322389602661 42.27974891662598 62.55146026611328 3.921945095062256 43.66600513458252 71.00465297698975 31.59034013748169 57.98498630523682 47.30878353118896 40.77822208404541 62.86593914031982 49.44865226745605 35.2898645401001 10.16930818557739 78.10925960540771 31.40159606933594 75.22053718566895 28.07423114776611 56.00110530853271 68.24383735656738 44.08129215240479 34.2978048324585 50.0772762298584 20.21306991577148 65.85366725921631 22.71254301071167 79.52455043792725 52.36422061920166 11.41770243644714 75.74594974517822 16.61715507507324 6.752017140388489 34.46500301361084 58.94593715667725 14.54392075538635 36.5667462348938 57.17748641967773 64.37441825866699 39.37607526779175 40.97311973571777 59.42169189453125 71.57895088195801 49.92563247680664 19.40227866172791 5.208753347396851 34.8925518989563
53.15938472747803 26.44703388214111 76.84381008148193 25.28050899505615 73.02882194519043 16.09844565391541 35.60616970062256 26.54065370559692 51.18067264556885 39.16015148162842 17.66144752502441 16.72267198562622 52.47826099395752 71.88243865966797 63.92904758453369 18.76340270042419 63.3050012588501 24.67848777770996 78.95537376403809 17.79725670814514 61.34467601776123 26.02576732635498 45.42069911956787 48.69039535522461 8.25230598449707 .8204949647188187 70.91158866882324 4.903032779693604 48.9656925201416 41.93527221679688 .7090316712856293 77.42987632751465 21.40756607055664 53.72981548309326 30.34209012985229 32.56865978240967 40.32834529876709 46.26484394073486 11.65729284286499 37.26685047149658 19.03954863548279 78.96904945373535 46.153564453125 .7964248955249786 12.78781890869141 72.50921726226807
352
REALIZACIÓN MUESTRAL
44.96196746826172 64.88501071929932 24.83786106109619 28.17499399185181 56.74821853637695 38.09984922409058 57.43229389190674 34.65496778488159 30.13383388519287 55.95890998840332 38.93311262130737 26.2445330619812 47.93421268463135 33.10946702957153 18.47208976745605 44.34468269348145 42.8559398651123 20.50340175628662 24.54027891159058 45.40568351745605 8.57800304889679 70.13239860534668 48.73209953308105 61.67107582092285 27.65512228012085 34.00843381881714 78.60278129577637 57.77145862579346 39.41803693771362 59.09988403320312 53.85294914245605 60.81019878387451 42.84130573272705 47.59110927581787 10.52660942077637 28.35635423660278 61.43545627593994 36.30192995071411 29.8411226272583 16.66054010391235 48.62106323242188 48.4827184677124 53.93483638763428 26.91337108612061 22.68224477767944 32.3150897026062 12.91900634765625 34.75467681884766 31.15421056747437 35.02559661865234 32.46289014816284 55.97348213195801 31.05934619903564
DE LA NORMAL BIVARIANTE
29.15104389190674 45.54167747497559 57.74582386016846 22.68114566802979 33.333580493927 53.60188961029053 47.68488883972168 13.66166830062866 51.5808629989624 70.30539512634277 38.67865085601807 28.68193387985229 35.42231798171997 49.66978073120117 49.11829948425293 5.964300632476807 36.89285278320312 30.55108547210693 46.11018657684326 47.97402381896973 32.81119823455811 34.47062253952026 23.24341297149658 54.41823959350586 28.55310916900635 55.26171207427979 42.85469055175781 40.2737283706665 42.70432472229004 61.76534652709961 57.9538631439209 54.47165489196777 29.21170711517334 38.45006465911865 22.8645658493042 43.71857643127441 21.16025924682617 31.79195404052734 39.42046642303467 27.32608318328857 61.29221439361572 49.1081428527832 42.51599788665771 26.105055809021 22.96551942825317 42.84530639648438 46.17362499237061 37.86886930465698 14.14554595947266 50.12322425842285 53.61898422241211 50.62301158905029 59.06210422515869
353
33.22141647338867 41.99109077453613 16.09414339065552 60.14492988586426 47.13389873504639 29.87268447875977 41.74334526062012 44.11263465881348 35.51100969314575 13.43498349189758 61.22585296630859 54.54941272735596 60.66829204559326 25.87339878082275 25.01988172531128 56.35790824890137 49.04540061950684 28.19091796875 45.08705139160156 44.11033153533936 18.80176901817322 54.13988590240479 38.84395122528076 33.867347240448 51.70842170715332 49.26779747009277 50.07466316223145 3.188060522079468
-2.28480392252095E-003 32.53629684448242 47.09301948547363 41.45482540130615 70.29998779296875 47.4646520614624 46.74088478088379 46.04075908660889
-1.612034859135747E-002 57.07636833190918 44.95337009429932 67.43392944335938 28.14132452011108 42.32756614685059 23.06821823120117 8.350557088851929 52.23547458648682 58.74242782592773 15.27766942977905
53.62765312194824 35.20285367965698 55.57809352874756 40.52497386932373 76.28050327301025 31.77234172821045 62.13850975036621 29.34680461883545 20.91424226760864 40.51082611083984 47.74302005767822 22.2978138923645 54.17279243469238 46.36137008666992 19.61109399795532 9.939054250717163 32.32373714447021 14.2841100692749 42.98259258270264 41.84122085571289 50.39570808410645 29.85187768936157 22.66654014587402 39.62141752243042 35.55514097213745 56.81469917297363
-4.291708581149578E-30.55780649185181 48.3289098739624 30.85833072662354 34.04261827468872 48.25494289398193 55.48537731170654 17.23051071166992 34.92688417434692 47.65819549560547 65.78564643859863 36.20599746704102 65.78840732574463 33.19318056106567 52.42525577545166 66.0855770111084 29.44107055664062 24.40649509429932 60.25099754333496 53.12785148620605 45.37949562072754
354
PROGRAMAS
PROGRAMA PARA LA ESTIMACIÓN DE FUNCIONES DE DENSIDAD Y
DISTRIBUCIÓN UNIDIMENSIONALES.
REM AJUSTA DATOS DE UN ARCHIVO, O GENERADOS UNIFORMEMENTE A UNO DE LOS 9 KERNELS REM ALMACENA EN ARCHIVOS CON EL MISMO NOMBRE Y EXTENSIÓN .*XY (*=NaKERNEL): REM X , F.DEN.AJUSTADA , F.DIST.AJUSTADA , F.D.DIST.EMPÍRICA CLS : VMIN=lE+27 : VMAX=-lE+27 : MEDIA=0 PI=3.14159 : EEE=2.718282 PRINT "PROGRAMA PARA EL AJUSTE NOPARAMETRICO DE F.d.d." : PRINT INPUT "¿TIPO DE PANTALLA GRÁFICA (1,7,8,12)";PANTA INPUT "¿TIPO DE KERNEL (1,2,3,4,5,6,7,8 o 9)";TIK$ 1111: INPUT "¿TAMAÑO DE LA MUESTRA";TMUES NN=98 DIM B(TMUES),Bl(NN+2,4),B30(100,2),B40(100,2) INPUT "¿DESEA LEER LOS DATOS DE UN ARCHIVO si NO => genera num. Uniformes (S/N)";SD$ IF (SD$="n" OR SD$="N") THEN
RANDOMIZE TIMER FOR 1=1 TO TMUES
B(I)=RND IF B(I)>VMAX THEN VMAX=B(I) IF B(I)<VMIN THEN VMIN=B(I) MEDIA=MEDIA+B(I)
NEXT I NOM$="NULDAT.DAT"
ELSE 170: INPUT "¿NOMBRE DEL ARCHIVO DE DATOS";NOM$ X=LEN(NOM$) IF X<4 THEN GOTO 2 00 ELSE GOTO 210 200: PRINT " El archivo debe tener alguna extensión"
: GOTO 170 210: ZX$=MID$(NOM$,X-3,l) IF ZX$="." THEN GOTO 240 ELSE GOTO 230 230: PRINT " El archivo debe tener alguna extensión"
: GOTO 170 240: OPEN NOM$ FOR INPUT AS#1 FOR 1=1 TO TMUES
INPUT#1,B(I) IF B(I)>VMAX THEN VMAX=B(I) IF B(I)<VMIN THEN VMIN=B(I) MEDIA=MEDIA+B(I)
NEXT I CLOSE
END IF MEDIA=MEDIA/TMUES : A0=ABS(VMAX-VMIN) : N=TMUES : NITE=0 FACTDI=1 IF (A0>5 OR A0<1) THEN FACTDI=A0/5 FACTRE=MEDIA VMIN=lE+27 : VMAX=-lE+27 FOR 1=1 TO TMUES
B(I)=(B(I)-FACTRE)/FACTDI IF B(I)>VMAX THEN VMAX=B(I) IF B(I)<VMIN THEN VMIN=B(I)
NEXT I A0=ABS(VMAX-VMIN) NLINF=VMIN-.2*A0 : NLSUP=VMAX+.2*A0 IF TIK$="1" THEN ALFA=217/365 : GRAL=.96 : S=2 : SFACT=2
357
IF TIK$="2" THEN ALFA=2 : GRAL=.25 : S=2 : SFACT=2 IF TIK$="3" THEN ALFA=1 : GRAL=3/(5*(5)A.5) : S=2 : SFACT=2 IF TIK$="4" THEN ALFA=1 : GRAL=.75 : S=2 : SFACT=2 IF TIK$="5" THEN ALFA=1 : GRAL=1/ (2* (PI)A. 5) : S=2 : SFACT=2 IF TIK$="6" THEN ALFA=-3 : GRAL=27/(32*(PI)A.5) : S=2 : SFACT=2 IF TIK$="7" THEN ALFA=15 : GRAL=2625/(2048*(PI)A.5) : S=6 : SFACT=720 IF TIK$="8" THEN ALFA=l/7 : GRAL=16/21 : S=2 : SFACT=2 IF TIK$="9" THEN ALFA=-8/9 : GRAL=34/27 : S==4 : SFACT=24 PNL$="N" INPUT "¿DESEA DEFINIR UN ANCHO DE VENTANA (S/N)";PNL$ IF (PNL$="S" OR PNL$="S") THEN PRINT " Rango de variación de la
muestra:";AO*FACTDI+FACTRE INPUT " ¿Ancho de Ventana";Al Al=(Al-FACTRE)/FACTDI
ELSE PRINT " PARA EL CALCULO DEL ANCHO DE VETANA ÓPTIMO, PUEDE
ELEGIR:" PRINT " 1. Minimizar la media de las desviaciones
cuadráticas" PRINT " 2. Maximizar la función de pseudo-verosimilitud" INPUT " TECLEE EL CÓDIGO DE LA OPCIÓN ELEGIDA (1 ó 2) y
pulse 'INTRO1 ",COE SELECT CASE COE INPUT " ¿NUMERO MÁXIMO DE ITERACIONES ( máximo admitido=100
)";NMI IF NMI>100 THEN NMI=100 INPUT " ¿TOLERANCIA (en tanto por uno)";TOLERAN CASE 1
PAS01=ABS(NLINF-NLSUP)/(A0*20) 390: LÓCATE 21,5 : PRINT "
LÓCATE 21,5 : PRINT "Ancho de ventana, con";NITE;"Iteraciones=";AO*FACTDI+FACTRE
NITE=NITE+1 GREL=0 FOR 1=1 TO N
GRIL=0 FOR J=NLINF TO NLSUP STEP PASOl
J1=A0*(J-B(I)) GOSUB 2000 GRIL=GRIL+((A0AS)/N) *G1*G1*PAS01
NEXT J GREL=GREL+GRIL
NEXT I FOR 11=1 TO N-l FOR 12=11+1 TO N
GRIL=0 FOR J=NLINF TO NLSUP STEP PASOl
J1=A0*(J-B(I1)) GOSUB 2000 : G2=G1 J1=A0*(J-B(I2)) GOSUB 2000 GRIL=GRIL+2*((A0AS)/N)*Gl*G2*PASOl
NEXT J
358
GREL=GREL+GRIL NEXT 12 NEXT II A2=(2*N*S*ALFA*ALFA*GREL)/(SFACT*GRAL) IF A2<=.00001 THEN GOTO 700 ELSE GOTO 710 700: A1=A0 : GOTO 750 710: A1=(A2)A(1/(2*S+1)) I F NMK=NITE THEN GOTO 750 I F A0*TOLERAN>ABS(A0-Al) THEN GOTO 750 A0=A1 : GOTO 390
CASE 2 SUMA=0 NENATQ: SUMA=SUMA+1 FD=3 IF SUMA=1 THEN Al=A0/3 IF SUMA=2 THEN A1=A0*3 IF SUMA>2 THEN FOR 1=1 TO SUMA-2 A50=(B30(I,2)/B30(I+1,2))A(l/4) A60=(A50*B30(I+1,1)+B30(I,1))/(A50+l) A70=((A60-B30(I,1))A4)/B3 0(I,2)
IF 1=1 THEN VMAAA=A70 : A1=A60 IF A70>VMAAA THEN A1=A60 : VMAAA=A70
NEXT I END IF B30(SUMA,1)=A1 : GREL=0 FOR 1=1 TO N GRIL=0 FOR J=l TO N
IF I=J THEN GOTO MMTB J1=A1*(B(I)-B(J)) GOSUB 3000 GRIL=GRIL+(A1/(N-l))*G1 IF GRIL<lE-43 THEN GRIL=lE-43 MMTB:
NEXT J GREL=GREL+LOG(GRIL)
NEXT I GREL=-1*GREL : B30(SUMA,2)=GREL LÓCATE 21,5 : PRINT "
ii
LÓCATE 21,5 : PRINT "Ancho de ventana, con";SUMA;"Iteraciones=";A1*FACTDI+FACTRE
IF SUMA>NMI THEN GOTO 750 IF SUMA<=2 THEN GOTO NENATQ
ELSE FOR 1=1 TO SUMA-1
IF ABS(GREL*TOLERAN)>ABS(GREL-B30(I,2)) THEN GOTO 750 FOR J=I+1 TO SUMA
ZJ1=B30(J,1) : ZI1=B30(I,1) : ZJ2=B30(J,2) : ZI2=B30(I,2)
IF ZJ1>ZJ2 THEN B30(J,1)=ZI1 : B30(J,2)=ZI2 : B30(I,1)=ZJ1
B30(I,2)=ZJ2
359
END IF NEXT J
NEXT I END IF GOTO NENATQ:
END SELECT 750: PRINT "Ancho Final de Ventana=";A1*FACTDI+FACTRE INPUT "PULSAR 'INTRO' PARA CONTINUAR",HFGFYT$
END IF 8989: LÓCATE 14,1 : PRINT "CALCULANDO LAS FUNCIONES DE DENSIDAD Y DISTRIBUCIÓN, ..." SUMA=0 : INCRE=.25*ABS(VMAX-VMIN) : I1=VMIN-INCRE : I2=VMAX+INCRE INCRO=.5*ABS(VMAX-VMIN) : I73=VMIN-INCRO : I74=VMAX+INCRO PASO=(12-11)/NN : A0=A1 WMIN=0 : I11=I1+INCRE : I22=I2-INCRE FOR 1=11 TO 12 STEP PASO
SUMA=SUMA+1 : Bl(SUMA,1)=I GRIL=0 FOR J=l TO N J1=A1*(I-B(J)) GOSUB 3000 GRIL=GRIL+(Al/N)*G1
NEXT J B1(SUMA,2)=GRIL I F B1(SUMA,2)<WMIN THEN WMIN=B1 (SUMA, 2)
NEXT I AREA=0 FOR 1 = 1 TO SUMA B1(I,2)=B1(I,2)-WMIN AREA=AREA+B1(1,2)*PASO
NEXT I FOR 1=1 TO SUMA
Bl(I,2)=B1(1,2)/ÁREA NEXT I IINII=1 FOR 1=2 TO SUMA
IF B1(I,1)>I11 THEN GOTO MMTQ IF B1(I-1,2)>B1(I,2) THEN IINII=I
NEXT I MMTQ: FOR 1=1 TO IINII
B1(I,2)=0 NEXT I IIFII=SUMA FOR I=SUMA-1 TO 1 STEP -1
IF B1(I,1)<I22 THEN GOTO MMTR IF B1(I+1,2)>B1(I,2) THEN IIFII=I
NEXT I MMTR: FOR I=IIFII TO SUMA
B1(I,2)=0 NEXT I AREA=0 FOR 1=1 TO SUMA AREA=AREA+B1(1,2)*PASO
NEXT I
360
VMAX=-2E+11 : VALOR=0 FOR 1=1 TO SUMA-1
B1(I,2)=B1(I,2)/AREA IF B1(I/2)>VMAX THEN VMAX=B1(I,2) VALOR=VALOR+Bl(1,2)*PASO Bl(I+l,3)=VALOR
NEXT I FOR 1=1 TO SUMA-1 VALOR=0 FOR J=l TO N
IF B(J)<=B1(I,1) THEN VALOR=VALOR+(1/N) NEXT J Bl(I+l,4)=VALOR
NEXT I SCREEN PANTA 11=173 : 12=174 WINDOW(I1,-1*VMAX/4)-(I2,VMAX+VMAX/4) IIll=ABS(VMAX+(VMAX/2))/100 LINE (I1,0)-(I2,0) LINE (0,IIll)-(0,-1*1111) LINE (111,II11)-(I11,-1*1111) LINE (122,II11)-(I22,-1*1111) FOR 1=1 TO SUMA-1 X1=B1(I,1) : Y1=B1(I,2) X2=B1(I+1,1) : Y2=B1(I+1,2) LINE(X1,Y1)-(X2,Y2),2
NEXT I INPUT "INTRO para CONT.",WYTUG$ CLS VMAX=1 WINDOW(II,-l*VMAX/4)-(12,VMAX+VMAX/4) IIll=ABS(VMAX+(VMAX/2))/100 LINE (I1,0)-(I2,0) LINE (0,VMAX)-(O,O) LINE (111,II11)-(I11,-1*1111) LINE (122,II11)-(I22,-1*1111) FOR 1=1 TO SUMA-1 X1=B1(I,1) : Y1=B1(I,3) X2=B1(I+1,1) : Y2=B1(I+1,3) LINE(X1,Y1)-(X2,Y2) ,1
NEXT I FOR 1=1 TO SUMA-1 X1=B1(I,1) : Y1=B1(I,4) X2=B1(I+1,1) : Y2=B1(I+1,4) LINE(X1,Y1)-(X2,Y2) ,2
NEXT I INPUT "INTRO para CONT.",BNBNB$ CLS : SCREEN 2 : CLS CLS : SCREEN 0 : CLS PRINT "PROGRAMA PARA EL AJUSTE NOPARAMETRICO DE F.d.d." : PRINT X=LEN(NOM$) : MID$(NOM$,X-2,3)=TIK$+"XY" OPEN NOM$ FOR OUTPUT AS#1 FOR 1=1 TO SUMA
Bl(I,1)=B1(I,1)*FACTDI+FACTRE PRINT #1,USING»########.######";B1(I,1);B1(I,2);B1(I,3);B1(I,4)
NEXT I
361
CLOSE 1000 2000 2001 2002 2003 2004 2005 2006 2007 2020 2030 2031 2032 2040 2041 2042 2 0
IF
END REM SUBRUTINA IF ABS(J1)>2.3 THEN 2002 ELSE 2003
G1=0 : GOTO 2080 TIK$=,I1M THEN 2004 ELSE 2020 G1=0 IF ABS(J1)<.5 IF (ABS(J1)>= GOTO 2 080 TIK$="2" THEN TIK$="3" THEN IF ABS(J1)>5A
GOTO 2080 TIK$="4" THEN 2041 ELSE 2050
IF IF
IF
THEN Gl=8*(-2+6*ABS(Jl)) 5 AND ABS(J1)<=1) THEN Gl=16*(1-ABS(Jl))
Gl=.5*EEEA(-1*ABS(Jl)) 2031 ELSE 2040 5 THEN G1=0 ELSE Gl=-3/(10*(5A.5))
IF ABS(J1)>1 THEN G1=0 ELSE Gl=-.46*PI*PI*COS(PI*J1) GOTO 2080 0 : I F T ] T I K $ = " 5 "
G1=(1/((2*PI)A.5))*(EEEA(-l*(JlA2)/2))*(J1A2-1) 2060: IF TIK$="6" THEN 2061 ELSE 2065 2061: G3=(l/((2*PI)A.5))*(EEEA(-1*(JlA2)/2)) 2062: G4=-l*(JlA4)+6*(JlA2)-4 2063: G1=G3*G4 2064: GOTO 2080 2065: IF TIK$="7" THEN 2066 ELSE 2069 2066: G3=((15/8)/((2*PI)A.5))*(EEEA(-1*(JlA2)/2)) 2 0 6 7
H N
10)-(49/15)*(JlA8)+50*(J1A6)-274*(J1A4)+451*(Jl' G4=(1/15)*(J1 2)-99 2068: G1=G3*G4 : GOTO 2080 2069: IF TIK$="8" THEN 2070 ELSE 2072 2070: IF ABS(J1)>1 THEN G1=0 ELSE Gl=(15/4)*(3*(J1A2)-1) 2071: GOTO 2080 2072: IF TIK$="9" THEN 2073 ELSE 2080 2073: IF ABS(J1)>1 THEN G1=0 ELSE Gl=-105/2 2080: RETURN 3000: REM SUBRUTINA 3001: IF ABS(J1)>2.3 THEN GOTO 3002 ELSE GOTO 3003 3002: G1=0 : GOTO 3080 3003: IF TIK$=M1" THEN GOTO 3004 ELSE GOTO 3020 3004: G1=0 3005: IF ABS(J1)<.5 THEN Gl=(4/3)-8*JlA2+8*(ABS(Jl))A3 3006: IF (ABS(J1)>=.5 AND ABS(J1)<=1) THEN Gl=(8/3)*((1-ABS(J1))A3) 3007: GOTO 3080 3020: IF TIK$=II2" THEN Gl=. 5*EEEA (-1*ABS (Jl) ) 3030: IF TIK$="3" THEN GOTO 3031 ELSE GOTO 3040 3031: IF ABS(J1)>5A.5 THEN G1=0 ELSE Gl=(3/(4*(5A.5)))-(3/(20*(5A.5)))*JlA2
GOTO 3080 TIK$="4" THEN GOTO 3041 ELSE GOTO 3050 IF ABS(J1)>1 THEN G1=0 ELSE Gl=.54+.46*COS(PI*J1) GOTO 3080 TIK$="5" THEN G l = ( l / ( ( 2 * P I ) A . 5 ) ) * ( E E E A ( - 1 * ( J l A 2 ) / 2 ) ) 0 : I F T I K $ = " 6 " T H E N
G l = ( l / ( ( 2 * P I ) A . 5 ) ) * ( E E E A ( - l * ( J l A 2 ) / 2 ) ) * ( 3 / 2 ) * ( l - . 3 3 3 3 3 3 * J l A 2 )
3032: 3040: 3041: 3042: 3050: 3 0
IF
IF 6
362
3 0 7 0 : I F T I K $ = " 7 " T H E N G l = ( l / ( ( 2 * P I ) A . 5 ) ) * ( E E E A ( - l * ( J l A 2 ) / 2 ) ) * ( 1 5 / 8 ) * ( 1 - . 6 6 6 6 6 6 * J 1 A 2 + ( 1 / 1 5 ) * J 1 A 4 ) 3071: IF TIK$="8" THEN 3072 ELSE 3074 3072: IF ABS(J1)>1 THEN G1=0 ELSE Gl=(15/16)*((1-(J1A2))A2) 3073: GOTO 3080 3074: IF TIK$="9" THEN 3075 ELSE 3080 3075: IF ABS(J1)>1 THEN G1 = 0 ELSE Gl=(15/16)*(l-((7/3)*(JlA4))) 3080: RETURN
363
PROGRAMA PARA LA ESTIMACIÓN DE LA CURVA DE REGRESIÓN EN UN
MODELO FIJO.
CLS PRINT "PROGRAMA DE REGRESIÓN NO-PARAMETRICA. DISEÑO FIJO" PRINT DIM A(400,2),BB(400,9),AA1(600,2) INPUT "¿NOMBRE DEL ARCHIVO DE DATOS";NOMAR$ INPUT "¿TAMAÑO MUESTRAL";N INPUT "¿NUMERO DE VARIABLES";NVAR INPUT "¿POSICIÓN DE LA VARIABLE INDEPENDIENTE";VARIN INPUT "¿PASO entre VALORES de X, Na de EXPERIMENTOS X";INCRE,NEXP INPUT "¿POSICIÓN DE LA VARIABLE DEPENDIENTE";VARDE OPEN NOMAR$ FOR INPUT AS#1 FOR 1=1 TO N FOR J=l TO NVAR INPUT#1,TFC
IF J=VARIN THEN A(I,1)=TFC IF J=VARDE THEN A(I,2)=TFC
NEXT J NEXT I CLOSE FOR 1=1 TO N-l FOR J=I+1 TO N
IF A(I,1)>A(J,1) THEN X1=A(I,1) : Y1=A(I,2) X2=A(J,1) : Y2=A(J,2) A(I,1)=X2 : A(I,2)=Y2 A(J,1)=X1 : A(J,2)=Y1
END IF NEXT J NEXT I INPUT "¿SOBRE CUANTAS MUESTRAS ACTÚA";N XMIN=1E+10 : XMAX=-1E+10 YMIN=1E+10 : YMAX=-1E+10 FOR 1=1 TO N
IF A(I,1)<XMIN THEN XMIN=A(I,1) IF A(I,1)>XMAX THEN XMAX=A(I,1) IF A(I,2)<YMIN THEN YMIN=A(I,2) IF A(I,2)>YMAX THEN YMAX=A(I,2)
NEXT I XXMA=XMAX : XXMI=XMIN : YYMA=YMAX : YYMI=YMIN
FOR 1=1 TO N A(I,1)=(A(I,1)-XMIN)/(XMAX-XMIN) A(I,2)=(A(I,2)-YMIN)/(YMAX-YMIN)
NEXT I INCRE=INCRE/(XMAX-XMIN) XXMA=XMAX : XXMI=XMIN : YYMA=YMAX : YYMI=YMIN XMIN=0 : XMAX=1 : YMIN=0 : YMAX=1
PRINT : INPUT "¿VALORES de V,S,JL¿ (para SELECCIONAR tipo NÚCLEO)";V,S,M F=S : GOSUB JAVI : SFACT=F CP=1/(2*(2*S+1)) PRINT
365
V2=V : S2=S : M2=M V1=S : Sl=S+2 : M1=M LM=S+2*M-2 : LMl=Sl+2*Ml-2
DIM C1(LM,2),C2(LM1,2) FOR J=0 TO LM
C1(J,2)=J NEXT J FOR J=0 TO LM
POI=(-l)A(J+V) IF POI=l THEN Nl=(-l)-((J+V)/2) F=S+V+2*M : GOSUB JAVI : N2=F N3=(S-V)*(S+2*M-J) F=S+J : GOSUB JAVI : N4=F F=J : GOSUB JAVI : D1=F D2=(J+V+l)*2A(2*(S+M)+1) F=(S-V)/2 : GOSUB JAVI : D3=F F=(S+V+2*M)/2 : GOSUB JAVI : D4=F F=(S-J+2*M)/2 : GOSUB JAVI : D5=F F=(S+J)/2 : GOSUB JAVI : D6=F L=(N1/(D1*D2))*(N2/(D3*D4))*(N3/D5)*(N4/D6) C1(J,1)=L
ELSE C1(J,1)=0
END IF NEXT J V=V1 : S=S1 : M=M1 FOR J=0 TO LM1 C2(J,2)=J
NEXT J FOR J=0 TO LM1
POI=(-l)A(J+V) IF POI=l THEN Nl=(-l)-((J+V)/2) F=S+V+2*M : GOSUB JAVI : N2=F N3=(S-V)*(S+2*M-J) F=S+J : GOSUB JAVI : N4=F F=J : GOSUB JAVI : D1=F D2=(J+V+1)*2A(2*(S+M)+1) F=(S-V)/2 : GOSUB JAVI : D3=F F=(S+V+2*M)/2 : GOSUB JAVI : D4=F F=(S-J+2*M)/2 : GOSUB JAVI : D5=F F=(S+J)/2 : GOSUB JAVI : D6=F L=(NI/(D1*D2))*(N2/(D3*D4))*(N3/D5)*(N4/D6) C2(J,1)=L
ELSE C2(J,1)=0
END IF NEXT J V=V2 : S=S2 : M=M2
SIG2=0 FOR 1=1 TO N-2 SIG2=SIG2+(A(I+2,2)-2*A(I+l,2)+A(I,2))A2
NEXT I
366
SIG2=SIG2*l/(6*(N-2)) C1=0 : C2=0 : H0=1/N FOR X=-l TO 1 STEP .01 GOSUB MAMA: C1=C1+(K01A2)*.01 C2=C2+(ABS(XAS)*K01*.01)
NEXT X C1=SFACT*C1 : C2=2*S*C2 : BETA1=(((-1)A2)*C2)/(2*S*SFACT)
INPUT "¿DESEA DEFINIR UN ANCHO DE VENTANA (S/N)";SDF$ IF SDF$="S" THEN
INPUT HO ELSE
HO=l / (N/NEXP) : ITER=0 PRINT ITER,HO FOR ITER=1 TO 1 1
WAL=0 FOR T=XMIN+.l TO XMAX-.l STEP .01 VAL1=0 FOR 1=1 TO N X=(T-A(I,1))/((NACP)*HO) T2=A(I,l)+INCRE/2 Tl=A(I,l)-INCRE/2 T1P=X-H0 : T2P=X+HO IF (T2<T1P OR T1>T2P) THEN GOTO TITO I F T K T 1 P THEN T1=T1P IF T2>T2P THEN T2=T2P IKV=0 FOR K=0 TO LM1
IKV=IKV+ ( (C2 (K, 1) / (K+1) ) * ( ( ( (X-Tl) A (K+1) ) - ( (X-T2) A (K+1) ) ) / ( (HO *(NACP) )AK) ) )
NEXT K VAL1=VAL1+A(1,2)*IKV/NEXP TITO:
NEXT I VAL1=VAL1/ ( ( (N A CP)*HO) A S) WAL=WAL+ (ABS (VALÍ) ) * . 0 1 REM WAL=WAL+ ( (VALÍ) A 2 ) * . 0 1
NEXT T KK= (C1*SIG2) / (N*C2*WAL) HO=(ABS(KK)) A (2*CP) PRINT ITER,HO
NEXT ITER END I F
PIVOT=0 : SUMA=0 FOR 1 = 1 TO N
I F A ( I , 1 ) = 1 THEN PIVOT=PIVOT+A(I,2) : SUMA=SUMA+1
END IF NEXT I PIVOT=PIVOT/SUMA NPA=0 : NPD=0 FOR 1=1 TO N
IF A(I,l)<HO THEN NPA=NPA+1
367
IF A(I,1)>(1-H0) THEN NPD=NPD+1 NEXT I NPA=NPA-NEXP : NPD=NPD-NEXP T=NEXP-1 FOR 1=1 TO N+NPA+NPD
IF K=NPA THEN AA1(NPA+1-I,1)=2*A(1,1)-A(I+NEXP,1) AA1(NPA+l-I,2)=2 *A(1,2)-A(I+NEXP,2)
END IF IF (I>NPA AND K=N+NPA) THEN AA1(I,1)=A(I-NPA,1) AA1(I,2)=A(I-NPA,2)
END IF IF I>(N+NPA) THEN T=T+1 AA1(I,1)=2*A(N,1)-A(N-T,1) AA1(1,2)=2 *PIVOT-A(N-T,2)
END IF NEXT I
BUCLE=0 FOR 1=1 TO 100
BUCLE=BUCLE+1 X1=XMIN+BUCLE*ABS(XMAX-XMIN)/100 VAL1=0 : VAL2=0 : VAL3=0 : SUMA=0 : SUMA=0 : SUME=0 FOR J=l TO N+NPA+NPD-1
T2=AA1(J,1)+INCRE/2 T1=AA1(J,1)-INCRE/2 T1P=X1-H0 : T2P=Xl+HO IF (T2<T1P OR T1>T2P) THEN GOTO TITI I F T K T 1 P THEN T1=T1P IF T2>T2P THEN T2=T2P T=0 FOR K=0 TO LM
T=T+ ( (Cl (K, 1) / (K+1) ) * ( ( ( (Xl-Tl) A (K+1) ) - ( (X1-T2)A (K+1) ) ) / (HOAK) ) ) NEXT K IKV=T VAL1=VAL1+AA1(J,2)*IKV VAL3=VAL3+((IKV/(HOA(V+l)) ) A2) IF (J>NPA AND J<=N+NPA) THEN
VAL2=VAL2+AA1(J,2)*IKV END IF TITI:
NEXT J VAL1=(VAL1/(HOA(V+l)))/NEXP VAL2=VAL2/(HOA(V+l))/NEXP VAL3=SIG2 *VAL3/NEXP Y1=VAL1 : Y2=VAL2 : Y3=VAL3 BB(I,1)=X1 : BB(I,4)=Y1 : BB(I,5)=Y2 BB(I,6)=(BETA1*BB(I,4)*(HOA(S-V)))A2 BB(I,7)=VAL3
NEXT I
368
SCREEN 12 XXX1=-1 : XXX2=3 YYY1=-1 : YYY2=2 WINDOW (XXX1,YYY1)-(XXX2,YYY2) LINE (0,0)-(l,l),,B FOR 1=1 TO N+NPA+NPD
CIRCLE (AA1(I,1),AA1(I,2)),ABS(XMAX-XMIN)/200,10 NEXT I FOR 1=1 TO N
CIRCLE (A(I,1),A(I,2)),ABS(XMAX-XMIN)/200,13 NEXT I FOR 1=1 TO 99
X1=BB(I,1) : Y1=BB(I,4) X2=BB(I+1,1) : Y2=BB(I+1,4) Y3=BB(I,5) : Y4=BB(I+1,5) LINE (XI,Y3)-(X2,Y4),10 LINE (X1,Y1)-(X2,Y2)
NEXT I LÓCATE 2,1 : PRINT "Ho="; PRINT USING ".###";HO PRINT »v=";V PRINT "S=";S PRINT "A¿=";M
LÓCATE 1,1 : PRINT "AJUSTE EN [0,1]"; : INPUT " Pulsar *INTRO1 para continuar",DSFSRE$
X2=XXMA-XXMI : Y2=YYMA-YYMI X1=XXMI : Y1=YYMI FOR 1=1 TO N A(I,1)=X1+A(I,1)*X2 A(I,2)=Y1+A(I,2)*Y2
NEXT I FOR 1=1 TO 100
BB(I,2)=X1+BB(1,1)*X2 BB(I,3)=Y1+BB(1,4)*Y2 TRE1=BB(I,6) : TRE2=BB(I,7) : TRO=1.96*((TRE1+2*TRE2)A.5) BB(I,8)=Y1+(BB(I,4)+TRO)*Y2 BB(I,9)=Y1+(BB(I,4)-TR0)*Y2
NEXT I
CLS IF (X2/Y2)>(4/3) THEN XM=X2 : YM=Y2*(4/3)
ELSE XM=(4/3)*X2 : YM=Y2
END IF WINDOW (XI,Yl)-(X1+XM*1.2,Y1+YM*1.2) LINE (X1,Y1)-(X1+X2,Y1+Y2) , ,B XINI0=X1 : XFIN0=X1+X2 YINI0=Y1 : YFIN0=Y1+Y2
FOR 1=1 TO 99 X1=BB(I,2) : Y1=BB(I,3) X2=BB(I+1,2) : Y2=BB(I+1,3)
369
Y3=BB(I,8) : Y4=BB(I+1,8) Y5=BB(I,9) : Y6=BB(I+1,9) LINE (X1,Y1)-(X2,Y2) LINE (X1,Y3)-(X2,Y4) ,13 LINE (X1,Y5)-(X2,Y6) ,13
NEXT I IF (XFINO-XINIO)>(YFINO-YINIO) THEN LL=(YFINO-YINIO)/150 ELSE LL=(XFINO-XINIO)/150 FOR 1=1 TO N
CIRCLE (A(I,1),A(I,2)),LL,10 NEXT I
FOR 1=0 TO N STEP NEXP LINE (A(I,1),YINI0)-(A(I,1),YINI0+3*LL)
NEXT I
PRINT "VARAICION DEL EJE X:"; PRINT XXMI;I,-";XXMA PRINT "VARIACIÓN DEL EJE Y:"; PRINT YYMI;"-";YYMA
INPUT "",NDHDGT$ UGE: OLIS: END
MAMA: IF (X>1 OR X<-1) THEN K01=0
ELSE K01=0 FOR HG=0 TO LM
K01=K01+C1(HG,1)*XAC1(HG,2) NEXT HG
END IF RETURN
PAPA: IF (X>1 OR X<-1) THEN K21=0
ELSE K21=0 FOR HG=0 TO LM1
K21=K21+C2(HG,1)*XAC2(HG, 2) NEXT HG
END IF RETURN
JAVI: IF F=0 THEN
370
F=l : GOTO MC END IF FOR ZXSDF=F-1 TO 1 STEP -1
F=F*ZXSDF NEXT ZXSDF MC: RETURN
PEPITO: FOR 1=1 TO 100
X X 1 = B B ( I , 1 ) : H 2 = ( l / ( H O A ( V + l ) ) ) : WAL=0 FOR J = l TO N+NPA+NPD
IF AA1(J,1)>XX1+.01 THEN FOR J1=J TO 1 STEP -1
IF ABS(AA1(J,1)-AA1(J1,1))>.01 THEN J3=J : J2=J1 : GOTO TITE
END IF NEXT Jl
END IF NEXT J TITE: X1=AA1(J2-1,1) : X2=AA1(J2,1) : X3=AA1(J3,1) : X4=AA1(J3+1,1) T2=(X3+X4)/2 : Tl=(Xl+X2)/2 T=0 FOR K=l TO LM
T=T+((C1(K,1)/(K+1))*((((XX1-T2)AK)-((XX1-T1)AK))/(HO^K))) NEXT K REM PRINT I;T1;T2;(T2-T1)*(Cl(0,1)+T) BB(I,7)=(J3-J2+1)*(T2-T1)*(Cl(0,1)+T)*H2*SIG2 REM PRINT I;BB(I,6);BB(I,7)
NEXT I RETURN
371
PROGRAMA PARA LA ESTIMACIÓN DE LA CURVA DE REGRESIÓN EN UN
MODELO ALEATORIO.
CLS PRINT "PROGRAMA DE REGRESIÓN NO-PARAMETRICA. DISEÑO ALEATORIO" PRINT DIM A(400,2),BB(400,9),AA1(600,2) INPUT "¿NOMBRE DEL ARCHIVO DE DATOS";NOMAR$ INPUT "¿TAMAÑO MUESTRAL";N INPUT "¿NUMERO DE VARIABLES";NVAR INPUT "¿POSICIÓN DE LA VARIABLE INDEPENDIENTE";VARIN INPUT "¿POSICIÓN DE LA VARIABLE DEPENDIENTE";VARDE OPEN NOMAR$ FOR INPUT AS#1 FOR 1=1 TO N FOR J=l TO NVAR
INPUT#1,TFC IF J=VARIN THEN A(I,1)=TFC IF J=VARDE THEN A(I,2)=TFC
NEXT J NEXT I CLOSE FOR 1=1 TO N-l FOR J=I+1 TO N
IF A(I,1)>A(J,1) THEN X1=A(I,1) : Y1=A(I,2) X2=A(J,1) : Y2=A(J,2) A(I,1)=X2 : A(I,2)=Y2 A(J,1)=X1 : A(J,2)=Y1
END IF NEXT J NEXT I INPUT "¿SOBRE CUANTAS MUESTRAS ACTÚA";N XMIN=1E+10 : XMAX=-1E+10 YMIN=1E+10 : YMAX=-1E+10 FOR 1=1 TO N
IF A(I,1)<XMIN THEN XMIN=A(I,1) IF A(I,1)>XMAX THEN XMAX=A(I,1) IF A(I,2)<YMIN THEN YMIN=A(I,2) IF A(I,2)>YMAX THEN YMAX=A(I,2)
NEXT I XXMA=XMAX : XXMI=XMIN : YYMA=YMAX : YYMI=YMIN
FOR 1=1 TO N A (1,1) = (A (1,1)-XMIN) / (XMAX-XMIN) A(I,2) = (A(I,2) -YMIN)/ (YMAX-YMIN)
NEXT I XXMA=XMAX : XXMI=XMIN : YYMA=YMAX : YYMI=YMIN XMIN=0 : XMAX=1 : YMIN=0 : YMAX=1
PRINT : PRINT "A CONTINUACIÓN, SELECCIONE EL TIPO DE NÚCLEO" INPUT "¿Valores de v,s,jU";V,S,M F=S : GOSUB JAVI : SFACT=F CP=1/(2*(2*S+1)) PRINT V2=V : S2=S : M2=M V1=S : Sl=S+2 : M1=M LM=S+2*M-2 : LMl=Sl+2*Ml-2 DIM C1(LM,2),C2(LM1,2) FOR J=0 TO LM
372
C1(J,2)=J NEXT J FOR J=0 TO LM
POI=(-l)A(J+V) IF POI=l THEN Nl=(-l)A((J+V)/2) F=S+V+2*M : GOSUB JAVI : N2=F N3=(S-V)*(S+2*M-J) F=S+J : GOSUB JAVI : N4=F F=J : GOSUB JAVI : D1=F D2=(J+V+1)*2A(2*(S+M)+1) F=(S-V)/2 : GOSUB JAVI : D3=F F=(S+V+2*M)/2 : GOSUB JAVI : D4=F F=(S-J+2*M)/2 : GOSUB JAVI : D5=F F=(S+J)/2 : GOSUB JAVI : D6=F L=(N1/(D1*D2))*(N2/(D3*D4))*(N3/D5)*(N4/D6) C1(J,1)=L
ELSE C1(J,1)=0
END IF NEXT J V=V1 : S=S1 : M=M1 FOR J=0 TO LM1
C2(J,2)=J NEXT J FOR J=0 TO LM1 POI=(-l)A(J+V) IF POI=l THEN Nl=(-l)A((J+V)/2) F=S+V+2*M : GOSUB JAVI : N2=F N3=(S-V)*(S+2*M-J) F=S+J : GOSUB JAVI : N4=F F=J : GOSUB JAVI : D1=F D2=(J+V+1)*2A(2*(S+M)+1) F=(S-V)/2 : GOSUB JAVI : D3=F F=(S+V+2*M)/2 : GOSUB JAVI : D4=F F=(S-J+2*M)/2 : GOSUB JAVI : D5=F F=(S+J)/2 : GOSUB JAVI : D6=F L=(N1/(D1*D2))*(N2/(D3*D4))*(N3/D5)*(N4/D6) C2(J,1)=L
ELSE C2(J,1)=0
END IF NEXT J V=V2 : S=S2 : M=M2
SIG2=0 FOR 1=1 TO N-2 SIG2=SIG2+(A(I+2,2)-2*A(I+l,2)+A(I,2) )A2
NEXT I SIG2=SIG2*l/(6*(N-2)) C1=0 : C2=0 : HO=l/N FOR X=-l TO 1 STEP .01 GOSUB MAMA: C1=C1+(K01A2)*.01 C2=C2+(ABS(XAS)*K01*.01)
373
NEXT X C1=SFACT*C1 : C2=2*S*C2 : BETA1=(((-1)A2)*C2)/(2*S*SFACT)
INPUT "¿DESEA DEFINIR UN ANCHO DE VENTANA (S/N)";SDF$ IF SDF$="S" THEN
INPUT HO ELSE
HO=l /N : ITER=0 PRINT ITER,HO FOR ITER=1 TO 1 1
WAL=0 FOR T=XMIN+.l TO XMAX-.l STEP .01 VAL1=0 FOR 1=1 TO N-l
X=(T-A(I,1))/((NACP)*HO) GOSUB PAPA VAL1=VAL1+(A(I+1,1)-A(I,1))*K21*A(I,2)
NEXT I VAL1=VAL1/ ( ( (N A CP)*HO) A S) WAL=WAL+ (ABS (VALÍ) ) * . 0 1 REM WAL=WAL+ ( (VALÍ) A 2 ) * . 0 1
NEXT T KK= ( 1 . 5*C1*SIG2) / (N*C2*WAL) HO=(ABS(KK)) A (2*CP) PRINT ITER,HO
NEXT ITER END I F
PIVOT=A(N,2) : NEXP=1 NPA=0 : NPD=0 FOR 1 = 1 TO N
I F A ( I , l ) < H O THEN NPA=NPA+1 I F A ( I , l ) > ( l - H O ) THEN NPD=NPD+1
NEXT I NPA=NPA-NEXP : NPD=NPD-NEXP T=NEXP-1 FOR 1 = 1 TO N+NPA+NPD
I F K = N P A THEN A A l ( N P A + l - I , 1 ) = 2 * A ( 1 , 1 ) - A ( I + N E X P , 1 ) A A l ( N P A + l - I , 2 ) = 2 * A ( 1 , 2 ) - A ( I + N E X P , 2 )
END I F I F (I>NPA AND K=N+NPA) THEN
A A 1 ( I , 1 ) = A ( I - N P A , 1 ) A A l ( I , 2 ) = A ( I - N P A , 2 )
END I F I F I>(N+NPA) THEN
T=T+1 A A 1 ( I , 1 ) = 2 * A ( N , 1 ) - A ( N - T , 1 ) A A l ( 1 , 2 ) = 2 * P I V O T - A ( N - T , 2 )
END I F NEXT I
BUCLE=0 FOR J = l TO 100
BUCLE=BUCLE+1
374
X1=XMIN+BUCLE*ABS(XMAX-XMIN)/100 VAL1=0 : VAL2=0 : VAL3=0 : SUMA=0 FOR 1=1 TO N+NPA+NPD-1
X=(X1-AA1(I,1))/(HO) GOSUB MAMA VAL1=VAL1+(AA1(1+1,1)-AA1(1,1))*K01*AA1(1,2) IF (I>NPA AND K=N+NPA) THEN VAL2=VAL2+(AA1(I+1,1)-AA1(I,1))*K01*AA1(I,2) VAL3=VAL3+((AA1(1+1,1)-AA1(I,1))*K01/HO)A2
END IF NEXT I VAL1=VAL1/(HOA(V+l)) VAL2=VAL2/(HOA(V+l)) VAL3=SIG2*VAL3 Y1=VAL1 : Y2=VAL2 : Y3=VAL3 BB(J,1)=X1 : BB(J,4)=Y1 : BB(J,5)=Y2 BB(J,6)=(BETA1*BB(J,4)*(H0A(S-V)))A2 BB(J,7)=VAL3
NEXT J
SCREEN 12 XXX1=-1 : XXX2=3 YYY1=-1 : YYY2=2 WINDOW (XXX1,YYY1)-(XXX2,YYY2) LINE (0,0)-(l,l),,B FOR 1=1 TO N+NPA+NPD
CIRCLE (AA1(I,1),AA1(I,2)),ABS(XMAX-XMIN)/200,10 NEXT I FOR 1=1 TO N
CIRCLE (A(I,1),A(I,2)),ABS(XMAX-XMIN)/200,13 NEXT I FOR 1=1 TO 99
X1=BB(I,1) : Y1=BB(I,4) X2=BB(I+1,1) : Y2=BB(I+1,4) Y3=BB(I,5) : Y4=BB(I+1,5) LINE (X1,Y3)-(X2,Y4),10 LINE (X1,Y1)-(X2,Y2)
NEXT I LÓCATE 2,1 : PRINT "Ho="; PRINT USING ".###";HO PRINT »v=";V PRINT "s=";S PRINT "/¿=";M LÓCATE 1,1 : PRINT "AJUSTE EN [0,1]"; : INPUT " Pulsar •INTRO' para continuar",DSFSRE$
X2=XXMA-XXMI : Y2=YYMA-YYMI X1=XXMI : Y1=YYMI FOR 1=1 TO N A(I,1)=X1+A(I,1)*X2 A(I,2)=Y1+A(I,2)*Y2
NEXT I FOR 1=1 TO 100
BB(I,2)=X1+BB(I,1)*X2 BB(I,3)=Y1+BB(I,4)*Y2
375
TRE1=BB(I,6) : TRE2=BB(I,7) : TR0=1.96*((TRE1+2*TRE2)A.5) BB(I,8)=Y1+(BB(I,4)+TR0)*Y2 BB(I,9)=Y1+(BB(I,4)-TR0)*Y2
NEXT I
CLS IF (X2/Y2)>(4/3) THEN XM=X2 : YM=Y2*(4/3)
ELSE XM=(4/3)*X2 : YM=Y2
END IF WINDOW (XI,Yl)-(X1+XM*1.2,Y1+YM*1.2) LINE (X1,Y1)-(X1+X2,Y1+Y2),,B XINI0=X1 : XFIN0=X1+X2 YINI0=Y1 : YFIN0=Y1+Y2 FOR 1=1 TO 99
X1=BB(I,2) : Y1=BB(I,3) X2=BB(1+1,2) : Y2=BB(1+1,3) Y3=BB(I,8) : Y4=BB(I+1,8) Y5=BB(I,9) : Y6=BB(I+1,9) LINE (X1,Y1)-(X2,Y2) LINE (X1,Y3)-(X2,Y4),13 LINE (X1,Y5)-(X2,Y6),13
NEXT I IF (XFINO-XINIO)>(YFINO-YINIO) THEN LL=(YFINO-YINIO)/150 ELSE LL=(XFIN0-XINI0)/150 FOR 1=1 TO N
CIRCLE (A(I,1),A(I,2)),LL,10 NEXT I PRINT "VARAICION DEL EJE X:"; PRINT XXMI;"-";XXMA PRINT "VARIACIÓN DEL EJE Y:"; PRINT YYMI;"-";YYMA INPUT "»,NDHDGT$ UGE: OLIS: END
MAMA: IF (X>1 OR X<-1) THEN
K01=0 ELSE
K01=0 FOR HG=0 TO LM
K01=K01+C1(HG,1)*XAC1(HG,2) NEXT HG
END IF RETURN
PAPA: IF (X>1 OR X<-1) THEN K21=0
ELSE K21=0
376
FOR HG=0 TO LMl K21=K21+C2(HG,1)*XAC2(HG,2)
NEXT HG END IF RETURN
JAVI: IF F=0 THEN
F=l : GOTO MC END IF FOR ZXSDF=F-1 TO 1 STEP -1
F=F*ZXSDF NEXT ZXSDF MC: RETURN
377
PROGRAMA PARA LA ESTIMACIÓN DE FUNCIONES DE DENSIDAD
BIDIMENSIONALES.
CLS PRINT "PROGRAMA PARA AJUSTE DE UNA fdd EN DOS DIMENSIONES" LÓCATE 3,5 : PRINT "De los siguientes tipos de distribuciones" LÓCATE 4,10 : PRINT "1. Doble CHI-2 (n=2)" LÓCATE 5,10 : PRINT "2. Doble N(0,2)" LÓCATE 6,10 : PRINT "3. Doble inversa de CHI-2 (N=2)" LÓCATE 7,10 : PRINT "4. Doble UNIFORME" LÓCATE 8,5 : INPUT "¿Qué código selecciona";TD LÓCATE 10,5 : INPUT "¿Número de puntos";NPTO LÓCATE 12,5 : INPUT "¿Número de pixels (máximo 120)";NN LÓCATE 14,5 : INPUT "¿Nombre del archivo de puntos";NOARP$ LÓCATE 16,5 : INPUT "¿Nombre del archivo de pixelx ajustados";NOARA$ OPEN "1111.DAT" FOR OUTPUT AS#1
PRINT#l,NPTO,NN CLOSE NCLAS=14 DIM A(100,2),AA(100,2),B(NPTO,2),C(NN,NN) PI=3.1416 : EEE=2.7172 IF TD=1 OR TD=3 THEN N=2 SUMO=0 FOR 1=0 TO 9.9 STEP .1
SUMO=SUMO+l SUMA=0 FOR J=-2 TO ((2*I)A.5)-((2*N-1)A.5) STEP .05
SUMA=SUMA+(.05*(EEEA(-l*J*J/2)/((2*PI)A.5))) NEXT J A(SUMO,l)=I : A(SUMO,2)=SUMA
NEXT I A(0,l)=-.01 : A(0,2)=0 A(100,l)=10 : A(100,2)=l IF TD=3 THEN
FOR 1=0 TO 100 AA(I,1)=A(I,1) : AA(I,2)=1-A(100-I,2)
NEXT I FOR 1=0 TO 100 FOR J=l TO 2 A(I,J)=AA(I,J)
NEXT J NEXT I
END IF END IF IF TD=2 THEN MEDIA=5 : DT=2 SUMO=0 FOR 1=0 TO 9.9 STEP .1
SUMO=SUMO+l SUMA=0 FOR J=-2 TO I STEP .05
Gl=l/(DT*((2*PI)A.5)) G2=-l*((J-MEDIA)A2)/(2*DT*DT) SUMA=SUMA+(.05*(G1*EEEAG2))
NEXT J A(SUMO,l)=I : A(SUMO,2)=SUMA
NEXT I
378
A(0,l)=-.01 : A(0,2)=0 A(100,l)=10 : A(100,2)=l
END IF IF TD=4 THEN SUMO=0
FOR 1=0 TO 9.9 STEP .1 SUMO=SUMO+l SUMA=I/10 A(SUMO,l)=I : A(SUMO,2)=SUMA
NEXT I A(0,l)=-.01 : A(0,2)=0 A(100,l)=10 : A(100,2)=l
END IF SCREEN 12 WINDOW (-l,-.5)-(10,1.5) LINE (0,0)-(10,1),,B FOR 1=1 TO 100
X1=A(I,1) : X0=A(I-1,1) Y1=A(I,2) : Y0=A(I-1,2) LINE (X0,Y0)-(X1,Y1),12
NEXT I INPUT "PULSAR 'INTRO' PARA CONTINUAR",FADARE$ SCREEN 0 FOR K=l TO 2
RANDOMIZE TIMER SUMA=0 MAMA:
Q=RND SUMA=SUMA+1 IF SUMA>NPTO THEN GOTO NENA FOR 1=1 TO 100
IF Q<A(I,2) THEN X0=A(1-1,1) : X1=A(I,1) : X2=X1-X0 Y0=A(1-1,2) : Y1=A(I,2) : Y2=Y1-Y0 Q1=Q-Y0 : IF Y2>0 THEN Q2=(Q1*X2/Y2)+X0 ELSE Q2=(Xl+X0)/2 GOTO PAPA
END IF NEXT I PAPA: IF K=l THEN B(SUMA,1)=Q2 ELSE B(SUMA,2)=Q2 GOTO MAMA
NENA: NEXT K SCREEN 12 CLS WINDOW (0,0)-(NN*4/3,NN) LINE (0,0)-(NN,NN),,B FOR 1=1 TO NPTO B(I,1)=NN*B(I,1)/10 : B(I,2)=NN*B(I,2)/10 X1=B(I,1) : Y1=B(I,2) CIRCLE (XI,Yl),(NN/10)*.05 B(I,1)=B(I,1)/NN : B(I,2)=B(I,2)/NN
NEXT I LÓCATE 1,70 : PRINT "(INTRO)" LÓCATE 2,70 : PRINT "para"
379
LÓCATE 3,70 : INPUT "CONT.",FSDR$ SCREEN 0 CLS PRINT "ALMACENANDO LOS PUNTOS GENERADOS" OPEN NOARP$ FOR OUTPUT AS#1 FOR 1=1 TO NPTO
PRINT#1,B(I,1)*NN,B(I,2)*NN NEXT I CLOSE PRINT : PRINT "CALCULANDO HO" M1=0 : M2=0 FOR 1=1 TO NPTO M1=M1+B(I,1) : M2=M2+B(I,2)
NEXT I M1=M1/NPT0 : M2=M2/NPTO : S1=0 : S2=0 FOR 1=1 TO NPTO
S1=S1+(B(I,1)-M1)A2 : S2=S2+(B(I,2)-M2)A2 NEXT I S 1 = S 1 / N P T 0 : S2=S2/NPTO S = ( ( S 1 + S 2 ) / 2 ) A . 5 H O = S * 2 . 7 8 * ( N P T O A ( - 1 / 6 ) ) PRINT "HO=";HO PRINT : PRINT "CALCULANDO f d d " VMAX=0 : MED=0 FOR 1 = 1 TO NN LÓCATE 7 , 1 : PRINT " " LÓCATE 7 , 1 : PRINT I FOR J = l TO NN
X 0 = ( I - 1 ) / N N : Y 0 = ( J - 1 ) / N N SUMA=0 FOR K=l TO NPTO
X 1 = ( X 0 - B ( K , 1 ) ) / H O : Y 1 = ( Y 0 - B ( K , 2 ) ) / H O I F X 1 * X 1 + Y 1 * Y 1 > = 1 T H E N K E R = 0 E L S E
K E R = ( 3 / ( P I ) ) * ( 1 - ( X 1 * X 1 + Y 1 * Y 1 ) ) A 2 SUMA=SUMA+KER
NEXT K C ( I , J ) = ( l / ( N P T O * H O * H O ) ) * S U M A I F C( I , J )>VMAX THEN VMAX=C(I ,J) MED=MED+C(I,J)
NEXT J NEXT I MED=MED/(NN*NN) PRINT : PRINT "ALMACENANDO EL ARCHIVO DE PIXELS" OPEN NOARA$ FOR OUTPUT AS#1 FOR 1=1 TO NN FOR J=l TO NN
PRINT#1,J,I,1000*C(I,J)/VMAX NEXT J NEXT I CLOSE PRINT : PRINT "RECLASIFICANDO EL MAPA" INTER=VMAX/NCLAS FOR 1=1 TO NN FOR J=l TO NN
FOR K=l TO NCLAS LI=(K-1)*INTER : LS=K*INTER
380
IF C(I,J)>=LI AND C(I,J)<=LS THEN C(I,J)=K : GOTO UGE
END IF NEXT K UGE:
NEXT J NEXT I SCREEN 12 CLS WINDOW (0,0)-(NN*4/3,NN) LINE (0,0)-(NN,NN),,B FOR 1=1 TO NN FOR J=l TO NN
X1=I-1 : Y1=J-1 : X2=I : Y2=J LINE (X1,Y1)-(X2,Y2),C(I,J),BF
NEXT J NEXT I LÓCATE 1,70 : PRINT "Función" LÓCATE 2,70 : PRINT "de" LÓCATE 3,70 : PRINT "Densidad" YINI=.78*NN : XINI=1.15*NN INCREY=.03*NN : INCREX=.06*NN FOR 1=1 TO NCLAS
X1=XINI : Y1=YINI-INCREY*(I-1) X2=X1+INCREX : Y2=Y1+INCREY LINE (X1,Y1)-(X2,Y2),I,BF
NEXT I FOR 1=1 TO NCLAS X1=XINI : Y1=YINI-INCREY*(I-1) X2=X1+INCREX : Y2=Y1+INCREY LINE (X1,Y1)-(X2,Y2),,B
NEXT I LÓCATE 2 3,70 : PRINT "(INTRO)" LÓCATE 24,70 : PRINT "para" LÓCATE 25,70 : INPUT "CONT.",FSDR$ FOR 1=1 TO NPTO B(I,1)=NN*B(I,1) : B(I,2)=NN*B(I,2) X1=B(I,1) : Y1=B(I,2) CIRCLE (XI,Yl),(NN/10)*.06 PAINT (X1,Y1),15 CIRCLE (XI,Yl),(NN/10)*.04,0 PAINT (XI,Yl),0
NEXT I LÓCATE 25,70 : INPUT "CONT.",FSDR$ OLIS: END
381