CÁLCULO DEL VALOR EN RIESGO DE UN PORTAFOLIO DE BONOS TES
Proyecto de grado presentado por: Camilo Serrano
Asesor: Héctor Fernando Beltrán
DEPARTAMENTO DE INGENIERÍA INDUSTRIAL FACULTAD DE INGENIERÍA
UNIVERSIDAD DE LOS ANDES
Bogotá, COLOMBIA
Enero 2004
II.03(2)127
1
INDICE INTRODUCCIÓN 1. METODOLOGÍA 1.1 División del trabajo
1.1.1 División horizontal: Tres maneras de estimar el VAR 1.1.2 División vertical: Conformación de portafolios y perfiles de riesgo
1.2 Escogencia de los instrumentos financieros
1.2.1 Características de los bonos y su medición 1.2.1.1 Liquidez 1.2.1.2 Volatilidad 1.2.1.3 Duración 1.2.1.4 Convexidad 1.2.1.5 Correlación
1.2.2 Conformación de los portafolios
2. MODELO 2.1 La técnica de “mapping”
2.1.1 Explicación y definición
2.1.2 Procedimiento y método inicial
2.1.3 Método mejorado
2.1.4 Datos de entrada 2.1.4.1 Tasas iniciales 2.1.4.2 Matriz de varianza-covarianza 2.2 La curva cero cupón
2.2.1 Definición
II.03(2)127
2
2.2.2 Métodos de estimación
2.3 Análisis de componentes principales
2.3.1 Desarrollo y objetivo del método
2.3.2 Aplicación para las tasas 2.3.2.1 Datos iniciales y transformación
2.3.2.2 Matriz de varianza-covarianza inicial, valores y vectores propios 2.3.3 Aplicación para los precios 2.3.3.1 Datos iniciales y transformación 2.3.3.2 Matriz de varianza-covarianza inicial, valores y vectores propios 2.3.4 Reconstrucción de la matriz de varianza-covarianza
2.4 Modelo de varianza EWMA 2.4.1 Definición 2.4.2 Aplicación del modelo EWMA 2.4.2.1 Retornos y puntajes de componentes principales 2.4.2.2 Estimación del factor de decaimiento 2.4.2.3 Resultados 2.4.2.4 Regeneración de una nueva matriz de covarianza 2.5 Mapeo de los portafolios 2.5.1 Datos de entrada
2.5.2 Resultados 2.6 Cálculo del valor en riesgo 2.6.1 Valor en riesgo usando estimaciones a partir de EWMA 2.6.2 Valor en riesgo usando la varianza como estimador
II.03(2)127
3
3. RESULTADOS 3.1 Análisis comparativo entre los modelos de varianza con promedios móviles 3.2 Replicación del método 3.2.1 Mapeo del portafolio 3.2.2 Estimaciones EWMA y matrices de varianza-covarianza 3.2.3 Estimaciones del VaR 3.2.4 Evaluación del modelo CONCLUSIONES ANEXOS BIBLIOGRAFÍA
II.03(2)127
4
INTRODUCCIÓN
La intención de este trabajo de grado es aplicar un modelo matemático financiero que
utilice una gran cantidad de herramientas aprendidas durante la formación de ingeniero
industrial. El objetivo primordial es intentar desarrollar una serie de capacidades
matemáticas y analíticas aprendidas en el curso de la carrera para lograr un trabajo con
cierto nivel técnico. A lo largo del trabajo se trató de hacerlo lo más práctico posible y no
muy teórico con el fin de que no se vuelva un trabajo obsoleto y aburrido de leer, sino que
intente resolver un problema de la vida real. El problema aquí es calcular el Valor en
Riesgo de un portafolio de bonos TES, problema muy común con el cual se enfrenta con
frecuencia cualquier analista de riesgo.
No es la intención de este trabajo innovar ni desarrollar un nuevo método, sino
simplemente ejecutar un modelo inventado por otros pero aplicado a la realidad
colombiana, usando la información disponible y los instrumentos financieros con los
cuales se opera en el país.
Este trabajo corresponde a una parte de un mayor trabajo realizado junto con María
Teresa Camacho y Fabio Macías. Se encontró que para el cálculo del VaR se podía
realizar de varias maneras que se exponen más adelante. En total se analizaron tres
enfoques, y este trabajo corresponde a uno de ellos.
Por último y como más importante se quiere mostrar que para la realización de este
trabajo hubo un trabajo en equipo, que siguió un razonamiento lógico y un proceso de
análisis coherente digno del pensamiento de un ingeniero.
II.03(2)127
5
1. METODOLOGÍA
El desarrollo de este trabajo de tesis está compuesto por tres trabajos que se
complementan e intentan mostrar diversas maneras de medir el valor en riesgo de varios
portafolios de bonos TES y asimismo lograr identificar perfiles de riesgo para dichos
portafolios.
1.1 División del trabajo
Para lograr este objetivo se dividió el trabajo de varias maneras que se van a presentar a
continuación. Se realizó lo que se va a llamar una división horizontal, correspondiente a
tres grandes métodos de estimación del valor en riesgo, y una división vertical que
corresponde a diferentes conformaciones de portafolios que se realizaron con base en
diferentes características que se expondrán más adelante.
Antes de comenzar a describir la metodología que se utilizará es necesario hablar sobre
los escenarios y los diferentes métodos relacionados con el VaR. Para ilustrar esto es
muy útil remitirse a una matriz, en la cual una coordenada correspondería a los diferentes
escenarios que se pueden crear en un portafolio de TES y la otra coordenada
correspondería a los métodos relacionados con el cálculo del VaR. Esto se podría
interpretar también como una división horizontal y vertical en la cual se presentan infinidad
de combinaciones de métodos estudiando diferentes portafolios.
En la anterior ilustración se pueden ver las combinaciones que se pueden generar de
métodos y portafolios formando una matriz bidimensional, dentro de la cual se encuentran
los resultados de la estimación del VaR.
⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢
⎣
⎡
nkkk
n
n
Métodok
MétodoMétodo
nEsEsEs
,2,1,
,22,21,2
,12,11,1
***
******
21
.21
L
MOMM
L
K
M
L
II.03(2)127
6
1.1.1 División horizontal: Tres maneras de estimar el VAR
En una coordenada de la matriz están las diversas metodologías involucradas con la
estimación del VaR. Tales métodos van desde la formula más elemental para calcular el
VaR de un activo, bono u otro instrumento hasta los métodos mas elaborados y
computacionalmente más exigentes para calcularlo en un portafolio conformado por
múltiples instrumentos.
Los métodos de estimación del VAR que se utilizaron en este trabajo se diferencian
debido al enfoque que cada uno tiene. Los dos primeros tienen en común que parten de la
estimación de la matriz de varianza-covarianza para llegar al VAR. El primer método sin
embrago utiliza tanto los promedios móviles regulares (se podría decir sin peso) como el
promedio móvil con decaimiento exponencial, más conocido por sus siglas en inglés
EWMA, para la estimación de la matriz anteriormente mencionada. Por su lado, el
segundo método emplea modelos generalizados de autorregresión condicional
heteroscedástica. Estos modelos difieren de los modelos de promedios móviles entre
otras cosas debido a que intentan representar un comportamiento a largo plazo mediante
una reversión a la media. Por último el tercer método empleado se aparta del estudio de
la matriz de covarianza como instrumento para estimar el VAR y emplea otro método
también bastante conocido llamado Simulación de MonteCarlo y aproximaciones de
segundo orden. Este método se basa en la generación de variables aleatorias para
simular los movimientos de los factores de riesgo en un tiempo determinado. La diferencia
metodológica con los otros dos estudios es que anteriormente no se ha tratado, mientras
que los otros dos son la continuación de estudios que anteriormente se han llevado a
cabo y corresponden a una parte específica de un proceso completo de la estimación del
Valor en Riesgo.
1.1.2 División vertical: Conformación de portafolios y perfiles de riesgo
Los TES poseen diferentes características tales como duración, variabilidad o correlación
con otros bonos. Basado en estas características se pueden generar diferentes
II.03(2)127
7
escenarios representados en portafolios con características que les permita diferenciarse
de otros. La idea principal de poder generar diferentes escenarios es la de ver la
incidencia que tiene la conformación de un portafolio en el Valor en Riesgo.
Para la conformación de los portafolios de trabajo se siguieron varios pasos descritos a
continuación. Primero que todo se buscó los TES que se estaban tranzando en el
mercado, los cuales son de tipo TFI – T, esto quiere decir que se negocia tanto el cupón
como el principal y cuyo plazo se registra en años. Para encontrar los datos históricos se
utilizó como fuente el Banco de la República y el sistema de información financiera
BLOOMBERG. Se identificaron 18 bonos TES en pesos con cupón a tasa fija. De estos se
determinó una población de 15 con la cual se va trabajar. Con la ayuda de las series de
precios encontradas en el Banco de la República y de Javier Gómez se obtuvo esta
población como base para realizar los cálculos de las características que se consideraron
pertinentes para el análisis. Los 15 bonos finalmente seleccionados como la “bolsa” de
posibilidades fueros escogidos de tal manera que todos tuvieran la misma cantidad de
datos, ya que algunos presentaban series incompletas debido a eran bonos que
empezaban o maduraban a mitad de camino entre enero de 2002 y septiembre de 2003.
Por otra parte se discutió con el grupo de trabajo y con personas cercanas o que trabajan
en el medio financiero y se llegó a la conclusión de que las características más
importantes serían las siguientes: Volatilidad, liquidez, duración, convexidad y correlación
entre bonos. Todas estas características son medidas a partir de las series de precios que
se obtuvieron de las fuentes anteriormente mencionadas. El cálculo, definición y
desarrollo de estas se presentarán más adelante.
Ya habiendo definido los métodos a utilizar y los escenarios a estudiar se proseguirá a
probar independientemente las diferencias en el Valor en Riesgo para diferentes
portafolios. Lo que se desea con esto es poder encontrar los factores de los TES que más
afectan el riesgo y que por consiguiente generan perdidas probables más altas. Pero
adicionalmente, abordar los problemas con diferentes metodologías aunque en los
mismos portafolios permite encontrar e identificar las propiedades de cada metodología
para poderlas entender mejor y más adecuadamente con respecto a sus respectivos
supuestos. El valor agregado de enfrentar estos problemas con la misma metodología de
II.03(2)127
8
trabajo es la facilidad comparativa de los métodos, la definición de conclusiones con
respecto a los métodos y propiedades de los portafolios estará más sustentada en
resultados comparativos.
1.2 Escogencia de los instrumentos financieros
Para poder determinar los instrumentos que se iban a utilizar, hubo que definir una serie
de características que permitieran facilitar la escogencia de los títulos. Estas
características se presentan a continuación.
1.2.1 Características de los bonos y su medición
Los siguientes fueron los bonos que se utilizaron para conformar los portafolios:
NÚMERO MNEMOTÉCNICO No.
EMISIÓN DCV
FECHA INICIO
VIGENCIA
FECHA PAGO
PLAZO CUPÓN
1 TFIT02081003 44178 8/10/01 8/10/03 2 13
2 TFIT03171003 42857 17/10/00 17/10/03 3 15
3 TFIT03160404 43615 16/4/01 16/4/04 3 15
4 TFIT02060504 45003 6/5/02 6/5/04 2 12
5 TFIT03250604 43818 25/6/01 25/6/04 3 15
6 TFIT05040205 41987 4/2/00 4/2/05 5 15
7 TFIT03110305 44888 11/3/02 11/3/05 3 13
8 TFIT05081105 42980 8/11/00 8/11/05 5 15
9 TFIT05030506 43692 3/5/01 3/5/06 5 15
10 TFIT05250706 43968 25/7/01 25/7/06 5 15
11 TFIT05140307 44822 14/3/02 14/3/07 5 15
12 TFIT07220808 44013 22/8/01 22/8/08 7 15
13 TFIT07120209 44629 12/2/02 12/2/09 7 15
14 TFIT10250112 44577 25/1/02 25/1/12 10 15
15 TFIT10260412 44895 26/4/02 26/4/12 10 15
II.03(2)127
9
De los 18 bonos que se tranzaban a la fecha del 9 de Septiembre de 2003 (fecha
escogido como referencia para todos los cálculos), se tomaron estos 15 bonos debido a
que se tenía la misma cantidad de información acerca de ellos. Todos estos bonos se
tranzaron desde Diciembre de 2002 y se conoce su precio día a día desde esa fecha.
A cada uno de estos bonos se le calcularon las características anteriormente
mencionadas. Cada una de ellas se explica a continuación:
1.2.1.1 Liquidez
Este es un indicador de la participación en volumen de un instrumento financiero que se
tranza en el mercado. Este indicador es importante debido a que muestra la facilidad con
que se puede negociar un título en el mercado. Un instrumento líquido quiere decir que se
tranza bastante en el mercado y es fácil de negociar. Para el cálculo de esta variable se
utilizó la fórmula propuesta por Corfinsura y Suvalor1:
∑=
= n
i
i
x
x
dQ
dQ
L
1
xL Es la liquidez del instrumento x.
xQ Es el volumen tranzado en pesos del instrumento x durante el periodo de tiempo
analizado.
d Es el número de días hábiles en el que se tranzó el instrumento para un horizonte de
tiempo que en este caso es de 3 meses.
n Es el número de instrumentos, para este caso 15.
Estos son los indicadores de liquidez calculados con base en los montos de transacción Q
promedio en pesos en el mercado.
1 “INDICE REPRESENTATIVO DEL MERCADO DE DEUDA PÚBLICA INTERNA (I- TES)”, Investigaciones Económicas Suvalor y Corfinsura.
II.03(2)127
10
NÚMERO TÍTTULO Q PROMEDIO LIQUIDEZ %
1 TFIT02081003 408.333.333,33 0,000656 0,066
2 TFIT03171003 0,00 0,000000 0,000
3 TFIT03160404 1.908.333.333,33 0,003066 0,307
4 TFIT02060504 4.683.333.333,33 0,007524 0,752
5 TFIT03250604 4.950.000.000,00 0,007953 0,795
6 TFIT05040205 691.666.666,67 0,001111 0,111
7 TFIT03110305 49.079.166.666,67 0,078852 7,885
8 TFIT05081105 0,00 0,000000 0,000
9 TFIT05030506 150.000.000,00 0,000241 0,024
10 TFIT05250706 182.645.833.333,33 0,293444 29,344
11 TFIT05140307 195.325.000.000,00 0,313815 31,382
12 TFIT07220808 4.191.666.666,67 0,006734 0,673
13 TFIT07120209 1.900.000.000,00 0,003053 0,305
14 TFIT10250112 163.979.166.666,67 0,263454 26,345
15 TFIT10260412 12.508.333.333,33 0,020096 2,010
Total 622.420.833.333,33
1.2.1.2 Volatilidad
Esta es una medida de dispersión que en este caso corresponde a la desviación estándar
del precio del bono. Para el cálculo de esta se usó la siguiente fórmula:
( )1
1
2
−
−=
∑=
n
PPn
ii
kσ
kσ Es la desviación del instrumento k.
iP Es el precio del bono en el día i.
P Es el precio promedio del bono en el horizonte de tiempo determinado. En este caso
se tomó la serie histórica de precios desde diciembre de 2002.
II.03(2)127
11
n Es el número datos en la serie de precios.
Las desviaciones estándar calculadas para los bonos son las siguientes:
DESVIACIÓN
NÚMERO TÍTTULO ESTÁNDAR
1 TFIT02081003 2,193
2 TFIT03171003 2,311
3 TFIT03160404 5,045
4 TFIT02060504 3,629
5 TFIT03250604 4,704
6 TFIT05040205 4,896
7 TFIT03110305 3,878
8 TFIT05081105 4,829
9 TFIT05030506 3,393
10 TFIT05250706 4,564
11 TFIT05140307 4,680
12 TFIT07220808 5,277
13 TFIT07120209 5,779
14 TFIT10250112 6,191
15 TFIT10260412 3,523
1.2.1.3 Duración
El precio de un bono esta definido como
La duración de un bono hace parte de la sensibilidad del precio frente a variaciones en el
rendimiento y se entiende como el momento del tiempo en el cual se podrían llevar todos
los flujos manteniendo el mismo valor presente neto.
T
Ti
ii r
lValorFaciar
lValorFaciaTasaCuponP)1()1(1 +
++×
= ∑=
=
II.03(2)127
12
La tasa de descuento, r, corresponde a la TIR del bono.
Para calcular la duración es conveniente fijar desde ya la fecha del estudio del portafolio,
la cual es el 9 de septiembre de 2003. La tasa de descuento, r, es obtenida de la curva
cero cupón a la fecha de estudio del portafolio, dependiendo de la madurez del bono. Los
resultados de estos cálculos son los siguientes
Mnemotecnico Fecha actual
Fecha pago
Restante en días
Restante en años
Tasa de cupón
Tasa descuento
Duración
TFIT02081003 9/09/03 8/10/03 29 0.0795 13% 7.29% 0.0806
TFIT03171003 9/09/03 17/10/03 38 0.1041 15% 7.35% 0.1056
TFIT03160404 9/09/03 16/04/04 220 0.6027 15% 8.45% 0.6028
TFIT02060504 9/09/03 6/05/04 240 0.6575 12% 8.56% 0.6583
TFIT03250604 9/09/03 25/06/04 290 0.7945 15% 8.82% 0.7944
TFIT05040205 9/09/03 4/02/05 514 1.4082 15% 9.86% 1.2774
TFIT03110305 9/09/03 11/03/05 549 1.5041 13% 10.01% 1.3932
TFIT05081105 9/09/03 8/11/05 791 2.1671 15% 10.88% 1.8073
TFIT05030506 9/09/03 3/05/06 967 2.6493 15% 11.40% 2.2912
TFIT05250706 9/09/03 25/07/06 1050 2.8767 15% 11.62% 2.5180
TFIT05140307 9/09/03 14/03/07 1282 3.5123 15% 12.15% 2.8270
TFIT07220808 9/09/03 22/08/08 1809 4.9562 15% 13.03% 3.8466
TFIT07120209 9/09/03 12/02/09 1983 5.4329 15% 13.25% 3.8329
TFIT10250112 9/09/03 25/01/12 3060 8.3836 15% 14.10% 4.9378
TFIT10260412 9/09/03 26/04/12 3152 8.6356 15% 14.15% 5.1867
Pr
rP
rTlValorFacia
rilValorFaciaTasaCupon
PD T
Ti
ii
)1()1()1(
11
+∂∂
−=⎥⎦
⎤⎢⎣
⎡+
×+
+××
= ∑=
=
II.03(2)127
13
1.2.1.4 Convexidad
La convexidad es una medida de la curvatura relativa de la curva precio-rendimiento para
un precio y un rendimiento dados, la derivada de segundo orden.
La convexidad mide que tan arqueada es la curva de precio-rendimiento. Entre más
grande sea la convexidad de un bono mayores serán sus ganancias y menores sus
perdidas para cambios absolutos en el rendimiento.
1.2.1.5 Correlación
Es una medida estadística de la relación existente entre las series de retornos de los TES.
Una correlación positiva significa que los retornos se mueven generalmente en la misma
dirección, una correlación negativa significa variaciones inversas. Generalmente la
correlación se calcula como
D-1/2 es una matriz en cuya diagonal se encuentra el inverso de la desviación estándar de
la siguiente forma
2
2
12
1)1(
)1()1(
)1()1(
1rP
PrTTlValorFacia
riilValorFaciaTasaCupon
rPC T
Ti
ii ∂
∂−=⎥
⎦
⎤⎢⎣
⎡+
+×+
++××
+= ∑
=
=
2/12/1
1)()'( −−
−−−
= Dn
XXDR µµ
II.03(2)127
14
De esto se puede reconocer que la también se puede expresar la correlación como
Por lo que se puede concluir que la correlación es una especie de estandarización de la
covarianza de los datos.
Según esto la matriz de covarianza seria igual a:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
1 4.84 5.08 -7.53 -4.41 -3.95 -1.60 -3.31 10.29 -3.28 3.41 -3.41 8.22 -0.90 1.28 -4.63
2 5.08 5.37 -8.04 -4.74 -4.11 -1.61 -3.46 10.84 -3.58 3.61 -3.56 8.68 -0.89 1.38 -4.98
3 -7.53 -8.04 25.59 13.20 3.19 -2.28 5.27 -17.98 11.70 -11.80 4.91 -19.06 -5.47 -9.89 12.86
4 -4.41 -4.74 13.20 13.24 4.38 -4.85 -0.08 -11.98 11.39 -7.76 -1.76 -13.38 -8.46 -11.52 7.68
5 -3.95 -4.11 3.19 4.38 22.24 -8.40 -6.15 -10.35 1.24 3.85 -7.97 -7.41 -12.00 -13.75 -1.45
6 -1.60 -1.61 -2.28 -4.85 -8.40 24.10 8.20 1.07 -2.76 -4.10 10.15 0.65 24.65 25.27 3.23
7 -3.31 -3.46 5.27 -0.08 -6.15 8.20 15.12 -5.21 0.74 -7.70 16.44 -6.30 11.40 8.69 4.45
8 10.29 10.84 -17.98 -11.98 -10.35 1.07 -5.21 23.45 -8.81 8.04 -4.40 19.28 4.06 9.04 -9.90
9 -3.28 -3.58 11.70 11.39 1.24 -2.76 0.74 -8.81 11.57 -7.63 -0.36 -11.44 -5.41 -7.73 8.12
10 3.41 3.61 -11.80 -7.76 3.85 -4.10 -7.70 8.04 -7.63 20.94 -7.37 13.95 -3.21 -0.61 -8.10
11 -3.41 -3.56 4.91 -1.76 -7.97 10.15 16.44 -4.40 -0.36 -7.37 22.02 -5.43 14.48 12.14 4.62
12 8.22 8.68 -19.06 -13.38 -7.41 0.65 -6.30 19.28 -11.44 13.95 -5.43 27.99 3.61 8.36 -11.30
13 -0.90 -0.89 -5.47 -8.46 -12.00 24.65 11.40 4.06 -5.41 -3.21 14.48 3.61 33.58 29.13 2.15
14 1.28 1.38 -9.89 -11.52 -13.75 25.27 8.69 9.04 -7.73 -0.61 12.14 8.36 29.13 38.53 0.73
15 -4.63 -4.98 12.86 7.68 -1.45 3.23 4.45 -9.90 8.12 -8.10 4.62 -11.30 2.15 0.73 12.48
⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢
⎣
⎡
=−
n
D
σ
σσ
/100
0/1000/1
2
1
2/1
L
MOMM
L
K
2/12/1 )( −−= DXCovDR
II.03(2)127
15
Y la matriz de correlación
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
1 1.00 1.00 -0.68 -0.55 -0.38 -0.15 -0.39 0.97 -0.44 0.34 -0.33 0.71 -0.07 0.09 -0.60
2 1.00 1.00 -0.69 -0.56 -0.38 -0.14 -0.38 0.97 -0.45 0.34 -0.33 0.71 -0.07 0.10 -0.61
3 -0.68 -0.69 1.00 0.72 0.13 -0.09 0.27 -0.73 0.68 -0.51 0.21 -0.71 -0.19 -0.32 0.72
4 -0.55 -0.56 0.72 1.00 0.26 -0.27 -0.01 -0.68 0.92 -0.47 -0.10 -0.70 -0.40 -0.51 0.60
5 -0.38 -0.38 0.13 0.26 1.00 -0.36 -0.34 -0.45 0.08 0.18 -0.36 -0.30 -0.44 -0.47 -0.09
6 -0.15 -0.14 -0.09 -0.27 -0.36 1.00 0.43 0.05 -0.17 -0.18 0.44 0.02 0.87 0.83 0.19
7 -0.39 -0.38 0.27 -0.01 -0.34 0.43 1.00 -0.28 0.06 -0.43 0.90 -0.31 0.51 0.36 0.32
8 0.97 0.97 -0.73 -0.68 -0.45 0.05 -0.28 1.00 -0.53 0.36 -0.19 0.75 0.14 0.30 -0.58
9 -0.44 -0.45 0.68 0.92 0.08 -0.17 0.06 -0.53 1.00 -0.49 -0.02 -0.64 -0.27 -0.37 0.68
10 0.34 0.34 -0.51 -0.47 0.18 -0.18 -0.43 0.36 -0.49 1.00 -0.34 0.58 -0.12 -0.02 -0.50
11 -0.33 -0.33 0.21 -0.10 -0.36 0.44 0.90 -0.19 -0.02 -0.34 1.00 -0.22 0.53 0.42 0.28
12 0.71 0.71 -0.71 -0.70 -0.30 0.02 -0.31 0.75 -0.64 0.58 -0.22 1.00 0.12 0.25 -0.60
13 -0.07 -0.07 -0.19 -0.40 -0.44 0.87 0.51 0.14 -0.27 -0.12 0.53 0.12 1.00 0.81 0.10
14 0.09 0.10 -0.32 -0.51 -0.47 0.83 0.36 0.30 -0.37 -0.02 0.42 0.25 0.81 1.00 0.03
15 -0.60 -0.61 0.72 0.60 -0.09 0.19 0.32 -0.58 0.68 -0.50 0.28 -0.60 0.10 0.03 1.00
1.2.2 Conformación de los portafolios
Una vez se tuvieron medidas las características se procedió a conformar los portafolios de
trabajo. Se decidió conformar 5 portafolios a los cuales se les va a medir el valor en riesgo
para diferentes horizontes de tiempo. Todos los portafolios tienen un valor nominal de
1000 y están compuestos por 5 o 4 bonos TES que participan cada uno en la misma
proporción dentro del portafolio.
II.03(2)127
16
El primer portafolio (Es 1) está compuesto por los 5 títulos más líquidos del mercado:
NÚMERO TÍTULO Liquidez %
11 TFIT05140307 0,313815 31,382
10 TFIT05250706 0,293444 29,344
14 TFIT10250112 0,263454 26,345
7 TFIT03110305 0,078852 7,885
15 TFIT10260412 0,020096 2,010
0,969661
Se puede observar que estos 5 títulos manejan más del 96% del volumen en pesos
transados.
El segundo portafolio (Es 2) está compuesto por lo bonos que tienen la desviación
estándar más alta, es decir que tienen la mayor dispersión con respecto a su precio
promedio:
DESVIACIÓN
NÚMERO TÍTTULO ESTÁNDAR
14 TFIT10250112 6,191
13 TFIT07120209 5,779
12 TFIT07220808 5,277
3 TFIT03160404 5,045
6 TFIT05040205 4,896
Este portafolio se podría decir que corresponde a un perfil de riesgo bastante alto ya que
es donde más se producen cambios en los precios de los instrumentos que lo conforman.
El tercer portafolio (Es 3) corresponde a un portafolio de bonos altamente
correlacionados, donde el coeficiente de correlación entre los bonos es mayor de 0.7.
II.03(2)127
17
Esta es otra manera de definir un portafolio con un perfil de riesgo elevado. Los bonos
que lo componen son los siguientes:
NÚMERO TÍTTULO 1 2 8 12
1 TFIT02081003 1
2 TFIT03171003 0,9975556 1
8 TFIT05081105 0,9660477 0,9661905 1
12 TFIT07220808 0,7060296 0,7075208 0,7524647 1
El cuarto portafolio (Es 4) tiene como objetivo lograr una alta madurez pero con la menor
volatilidad posible. Este tipo de portafolio se pensaría que una entidad como un fondo de
pensiones desea obtener este perfil de riesgo. Es decir, bajo riesgo a largo plazo para
lograr una rentabilidad pequeña pero segura.
DESVIACIÓN
NÚMERO TÍTTULO DURACIÓN ESTÁNDAR
7 TFIT03110305 1,3932 3,878
8 TFIT05081105 1,8073 4,829
9 TFIT05030506 2,2912 3,393
10 TFIT05250706 2,5180 4,564
11 TFIT05140307 2,8270 4,680
Se puede ver que para este caso el plazo más largo es de casi tres años, lo que en
realidad no representa un largo plazo, sino más bien un mediano plazo.
Por último, el portafolio (Es 5) que se decidió componer fue uno en donde los
instrumentos estuvieran lo menos correlacionados posibles, de tal manera que se lograr
una diversificación y se disminuyera el riesgo. Se intentó que los bonos tuvieran un bajo
coeficiente de correlación o si no que la correlación fuera negativa:
II.03(2)127
18
NÚMERO TÍTTULO 3 6 8 10
3 TFIT03160404 1
6 TFIT05040205 -0,091899 1
8 TFIT05081105 -0,734169 0,0451266 1
10 TFIT05250706 -0,509981 -0,182567 0,3628529 1
Por último para mayor comprensión se muestra una tabla que resume los títulos que
componen cada portafolio:
Portafolio 1 Portafolio 2 Portafolio 3 Portafolio 4 Portafolio 5
11 14 1 7 3
10 13 2 8 6
14 12 8 9 8
7 3 12 10 10
15 6 11
II.03(2)127
19
2. MODELO
En esta parte se presenta el modelo desarrollado. Se verá paso a paso como se llegó a
los resultados que se presentarán en la tercera parte del trabajo. Para empezar se
explicará la técnica utilizada para valorar los flujos futuros de los bonos que componen
cada portafolio. Luego se mostrará de dónde provienen las tasas de descuento, conocidas
como tasas cero cupón o tasas spot, utilizadas para poder descontar esos flujos. Luego
se presentará en qué consiste el análisis de componentes principales y cómo fue incluido
en el modelo. Finalmente se mostrará cómo se incluyó al análisis la varianza calculada a
partir de promedios móviles para lograr el objetivo final que es el cálculo del VAR de cada
portafolio.
2.1 La técnica de “mapping” 2
El objetivo de este trabajo es calcular el valor en riesgo de un portafolio de bonos TES
utilizando la técnica de mapeo propuesta por RiskMetrics. A continuación se presenta
cómo funciona el método, qué datos utiliza y para qué instrumentos financieros es
recomendable utilizarlo.
2.1.1 Explicación y definición
El mapping propuesto por RiskMetrics es una técnica que intenta facilitar el cálculo del
VAR para casi todos los instrumentos financieros. Este método parte de la base de que
todos los instrumentos financieros se pueden remplazar por una serie de flujos de efectivo
que ocurrirán en un futuro. Estos flujos se llevan a puntos estándar en el tiempo donde se
conocen las tasas de descuento, las volatilidades y correlaciones del caso. Todo esto con
2 En Return to RiskMetrics, capítulo 6 “Market Risk Methodology”, párrafo “Risk Modeling of Financial Instruments” , J.P. Morgan.
II.03(2)127
20
el fin de poder calcular el valor presente del activo financiero y poder así calcular su
variación en el precio cada vez que el horizonte de tiempo escogido lo indique.
En este caso particular se quiere implementar este método para bonos TES. Se escogió
este activo financiero debido a su gran versatilidad en el mercado colombiano. Estos
bonos son los activos financieros que más se transan en la Bolsa de Valores de Colombia
y por lo tanto existe una gran cantidad de información (series de precios, de retornos, etc.)
acerca de ellos.
Como se venía diciendo, este método intenta facilitar los cálculos requeridos para calcular
el VAR de un bono (en este caso) o de un portafolio de bonos y además capturar la
volatilidad y correlación que existe en los flujos de los títulos, lo cuál no es capturado en
un modelo de Duración- Convexidad. Por lo tanto en materia computacional no debería
ser un gran problema implementarlo ya que el método en sí no requiere grandes cálculos
matemáticos. Por esto este método es tan atractivo para que entidades financieras
decidan aplicarlo en los cálculos de VAR que ellas realizan día a día.
Nodos estándar
Los flujos de efectivo se quieren llevar a puntos futuros en el tiempo de los cuales se
conozca la información. Estos puntos llamados también nodos, son los siguientes:
1 día 1mes 3m 12m 2años 3años 4a 5a 7a 9a 10a 15a 20a 30años
Estos puntos tienen la característica de que están fijos en el tiempo y de que
supuestamente se conoce toda la información acerca de ellos. Se verá luego que esta
parte va a presentar un primer inconveniente en el desarrollo del mapeo. Por ejemplo el
mapeo de un flujo ocurrido en al año 8 se vería llevado al año 7 y al año 9 de la siguiente
manera:
II.03(2)127
21
Flujo de efectivo
7 8 9 Años
Flujos mapeados en nodos
Años
7 8 9
Al hacer esta operación se quiere mantener tres cosas:
• El valor del flujo original es conservado por los nuevos flujos.
• El riesgo de mercado también es conservado.
• Los nuevos flujos tienen el mismo signo que el flujo original.
Lo que se intenta saber es qué tanto del flujo original va en al año 7 y qué tanto va en el
año 9. La cantidad de dinero ubicada en el año 7 se llama α y la otra parte del flujo que
va en al año 9 se llama 1-α.
2.1.2 Procedimiento y método inicial
A continuación se muestra los pasos a seguir según la metodología propuesta por
RiskMetrics:
1. Calcular el yield del flujo actual
Para obtener el yield cero cupón en el año 8 llamado y8 se debe interpolar los
yields cero cupón de los años 7 y 9, usando la siguiente ecuación:
II.03(2)127
22
y8 = ay7 + (1-a) y9 [1] en este caso a = 0.5 debido a que 8 se encuentra a
igual distancia de 7 que de 9.
2. Calcular el valor presente del flujo actual
Con y8 se puede calcular P8 que es el valor presente del flujo, esto es simplemente
descontar el valor del flujo con la tasa obtenida.
3. Calcular la desviación estándar del retorno del flujo actual
De la misma manera que se obtuvo el yield, ahora se quiere obtener la desviación
estándar en el año 8 llamada σ8. Se usa la misma ecuación de interpolación:
σ8 = aσ 7 + (1-a) σ9 [2] igualmente a = 0.5
Esto se puede realizar debido a que supuestamente se conoce toda la información
para los nodos estándar en el tiempo. Se verá más adelante que esto no es tan
fácil.
4. Calcular la ubicación α y 1-α usando la siguiente ecuación:
Varianza (retorno en 8) = Varianza (α retorno en 7 + (1- α) retorno en 9) lo que es
equivalente a:
σ 28 = α2 σ 2
7 + 2 α (1-α)ρ7,9 σ 7 σ
9 + (1-α)2 σ 29 [3]
La correlación ρ7,9 supuestamente también se conoce entre los vértices estándar,
pero esto no es así de simple como se mostrará más adelante.
II.03(2)127
23
La ecuación [3] es una ecuación cuadrática bastante sencilla de resolver para
encontrar α. Si bien se va a obtener dos soluciones solo se escoge aquella que
esté entre 0 y 1, debido a que no se puede tener un flujo con signo diferente al
original.
5. Distribuir el flujo actual
Simplemente se parte el flujo que se tenía en los nodos adyacentes según el
resultado que haya dado la resolución de [3].
6. Cálculo del VAR
Ya una vez con el bono o el portafolio de bonos se puede proceder a calcular el
VAR teniendo cuidado de aplicar correctamente ciertas reglas, que se hablarán
más adelante.
2.1.3 Método mejorado3
El procedimiento anterior fue la primera metodología que se inventó para mapear un flujo.
Es bastante interesante exponerla porque expone claramente la idea y se asimila
fácilmente el concepto detrás del modelo. Sin embargo posteriormente RiskMetrics
propuso una mejora al modelo debido a que el modelo inicial presentaba una serie de
falencias, si bien funcionaba en la mayoría de los casos. Como se mostró anteriormente el
mapeo inicial consistía en preservar el valor presente y la volatilidad interpolada del flujo
original. El problema que esto presentaba era que esta volatilidad interpolada no
correspondía a la volatilidad que se encontraba trabajando con simulación de MonteCarlo,
donde lo que se interpolaba era la tasa de interés a partir de los vértices vecinos en lugar
de la volatilidad. Por otra parte el mapeo original podía producir resultados incoherentes si
3 Mina, J., Yi, J., Return to RiskMetrics: The evolution of a Standard, Capítulo 5, RiskMetrics, (2001).
II.03(2)127
24
había poca correlación entre los nodos estándar. Este es un problema que trataron para el
caso de bonos australianos4.
El método mejorado es más fácil de implementar debido a que no se debe resolver
ninguna ecuación de segundo grado, fue programado en Visual Basic para que a partir de
las fechas de pagos y las tasas de los nodos, el programa diera las tasas interpoladas y
los resultados necesarios para el método.
El método mejorado parte de una interpolación lineal de las tasas de interés entre dos
nodos vecinos, de la misma manera como se empezaba en el método anterior:
zt = a*zL + (1-a)zR [4]
Donde Zt es la tasa interpolada a partir de la tasas ZL y ZR que son las tasas de los nodos
a la izquierda (L) y a la derecha (R), de la fecha del flujo. Es decir que si el flujo ocurre en
el año 8, ZL corresponde a la tasa del año 7 y ZR a la tasa del año 9. El coeficiente de
interpolación a se define de la siguiente manera:
a = (tR – t) / (tR – tL), donde t es la fecha del flujo en años, tL la fecha del nodo a la
izquierda y tR la fecha del nodo a la derecha del flujo.
Ahora bien, para mapear el flujo se necesita sabe su valor presente. Este valor presente
se va a distribuir en un valor en el nodo izquierdo, otro en el derecho y una posición en
efectivo en el día en que se hace la valoración. Si se usan tasas compuestas continuas se
llega a la siguiente ecuación:
CeWeWeV RRLLt tzR
tzL
tzt ++== ∗−∗−∗− ** [5]
Por otro lado, se quiere preservar la sensibilidad del valor presente a cambios en la tasa
cero cupón. Por esta razón se obtiene la siguiente ecuación:
4 Mina, Jorge, Improved Cashflow Map, RiskMterics Group.
II.03(2)127
25
LLt tzLL
tz
L
t etWtezV ∗−∗− −=−=
∂∂
α [6]
De la misma manera, derivando con respecto a ZR se obtiene la siguiente ecuación:
LLt tZtZ
LL ee
ttW ∗∗−= α
[7]
( ) RRt tztz
RR ee
ttW ∗∗−−= α1 [8]
Finalmente usando las tres ecuaciones anteriores se obtiene la posición en efectivo que
viene siendo:
( )( ) tz
LR
RL tett
ttttC ∗−−−
−= [9]
Todo el procedimiento anterior se realizó con un nominal de un peso. Cuando se trabaja
con otro nominal no es sino multiplicar por el valor del nominal. La posición C en efectivo
se considera para efectos del análisis como en el nodo de un día para facilitar los cálculos
a la hora del mapeo.
A continuación se va a mostrar los problemas que se han presentado y las dudas que han
surgido al tratar de implementar este método en el caso colombiano y especialmente para
bonos.
Si bien el modelo es bastante sencillo, es fundamental tener unos buenos datos de
entrada para que el modelo tenga un buen desempeño.
II.03(2)127
26
2.1.4 Datos de entrada Como se pudo apreciar en el apartado anterior el método es bastante simple de
implementar pero también es bastante sensible a los datos de entrada. En este caso en
particular es de vital importancia saber cómo se va a calcular las correlaciones entre los
nodos estándar y las volatilidades de los retornos de estos nodos.
2.1.4.1 Tasas iniciales
Las tasas de descuento (también llamadas yields) que va en cada uno de los nodos
estándar corresponden a las tasas spot que se tiene en el día de la valoración. Estas son
las tasas que se van a interpolar para poder encontrar la tasa adecuada para poder
descontar los flujos. Para este caso, se recolectó información hasta el 9 de Septiembre de
2003, es decir que se interpolan las tasas de ese día, se obtienen las tasas de los
diferentes flujos, y todos los cálculos de VAR se hacen a partir de la fecha anteriormente
indicada.
2.1.4.2 Matriz de varianza-covarianza En esta parte del procedimiento es en donde se centra gran parte del análisis que se va a
hacer en las partes posteriores de este trabajo. En este párrafo sólo se quiere decir que
este dato de entrada es vital e indispensable para el desarrollo del modelo. En esta matriz
se encuentra la información más importante para poder realizar de una parte el mapeo,
usando las varianzas o volatilidades de los nodos, y por otra parte las correlaciones entre
los nodos, que va a permitir calcular el VAR.
Para este trabajo se quiere realizar una estimación de las volatilidades haciendo uso de
diferentes promedios móviles. Esto va a permitir obtener diversas matrices de varianza-
covarianza que luego se van a emplear para calcular los VAR, para luego poder hacer
comparaciones entre los métodos. En la parte de Análisis de componentes principales se
mostrará cómo se llega a obtener las diferentes matrices.
II.03(2)127
27
2.2 La curva cero cupón
La curva cero cupón (también llamada curva spot o curva de rendimientos) es el resultado
de un método econométrico que permite reconocer los diferentes niveles de interés en el
tiempo. Esto se hace con el objetivo de obtener una herramienta adecuada para la
valoración de bonos TES.
2.2.1 Definición
Un bono es un instrumento de deuda en donde se intercambia un pago presente de
efectivo por pagos de flujos futuros en el tiempo. El pago presente viene siendo el precio
del bono el cual es equivalente al valor presente de los flujos futuros. Estos flujos futuros
se llaman cupones y por último en la fecha de maduración se obtiene el valor facial del
bono que generalmente se toma 100 como referencia.
El primer concepto importante que aparece aquí es el de la tasa interna de retorno
llamada TIR. Esta tasa de interés es aquella que hace que el precio del bono sea igual al
valor presente de los flujos futuros de efectivo. La relación entre precio P, TIR y cupones
C viene dada por:
( ) ( )TIRTIRC
ttP
Ni
N
i
i
+∑
++
⎟⎟⎟
⎠
⎞
⎜⎜⎜
⎝
⎛=
= 11100
1 [10]
Donde i es el día, N el número de días, tN el tiempo de maduración en años y ti los días de
pago hasta la fecha en años.
La TIR de un título como un bono TES es bastante fácil de hallar, sin embrago presenta
ciertos inconvenientes a la hora de valorar un título: El primero es que los flujos de
efectivo que ocurren en diferentes momentos del tiempo se están descontando todos a la
misma tasa, en este caso la TIR. Por ejemplo, para el caso que se está estudiando:
Cuando se tiene un bono con varios cupones pagaderos en el año 1, luego en el año 2, y
II.03(2)127
28
así sucesivamente hasta la fecha de maduración no se pueden descontar cada uno de
estos cupones a la misma tasa, ya que la tasa de interés cambia con la longitud del
vencimiento. Este factor se conoce como la estructura a plazos de las tasas de interés.
Otro inconveniente es que dos bonos con misma fecha de maduración pueden tener una
TIR diferente debido a que pagan cupones diferentes. Esto hace que no se pueda tener
una tasa de interés fija para un momento en el tiempo. Por ejemplo lo que se busca es
saber qué tasa de interés usar para descontar un flujo futuro sin importar la cantidad de
este flujo, esta tasa se mantiene fija para cualquier flujo que se quiera traer a valor
presente. Estos dos inconvenientes llevan a que se busque una manera de resolver estos
problemas, lo cual lleva a la aparición de las tasas cero cupón o tasas spot. La aparición
de este indicador es bastante reciente en el mercado financiero colombiano, o por lo
menos su información es pública desde hace aproximadamente dos años.
Un bono cero cupón es un bono que tiene un solo pago y este se realiza en la fecha de
maduración. La tasa con la cual se descuenta este flujo único es conocida como la tasa
spot s(t) que depende del tiempo. Un bono con varios cupones puede ser visto como
varios bonos cero cupón que tienen diferentes fechas de vencimiento. Esto hace que el
precio de un bono se defina de la siguiente manera:
( ) ( ))(1)(1100
1Ni
tP
tstsC
Nit
N
i
i
+∑
++
⎟⎟⎟
⎠
⎞
⎜⎜⎜
⎝
⎛=
=
[11]
Esta expresión se diferencia de la anterior en la tasa de descuento. Anteriormente se
usaba la TIR como factor de descuento, ahora se usa la tasa spot s(t) que varía en el
tiempo. Por lo tanto cada cupón que se tiene se descuenta a una tasa adecuada.
La curva cero cupón se construye usando las tasas spot s(t) para diferentes plazos de
vencimiento t. De tal manera que en el eje horizontal se tiene el tiempo y en el eje vertical
se encuentra los diferentes niveles de tasa de interés. Para cada día se hace una
estimación de toda la curva cero cupón hasta 10 años en adelante ya que para los TES
en pesos, el tiempo máximo de madurez que se tiene es de 10 años.
II.03(2)127
29
2.2.2 Métodos de estimación
El modelo econométrico que se implementa trata de especificar la función s(t), o la función
de descuento d(t) que viene dada por:
( ))(11)(
ts ttd+
= [12]
Se quiere encontrar unos parámetros β que permita estimar esta función, tal que ),( βtd
dependa de esos parámetros.
El objetivo de esta función es encontrar un factor de descuento adecuado para poder dar
un precio estimado al activo financiero, de tal manera que difiera en la menor cantidad
posible del precio observado en los mercados financieros. El precio observado PO viene
dado por:
( ) ⎟⎟⎟
⎠
⎞
⎜⎜⎜
⎝
⎛= ∑
+=
N
i
i
TIRoC
tPO
i1 1 [13]
Aquí la TIRo es la TIR observada del bono. Por otro lado el precio estimado PE vendría
dado por:
∑ ⋅=t
tCtdPE ),( β [14]
De esta manera ya se puede ver que la diferencia que haya entre el precio observado y el
precio estimado va a ser el error que se va a querer minimizar. Si se quiere extender a un
mercado de M activos se obtiene lo siguiente:
iii PEPO −=ε
II.03(2)127
30
El problema sería:
( )∑ −=
M
iiiMin PEPO
1
2
β [15]
La especificación de la forma funcional de la función de descuento es lo que da origen a
diversos métodos econométricos. Existen varias maneras de llegar a ella, y para más
detalles ver el método de Nelson y Siegel5
2.3 Análisis de componentes principales
El análisis de componentes principales es un método de estadística multivariada que
permite transformar los datos para cumplir una serie de requisitos que permite que sean
más fáciles los cálculos. A continuación se presenta el desarrollo de este método de
trabajo, y cómo se aplicó para este trabajo.
2.3.1 Desarrollo y objetivo del método6
El objetivo de usar componentes principales es de extraer la mayor cantidad de
información de una serie de n observaciones de k de variables en un nuevo número de
variables m llamadas componentes principales que son combinación lineal de las
variables originales. Por lo general se quiere que m sea bastante inferior a k para que se
simplifique el análisis.
Antes de empezar el análisis, hay que decir que los datos con los que se va a trabajar
deben ser estacionarios. Por lo tanto se va a trabajar con los datos estandarizados. En la
siguiente sección, se muestra la aplicación para el caso aquí comentado.
5 BOLSA DE VALORES DE COLOMBIA, Métodos de Estimación de la Curva Cero Cupón para Títulos TES, Capítulo 5, Noviembre de 2002. 6 Alexander, C., A Primer on the Orthogonal GARCH model, Febrero de 2000.
II.03(2)127
31
Se llama Χ la matriz de variables y observaciones normalizada. Se aplica componentes
principales a la matriz de correlaciones que viene dada por ΧΧ' . Esta es una matriz
simétrica de k x k que tiene de 1x hasta kx columnas (que se puede llamar vectores
también). Cada componente principal va a ser una combinación lineal de estos vectores,
donde las coordenadas de cada vector son escogidas de tal manera que se satisfagan las
siguientes condiciones:
• El primer componente principal explique la mayor cantidad de la variabilidad total que
hay en la muestra Χ , el segundo componente explique la mayor cantidad de
variabilidad total restante y así sucesivamente;
• Los componentes principales no están correlacionados entre si.
Se ha demostrado que estas dos condiciones se cumplen al obtener los valores y
vectores propios (también conocidos como eigenvalores y eigenvectores) de la matriz de
correlaciones ΧΧ' mediante una descomposición espectral.
Se llama W a la matriz de vectores propios de la matriz de correlaciones, se tiene
entonces:
Λ=ΧΧ **' WW
En donde Λ es un matriz diagonal que contiene los valores propios de ΧΧ' . Se ordena
de tal manera que la primera columna de W corresponda al valor propio más grande, y
así sucesivamente.
Se define el m-ésimo componente principal de la siguiente manera:
kkmm XwXwPm
++= ....11 [16]
Lo que equivale en notación matricial:
XWP =
II.03(2)127
32
Para ver por qué se llega a tener componentes principales no correlacionados, se
demuestra lo siguiente:
Λ∗∗=∗∗∗=∗ WWWXXWPP ''''
Y como W es una matriz ortogonal se tiene que 1' −=WW y por lo tanto Λ=∗PP ' .
Esta es una matriz diagonal y por lo tanto las columnas de P no están correlacionadas y
la varianza del m-ésimo componente principal es mλ . Como se puede ver la varianza de
cada componente principal está determinada por el valor propio correspondiente. Por lo
tanto la porción de variabilidad explicada por el m-ésimo componente sería ∑=
k
iim
1/ λλ .
Pero como se sabe, la suma de todos los valores propios corresponde al número de
variables que se tiene, que en este caso es k.
Por último, lo interesante de esto es que se puede generar otra vez los datos iniciales a
partir de los componentes principales, ya que se sabe que 1' −=WW se puede escribir
que 'WP ∗=Χ lo que quiere decir que:
kikii PwPw ∗++∗=Χ ....11 [17]
Esto quiere decir que cada vector de Χ es una combinación lineal de los componentes
principales. Esta parte es muy importante, porque se puede volver a generar los datos de
la muestra usando un menor número de componentes principales que de variables, claro
que habiendo un error de estimación. Si se usaran todos los componentes principales, la
estimación sería perfecta. Está claro que lo ideal es representar la mayor cantidad de
información, y por lo tanto la mayor variabilidad posible en el menor número de variables o
componentes principales en este caso. En la siguiente sección se verá cuántos
componentes principales se usaron para la estimación.
II.03(2)127
33
2.3.2 Aplicación para las tasas
Para entender cómo se fue usando el método de componentes principales, se muestra
primero los datos que se usaron, cómo se transformaron y cómo se llega a la matriz de
varianza-covarianza de la cual se obtienen los componentes principales. Para este caso
se usaron las tasas de la curva cero cupón para intentar explicar su comportamiento para
el caso colombiano con relación a otros países desarrollados. Hay que aclarar que se
usaron las tasas para efectuar los cálculos de tal manera que se pueda comparar los
resultados con los obtenidos para el caso de EEUU y poder compararlos.
2.3.2.1 Datos iniciales y transformación
Inicialmente se parte de 200 observaciones diarias de la curva spot7 entre el 15 de
Noviembre de 2002 y el 9 de Septiembre de 2003. Realmente los datos que se tenía era
los estimadores Beta´s para calcular las tasas spot día a día:
FECHA β0 β1 β2 τ
15-Nov-02 12,668304 -6,575788 13,011075 2,240834
18-Nov-02 13,241268 -8,613855 11,256388 1,616178
19-Nov-02 12,392805 -6,338521 12,671025 2,192553
, , , , ,
, , , , ,
8-Sep-03 15,99217 -8,755929 0,671778 1,900832
9-Sep-03 15,676688 -8,586163 3,075345 2,327292
Luego mediante la aplicación de las formulas de la curva de Nelson y Siegel y la
utilización de un macro en Excel se buscó obtener las tasas spot para esos días para los
diferentes horizontes de tiempo utilizados:
7 Esta información fue obtenido por dos fuentes independientes. Por un lado Javier Gómez proporcionó una parte de estas observaciones y por el otro lado Camilo Santos completó la muestra que se utilizó.
II.03(2)127
34
1 día 1 mes 3 m 6 m 1 año 2 a 3 a 4 a 5 a 7 a 9 a
15-Nov-02 6,29 6,66 7,37 8,33 10,00 12,29 13,66 14,44 14,85 15,10 15,04
18-Nov-02 4,75 5,25 6,21 7,49 9,58 12,18 13,52 14,19 14,51 14,68 14,65
19-Nov-02 6,25 6,61 7,31 8,27 9,91 12,14 13,45 14,18 14,56 14,77 14,68
Todos estos datos ya son las tasas spot en porcentaje, con las cuales se va a empezar a
hacer los cálculos.
Para aplicar componentes principales, se debe llegar primero a una matriz de datos
estacionarios, la cual se va a llamar la matriz Χ . Para esto se usa la variación absoluta
de los datos, es decir una observación menos la observación anterior. Luego se
estandariza estos nuevos datos para cada variable, es decir se resta la media y se divide
por la desviación estándar.
2.3.2.2 Matriz de varianza-covarianza inicial, valores y vectores propios
Una vez se tiene la matriz Χ se procede a obtener la matriz de varianza-covarianza. Para
hacer esto se aplica sencillamente la fórmula para esto que viene dada por: 1/ −ΧΧ nt ,
donde n es el número de observaciones de Χ , que en este caso es 199.
Se obtiene la siguiente matriz:
1 día 1 mes 3 m 6 m 1 año 2 a 3 a 4 a 5 a 7 a 9 a
1 día 1,000 0,995 0,975 0,879 0,382 -0,285 -0,224 -0,092 -0,018 -0,003 -0,097
1 mes 0,995 1,000 0,989 0,909 0,436 -0,259 -0,231 -0,111 -0,038 -0,012 -0,090
3 m 0,975 0,989 1,000 0,961 0,559 -0,178 -0,230 -0,142 -0,075 -0,027 -0,065
6 m 0,879 0,909 0,961 1,000 0,762 0,006 -0,188 -0,169 -0,120 -0,038 -0,005
1 año 0,382 0,436 0,559 0,762 1,000 0,547 0,122 -0,033 -0,058 0,036 0,180
2 a -0,285 -0,259 -0,178 0,006 0,547 1,000 0,824 0,627 0,518 0,445 0,401
3 a -0,224 -0,231 -0,230 -0,188 0,122 0,824 1,000 0,950 0,877 0,718 0,449
4 a -0,092 -0,111 -0,142 -0,169 -0,033 0,627 0,950 1,000 0,979 0,838 0,493
5 a -0,018 -0,038 -0,075 -0,120 -0,058 0,518 0,877 0,979 1,000 0,916 0,577
7 a -0,003 -0,012 -0,027 -0,038 0,036 0,445 0,718 0,838 0,916 1,000 0,832
9 a -0,097 -0,090 -0,065 -0,005 0,180 0,401 0,449 0,493 0,577 0,832 1,000
II.03(2)127
35
Hay que decir que cuando los datos están estandarizados se obtiene una matriz de
correlaciones, la cual es un caso especial de la matriz de varianza-covarianza.
Es interesante ver cómo las correlaciones entre los plazos cortos son bastante altas así
como entre los plazos largos, pero las correlaciones de los plazos cortos con los largos
son bastante bajas. Esto tiene sentido con lo que aparece en la literatura de estructura de
plazos de tasas de interés.
El siguiente paso es obtener los valores propios de esta matriz como se había explicado
anteriormente en la parte de desarrollo y objetivo del método. Para lograr esto se usó un
macro de Excel que se llama Matrix Functions and Linear Algebra8. Este pequeño
software es de gran utilidad ya que permita obtener directamente los valores y vectores
propios de una matriz sin tener que pasar por las operaciones matriciales que se deben
hacer. Además permite realizar los cálculos con diferentes métodos, de tal manera que se
pudieron verificar los resultados obtenidos. Por otra parte, se realizaron los mismos
cálculos en el paquete estadístico SAS y se llegaba a los mismos resultados.
Los resultados que se obtienen en este macro son solamente los valores propios
presentados a continuación y la matriz de componentes principales que se presenta más
adelante. Los otros resultados presentados son cálculos hechos para mostrar la cantidad
de la variabilidad total de la información que logran explicar los componentes principales:
8 Programa elaborado en Visual Basic para Excel por Foxes Team, que permite utilizar una gran variedad de funciones con operaciones matriciales que no están incluidas en la versión corriente de Excel.
II.03(2)127
36
Proporción
Valores Propios proporción acumulada
lambda 1 4,8751821 0,4431984 44,320%
lambda 2 3,94939982 0,3590363 80,223%
lambda 3 1,32018316 0,1200167 92,225%
lambda 4 0,78532182 0,0713929 99,364%
lambda 5 0,06403049 0,0058210 99,947%
lambda 6 0,00429869 0,0003908 99,986%
lambda 7 0,00156391 0,0001422 100,000%
lambda 8 1,9812E-05 0,0000018 100,000%
lambda 9 1,9931E-07 0,0000000 100,000%
lambda 10 4,3425E-09 0,0000000 100,000%
lambda 11 3,1313E-11 0,0000000 100,000%
Varianza
total 11
Como se puede apreciar en la tabla anterior, los tres primeros componentes principales
logran explicar un 92.2% del total de la información. Esto quiere decir que si solo se
utilizara tres componentes principales para intentar representar toda la información en la
muestra, solamente se estaría incurriendo en un error del 8.3% lo cual es bastante
aceptable. Si bien con cuatro componentes principales se lograría capturar 99.4% de la
información, solo se escogen tres ya que estos tres componentes principales tiene una
supuesta explicación teórica, y además facilita más los cálculos que toca hacer más
adelante para predecir los estimados de volatilidad.
En la siguiente tabla se presenta los 11 componentes principales que se obtiene de los
datos (este es el número máximo de componentes debido a que se tienen solo 10
variables). En gris se tiene los tres primeros componentes que corresponden a los tres
primeros valores propios. Estos componentes son aquellos que se van a usar para luego
replicar la información.
II.03(2)127
37
prin 1 prin 2 prin 3 prin 4 prin 5 prin 6 prin 7 prin 8 prin 9 prin 10 prin 11
-0,274 0,368 -0,246 -0,122 -0,295 0,752 -0,248 -0,001 0,000 0,000 0,000
-0,279 0,375 -0,199 -0,098 -0,190 -0,292 0,451 0,343 0,393 -0,244 -0,275
-0,283 0,389 -0,085 -0,044 -0,033 -0,293 0,146 -0,090 -0,252 0,387 0,655
-0,265 0,399 0,140 0,044 0,194 -0,233 -0,214 -0,397 -0,408 -0,106 -0,526
-0,091 0,331 0,617 0,145 0,362 0,089 -0,251 0,175 0,439 -0,094 0,216
0,295 0,186 0,561 -0,146 -0,271 0,210 0,425 0,210 -0,347 0,224 -0,171
0,388 0,197 0,101 -0,342 -0,335 -0,124 -0,041 -0,491 0,152 -0,477 0,249
0,376 0,227 -0,158 -0,306 -0,002 -0,188 -0,339 0,025 0,321 0,608 -0,255
0,359 0,251 -0,266 -0,164 0,325 -0,040 -0,191 0,523 -0,399 -0,344 0,124
0,333 0,270 -0,261 0,289 0,460 0,289 0,479 -0,342 0,132 0,065 -0,019
0,263 0,206 -0,063 0,780 -0,451 -0,143 -0,204 0,099 -0,029 -0,011 0,003
Para el caso colombiano, la interpretación de estos componentes principales difiere de lo
que usualmente se obtiene para información de países más desarrollados como sería el
caso de EEUU9. Generalmente el primer componente principal tiene todos sus pesos
positivos, lo cual induce un desplazamiento paralelo hacia arriba o hacia abajo en la
curva, a este componente se le conoce en inglés como trend lo que se traduce al español
como tendencia. Esto quiere decir que la mayoría de la información (que usualmente es
alrededor del 80% de la información total) expresada en el primer componente induce a
cambios paralelos en la curva. Ya se verá que no es lo mismo para el caso colombiano.
Por otra parte, continuando con el caso de países desarrollados, el segundo componente
principal, parte de tener unos valores positivos y poco a poco va disminuyendo hacia
valores negativos, es decir que opone los plazos cortos con los largos. Esto implica que la
mayor cantidad de información restante, que es aproximadamente un 10% y está
expresada en el segundo componente principal induce a cambios en la pendiente de la
curva, se le conoce en inglés como tilt y correspondería en español a un entoldamiento de
la curva. Ahora bien, lo interesante para el caso colombiano es que este comportamiento
parece estar invertido. Como se puede apreciar en la tabla presentada anteriormente el
9 Alexander, C., A Primer on the Orthogonal GARCH model, Febrero de 2000.
II.03(2)127
38
primer componente principal pareciera tener más un comportamiento que describe la
pendiente de la curva mientras que el segundo componente principal trata de describir los
cambios paralelos que puede haber en ésta. Por otra parte, el primer componente
principal solo cubre aproximadamente el 47% de la información, y el segundo cubre el
33%. Esto quiere decir que se reparte más la información entre los dos componentes, a
diferencia de casos como el de las tasas de EEUU.
Es interesante notar esto, y puede haber muchas explicaciones al respecto. Una posible
explicación al respecto es que la poca información que se tiene respecto a la curva. En
Colombia, la curva cero cupón apareció hace poco tiempo, aproximadamente 2 años,
mientras que en países desarrollados, la información que se tiene es hasta de 10 años
atrás. También se verá más adelante que las primeras estimaciones que se hace son
bastante volátiles, y a medida que se avanza en el tiempo, el método se va a adaptando
mejor y tiende a estabilizarse. Por lo tanto puede haber varias razones por las cuales esta
curva sigue un comportamiento un poco diferente a la de algún país desarrollado, pero se
tendería a pensar que es en gran parte a la novedad y poca profundidad de la
información.
Por último hay que decir que el tercer componente principal tiene un comportamiento
similar en los dos casos, tanto en Colombia como en EEUU. Los pesos empiezan
negativos para los cortos plazos, luego se vuelven positivos para los medianos plazos, y
por último se vuelven negativos para los plazos largos. A este componente se le conoce
como convexity es decir convexidad. Es bastante claro, ya que tiende a provocar un
arqueamiento de la curva dándole mayor peso a los medianos plazos y menor peso a los
plazos largos y cortos.
2.3.3 Aplicación para los precios
Como bien se sabe el VAR de un portafolio se calcula en dinero, por lo tanto cuando hay
que hacer los cálculos para llegar a un VAR en pesos, hay que trabajar con los precios de
los bonos cero cupón y no con las tasas.
II.03(2)127
39
2.3.3.1 Datos iniciales y transformación
Ahora bien hay que decir que estas dos variables están íntimamente relacionadas la una
con la otra. Para llegar de la tasa cero cupón al precio de un bono cero cupón solo hay
que hacer la siguiente transformación:
ttsP
))(1(100
+=
Donde P es el precio del bono, s(t) es la tasa cero cupón en el tiempo t y, t es el tiempo en
años para la madurez del bono cero cupón. De esta manera se obtuvieron los datos de
los precios de los bonos en base 100 para todos los datos para los cuales se tenía una
tasa spot.
1 día 1 mes 3 m 6 m 1 año 2 a 3 a 4 a 5 a 7 a 9 a
15-Nov-02 99,98 99,47 98,26 96,13 90,91 79,30 68,11 58,31 50,04 37,36 28,35
18-Nov-02 99,99 99,58 98,52 96,50 91,26 79,47 68,35 58,81 50,80 38,34 29,22
19-Nov-02 99,98 99,48 98,27 96,16 90,99 79,52 68,49 58,84 50,69 38,13 29,14
Estos son los precios de los bonos cero cupón para esos tiempos de maduración (nodos
estándar) y en esas fechas. Estos datos se obtienen hasta el día 9 de octubre de 2003
que es la fecha que se establece como límite para empezar a hacer los cálculos. Sin
embargo se verá más adelante que se usará información posterior a esa fecha para
replicar el método.
Una vez se obtienen todas las observaciones se procede a transformar los datos para
luego poder aplicar componentes principales.
Primero que todo se debe establecer una matriz de retornos sobre los precios, para esto
se aplica la siguiente fórmula recursiva:
II.03(2)127
40
1
1
−
−−=
i
iii P
PPR [18]
De esta manera se obtienen los retornos sobre los precios para todas las observaciones.
Hay que aclarar que se pierde solo una observación. Una vez se tiene esta matriz de
datos, se procede a estandarizarlos como se hizo para el caso de las tasas, es decir se
resta la media de los retornos para cada nodo y se divide por la desviación estándar de
los retornos de ese nodo.
2.3.3.2 Matriz de varianza-covarianza inicial, valores y vectores propios
De la misma manera que en el numeral 2.3.2.2, la matriz Χ va a ser en este caso la
matriz de observaciones para los datos de los retornos estandarizados sobre los precios.
Para obtener la matriz de covarianza inicial, y pues en este caso de correlaciones porque
los datos están estandarizados, se calcula 1/ −ΧΧ nt . Se obtiene la siguiente matriz:
1 día 1 mes 3 m 6 m 1 año 2 a 3 a 4 a 5 a 7 a 9 a
1 día 1,000 0,998 0,977 0,880 0,381 -0,284 -0,224 -0,092 -0,018 -0,002 -0,096
1 mes 0,998 1,000 0,989 0,908 0,434 -0,255 -0,228 -0,109 -0,036 -0,010 -0,087
3 m 0,977 0,989 1,000 0,961 0,558 -0,174 -0,227 -0,140 -0,074 -0,024 -0,062
6 m 0,880 0,908 0,961 1,000 0,762 0,011 -0,185 -0,167 -0,118 -0,036 -0,003
1 año 0,381 0,434 0,558 0,762 1,000 0,550 0,124 -0,032 -0,058 0,036 0,180
2 a -0,284 -0,255 -0,174 0,011 0,550 1,000 0,823 0,626 0,517 0,442 0,398
3 a -0,224 -0,228 -0,227 -0,185 0,124 0,823 1,000 0,950 0,877 0,717 0,447
4 a -0,092 -0,109 -0,140 -0,167 -0,032 0,626 0,950 1,000 0,979 0,837 0,491
5 a -0,018 -0,036 -0,074 -0,118 -0,058 0,517 0,877 0,979 1,000 0,915 0,575
7 a -0,002 -0,010 -0,024 -0,036 0,036 0,442 0,717 0,837 0,915 1,000 0,831
9 a -0,096 -0,087 -0,062 -0,003 0,180 0,398 0,447 0,491 0,575 0,831 1,000
Lo primero que se puede decir es que es una matriz muy parecida a la matriz de
correlaciones encontrada cuando se trabaja con tasas, por lo tanto es de esperarse que
II.03(2)127
41
cuando se obtengan vectores y valores propios, también se llegue a resultados muy
parecidos.
Utilizando el macro Matrix 1.3 citado anteriormente, se hicieron los cálculos de vectores y
valores propios y se obtuvieron los siguientes resultados:
Proporción
Valores Propios Proporción acumulada
lambda 1 4,86255545 0,442050495 44,205%
lambda 2 3,95738887 0,359762625 80,181%
lambda 3 1,32471973 0,120429066 92,224%
lambda 4 0,78843527 0,071675934 99,392%
lambda 5 0,06462503 0,005875003 99,979%
lambda 6 0,00224296 0,000203906 100,000%
lambda 7 3,1991E-05 2,90828E-06 100,000%
lambda 8 6,4038E-07 5,82166E-08 100,000%
lambda 9 5,7284E-08 5,20762E-09 100,000%
lambda 10 2,5557E-09 2,32339E-10 100,000%
lambda 11 2,0746E-12 1,88601E-13 100,000%
Varianza
Total 11
II.03(2)127
42
prin 1 prin 2 prin 3 prin 4 prin 5 prin 6 prin 7 Prin 8 prin 9 prin 10 prin 11
-0,274 0,369 -0,245 -0,123 -0,279 0,301 0,315 0,366 -0,301 0,329 -0,336
-0,279 0,376 -0,199 -0,099 -0,202 0,163 0,099 -0,009 0,204 -0,336 0,707
-0,283 0,390 -0,084 -0,044 -0,038 -0,086 -0,230 -0,374 0,356 -0,326 -0,570
-0,264 0,399 0,140 0,045 0,196 -0,326 -0,383 -0,227 -0,301 0,508 0,240
-0,090 0,330 0,616 0,148 0,364 -0,125 0,273 0,425 0,028 -0,272 -0,054
0,295 0,187 0,561 -0,144 -0,272 0,458 0,120 -0,407 0,139 0,243 0,025
0,388 0,198 0,102 -0,341 -0,335 -0,113 -0,459 0,243 -0,401 -0,356 -0,027
0,377 0,226 -0,156 -0,306 -0,003 -0,377 0,066 0,278 0,582 0,355 0,023
0,360 0,251 -0,265 -0,165 0,325 -0,170 0,502 -0,412 -0,355 -0,167 -0,009
0,334 0,270 -0,263 0,288 0,462 0,547 -0,353 0,144 0,073 0,024 0,001
0,262 0,206 -0,066 0,780 -0,452 -0,245 0,104 -0,032 -0,013 -0,003 0,000
Efectivamente, se puede ver que los resultados son muy parecidos a los resultados
obtenidos por medio de las tasas, por lo tanto se puede decir que se puede partir de
cualquiera de los dos resultados, tanto precios como tasas, para aplicar la técnica de
componentes principales. Sin embargo, en la parte que sigue, se hace uso de unos
resultados encontrados para los precios, los cuales son importantes para poder
reconstruir la matriz de covarianza a partir de solamente 3 componentes principales.
2.3.4 Reconstrucción de la matriz de varianza-covarianza
Como se había explicado en el numeral 2.3.1, aquí se retoma una parte de lo dicho ahí
para mostrar cómo se genera una nueva matriz de varianza-covarianza a partir de
solamente tres componentes principales.
Se había dicho que se podía regenerar dicha matriz de la siguiente manera (usando la
ecuación 16 modificada):
ikikii PwPw ε+∗++∗=Χ ....11 [19]
II.03(2)127
43
Donde k es el número de componentes principales que se quiere usar, que para efectos
de este trabajo va a ser 3, debido a que con tres componentes principales se puede
explicar el 92% de la información, lo cual es bastante aceptable.
Sin embargo hay que tener en cuenta que los datos, es decir los iX están
estandarizados: ( )
i
iiii
RrX
σµ−
== donde Ri es el retorno calculado sin estandarizar.
Por lo tanto cuando se quiera generar una matriz de varianza covarianza hay que
transformar los datos, o mejor dicho devolver a su estado normal. Por lo tanto la ecuación
anterior se puede rescribir de la siguiente manera:
iiiiii PwPwPwR εµ +∗+∗+∗+= ∗∗∗332211 [20]
Donde ir es el retorno para el día i, iµ es la media de los retornos para ese nodo
estándar, y iijij ww σ∗=∗ es el peso del vector propio, el cual está multiplicado por la
desviación estándar de las observaciones para dicho nodo.
Todo esto de tal manera que para regenerar la matriz de covarianza se hace la siguiente
operación:
εVADAV T += [21]
Donde )( ∗= ijwA es la matriz compuesta por los tres componentes principales pero
multiplicados por sus respectivas desviaciones estándar,
))(),(),(( 321 PVarPVarPVardiagD = es la matriz con varianzas de los componentes
principales en su diagonal y por último εV es el error que se genera por usar solo 3 de los
11 vectores propios.
Es decir que inicialmente si se quiere generar la matriz de covarianzas con solo tres
componentes principales sin hacer inferencias en la estimación de la volatilidad, en la
diagonal de D irían los valores propios correspondientes a los primeros 3 vectores propios
II.03(2)127
44
(Como se explicó anteriormente la varianza explicada por cada vector propio corresponde
al valor propio correspondiente). Sin embargo como se mostrará en la siguiente sección,
lo que se trata es de hacer estimaciones de la varianza de las observaciones que se
obtendrían en las variables generadas por estos vectores propios.
A continuación se muestra los resultados obtenidos para la matriz A, usando solamente
tres vectores propios:
prin 1 prin 2 prin 3
-0,2742 0,3685 -0,2453
-0,2787 0,3759 -0,1995
-0,2825 0,3896 -0,0844
-0,2644 0,3989 0,1404
-0,0901 0,3303 0,6162
0,2950 0,1867 0,5613
0,3882 0,1975 0,1021
0,3769 0,2265 -0,1563
0,3600 0,2506 -0,2651
0,3335 0,2697 -0,2626
0,2622 0,2055 -0,0661
desviación retornos
2,0408E-05 0,000533 0,0012057
II.03(2)127
45
Matriz A
-0,000006 0,000008 -0,000005
-0,000149 0,000200 -0,000106
-0,000341 0,000470 -0,000102
-0,000431 0,000650 0,000229
-0,000175 0,000641 0,001195
0,000938 0,000594 0,001784
0,002087 0,001062 0,000549
0,003040 0,001827 -0,001261
0,003759 0,002616 -0,002769
0,004531 0,003663 -0,003567
0,004580 0,003590 -0,001155
Ahora se muestra cómo se obtuvo una nueva matriz de covarianza pero sin hacer
inferencias sobre la volatilidad. Es decir que se generó una matriz usando como se había
dicho anteriormente sólo 3 componentes principales:
Matriz D
4,86255545 0 0
0 3,95738887 0
0 0 1,32471973
Esta matriz tiene en su diagonal los valores propios obtenidos en la sección 2.3.3.2, los
cuales corresponden a la varianza de los puntajes obtenidos a partir de regenerar las
observaciones utilizando solamente tres componentes principales. Si inicialmente se
tenían 11 variables con 199 observaciones de precios para cada nodo estándar, lo que se
hizo fue regenerar 199 observaciones para 3 de esas 11 variables, usando tres
componentes principales. Al calcular la varianza de estas nuevas tres variables, se va a
obtener los tres valores propios mostrado en la diagonal de la matriz D.
La nueva matriz de covarianza sería:
II.03(2)127
46
Nueva matriz de covarianza V A*D*A'
1 día 1 mes 3 m 6 m 1 año 2 a 3 a 4 a 5 a 7 a 9 a
4E-10 1E-08 2E-08 3E-08 2E-08 -2E-08 -3E-08 -2E-08 -6E-09 9E-09 -1E-08
1E-08 3E-07 6E-07 8E-07 5E-07 -5E-07 -7E-07 -6E-07 -3E-07 1E-07 -3E-07
2E-08 6E-07 1E-06 2E-06 1E-06 -7E-07 -2E-06 -1E-06 -1E-06 -2E-07 -8E-07
3E-08 8E-07 2E-06 3E-06 2E-06 1E-07 -1E-06 -2E-06 -2E-06 -1E-06 -7E-07
2E-08 5E-07 1E-06 2E-06 4E-06 4E-06 2E-06 5E-08 -9E-07 -2E-07 3E-06
-2E-08 -5E-07 -7E-07 1E-07 4E-06 1E-05 1E-05 2E-05 2E-05 2E-05 3E-05
-3E-08 -7E-07 -2E-06 -1E-06 2E-06 1E-05 3E-05 4E-05 5E-05 6E-05 6E-05
-2E-08 -6E-07 -1E-06 -2E-06 5E-08 2E-05 4E-05 6E-05 8E-05 1E-04 1E-04
-6E-09 -3E-07 -1E-06 -2E-06 0,000 2E-05 5E-05 8E-05 0,0001 0,0001 0,0001
9E-09 1E-07 -2E-07 -1E-06 0,000 2E-05 6E-05 1E-04 0,0001 0,0002 0,0002
-1E-08 -3E-07 -8E-07 -7E-07 3E-06 3E-05 6E-05 1E-04 0,0001 0,0002 0,0002
Se puede ver que los valores son bastante pequeños, pero aparentemente son
consistentes con los resultados que se tendrán más adelante. Una vez presentado el
método de cómo regenerar matrices de covarianza, ya se puede proceder a los pasos
finales del estudio que corresponden a hacer estimaciones de volatilidad por medio de
EWMA y a calcular el VAR de cada portafolio.
2.4 Modelo de varianza EWMA10
Gran parte de la importancia de la aplicación de cualquier modelo financiero aplicado para
calcular riesgo, reposa sobre cómo se calcula y cómo se estima la volatilidad de la
variable en juego. Con cualquier instrumento financiero que se esté manejando, es
indispensable hacer unas buenas estimaciones de de la volatilidad del factor de riesgo
involucrado. Hay muchos factores que pueden afectar el comportamiento de un 10 J.P. Morgan, RiskMetricsTM- Technical Document, Capítulo 5, Estimation and Forecast. Fourth Edition,
New York, (1996).
II.03(2)127
47
instrumento financiero, como por ejemplo la tasa de cambio o la tasa de interés, y por lo
tanto es indispensable realizar unas buenas estimaciones de su volatilidad, para intentar
predecir con el mayor nivel de confianza posible su comportamiento futuro. Para el caso
aquí presentado, se quiere estimar la volatilidad en precio de los bonos cero cupón,
usando el método presentado por J.P. Morgan conocido como exponential weighted
moving average o en español como promedios móviles exponenciales.
2.4.1 Definición
Inicialmente, cuando se hicieron los cálculos anteriormente en la sección 2.3.4., se estimó
la varianza de manera tradicional, es decir que se usó el siguiente estimador:
( )2
1
2 1 ∑=
−=T
tt rr
Tσ Es decir que la volatilidad sería ( ) ⎟
⎠
⎞⎜⎝
⎛−= ∑
=
T
tt rr
T 1
21σ
Donde T es el número de observaciones, tr es el retorno en el día t y r es el promedio de
los retornos para la muestra que se tiene. Como se puede apreciar estos estimadores le
dan el mismo peso a todas las observaciones, el cual es 1/ T. Esto quiere decir que en la
estimación final de la varianza, cada dispersión de la observación con respecto a la media
se le va a dar el mismo peso, por lo tanto es tan importante lo que pasó hace un año o
hace un día. Obviamente después de observar las series de volatilidad de varios
instrumentos financieros, lo primero que se constata es que las series de volatilidades
tienen agrupamientos de alta volatilidad y de baja volatilidad11. Esto quiere decir que
cuando se tiene una alta volatilidad es más factible tener una alta volatilidad el día de
mañana que una baja volatilidad. Y lo mismo pasa cuando se tiene un periodo de baja
volatilidad.
Ahora bien, lo que hicieron los analistas de J.P. Morgan fue buscar un nuevo estimador de
la varianza, más precisamente de la volatilidad, que le diera más importancia a las
11 Best, P., Implementing Value At Risk, Capítulo 4, John Wyley & Sons, (1998).
II.03(2)127
48
observaciones recientes y que este peso fuera decayendo a medida que la observación
fuera quedando más en el pasado. Se llegó al siguiente estimador de la volatilidad:
( ) ( ) ⎟⎠
⎞⎜⎝
⎛−−= ∑
=
−T
tt
t rr1
211 λλσ [22]
Lo primero que se puede decir comparando la ecuación de este estimador con la del
estimador anterior, es que ahora hay un nuevo parámetro λ que aparece. Este parámetro
se llama factor de decaimiento y está situado entre 0 y 1. Este parámetro determina los
pesos que se le va a dar a cada observación. El modelo se llama exponencial porque este
factor al estar situado entre 0 y 1 y al elevarlo a diferentes potencias cada vez mayores,
cada vez va ir siendo más pequeño y se leva a ir dando menor peso a las observaciones
más lejanas.
La pregunta que surge es cómo se estima el parámetro λ . La literatura empírica ha
determinado diferentes valores apropiados para el factor de decaimiento, dependiendo del
mercado en el cual uno se sitúe y dependiendo del horizonte para el cual se estén
haciendo las estimaciones. Sin embargo, como se mostrará más adelante, se hicieron
unas estimaciones de λ tal que se cumpliera ciertas condiciones que se enunciarán en
las siguientes secciones.
2.4.2 Aplicación del modelo EWMA
La aplicación del modelo EWMA para el problema aquí estudiado es bastante más
sencilla de lo que inicialmente se podría pensar debido a que no hay que hacer
estimaciones de correlaciones. Esto se debe a que se resolvió el problema de mirar las
correlaciones cuando se aplicó el método componentes principales, ya que este hace que
se creen nuevas variables que son independientes entre sí y por lo tanto su correlación es
cero.
II.03(2)127
49
2.4.2.1 Retornos y puntajes de componentes principales
En el numeral anterior se presentó la ecuación [21] fundamental para establecer la
volatilidad en un modelo EWMA. Se puede llegar a una fórmula recursiva12, después de
hacer ciertas manipulaciones, que calcula la varianza con base en los estimados del día
anterior:
21
21
2 )1( −− −+= nnn rλλσσ [23]
Donde el estimado de 2σ para el día n depende de λ , del estimado de 2σ del día
anterior y del retorno r del día anterior.
Para poder encontrar los estimados EWMA de la varianza para el día siguiente a la fecha
que se tenía como límite, es decir encontrar los estimados para el día 10 de Septiembre
de 2003 a partir de la información que se tenía desde el 15 de Noviembre de 2003 hasta
el 9 de Septiembre de 2003, se procedió de la siguiente manera:
• Se tomaron los puntajes de los tres componentes principales que se han venido
usando, los cuales son retornos (esto se debe a que las variables originales antes
de aplicar componentes principales también eran retornos, por lo tanto los
componentes principales, que vienen siendo combinación lineal de las variables
originales, también son retornos).
• Para inicializar la estimación, es decir calcular 21σ , se tomó el primer puntaje
principal como retorno 0r y como estimador de varianza para el día 0 es
decir 20
20 r=σ . Lo que da como resultado 2
02
021 )1( rr λλσ −+= . Una vez ya se
obtiene el primer estimado para 21σ , ya se puede proceder aplicando directamente
la ecuación [22].
• Esto se realizó para los tres componentes principales tomados para hacer todo el
estudio. Es decir solo estimaron tres futuras varianzas, cada una correspondiente
a cada componente principal. 12 Hull, J. C., Options, Futures and Other Derivatives, Capítulo 17. Fifth Edition, Prentice Hall.
II.03(2)127
50
2.4.2.2 Estimación del factor de decaimiento
Todo lo establecido anteriormente permite ir calculando los estimadores de varianza día
por día, sin embargo hay que determinar qué factor de decaimiento λ se va a usar. Lo
más interesante es que al haber aplicado componentes principales se puede usar un
factor diferente para cada estimación de varianza para cada componente principal. Esto
permite hacer una estimación que se adecue más al comportamiento de cada
componente principal, y por lo tanto se logra hacer el método más efectivo.
Para encontrar el factor de decaimiento para la estimación de cada componente principal
se utilizó la herramienta Solver de Excel, ya que se quería resolver un problema de
minimización.
Para cada componente se resolvió el siguiente problema de optimización:
( )∑ −=
n
i iiMin r1
222σλ
as. 10 ≤≤ λ
Al correr Solver para estas tres series que se tenían, se obtuvieron tres soluciones que
cumplían las restricciones que se había planteado. Los resultados obtenidos fueron los
siguientes:
833587.01 =λ ; 718237.02 =λ ; 811162.03 =λ
Estos valores obtenidos para λ son un poco bajos comparados con los valores que
propone RiskMetrics, los cual generalmente recomienda valores entre 0.94 y 0.97,
dependiendo el mercado y los horizontes de tiempo. Sin embargo estos estimados
encontrados se aplican más a la realidad colombiana debido a que fueron calculados
II.03(2)127
51
explícitamente para este caso, mientras que RiskMetrics trata de estandarizar esos
valores para mercado que generalmente son más profundos y más desarrollados que el
mercado colombiano.
El valor del factor de decaimiento es el encargado de qué tan acentuada es la respuesta
de la volatilidad antes cambios porcentuales en los datos. Estos valores al ser
relativamente bajos la dan más peso a 2r en las estimaciones de la volatilidad. Por lo
tanto si se está en un época de grandes cambios, con bajos factores de decaimiento se
va a reforzar estos cambios y la respuesta de la estimación va a ser mayor. Mientras que
más grande sea el factor de decaimiento, más lenta va a ser la respuesta en la estimación
de la volatilidad por aportes de nueva información.
2.4.2.3 Resultados
Con los tres factores de decaimiento obtenidos anteriormente se hicieron los cálculos de
los estimadores de la varianza día por día para cada puntaje principal. Luego se
graficaron los estimadores de la varianza y los retornos al cuadrado para cada día en un
mismo cuadro. Estas son las curvas obtenidas para cada uno de los puntajes principales,
en azul se tienen los retornos al cuadrado y en rojo los estimadores de la varianza:
Primer componente principal: 833587.01 =λ
0
20
40
60
80
100
120
1 12 23 34 45 56 67 78 89 100 111 122 133 144 155 166 177 188 199
II.03(2)127
52
Segundo componente principal: 718237.02 =λ
0
5
10
15
20
25
30
35
40
45
50
1 12 23 34 45 56 67 78 89 100 111 122 133 144 155 166 177 188 199
Tercer componente principal: 811162.03 =λ
0
5
10
15
20
25
1 11 21 31 41 51 61 71 81 91 101 111 121 131 141 151 161 171 181 191
Lo primero que resalta a la vista es que la curva de estimación por EWMA para la
varianza (curva en rojo) casi siempre está por debajo de la curva de los retornos al
cuadrado (curva en azul). Hacia el final de las observaciones, donde la volatilidad de las
dos curvas disminuye, la estimación por EWMA está mucho más estable que la curva de
los retornos. Sin embargo hay casos en donde la curva roja sobre reacciona a los
II.03(2)127
53
cambios que se producen en los retornos y está por encima de ésta. Estos resultados
pueden tener varias explicaciones: Como se había dicho anteriormente, al tener unos
factores de decaimiento relativamente bajos comparados a los que se generalmente se
usan, se sabe que la estimación de la varianza va a sobre reaccionar a cambios
porcentuales en los retornos. Esto se puede ver claramente en las tres primeras partes de
la serie para los tres componentes principales, donde la serie de los retornos es bastante
volátil. La volatilidad de esta serie podría tener como explicación el hecho de que es
bastante nuevo el método. La información que se tiene sobre los precios y las tasas cero
cupón existe desde hace aproximadamente hace dos años. Es normal que cuando se
empieza a medir una variable, no se tenga mucho conocimiento sobre el comportamiento
de ésta, y por lo tanto sea bastante volátil. Al final de la muestra sobre las observaciones
que se tiene, se puede ver que tanto los retornos y las estimaciones se calman, y tiene un
comportamiento más regular, esto hace que las estimaciones no sobrepasen los retornos
y se vuelvan un poco más confiables. Esto muestra que entre más información se tenga,
mayor va a ser la capacidad de predicción correcta del modelo.
Por último, lo más importante y lo que se va a usar para calcular el valor en riesgo de los
portafolios, son las estimaciones para el día siguiente, es decir para el día 10 de
Septiembre de 2003. Los resultados obtenidos para estas estimaciones son coherentes
con las gráficas presentadas anteriormente ya que mantienen un comportamiento de baja
volatilidad y son valores bastante pequeños, lo que va en acorde con lo observado al final
de las series en la gráfica. Los valores obtenidos fueron los siguientes:
σ1 = 0.548557, σ2 = 0.948590, σ3 = 0.117582
Estos valores son los que van a remplazar a las varianzas o valores propios que iban en
la diagonal de la matriz D, para poder generar una nueva matriz de covarianza.
II.03(2)127
54
2.4.2.4 Regeneración de una nueva matriz de covarianza
Como se dijo anteriormente, ahora se tiene una nueva matriz diagonal que ya no tiene
valores propios en la diagonal, sino estimadores de varianza de los puntajes principales
obtenidos aplicando el modelo EWMA a las series de observaciones de los puntajes de
los componentes principales.
La nueva matriz diagonal sería la siguiente:
Matriz D
0,548557592 0 0
0 0,948590391 0
0 0 0,117582502
La matriz A seguiría siendo la misma, ya que esta no depende de ninguna de las
estimaciones que se hagan por medio de modelos EWMA. La matriz A es simplemente
vectores propios multiplicados por desviaciones estándar de los datos originales, los
cuales no cambian en el transcurso del problema.
Por lo tanto la nueva matriz de covarianza que se utiliza para calcular el valor en riesgo
sería la siguiente:
1 día 1 mes 3 m 6 m 1 año 2 a 3 a 4 a 5 a 7 a 9 a
7E-11 2E-09 4E-09 6E-09 4E-09 3E-10 8E-10 4E-09 9E-09 1E-08 1E-08
2E-09 5E-08 1E-07 2E-07 1E-07 1E-08 2E-08 1E-07 2E-07 4E-07 3E-07
4E-09 1E-07 3E-07 4E-07 3E-07 7E-08 8E-08 3E-07 5E-07 8E-07 8E-07
6E-09 2E-07 4E-07 5E-07 5E-07 2E-07 2E-07 4E-07 6E-07 1E-06 1E-06
4E-09 1E-07 3E-07 5E-07 6E-07 5E-07 5E-07 6E-07 8E-07 1E-06 2E-06
3E-10 1E-08 7E-08 2E-07 5E-07 1E-06 2E-06 2E-06 3E-06 4E-06 4E-06
8E-10 2E-08 8E-08 2E-07 5E-07 2E-06 3E-06 5E-06 7E-06 9E-06 9E-06
4E-09 1E-07 3E-07 4E-07 6E-07 2E-06 5E-06 8E-06 1E-05 1E-05 1E-05
9E-09 2E-07 5E-07 6E-07 8E-07 3E-06 7E-06 1E-05 2E-05 2E-05 2E-05
1E-08 4E-07 8E-07 1E-06 1E-06 4E-06 9E-06 1E-05 2E-05 3E-05 2E-05
1E-08 3E-07 8E-07 1E-06 2E-06 4E-06 9E-06 1E-05 2E-05 2E-05 2E-05
II.03(2)127
55
Se puede observar que esta matriz difiere de la matriz presentada anteriormente en que
no hay términos negativos. Por otro lado, se mantiene la magnitud de los valores, los
cuales siguen siendo bastante pequeños. Esta matriz va a ser a la que se va a emplear a
la hora de calcular el valor en riesgo.
2.5 Mapeo de los portafolios
Aplicando el método mejorado descrito en la sección 2.1.3 se mapearon los portafolios.
Una parte se hizo programando en Visual Basic13. Se daba como datos de entrada las
fechas organizadas con los pagos, y luego el programa calculaba las interpolaciones y
ubicaba los flujos entre los nodos correspondientes, es decir su nodo izquierdo y su nodo
derecho respectivo. Además daba las tasas interpoladas y daba las tasas de los nodos a
la izquierda y los nodos a la derecha. Por último se calculaba con fórmulas en Excel el
valor que iba en cada nodo.
2.5.1 Datos de entrada
A continuación se presenta como era la hoja de entrada para el programa, de tal manera
que este daba los resultados. Por ejemplo para el portafolio 5, así eran los datos de
entrada:
Nodos 1 mes 3 m 6 m 1 año 2 años 3 años 4 años 5 años 7 años 9 años
10 0,082 0,247 0,493 1 2 3 4 5 7 9
Tasa
Cero cupón 7,57 7,98 8,57 9,63 11,27 12,45 13,31 13,94 14,78 15,28
13 Ver anexo 1 y 2 .
II.03(2)127
56
fecha inicio fecha cupón pagos
9-Sep-03 8-Nov-03 15000
4-Feb-04 15000
16-Abr-04 115000
25-Jul-04 15000
8-Nov-04 15000
4-Feb-05 115000
25-Jul-05 15000
8-Nov-05 115000
25-Jul-06 115000
En azul se tienen los datos correspondientes a la fechad e valoración que es el 9 de
Septiembre de 2003. Por ejemplo debajo de los nodos aparecen las tasas (que son
porcentajes) que se tenían ese día para esos horizontes de tiempo. Y por otra parte se
tiene la fecha de los pagos que se realizan según los diferentes bonos. A todos los bonos
se les dio un valor nominal de 100 000 y luego se calcularon sus cupones respectivos.
Las fechas en rojo corresponde a la fecha de maduración del algún bono que conformaba
ese portafolio, y por lo tanto el valor en rojo corresponde al valor nominal más el valor del
cupón en la fecha de maduración.
2.5.2 Resultados
Para mirar los resultados, se presenta primero el caso del portafolio 5, el cual es un
portafolio con pocos flujos, y se muestra la metodología seguida y aplicada para todos los
portafolios. Los resultados que daba el programa eran los siguientes:
II.03(2)127
57
fecha cupón pagos Tiempo â Tasa
InterpoladaVP flujo
8-Nov-03 15000 0,1643836 0,500 7,7751434 14809,504
4-Feb-04 15000 0,4054795 0,356 8,3617582 14499,947
16-Abr-04 115000 0,6027397 0,784 8,7996049 109059,48
25-Jul-04 15000 0,8767123 0,243 9,3736113 13816,598
8-Nov-04 15000 1,1671233 0,833 9,9053431 13362,371
4-Feb-05 115000 1,4082192 0,592 10,299798 99473,214
25-Jul-05 15000 1,8767123 0,123 11,066296 12186,974
8-Nov-05 115000 2,1671233 0,833 11,465227 89699,618
25-Jul-06 115000 2,8767123 0,123 12,302612 80722,824
Nodo
izquierdo
Nodo
derecho Tasa izq. Tasa der. Valor izq. Valor der. C
0,08219 0,24658 7,566 7,984 14809,5 4936,5014 -4936,501
0,246575 0,49315 7,984 8,570 8477,994 7683,1818 -1661,228
0,493151 1 8,570 9,632 104474,4 14212,861 -9627,777
0,493151 1 8,570 9,632 5974,745 9166,7319 -1324,879
1 2 9,632 11,268 12989,16 1303,1885 -929,9749
1 2 9,632 11,268 82896,71 28591,689 -12015,18
1 2 9,632 11,268 2819,767 10025,839 -658,6317
2 3 11,268 12,448 80951,51 10829,039 -2080,928
2 3 11,268 12,448 14314,71 67862,311 -1454,192
NODOS
1 día 1 mes 3 meses 6 meses 1 año 2 años 3 años
-34689,3 14809,504 13414,5 118132,32 122085,23 135186,9 78691,3
Cada color se refiere a un solo nodo (los colores se ponen simplemente para facilidad del
lector para entender como se opera en el mapeo). Por ejemplo el primer flujo cae entre el
nodo de un mes (verde oscuro) y el nodo de tres meses (nodo rosado). Luego se calcula
el valor que iría en cada nodo (nodo izquierdo y nodo derecho) por medio de las fórmulas
II.03(2)127
58
presentadas anteriormente, y la posición en efectivo C corresponde siempre al nodo de un
día. Finalmente se suman todos los valores que tengan el mismo color y se ponen en el
nodo que les corresponde. De esta manera se obtiene el mapeo de los bonos. Para
verificación del lector, se puede ver por renglón que la suma de C, valor izquierdo y valor
derecho es igual al valor presente del flujo cuando se toman las tasas como compuestas
continuas.
Los resultados para todos los portafolios se presentan a continuación, pero solamente se
muestra el resultado final:
Portafolio 1
1 día 1 mes 3 m 6 m 1 año 2 a 3 a 4 a 5 a 7 a 9 a
-23570 12121 15340 39493 54069 139860 146042 50385 22444 37646 47243
Portafolio 2
1 día 1 mes 3 m 6 m 1 año 2 a 3 a 4 a 5 a 7 a 9 a
-34028 0 25568 129731 131741 64102 30729 29028 114489 29960 21642
Portafolio 3
1 día 1 mes 3 m 6 m 1 año 2 a 3 a 4 a 5 a 7 a 9 a
-18999 246747 11359 2433 25944 94195 21138 11500 54690 0 0
Portafolio 4
1 día 1 mes 3 m 6 m 1 año 2 a 3 a 4 a 5 a 7 a 9 a
-33625 14810 4937 45670 116955 200551 173162 32899 0 0 0
II.03(2)127
59
Portafolio 5
1 día 1 mes 3 m 6 m 1 año 2 a 3 a 4 a 5 a 7 a 9 a
-34689 14810 13414 118132 122085 135187 78691 0 0 0 0
Todos los resultados obtenidos anteriormente, son en pesos. Para cada bono se tomó un
valor nominal de 100000 pesos, y los resultados presentados corresponden a la cantidad
de dinero que iría en cada nodo. Ahora el paso final es calcular el valor en riesgo para
cada portafolio.
2.6 Cálculo del valor en riesgo
Para calcular el valor en riesgo de los portafolios de bonos presentados anteriormente, se
procede como si se tuviera un portafolio de acciones. Al haber mapeado los portafolios, el
cálculo del VaR se vuelve muy sencillo. Se toma cada nodo en el tiempo como si fuera
una acción. Como se tiene tanto dinero en cada nodo y se tiene la matriz de covarianza
entre los nodos, se puede calcular directamente el VaR con la siguiente fórmula:
ΣΧΧ∗= TZVaR α [24]
Donde αZ es el valor del estadístico normal estándar con α nivel de confianza (para
efectos de los cálculos, se va a hacer con 95% y 99% de nivel de confianza). En este
caso se llama Χ el vector de dinero invertido, por decirlo así, en cada nodo. Por último Σ
es la matriz de covarianza entre los nodos.
II.03(2)127
60
2.6.1 Valor en riesgo usando estimaciones a partir de EWMA
Los resultados que se presentan a continuación tienen en cuenta los dos niveles de
confianza propuestos anteriormente, el 95% y el 99%, con sus respectivos estadísticos
96.195.0 =Z y 58.299.0 =Z . El VaR es la pérdida máxima probable con un nivel de
confianza dado en un horizonte de tiempo. En este caso el horizonte es un día, y la
pérdida está dada en dinero. Sin embargo es interesante dar la pérdida como porcentaje
del valor presente del activo, lo cual corresponde a los datos en las columnas de
porcentajes.
VaR
Portafolios 95% % 99% %
1 2089,23 0,386% 2750,11 0,508%
2 1900,03 0,350% 2501,06 0,461%
3 766,62 0,171% 1009,12 0,225%
4 1314,66 0,237% 1730,52 0,312%
5 761,35 0,170% 1002,19 0,224%
Claramente es siempre es más alto el VaR al 99% que al 95% debido a que se requiere
mayor precisión y esto lo refleja el estadístico αZ que tiene un valor más grande. Los
valores para el VaR son bastante bajos con respecto al valor del portafolio, lo cual
indicaría que invertir en bonos del tesoro colombiano no es muy riesgoso. A partir de
estos resultados se podría ver que el portafolio más riesgoso sería el portafolio 1, el cual
tiene el VaR más alto de todos.
2.6.2 Valor en riesgo usando la varianza como estimador
Para el cálculo del VaR usando la varianza como estimador se obtuvieron los siguientes
resultados (se mantuvieron lo mismos estadísticos que para el caso anterior):
II.03(2)127
61
VaR
Portafolios 95% % 99% %
1 5353,85 0,989% 7047,41 1,302%
2 4618,36 0,851% 6079,27 1,120%
3 1873,54 0,417% 2466,19 0,549%
4 3441,02 0,620% 4529,51 0,816%
5 1877,62 0,419% 2471,56 0,552%
Los resultados aquí obtenidos son bastante más altos que cuando se estima la varianza a
partir de EWMA. Sin embargo los porcentajes del VaR con respecto al valor del portafolio
siguen siendo bastante bajos, donde el más alto es 1.3%. Sin embargo el análisis de los
resultados se presenta en el siguiente capítulo.
II.03(2)127
62
3. RESULTADOS
En este capítulo se piensa tanto concluir el análisis de los resultados obtenidos en el
modelo propuesto en este trabajo, como los análisis de los resultados y las
comparaciones con los trabajos hechos por Fabio Macías y Maria Teresa Camacho, ya
que ellos trabajaron en el mismo tema pero aplicando otros modelos de desarrollo. El
primer trabajo tiene que ver con la estimación del VaR para los mismos portafolios pero
usando simulación de MonteCarlo, y el segundo utiliza la misma técnica aquí presentada
pero utilizando diferentes estimaciones para la varianza, es decir emplea el método
GARCH. Así mismo, se mostrará la replicación del método aquí presentado solamente
para el primer portafolio, para lograr estimar el VaR pero incluyendo nueva información,
es decir estimar el VaR para días después del 10 de Septiembre de 2003 y ver como
evoluciona éste en el tiempo.
3.1 Análisis comparativo entre los modelos de varianza con promedios móviles
Como se dijo anteriormente, lo más impactante de cuando se estima el VaR usando las
estimaciones de la varianza a partir del método EWMA con respecto a las estimaciones
de varianza tradicionales (en este caso sería un promedio móvil con una longitud de 199
días), es que los resultados obtenidos con el primero son muchos más bajos que los
resultados obtenidos con el segundo. Esto tiene bastante sentido, debido a que la
estimación de un promedio móvil le da igual peso a todas las observaciones. Por lo tanto
el estimado de la varianza va a ser más alto. En este caso, como se pudo apreciar en las
gráficas presentadas en la sección 2.4.2.3, se ve que las series de los retornos tiene una
alta volatilidad al principio de la muestra. Esto hace que para las estimaciones
tradicionales de la varianza, se le de igual peso a esos cambios bruscos que hubo al
principio que a los pequeños cambios que hubo al final. En cambio cuando se estima la
varianza usando EWMA, las observaciones recientes reciben más peso que las
observaciones pasadas. Es por esto que los cambios iniciales en los retornos no aportan
tanto en la estimación de la varianza, mientras que los pequeños cambios, y la poca
II.03(2)127
63
volatilidad de la serie hacia el final de la muestra son más importantes en cuanto al peso
que se le da en la estimación. Esto hace que las estimaciones usando el método EWMA
sean más pequeñas y por lo tanto al calcular el VaR se obtengan menores resultados.
Se puede observar en los resultados calculados anteriormente que cuando se hacen
estimaciones al 95%, por lo general el VaR calculado usando promedio móvil como
estimador de la varianza es casi 3 veces mayor que el VaR estimado usando el estimador
EWMA. Cuando se hacen las estimaciones con un 99% de confianza, esta proporción
disminuye un poco y es aproximadamente de 2.5 a 1.
Cuando se examina cada portafolio según sus características y se compara con los
resultados obtenidos en el VaR, hay ciertas constataciones que hacer. El VaR más alto
corresponde al portafolio 1 el cual se caracteriza por ser el de mayor liquidez. Esto puede
tener sentido si se piensa que los títulos de mayor liquidez son aquellos que se transan
con mayor frecuencia en el mercado, y por lo tanto son los que tienen mayor movimiento
en sus características. Esto quiere decir que su precio está sujeto a muchos cambios
debido a que hay mucha oferta y demanda de estos títulos. En este sentido se entiende
que este portafolio tenga el VaR más alto. Sin embargo hay resultados un poco
cuestionables, como por ejemplo el VaR más bajo es el del portafolio 5 el cual
corresponde al portafolio con los títulos más correlacionados entre sí. Este resultado no
se esperaba, ya que un portafolio de este tipo se asume de alto riesgo, y por lo tanto se
espera que tenga un VaR muy alto que corrobore la hipótesis inicial. Curiosamente el
portafolio 4 con los títulos menos correlacionados tiene el segundo VaR más bajo, este es
un resultado totalmente esperado. Por ejemplo otro resultado que tiene sentido es el VaR
del portafolio 2 cuya característica es tener los títulos con mayor volatilidad. Este
portafolio posee el segundo VaR más alto, y va en acorde con las expectativas.
Los resultados inesperados que a veces ocurren en estos cálculos se cree que se deben
a la irregularidad del mercado, es decir a su poca profundidad y a la reciente
implementación de la curva cero cupón, lo que hace que todavía no se tenga suficiente
información como para poder hacer inferencias confiables sobre el comportamiento de las
variables.
II.03(2)127
64
3.2 Replicación del método
Las replicaciones del método consisten obtener nueva información sobre las tasas y los
precios cero cupón e ir actualizando la matriz de varianza-covarianza. De la misma
manera los estimadores de EWMA van cambiando debido a la nueva información, y lo
mismo sucede con el mapeo del portafolio. Hay que decir que la replicación del método
solo se hizo para el primer portafolio, debido a que el procedimiento a realizar era muy
dispendioso y bastante complicado de programar.
Inicialmente se tenían 199 observaciones de datos estandarizados, que correspondían a
200 observaciones de los precios cero cupón para los bonos. Estas observaciones
correspondían a datos desde el 15 de Noviembre de 2002 hasta el 9 de Septiembre de
2003. Para ir introduciendo nueva información se fue corriendo la ventana de observación,
de tal manera que siempre se mantuvieron 200 datos como muestra. Esto quiere decir
que para recalcular la matriz de varianza-covarianza para el día 10 de Septiembre se
utilizaron datos desde el 18 de Noviembre de 2002 (siguiente fecha hábil en las
observaciones) hasta el día 10 de Septiembre, y se fue repitiendo el proceso hasta el día
7 de Octubre, cuando ya se tenían 20 nuevas estimaciones que pudieran dar indicaciones
sobre el comportamiento del VaR.
3.2.1 Mapeo del portafolio
Con el programa utilizado para mapear los portafolios, se fue introduciendo nueva
información, es decir las tasas para los nodos estándar para cada día desde el 10 de
Septiembre hasta el 7 de Octubre, y se fue mapeando el portafolio para cada día hábil
entre esas fechas. Los resultados en pesos para el mapeo fueron los siguientes:
II.03(2)127
65
1 día 1 mes 3 m 6 m 1 año 2 a 3 a 4 a 5 a 7 a 9 a
10/09/03 -23552 12373 15288 39485 54010 139986 145397 50056 22413 37836 47352
11/09/03 -23544 12610 15235 39472 53965 140286 145091 49886 22485 38225 47711
12/09/03 -23547 12834 15188 39487 54037 141051 145224 49815 22492 38177 47372
15/09/03 -23406 13423 15050 39494 54053 142356 144492 49253 22501 38499 47163
16/09/03 -23351 13599 15023 39562 54179 143013 144299 49028 22425 38349 46731
17/09/03 -23404 13747 15291 39303 54245 143766 144547 49029 22494 38430 46562
18/09/03 -23385 13886 15563 39059 54243 143946 143925 48679 22382 38225 46064
19/09/03 -23333 14009 15827 38794 54174 143868 143044 48256 22278 38220 45901
22/09/03 -23216 14307 16647 38167 54377 145002 141741 47384 22013 37861 44827
23/09/03 -23078 14366 16886 37859 54224 144803 140863 46981 21896 37657 44346
24/09/03 -23003 14418 17143 37620 54223 145096 140566 46812 21971 38102 44774
25/09/03 -22942 14464 17416 37443 54340 145632 140382 46647 22019 38486 45130
26/09/03 -22807 14485 17661 37191 54319 145863 139922 46374 21951 38389 44796
29/09/03 -22292 14471 18400 36486 54240 146158 138031 45383 21699 38151 43917
30/09/03 -22145 14440 18653 36294 54353 146833 138021 45257 21687 38105 43629
01/10/03 -21908 14393 18891 36053 54248 146550 137028 44832 21624 38310 43769
02/10/03 -21761 14331 19134 35855 54379 147438 137362 44857 21739 38663 44008
03/10/03 -21581 14253 19367 35631 54412 148000 137484 44857 21919 39316 44650
06/10/03 -20838 13938 20062 35000 54538 149327 136812 44282 21811 39084 43693
07/10/03 -20535 13810 20311 34828 54552 149306 135997 43890 21717 39088 43540
Se puede apreciar que aparentemente los resultados son coherentes ya que los nodos
mantienen por lo general una misma cantidad de dinero en el tiempo. Esto sugiere que los
resultados siguen un orden que pareciera ser el correcto. Ahora para cada uno de estos
resultados se recalculó su matriz de covarianza correspondiente y se obtuvieron los VaR
para cada uno de estos días.
3.2.2 Estimaciones EWMA y matrices de varianza-covarianza
Como se explicó en la introducción de este capítulo, para ir obteniendo las nuevas
matrices de covarianza se fue moviendo la ventana de observación con el fin de mantener
siempre el mismo número de observaciones. En Excel, se tenía en fórmulas los
resultados, de tal manera que al introducir una nueva observación, se obtenía
II.03(2)127
66
directamente una matriz de correlaciones. Sin embargo a esta matriz había que aplicarle
todo el desarrollo de componentes principales, con el fin de obtener los puntajes de
componentes principales para poder estimar las varianzas por EWMA. Claro está que
cada vez que se obtenían estos puntajes y se procedía a calcular las varianzas, había que
usar Solver para minimizar las sumas cuadradas del error y obtener los factores de
decaimiento adecuados. Los estimados obtenidos para la varianza de un día se
introducían en la matriz diagonal y se procedía finalmente a obtener la matriz de varianza-
covarianza que se iba a usar con el fin de poder estimar el VaR para el día
correspondiente. A continuación se muestran los resultados obtenidos para los estimados
por EWMA y los factores de decaimiento para cada uno de estos días:
λ 1 λ 2 λ 3 σ 1 σ 2 σ 3
10/09/03 0,841 0,910 0,811 0,4800 0,7500 0,1641
11/09/03 0,842 0,954 0,815 0,4291 0,9122 0,2052
12/09/03 0,831 0,939 0,817 0,3571 0,7390 0,2671
15/09/03 0,837 0,938 0,818 0,3094 0,6954 0,2183
16/09/03 0,835 0,952 0,815 0,4963 0,8611 0,3438
17/09/03 0,830 0,948 0,818 0,5832 0,7730 0,3046
18/09/03 0,833 0,937 0,835 0,6084 0,6897 0,2527
19/09/03 0,833 0,959 0,835 0,5959 0,9315 0,3239
22/09/03 0,837 0,939 0,776 1,6758 0,7180 0,4302
23/09/03 0,842 0,942 0,798 1,3933 1,0638 0,5828
24/09/03 0,845 0,956 0,807 1,2371 1,0738 0,5470
25/09/03 0,826 0,945 0,792 1,0850 1,0760 0,4571
26/09/03 0,846 0,957 0,794 0,9104 1,1230 0,3710
29/09/03 0,831 0,939 0,857 1,3892 1,3695 0,5216
30/09/03 0,827 0,951 0,798 1,2447 1,2737 0,5617
01/10/03 0,816 0,935 0,838 1,1641 1,3175 0,7372
02/10/03 0,835 0,935 0,787 1,1644 1,2850 0,7402
03/10/03 0,833 0,948 0,791 1,3007 1,1951 0,6305
06/10/03 0,822 0,947 0,788 1,1079 1,1871 0,5837
07/10/03 0,825 0,721 0,857 1,4250 0,7832 0,5313
II.03(2)127
67
Factores de decaimiento
0,700
0,750
0,800
0,850
0,900
0,950
1,000
10/0
9/03
12/0
9/03
14/0
9/03
16/0
9/03
18/0
9/03
20/0
9/03
22/0
9/03
24/0
9/03
26/0
9/03
28/0
9/03
30/0
9/03
02/1
0/03
04/1
0/03
06/1
0/03
lambda 1lambda 2lambda 3
Es interesante observar que el factor de decaimiento para el segundo puntaje principal
siempre se mantiene en valores superiores con respecto a los otros dos factores. Este
factor pareciera ser el único que tiene un comportamiento similar al que se describe en la
literatura cuando se analizan casos para países desarrollados, donde se recomienda
utilizar un lambda entre 0.94 y 0.97. No hay que olvidar que el segundo componente
principal describe para el caso colombiano los cambios paralelos en la curva cero cupón.
Estos cambios paralelos explican aproximadamente 30% del comportamiento de la curva.
En los países como EEUU, los cambios paralelos en la curva corresponden al primer
componente principal y explican el 80% del comportamiento de la curva. Por lo tanto en
este caso se puede observar una similitud en el caso colombiano con los casos de países
donde se posee una mayor profundidad del mercado, los factores de decaimiento que
explican los mismos movimientos en la curva cero cupón son parecidos. En cuanto a los
otros dos factores de decaimiento, los dos tienen un comportamiento muy parecido,
aunque lambda 3 es un poco menos estable que lambda 1. Sin embargo estos dos
factores parecen ser más característicos de la curva cero cupón colombiana y se
mantienen en valores alrededor de 0.8 y 0.85.
II.03(2)127
68
Estimaciones EWMA de la varianza
0,00000,20000,40000,60000,80001,00001,20001,40001,60001,8000
10/0
9/03
12/0
9/03
14/0
9/03
16/0
9/03
18/0
9/03
20/0
9/03
22/0
9/03
24/0
9/03
26/0
9/03
28/0
9/03
30/0
9/03
02/1
0/03
04/1
0/03
06/1
0/03
EWMA 1EWMA 2EWMA 3
La tendencia observada en estas estimaciones por medio de EWMA es que a partir de la
mitad hacia el final de la replicación, los estimados van aumentando. Esto se va a ver
reflejado en los cálculos del VaR que se presentarán más adelante. Hay que decir que los
factores de decaimiento influyen en cómo se comporten estos estimados de varianza a
través del tiempo. Para el caso del primer estimado EWMA, este corresponde a un factor
de decaimiento alrededor de 0.8, lo que se considera un poco bajo. Es por esta razón que
su comportamiento es poco volátil y por ejemplo presenta un pico hacia la mitad de la
ventana de observación. Aunque hay que decir que esta explicación pareciera describir el
comportamiento de los otros dos estimados EWMA. Pero en conclusión, la observación
más importante que hay que hacer es que la subida de estos estimados va a hacer que el
valor en riesgo aumente y esto se verá reflejado en los siguientes resultados.
3.2.3 Estimaciones del VaR
Estos son los resultados que se obtuvieron para el VaR de este portafolio durante los
veinte días que se hizo la replicación. Se calculó tanto al 95% como al 99% de confianza:
II.03(2)127
69
VaR
95% % 99% %
10/09/03 1915,69 0,354% 2521,67 0,466%
11/09/03 1968,69 0,364% 2591,43 0,479%
12/09/03 1789,70 0,330% 2355,83 0,435%
15/09/03 1704,31 0,314% 2243,42 0,413%
16/09/03 2002,67 0,369% 2636,16 0,486%
17/09/03 2034,91 0,374% 2678,61 0,492%
18/09/03 1994,04 0,368% 2624,81 0,484%
19/09/03 2118,89 0,392% 2789,16 0,516%
22/09/03 2784,38 0,516% 3665,15 0,680%
23/09/03 2740,08 0,510% 3606,84 0,672%
24/09/03 2652,14 0,493% 3491,08 0,649%
25/09/03 2559,40 0,475% 3369,00 0,625%
26/09/03 2444,41 0,454% 3217,64 0,598%
29/09/03 2848,53 0,533% 3749,59 0,701%
30/09/03 2714,25 0,507% 3572,84 0,668%
01/10/03 2667,07 0,500% 3510,73 0,658%
02/10/03 2666,91 0,498% 3510,53 0,655%
03/10/03 2751,88 0,511% 3622,37 0,673%
06/10/03 2587,75 0,481% 3406,32 0,633%
07/10/03 2646,18 0,493% 3483,23 0,649%
II.03(2)127
70
VaR diario en pesos
0,00500,00
1000,001500,002000,002500,003000,003500,004000,00
10/0
9/03
12/0
9/03
14/0
9/03
16/0
9/03
18/0
9/03
20/0
9/03
22/0
9/03
24/0
9/03
26/0
9/03
28/0
9/03
30/0
9/03
02/1
0/03
04/1
0/03
06/1
0/03
VaR al 95%VaR al 99%
VaR diario porcentual
0,000%0,100%0,200%0,300%0,400%0,500%0,600%0,700%0,800%
10/09
/03
12/09
/03
14/09
/03
16/09
/03
18/09
/03
20/09
/03
22/09
/03
24/09/0
3
26/09/0
3
28/09
/03
30/09/0
3
02/10
/03
04/10
/03
06/10
/03
VaR al 95%VaR al 99%
La evolución del valor en riesgo en estos días muestra una tendencia al alza, que se vio
sobre todo entre el 18 y 22 de Septiembre donde el VaR al 99% alcanzó 0.7% del valor
total del portafolio. Sin embargo, para después de estas fechas se observa una tendencia
a la estabilidad. De hecho los resultados son coherentes y generalmente no se observan
irregularidades. Este comportamiento del VaR sugeriría que la inversión en este portafolio
es de bajo riesgo, y no se pronosticaban grandes pérdidas para estos días. Lo máximo
que se llegaría a perder de un día para otro con un nivel de confianza del 99% sería 0.7%
II.03(2)127
71
del valor del portafolio. Ahora bien, si el valor del portafolio es de 1000 millones, la
máxima pérdida sería de 7 millones, lo cual es un valor razonable para una inversión de
esta magnitud.
3.2.4 Evaluación del modelo
Una de las mejores maneras de corroborar el modelo presentado para la replicación del
método en el caso del portafolio 1, es comprar lo que se predijo con los resultados
realmente observados. Como ya se sabe los precios que tuvieron los bonos TES durante
los días de la replicación, se puede mirar si el VaR si fue un indicador adecuado para
medir el riesgo. A continuación se presentan los precios de los bonos TES que conforman
el portafolio 1 desde el 9 de Septiembre hasta el 7 de Octubre de 2003.
BONOS VALOR 7 10 11 14 15 PORTAFOLIO 09/09/03 109553,42 108825,62 112739,65 112956,45 107604,77 551679,91 10/09/03 109546,48 108887,41 112607,51 112820,25 107751,97 551613,61 11/09/03 109576,54 108887,78 112740,46 112938,01 108379,17 552521,97 12/09/03 109548,64 108906,49 112712,67 112780,73 108347,62 552296,15 15/09/03 109669,70 109167,47 112982,40 112875,97 108783,42 553478,96 16/09/03 109947,11 109290,63 112835,85 112522,62 108614,86 553211,07 17/09/03 110183,38 109561,24 113026,21 112482,10 108737,25 553990,18 18/09/03 110039,87 109384,46 112873,70 112167,83 108365,29 552831,13 19/09/03 109990,40 109142,20 112630,97 112256,36 107754,12 551774,04 22/09/03 109938,08 108611,58 112002,60 111252,32 107168,02 548972,59 23/09/03 109930,77 108519,56 111875,88 110757,24 107118,58 548202,04 24/09/03 109994,63 108673,49 111923,62 110915,37 107384,94 548892,06 25/09/03 110015,55 108761,80 111904,78 111351,72 107415,72 549449,57 26/09/03 110002,00 108653,91 111694,28 111099,68 107077,15 548527,03 29/09/03 109834,75 107928,64 111076,96 110330,98 106664,72 545836,05 30/09/03 109813,53 107874,99 111150,72 110266,59 106368,26 545474,09 01/10/03 109870,80 107378,04 110718,88 110273,01 106323,47 544564,20 02/10/03 109952,41 107753,85 111098,72 110754,72 107100,37 546660,07 03/10/03 110084,93 108290,97 111704,39 111538,06 107882,04 549500,38 06/10/03 110178,17 108337,23 111704,33 111055,82 107545,02 548820,57 07/10/03 110121,95 107975,02 111538,61 110887,99 107208,62 547732,19
II.03(2)127
72
Una vez teniendo estos precios, se puede calcular la variación del valor del portafolio día
a día y saber cómo fueron evolucionando las pérdidas o ganancias día tras día, para
compararlas con los valores obtenidos para el VaR.
Variación VAR 95% VAR 99% 09/09/03 10/09/03 -66,30 -1915,69 -2521,67 11/09/03 908,36 -1968,69 -2591,43 12/09/03 -225,82 -1789,70 -2355,83 15/09/03 1182,82 -1704,31 -2243,42 16/09/03 -267,89 -2002,67 -2636,16 17/09/03 779,11 -2034,91 -2678,61 18/09/03 -1159,05 -1994,04 -2624,81 19/09/03 -1057,09 -2118,89 -2789,16 22/09/03 -2801,45 -2784,38 -3665,15 23/09/03 -770,56 -2740,08 -3606,84 24/09/03 690,02 -2652,14 -3491,08 25/09/03 557,51 -2559,40 -3369,00 26/09/03 -922,54 -2444,41 -3217,64 29/09/03 -2690,98 -2848,53 -3749,59 30/09/03 -361,96 -2714,25 -3572,84 01/10/03 -909,90 -2667,07 -3510,73 02/10/03 2095,87 -2666,91 -3510,53 03/10/03 2840,31 -2751,88 -3622,37 06/10/03 -679,81 -2587,75 -3406,32 07/10/03 -1088,38 -2646,18 -3483,23
II.03(2)127
73
P&G Portafolio 1
-5000-4000-3000-2000-1000
01000200030004000
1 3 5 7 9 11 13 15 17 19
TIEMPO
PESO
S Variación realVAR 95%VAR 99%
La gráfica anterior muestra la variación del valor del portafolio y muestra el VaR calculado
para ese portafolio (en este caso se dejó negativo, ya que se quiere hablar del VaR como
una pérdida). Se puede observar que el VaR estimado al 95% siempre está por debajo de
la mayor pérdida que tuvo el portafolio durante el periodo observado. Esto muestra que
las estimaciones de varianza usando el método EWMA fueron adecuadas ya que nunca
se obtuvieron pérdidas que superaran el VaR estimado. Claro está que hay veces que se
sobre estima el VaR, y se piensa que se va a tener mayores pérdidas que las que se
obtuvieron, y esto acarrea un costo de oportunidad. Sin embargo es bueno tomar
precauciones y mantener siempre una reserva adecuada de dinero con la cual se pueda
responder a cualquier eventualidad.
Si se obtuviera una mayor cantidad de información y se dispusiera del tiempo, se podría
hacer un seguimiento del VaR desde que se empezó a utilizar la curva cero cupón en el
año 2002. Esto sería bastante interesante saberlo debido a que los bonos en Colombia
representan la mayoría de las transacciones que se efectúan en el mercado financiero, y
por lo tanto hay un gran interés por parte de los tenedores de los títulos en saber cómo se
comportan y cómo caracterizar su riesgo.
II.03(2)127
74
CONCLUSIONES
La importancia de la realización de este trabajo radica en la exposición y desarrollo de
una metodología de trabajo que ayudó a caracterizar un problema muy usual en el sector
financiero, el cual es calcular el valor en riesgo de un portafolio de bonos TES.
La aplicación de la técnica de “mapping” para los bonos, el uso de técnicas multivariadas
como lo son los componentes principales y el desarrollo del modelo EWMA para el cálculo
de la volatilidad, hicieron que este trabajo cumpliera su primer objetivo que correspondía a
lograr cierto nivel técnico que un ingeniero debe ser capaz de manejar. Así mismo el uso
de algún lenguaje de programación, como le fue en este caso Visual Basic, muestran la
gran variedad y el alcance de las herramientas de trabajo de las cual uno se puede
ayudar en su futuro profesional.
Por otra parte es importante resaltar el trabajo en equipo que se realizó junto con Fabio
María Teresa. Estos otros dos trabajos complementan el presente trabajo ya que
globalmente tratan de enmarcar el tema del cálculo del valor en riesgo para bonos TES
usando los métodos más importantes pero enfocado en la estimación de la matriz de
varianza-covarianza. Si bien los resultados pueden diferir de un método al otro, o también
es posible que se hayan cometido errores, lo que importa fue que se estableció una
manera de trabajar en equipo que fue bastante eficiente a la hora de resolver un
problema. En lugar de que cada uno hubiera trabajado por su lado y por ende hubiera una
alta probabilidad de que se repitieran los trabajos, lo que se decidió hacer fue una división
de los métodos que aportara más al objetivo final.
Los caminos a seguir son bastante diversos, sin embargo en cuanto a este tema se
pueden realizar varias cosas. Por ejemplo existe la posibilidad de optimizar primero el
portafolio sujeto a diversos criterios para luego hacerle seguimiento al comportamiento del
VaR con diferentes horizontes de tiempo y replicar el método para ventanas de tiempo
más prolongadas que veinte días. Otra manera interesante de ver el problema es por
medio de optimización dinámica, y por ejemplo sería ir modificando el portafolio día a día
con el objetivo de ver cómo se comporta el VaR, o por ejemplo con el fin de minimizar el
VaR.
II.03(2)127
75
Por último quisiera agradecer tanto a mis compañeros, como a mi asesor Fernando
Beltrán, y a Javier Gómez que me guiaron e hicieron posible la realización de este trabajo.
II.03(2)127
76
ANEXOS
Anexo 1: Código en Visual Basic del programa elaborado
Option Base 1 Sub mapeo() Dim num_pagos, num_nodos, i As Integer Dim a() As Variant Dim pagos() As Variant Dim tiempo_nodos() As Variant Dim tiempo_pagos() As Variant Dim tasas() As Variant Dim tasa_inter() As Variant Dim VP() As Variant Dim VV As Variant 'rutina para borrar la basura 'Sheets("mapeo").Rows("3:65").Select 'Selection.ClearContents 'ciclo para copiar los datos del problema y llenar columnas j = 3 Do While Not IsEmpty(Sheets("Datos de entrada").Cells(j, 2)) Sheets("mapeo").Cells(j, 2) = Sheets("Datos de entrada").Cells(j, 2).Value Sheets("mapeo").Cells(j, 3) = Sheets("Datos de entrada").Cells(j, 3).Value 'llenado columna de tiempo Sheets("mapeo").Cells(j, 4) = (Sheets("Datos de entrada").Cells(j, 2).Value - Sheets("Datos de entrada").Cells(3, 1).Value) / 365 num_pagos = j - 2 j = j + 1 Loop 'llenado de los pagos ReDim pagos(1 To num_pagos) For i = 1 To num_pagos pagos(i) = Sheets("mapeo").Cells(2 + i, 3).Value Next i 'llenado tiempo_pagos ReDim tiempo_pagos(1 To num_pagos) For i = 1 To num_pagos tiempo_pagos(i) = Sheets("mapeo").Cells(2 + i, 4).Value Next i
II.03(2)127
77
'llenado columna de tiempo_nodos num_nodos = Sheets("Datos de entrada").Cells(2, 6).Value ReDim tiempo_nodos(0 To num_nodos) tiempo_nodos(0) = 0 For i = 1 To num_nodos tiempo_nodos(i) = Sheets("Datos de entrada").Cells(2, 7 + i).Value Next i 'llenado columna de tasas ReDim tasas(0 To num_nodos) tasas(0) = Sheets("Datos de entrada").Cells(4, 7).Value For i = 1 To num_nodos tasas(i) = Sheets("Datos de entrada").Cells(4, 7 + i).Value Next i 'llenado columna de coeficientes de interpolación y volatilidades interpoladas ReDim a(1 To num_pagos) ReDim tasa_inter(1 To num_pagos) j = 1 i = 1 Do While (j < (num_nodos + 1) And i < (num_pagos + 1)) If tiempo_pagos(i) < tiempo_nodos(j) Then a(i) = (tiempo_nodos(j) - tiempo_pagos(i)) / (tiempo_nodos(j) - tiempo_nodos(j - 1)) Sheets("mapeo").Cells(2 + i, 8).Value = tiempo_nodos(j - 1) Sheets("mapeo").Cells(2 + i, 9).Value = tiempo_nodos(j) tasa_inter(i) = (a(i) * tasas(j - 1)) + ((1 - a(i)) * tasas(j)) Sheets("mapeo").Cells(2 + i, 10).Value = tasas(j - 1) Sheets("mapeo").Cells(2 + i, 11).Value = tasas(j) Sheets("mapeo").Cells(2 + i, 12).Value = pagos(i) * a(i) * (tiempo_pagos(i) / (tiempo_nodos(j - 1)) * Exp(-(tasa_inter(i) / 100) * tiempo_pagos(i))) Sheets("mapeo").Cells(2 + i, 13).Value = pagos(i) * (1 - a(i)) * (tiempo_pagos(i) / (tiempo_nodos(j)) * Exp(-(tasa_inter(i) / 100) * tiempo_pagos(i))) Sheets("mapeo").Cells(2 + i, 14).Value = pagos(i) * Exp(-(tasa_inter(i) * tiempo_pagos(i) / 100)) * (-(tiempo_pagos(i) - tiempo_nodos(j - 1)) * (tiempo_nodos(j) - tiempo_pagos(i)) / (tiempo_nodos(j - 1) * tiempo_nodos(j))) i = i + 1 Else j = j + 1 End If Loop
II.03(2)127
78
'impresión coeficientes de interpolación For i = 1 To num_pagos Sheets("mapeo").Cells(2 + i, 5).Value = a(i) Next i 'impresion de tasas interpoladas For i = 1 To num_pagos Sheets("mapeo").Cells(2 + i, 6).Value = tasa_inter(i) Next i 'llenado de la columna del valor presente del flujo ReDim VP(1 To num_pagos) For i = 1 To num_pagos VP(i) = pagos(i) * Exp(-(tasa_inter(i) / 100) * tiempo_pagos(i)) Next i For i = 1 To num_pagos Sheets("mapeo").Cells(2 + i, 7).Value = VP(i) Next i 'MAPEADO DE LOS BONOS 'posición en efectivo C C = 0 For i = 1 To num_pagos C = Sheets("mapeo").Cells(2 + i, 14).Value Sheets("mapeo").Cells(5, 15).Value = Sheets("mapeo").Cells(5, 15).Value + C Next i 'mapeado izquierdo i = 1 j = 1 Do While (j < (num_nodos + 1) And i < (num_pagos + 1)) If Sheets("mapeo").Cells(2 + i, 8).Value = Sheets("mapeo").Cells(2, 15 + j) Then VV = Sheets("mapeo").Cells(2 + i, 12).Value Sheets("mapeo").Cells(3, 15 + j).Value = Sheets("mapeo").Cells(3, 15 + j).Value + VV i = i + 1
II.03(2)127
79
Else j = j + 1 End If Loop 'mapeado derecho i = 1 j = 1 Do While (j < (num_nodos + 1) And i < (num_pagos + 1)) If Sheets("mapeo").Cells(2 + i, 9).Value = Sheets("mapeo").Cells(2, 15 + j) Then VV = Sheets("mapeo").Cells(2 + i, 13).Value Sheets("mapeo").Cells(4, 15 + j).Value = Sheets("mapeo").Cells(4, 15 + j).Value + VV i = i + 1 Else j = j + 1 End If Loop 'mapeado total For j = 1 To num_nodos Sheets("mapeo").Cells(5, 15 + j).Value = Sheets("mapeo").Cells(3, 15 + j).Value + Sheets("mapeo").Cells(4, 15 + j).Value Next j End Sub
II.03(2)127
80
Anexo 2: Pantalla en Excel para ejecutar el programa elaborado (este es el caso del
portafolio 5)
II.03(2)127
81
BIBILIOGRAFÍA
Alexander, C., A Primer on the Orthogonal GARCH model, Febrero de 2000.
Alexander, C., Market Models: A guide to Financial Data Analysis. John Wyley & Sons,
(2001).
Best, P., Implementing Value at Risk. John Wyley & Sons, (1998).
BOLSA DE VALORES DE COLOMBIA, Métodos de Estimación de la Curva Cero Cupón para Títulos TES, Noviembre de 2002.
Fabozzi, F., Modigliani, F., Capital Markets: Institutions and instruments. Prentice Hall,
(2002).
Hull, J.C., Options, Futures, and Other Derivatives. Prentice Hall, Fifth Edition, (2003).
J.P. Morgan, RiskMetricsTM- Technical Document. Fourth Edition, New York, (1996).
Johnson, R., Wichern, D., Applied Multivariate Statistical Analysis. Prentice Hall, Fifth
Edition (2002).
Jorion, P., Value at Risk: The New Benchmark for Managing Financial Risk. McGraw-Hill,
second edition, (2000).
Mina, J., Yi, J., Return to Riskmetrics: The Evolution of a Standard. RiskMetrics, (2001).