Número 8 - Agosto 2012 - Blog...
Transcript of Número 8 - Agosto 2012 - Blog...
Aplicación de las técnicas de programación lineal a los costos y planeamiento de
las importaciones en régimen aduanero definitivo
REVISTA DE INGENIERIA INDUSTRIAL
Sensibilidad de los parámetros de un sistema de colas basado en el proceso de nacimiento y muerte Simulación de movimiento
con detectores infrarrojos pasivos
Mejora en el nivel de atención a los clientes de una entidad bancaria usando simulación Análisis de ciclo de vida de
los biocombustibles producido en el Perú
Mejoras de los procesos y de las instalaciones en tejeduría - calcetines
Reducción de la variabilidad del pH en conservas acidificadas de pimiento piquillo
Estudio de tiempos por cronometraje: caso de
operaciones de costura bajo corridas cortas
ISSN 1992-4941
Número 8 - Agosto 2012
3
Estimados lectores, en el octavo número de la revista "Holística", presentamos artículos relacionados al
campo de la ingeniería industrial.
Desde hace más de dos décadas, la ingeniería industrial ha trascendido de su campo inicial centrado en la
administración de la producción en la industria de bienes, para orientarse también a la administración de las
operaciones en la industria de servicios. Este hecho se refleja en los artículos publicados en la presente edición de
la revista.
En este número se presentan artículos relacionados a sistemas de colas, simulación, medio ambiente, producción,
control de calidad y programación lineal.
“Sensibilidad de los parámetros de un sistema de colas basado en el proceso de nacimiento y muerte”; desarrolla bajo el
proceso de nacimiento y muerte la sensibilidad del factor de utilización (relación entre las tasas de llegadas y
servicios) y los cambios que pueden ocurrir en los parámetros de colas.
“Simulación de movimiento con detectores infrarrojos pasivos”; donde el objetivo es desarrollar un simulador que
trabaje interconectado con sensores de movimiento para poder detectar la ubicación exacta de una persona dentro
de un ambiente.
“Mejora en el nivel de atención a los clientes de una entidad bancaria usando simulación”; donde se presenta un modelo
de simulación para evaluar mejoras en el desempeño de una oficina enfocadas en uno de los principales indicadores
de la percepción del servicio: la espera en colas.
“Análisis de ciclo de vida de los biocombustibles producidos en el Perú”; el objetivo del estudio fue estimar y comparar
los impactos ambientales de los biocombustibles (biodiesel y etanol) con los combustibles fósiles (diesel, gasolina
de 84 octanos, gasolina de 97 octanos y gas natural) obtenidos y utilizados en el Perú.
“Mejoras de los procesos y de las instalaciones en tejeduría – calcetines”; se describen tres casos de mejoras que
corresponden a una planta de manufactura de medias.
“Estudio de tiempos por cronometraje: caso de operaciones de costura bajo corridas cortas”; presenta una propuesta
metodológica para definir los tiempos normales de operaciones considerando que sólo se contaría con menos de 20
lecturas, tomadas durante la preproducción o en producción.
“Reducción de la variabilidad del pH en conservas acidificadas de pimiento piquillo”; se aplica la metodología SIX
SIGMA para reducir la variabilidad del pH presente en las conservas de vegetales controlando que los impactos no
alteren considerablemente al proceso.
“Aplicación de las técnicas de programación lineal a los costos y planeamiento de las importaciones en régimen aduanero
definitivo”; trata sobre la aplicación de la programación lineal entera mixta en la planificación de las importaciones
de piezas en una empresa dedicada a la manufactura y venta de componentes de acero.
La ingeniería industrial en la Pontificia Universidad Católica del Perú, durante 40 años ha estado y seguirá
comprometida con la formación de profesionales altamente calificados, que contribuyen con el desarrollo del país,
por ello los invitamos a presentar artículos para su publicación en esta revista. De esta manera Holística difundirá
las experiencias de sus egresados.
Queremos expresar nuestro agradecimiento a todos los miembros del Comité Editorial y a los autores que
presentan sus artículos en este número. Esperamos que sea útil e interesante para nuestros lectores.
Editorial
Holística Dr. Miguel Mejía Puente
Coordinador de Sección
Ingeniería Industrial
Sensibilidad de los parámetros de un sistema de colas basado en el proceso de nacimiento y muerte
Agosto 2012
3
olística
Holística Una publicación de la Sección Ingeniería Industrial del Departamento de Ingeniería de la Pontificia Universidad Católica del Perú.
Comité Editorial
Miguel Mejía Puente
Domingo González Álvarez
Carlos Romero Izaga
César Corrales Rivero
Carmen Quiroz Fernández
Editores
Wilmer Atoche Díaz
Jonatán Rojas Polo
Colaboradores para este número:
Wilmer Atoche Díaz
Walter Silva Sotillo
Luis Clemente Moquillaza
Isabel Quispe Trinidad
Jessica Yearwood Travezán
Katherine Matos Meza
José Rau Álvarez
Fernando Ormachea Freyre
Jonatán Rojas Polo
Carla Pretell Vásquez
Luis Vásquez Salinas
Luis Márquez Villacorta
Christian Cornejo Sánchez
Miguel Mejía Puente
Diseño y Diagramación:
EQUIS EQUIS S.A.
Escríbanos a: [email protected]
Pontificia Universidad Católica del Perú Av. Universitaria Cdra. 18 s/n, San Miguel, Lima 32 Teléf.: 626-2171 Fax: 626-2850
Visítenos en: http://blog.pucp.edu.pe/blog/industrialpucp
Derechos Reservados
Los artículos son de exclusiva responsabilidad de los autores.
HOLÍSTICA
De acuerdo con la Real Academia de la Lengua Española, 'holística' proviene del término 'holismo' que significa: "doctrina que propugna la concepción de cada realidad como un todo distinto de la suma de las partes que la componen". Se refiere, por lo tanto, a visualizar o ver las cosas o procesos como un todo, pudiendo apreciar las interacciones entre los distintos subsistemas que conforman el sistema y que no podrían ser apreciados si sus partes son estudiadas por separado y no como un conjunto integrado. La holística proviene del griego holos, que significa entero, completo, todo, íntegro y organizado. Corresponde, por consiguiente, a una actitud integradora que permite la comprensión contextual de los procesos, de los protagonistas y de sus contextos.
INDICE
Mejora en el nivel de atención a los
clientes de una entidad bancaria
usando simulación
Simulación de movimiento con
detectores infrarrojos pasivos
Mejoras de los procesos y de las
instalaciones en tejeduría - calcetines
Análisis de ciclo de vida de los
biocombustibles producido en el Perú
Estudio de tiempos por cronometraje:
caso de operaciones de costura bajo
corridas cortas
Sensibilidad de los parámetros de un
sistema de colas basado en el proceso
de nacimiento y muerte
Editorial
Reducción de la variabilidad del pH
en conservas acidificadas de pimiento
piquillo
Aplicación de las técnicas de
programación lineal a los costos y
planeamiento de las importaciones en
régimen aduanero definitivo
3
5
11
17
23
31
45
59
R E V I S T A D E I N G E N I E R I A I N D U S T R I A L
ISSN 1992-4991 versión impresa
Hecho el Depósito Legal en la Biblioteca Nacional del Perú N° 2012-10018
Sensibilidad de los parámetros de un sistema de colas basado en el proceso de nacimiento y muerte
Agosto 2012
5
Wilmer Atoche Díaz
Pontificia Universidad Católica del Perú
Resumen
Esta investigación desarrolla bajo el proceso de nacimiento y muerte la sensibilidad del factor de
utilización (relación entre las tasas de llegadas y tasas de servicios) y los cambios que pueden ocurrir en
los parámetros de colas.
Los sistemas de colas son de uso diario en nuestra vida cotidiana, si vamos al supermercado, al banco, al
hospital, etc. Siempre nos preguntamos; ¿Cuántos clientes existen en el sistema de colas?, ¿Cuánto tiempo
estaré en el sistema de colas?, ¿Cuánto tiempo pasa antes de que me empiecen a atender? o ¿Cuánta cola
(clientes esperando el servicio) existe?
Los cálculos de los parámetros de colas ocurren bajo supuestos de tasas constantes, pero en los sistemas
reales estos supuestos pueden tener ciertas variaciones, no previstas en el modelo original causando
problemas en las líneas de espera, no solo económicos, sino también de comunicaciones y en algunos casos
graves hasta pueden colapsar.
SSeennssiibbiilliiddaadd ddee llooss ppaarráámmeettrrooss ddee
uunn ssiisstteemmaa ddee ccoollaass bbaassaaddoo eenn
eell pprroocceessoo ddee nnaacciimmiieennttoo yy mmuueerrttee
Sensibilidad de los parámetros de un sistema de colas basado en el proceso de nacimiento y muerte
Agosto 2012
6
1. Introducción
Se describe los componentes de un sistema de colas
en forma general y luego se desarrolla en el estado
estable, el modelo M/M/s/K1 usando el proceso de
nacimiento y muerte, para s=1.
Una vez obtenida la función de probabilidad para el
sistema de colas, se calcula los cuatro parámetros o
cantidades fundamentales.
L: Numero esperado de clientes en el
sistema.
Lq: Longitud esperada de la cola.
W: tiempo esperado en el sistema
(incluye el tiempo de servicio).
Wq: tiempo de espera en la cola.
La investigación hace la variación del modelo
M/M/s/K al modelo M/M/s y concluye con el
análisis de sensibilidad de L, teniendo
herramientas suficientes para prever que el sistema
permanezca estable para los cambios en las tasas
de llegadas o de servicio.
2. Desarrollo del modelo basado en el
proceso de nacimiento y muerte
Modelo M/M/s=1/K
Se tiene un sistema de colas de un servidor (s=1) y
capacidad finita (K), esto hace que el sistema
rechace los clientes cuando este está lleno, es decir
desde el punto de vista del sistema de nacimiento y
muerte, la tasa media de llegada se hace cero y la
tasa de servicio permanece invariante, es decir:
1 M/M/s/K: Modelo de colas con distribución de tiempos entre
llegadas y tiempos de servicio exponenciales, s representa el
número de servidores y K la capacidad del sistema.
Luego se obtiene:
Se sabe, entonces la función de probabilidad de
que exista n clientes en el sistema es:
Se puede tener entonces:
L: Numero esperado de clientes en el
sistema,
Lq: Longitud esperada de la cola, se tiene la
relación Lq = L - (1-P0) y con (3) y (5),
donde: 2. También se pude tener
tasa de llegadas promedio al sistema,
2 Si =1, es necesario aplicar la regla de L´Hôspital
(1)
NnKn
Knn
,
;0
1;
Nnn ;
y
(4)
1;1
1
1;1
11
K
P
n
K
n
(7) KP 1
(5)
1;1
1
1 1
1
K
KKL
(6)
1;1
1
1 1
12
K
K
q
KL
(3)
desarrollando se tiene ,1
0
0
K
n
Cn
P
1;1
1
1;1
11
0
K
PK
Sensibilidad de los parámetros de un sistema de colas basado en el proceso de nacimiento y muerte
Agosto 2012
7
y usando las fórmulas de Little3 se obtienen, W:
tiempo esperado en el sistema (incluye el tiempo
de servicio) y Wq: tiempo de espera en la cola
Variación al modelo M/M/s=1
Si hacemos en los resultados anteriores ρ < 1 y K
lo suficientemente grande, esto hace que cambien:
La probabilidad de que el sistema este vacío,
y se tiene la función de probabilidad de que
existan n clientes en el sistema.
L: Numero esperado de clientes en el sistema,
Lq: Longitud esperada de la cola,
3 John D.C. Little proporcionó la primera demostración de
qq WLyWL
También se puede tener : tasa de llegadas
promedio al sistema usando el límite en (7),
y usando nuevamente las fórmulas de Little se
obtienen W: tiempo esperado en el sistema
(incluye el tiempo de servicio) y Wq: tiempo de
espera en la cola,
3. Análisis de Sensibilidad
Analizamos la sensibilidad del factor .
Se tiene el diferencial total
donde las derivadas parciales respecto a las tasas
son:
luego se tiene la sensibilidad relativa.
La variación porcentual del factor de utilización
depende de la diferencia de variaciones
porcentuales de la tasa de llegada y la tasa de
servicio respectivamente.
En el modelo M/M/s=1/K, analizamos la
sensibilidad de la probabilidad de que el sistema
este vacío de la ecuación (3),
101
1lim
KK
P
10P (9)
(10) NnP n
n ;1
(12)
1
12
1
1
1lim
K
K
Kq
KL
1
2
qL
ddd
,
LW
q
q
LW (8)
(11)
1
1
1
1
1lim
K
K
K
KL
1L
KK
P1lim (13)
,
LW
q
q
LW (14)
ddd
1
2y (15)
y diferenciando, 10
1
1
KP
Sensibilidad de los parámetros de un sistema de colas basado en el proceso de nacimiento y muerte
Agosto 2012
8
Análogamente analizamos la sensibilidad de L:
Número esperado de clientes en el sistema de la
ecuación (5)
se puede obtener la expresión para el modelo
M/M/s=1/K
Empleando el límite en (17),
Se tiene la expresión para el modelo M/M/s=1.
y luego relacionando los valores iniciales con las
variaciones se obtiene,
donde L´ es el valor estimado para la variación de
tasas y L0 es el valor original.
Se puede calcular P´0 usando la ecuación (16), de
donde se obtiene
y también L´q usando la expresión lineal
4. Variación al modelo M/M/s=1
Los siguientes resultados se obtienen usando MS
Excel para un modelo M/M/s=1/K con una
diferencia de variaciones porcentuales entre tasas de
5%. Se tomó este valor como valor límite para el
modelo puesto que está basado en el cálculo dife-
rencial y solo se hace referencia al número de
clientes en el sistema, L, por ser este el valor que
puede ser usado para obtener las otras cantidades
fundamentales.
En el gráfico 1, se puede comparar ambos modelos
(L’ y L) para el rango de valores de ρ que van de
valores pequeños hasta menores a 0.8, el error no
supera el 5%, esto da una consistencia al modelo
matemático basado en la sensibilidad.
(16)
dK
P
dPK
K
11
11
1
0
0
y diferenciando,
(17)
1
1
1
1
1
K
KKL
d
KdL
K
K
21
2
21
1
1
d
K
K
L
dLKKK
KK
1111
1111
2221
d
K
K
L
dLKKK
KK
K
1111
1111
2221
lim
(18)
d
L
dL
1
1
)1(´0
0L
dLLL (19)
(20)
0
000 1
P
dPPP
01 PLLq
se obtiene
d
KKdP
K
KK
21
1
0
1
11
Sensibilidad de los parámetros de un sistema de colas basado en el proceso de nacimiento y muerte
Agosto 2012
9
Gráfico 1. Valor absoluto del error porcentual para diferentes valores de K.
Elaboración propia
En el anexo 1, se puede apreciar el incremento del
valor absoluto del error porcentual del número
esperado de clientes en el sistema a medida que se
acerca el factor de utilización ρ a 0.9, sin embargo
este valor no supera el 12% para valores de K
menores a 50.
En el caso que la capacidad K del sistema crece a
valores superiores a 200 los errores que se cometen
para valores cercanos a 1 hacen que el modelo no
sea confiable. Sin embargo se puede apreciar en el
mismo anexo que para valores inferiores de ρ a 0.8
el error porcentual no cambia.
.
Anexo 1. Valores de L´ y L para diferentes valores de K
modelo M/M/s=1/K (variación de factor de utilización dr = 5%)
K=10 K=25 K=50 K=200 K>2000
L´ L |Error| L' L |Error| L' L |Error| L' L |Error| L' L |Error|
0.05 0.055 0.055 0.01% 0.055 0.055 0.01% 0.055 0.055 0.01% 0.055 0.055 0.01% 0.055 0.055 0.01%
0.1 0.117 0.117 0.03% 0.117 0.117 0.03% 0.117 0.117 0.03% 0.117 0.117 0.03% 0.117 0.117 0.03%
0.15 0.187 0.187 0.05% 0.187 0.187 0.05% 0.187 0.187 0.05% 0.187 0.187 0.05% 0.187 0.187 0.05%
0.2 0.266 0.266 0.07% 0.266 0.266 0.07% 0.266 0.266 0.07% 0.266 0.266 0.07% 0.266 0.266 0.07%
0.25 0.356 0.356 0.11% 0.356 0.356 0.11% 0.356 0.356 0.11% 0.356 0.356 0.11% 0.356 0.356 0.11%
0.3 0.459 0.46 0.15% 0.459 0.46 0.15% 0.459 0.46 0.15% 0.459 0.46 0.15% 0.459 0.46 0.15%
0.35 0.58 0.581 0.19% 0.58 0.581 0.20% 0.58 0.581 0.20% 0.58 0.581 0.20% 0.58 0.581 0.20%
0.4 0.722 0.723 0.26% 0.722 0.724 0.27% 0.722 0.724 0.27% 0.722 0.724 0.27% 0.722 0.724 0.27%
0.45 0.89 0.893 0.33% 0.893 0.896 0.36% 0.893 0.896 0.36% 0.893 0.896 0.36% 0.893 0.896 0.36%
0.5 1.092 1.096 0.40% 1.1 1.105 0.48% 1.1 1.105 0.48% 1.1 1.105 0.48% 1.1 1.105 0.48%
0.55 1.334 1.341 0.48% 1.358 1.367 0.65% 1.358 1.367 0.65% 1.358 1.367 0.65% 1.358 1.367 0.65%
0.6 1.625 1.634 0.53% 1.687 1.703 0.90% 1.687 1.703 0.90% 1.688 1.703 0.90% 1.688 1.703 0.90%
0.65 1.971 1.982 0.56% 2.122 2.148 1.26% 2.122 2.15 1.28% 2.122 2.15 1.28% 2.122 2.15 1.28%
0.7 2.376 2.389 0.54% 2.717 2.765 1.78% 2.722 2.774 1.89% 2.722 2.774 1.89% 2.722 2.774 1.89%
0.75 2.836 2.849 0.46% 3.566 3.654 2.45% 3.6 3.706 2.94% 3.6 3.706 2.94% 3.6 3.706 2.94%
0.8 3.344 3.356 0.34% 4.818 4.968 3.10% 4.998 5.243 4.90% 5 5.25 5.00% 5 5.25 5.00%
0.85 3.885 3.892 0.18% 6.661 6.877 3.24% 7.51 8.147 8.49% 7.556 8.302 9.88% 7.556 8.302 9.88%
0.9 4.437 4.438 0.01% 9.208 9.427 2.38% 12.653 14.165 11.95% 13.5 17.18 27.26% 13.5 17.182 27.27%
0.95 4.982 4.975 0.14% 12.276 12.359 0.68% 22.913 24.458 6.74% 37.926 91.608 141.5% 38 399 950.0%
0.99 5.399 5.386 0.24% 14.738 14.643 0.65% 33.524 32.894 1.88% 207.11 174.77 15.62% 594 9974.7 1579%
Sensibilidad de los parámetros de un sistema de colas basado en el proceso de nacimiento y muerte
Agosto 2012
10
5. Conclusiones Los cálculos son confiables para aplicarlos a
cualquier sistema de colas estable y que pueden
sufrir pequeñas variaciones porcentuales.
Se pueden hacer los cálculos usando un programa
computacional en cualquier lenguaje de programación.
Si la tasa de llegadas, λ se incrementa un valor de
p% y la tasa de servicio, μ se incrementa q% en un
sistema de colas M/M/s=1/K, entonces el valor de ρ
se incrementa (p-q) %. El cálculo diferencial es
usado para pequeñas variaciones, es por ello que el
presente modelo es válido para variaciones de ρ
menores al 5 %.
Si en un sistema de colas se incrementa el valor de ρ
en un valor porcentual por debajo del 5% y el valor
de ρ es menor a 0.8, entonces se puede predecir el
cambio en los parámetros de colas para L en
cualquier modelo de colas M/M/s=1/K, obteniendo
errores porcentuales aceptables.
Si se obtiene el valor estimado por sensibilidad L,
entonces las otras cantidades fundamentales W, Wq
y Lq se pueden obtener directamente usando las
fórmulas de Little.
Si se incrementa los valores ºde K los errores son
mayores para valores de ρ cercanos a uno, esto
debido a la inestabilidad del sistema.
Se puede desarrollar de manera similar el modelo
M/M/s/K, para el caso de tener más de un servidor
(s>1) y con este analizar la sensibilidad de todos
los parámetros
6. Bibliografía
Hillier F. S. / Lieberman G.J (2002) Investigación de operaciones, Mexico:McGraw-Hill
Winston W. L. (2005), Investigación de operaciones: Aplicaciones y Algoritmos,
Mexico:Thomson
Bronshtein I. / Semendiaev K (1982), Manual de matemáticas, Moscu MIR
Apostol T. M. (1985) Calculus, Barcelona : Reverte
Agosto 2012
Walter Silva Sotillo
Pontificia Universidad Católica del Perú
Resumen
Esta investigación fue desarrollada en los laboratorios del LESI (Laboratorio de Electrónica, Señales e
Imágenes) de l’Ecole Polythecnique de l’Université d’Orléans. El objetivo principal es desarrollar un
simulador que trabaje interconectado con sensores de movimiento para poder detectar la ubicación exacta
de una persona dentro de un ambiente. Por su bajo costo, este tipo de proyectos (de interés a la empresa
privada) está en prioridad dentro de la gama de investigaciones que se vienen desarrollando en Europa.
1. Objetivo:
El objetivo de esta investigación es el de simular la
trayectoria seguida por una persona con sensores
infrarrojos de tipo Spirit. Podemos ver en el
gráfico 1 el camino que sigue una persona, la
manera como los sensores detectan su presencia y
como una video cámara sigue el movimiento de
intrusos. Esta investigación comprende la
modelización utilizando uno y dos sensores de
movimiento
.
Gráfico 1. Esquema de detección
SSiimmuullaacciióónn ddee mmoovviimmiieennttooss ccoonn
ddeetteeccttoorreess iinnffrraarrrroojjooss ppaassiivvooss
Simulación de movimiento con detectores infrarrojos pasivos
Agosto 2012
12
2. El sensor:
El sensor está compuesto de 15 áreas, divididas por
zonas de detección. Tenemos las áreas más
próximas del sensor en color azul (7 en total) y las
áreas de detección más lejanas en color rojo (8 en
total). Para una mejor comprensión ver el gráfico
2. Obsérvese que entre cada área de detección hay
zonas “en blanco” (del ancho de 1 grado) donde no
se detecta presencia alguna. Ahora bien, la
probabilidad de tener intrusos tan delgados es nula.
Las zonas de detección dependen de la altura de
los sensores y de su inclinación. En el gráfico 3,
podemos ver la posición relativa entre dos zonas de
detección (la primera está lejos del captador y la
otra mas próxima). Tenemos entonces que las
zonas de detección más próximas tienen un ángulo
β menor que las zonas de detección más lejanas de
la fuente.
El ángulo β vale 86° y el ángulo de inclinación del
captador es regulable. Como los sensores detectan
el calor emitido por el cuerpo humano, las zonas de
detección cubren la parte del intruso entre la
cabeza y la cintura (es el área del cuerpo humano
donde existe la mas grande emisión de calor).
Hay que remarcar que cada sensor puede detectar
la presencia de una persona bajos ciertas
condiciones. Las zonas de detección más próximas
del sensor están numeradas del 1 al 7 y las más
lejanas del 8 al 15.
En el gráfico 4, las áreas numeradas del 1 al 7
tienen 2 líneas verticales que las atraviesan, estas
líneas corresponden a la zona de detección. Esta
zona está definida con un intruso de talla promedio
de 1,80m. Así, una zona será activa solo si la
intersección entre la zona y el intruso tiene una
altura comprendida entre 1,00m (cintura) y 1,80m
(cabeza).
Para las áreas de detección entre 8 y 15 sucede lo
mismo. Si el intruso pasa por un ambiente
cualquiera, el sensor se activará por algunos
instantes (en promedio 50ms) y sabremos que el
intruso está dentro de una zona de detección pero
sin saber exactamente donde (a que distancia de la
fuente).
Existe un espacio entre cada zona de manera que la
detección no es continua. Por ejemplo, entre las
zonas de detección 4 y 5 existe la zona 12 pero está
desfasada.
Gráfico 2. Características de un sensor
Gráfico 3. Posición relativa entre
dos zonas de detección
Simulación de movimiento con detectores infrarrojos pasivos
Agosto 2012
13
Las principales funcionalidades del sensor son:
En un sistema de detección donde hay
múltiples sensores, cada sensor puede ser
puesto en acción y fuera de servicio
individualmente.
En cada detección, el sensor envía su número
de identificación y el número de zona que
detecta al intruso. El sensor tiene un alcance de
27 metros aproximadamente.
Cuando el intruso sale del campo de acción de
una zona de detección, la zona siguiente de
detección lo detecta (si aún está en el rango de
acción).
La memorización de eventos permite
salvaguardar las informaciones adquiridas por
si hay un problema de corte de energía o de
transmisión.
Cuando el sensor detecta la energía infrarroja
emitida por el intruso, se activa. La energía
producida por una persona no es la misma que
produce un animal de talla pequeña como un gato
o un ave. El sensor puede examinar la información
electrónica y saber cuando activar la alarma
(intruso humano) o quedarse en reposo (en caso
sea un animal o una señal extraña).
Los sensores utilizan una lentilla llamada “Lentilla
de Fresnel” que permite hacer converger las
informaciones de variación rápida de un cuerpo
caliente en movimiento hacia un componente
electrónico llamado sensor piro-eléctrico. La
lentilla permite también amplificar la señal
infrarroja para obtener una mejor sensibilidad.
La pregunta a plantear es: ¿Por qué utilizar
sensores infrarrojos y no otros? Veamos la tabla1
De estas informaciones, el precio es uno de los
principales factores, es necesario utilizar varios
sensores para cubrir toda una región a analizar.
Adicionalmente, la detección de movimiento es
mejor con los sensores pasivos que con los de
barrera y se puede detectar una actividad física lo
cual es más difícil con los de barreras y los sistemas
a base de ondas.
3. La Simulación
Esta investigación modela con la ayuda del
simulador arena 9.0 un sistema utilizando 1 detector
y con 2 detectores, comparando el camino real
seguido por el intruso con el camino simulado.
Las simulaciones se efectuaron para un ambiente
arbitrario de 18m x 26m, con una puerta de entrada
en la zona oeste y una de salida en la zona sur.
En la simulación con un sensor (gráfico 5) observamos
una diferencia significativa entre el camino real
seguido por un intruso y la simulación efectuada por el
simulador. Evidentemente, hay zonas donde no hay
detección o sobre las mismas zonas pudiera no
efectuarse detección alguna. Esto se daría en el caso
por ejemplo que el intruso se desplace agachado o que
él pueda calcular las zonas de detección y en base a
ello moverse dentro de la pieza.
Gráfico 4. Zonas de detección de un sensor
Zonas de detección
Gráfico 5: Simulación efectuada con un sensor
ingr
eso
Simulación de movimiento con detectores infrarrojos pasivos
Agosto 2012
14
El simulador utiliza los puntos medios de las zonas
de detección cuando el intruso atraviesa dichas
zonas para simular su ubicación. De ahí que en la
simulación de la trayectoria se tenga que los
desplazamientos van de puntos medios a puntos
medios sobre las zonas de detección.
Como vemos, existen muchas zonas no cubiertas
por el detector, por ello se utilizan más detectores
para triangular posiciones. Veamos que pasa en el
mismo ambiente y para la misma ruta seguida por el
intruso pero ahora con dos sensores. ¿Cómo quedará
el camino simulado?
La ruta simulada en este caso es más cercana a la
real que la correspondiente con un solo detector.
Nótese que, como en el caso anterior, ésta es muy
sensible tanto a la ruta seguida por el intruso como a
la ubicación de los detectores. Por ello, conviene
ubicar un sensor siempre de frente al acceso al local
(para que defina la posición de inicio del intruso) y
luego triangular los otros sensores.
Dada la configuración del modelo, es fácil predecir
posibles movimientos futuros del intruso (rutas a
seguir), de manera que los administradores del
sistema sepan hacia donde podría desplazarse.
4. Conclusiones y trabajo futuro
El gran problema que se tiene con la simulación
usando sensores de tipo spirit es que uno puede
saber en qué área de detección se encuentra el
intruso (numeradas del 1 al 15), siempre y cuando
pase por la zona de detección de cada área. Ahí el
simulador toma el punto medio para representar su
posición.
En la actualidad hay estudios que se están
desarrollando para poder medir la distancia entre el
intruso y la fuente del detector así como el sentido
de desplazamiento (de derecha a izquierda o en
sentido inverso). Ello haría más precisa la
simulación.
Es necesario evaluar todas las posibilidades de
movimiento real para poder simular de manera
general cualquier caso. Un solo sensor no cubre toda
la superficie. Las áreas no cubiertas son más
grandes que aquellas que el sensor cubre. Si se
quiere una mejor cobertura en la estimación, será
necesario utilizar varios sensores para cubrir más
espacio.
Las áreas no cubiertas dentro de la simulación son
más grandes que las áreas cubiertas (en ambos
casos), por ello se recomienda utilizar varios
sensores (dispuestos estratégicamente) para cubrir
todo el espacio que sea posible. Ahí se puede
trabajar con Problemas de Programación Lineal
(PPL) y formular modelos de localización de
sensores, siendo conocidos el rango de cobertura y
el número de sensores máximos disponibles.
El ángulo de inclinación de los detectores también
es importante pues influye en la detección. En este
estudio se utilizó una talla promedio de 1.80 metros.
Se hará necesario hacer estudios antropométricos de
la población (principalmente la talla) para tener no
solo un ángulo de ubicación óptimo de los
detectores sino también una altura óptima de
ubicación.
El uso del simulador Arena en este estudio ayudó en
la simulación. Podría modelarse el mismo caso
utilizando Cadenas de Markov o teoría de Grafos,
pero estas últimas herramientas pierden poder ante
el aumento del número de detectores (aumenta el
grado de las matrices o el número de nodos)
Gráfico 6: Simulación efectuada con dos sensores
entr
ada
Simulación de movimiento con detectores infrarrojos pasivos
Agosto 2012
15
Tabla 1: Información de distintos tipos de sensores
Tipo de detector
Niv
el d
e in
form
ació
n /
re
solu
ció
n Información
Precio Principales problemas D
ete
cció
n d
e m
ovi
mie
nto
Nú
me
ro d
e u
suar
ios
Ide
nti
fica
ció
n d
e p
ers
on
as
Loca
lizac
ión
de
pe
rso
nas
Act
ivid
ad f
ísic
a
IR pasivo Bajo + - - - +/- Bajo Baja resolución
Barreras de luz Bajo +/- + - - - Bajo Baja resolución
Detectores de ondas Bajo + - - - - Medio Baja resolución y precio
muy elevado
Ultrasonido (simple)
Bajo + - - - - Bajo Baja resolución
Ultrasonido (inteligente)
+/-Bajo + +/- - +/- +/- Medio Bajo precio
Catador de choque Alto + - - - +/- Medio Instalación compleja
Cámara IR Muy alto + + - + + Muy alto Pecio muy elevado
360° PIR Muy alto + + - + + Medio Ruido mecánico
Transpondedor Bajo - - + - - Medio Bajo nivel de información
Cámara - video Muy alto + + +/- + + Alto Algoritmos complejos,
crítico con luz insuficiente
Sistemas biométricos Bajo - + + - - Alto Bajo nivel de información,
factores sicológicos
Fuente: “Presence detection and person identification in Smart Homes”. B. Ibanov, H. Ruser and M. Kellner
Elaboración propia
Simulación de movimiento con detectores infrarrojos pasivos
Agosto 2012
16
5. Referencias
Arora, A line in the sand: A wireless Sensor Network for target Detection, Classification, and
Tracking. Ohio State University, et. al, 2003
H. Karl, A. Willig. A short survey of wireless sensor networks
J. Burchett. Biometric classification and sequence-based tracking of human subjects using distributed
networks of pyroelectric boundary sensors. Department of Electrical and Computer engineering Duke
University, et al, 2005. Dissertation submitted in partial fulfillment of the requirements for the degree
of Doctor of Philosophy in the Department of Electrical and Computer Engineering in the Graduate
School of Duke University
S. de Vlamm. Object tracking in a multi sensor network. Delft University of Technology. The Hague,
2004. Delft University of Technology Computer Engineering, Parallel and Distributed Systems. TNO
Physics and Electronics Laboratory Smart Sensor Solutions, Networked Embedded Systems.
M. Shankar. Biometric Tracking with Coded Pyroelectric Sensor Clusters Fitzpatrick Center for
Photonics and Communications, Duke University, Durham, NC;
W. Kelton. Simulation with Arena. Third Edition. Mc. Graw Hill.
Jeffrey Smith, Brett Peters, Sabina Jordan. Distributed Real-Time Simulation for intruder detection
system analysis. Proceedings of the 1999 Winter Simulation Conference.
Suivi de cible par détecteur infrarouge passif a reconnaissance de faisceau mis en réseau sans fils.
Technext 2006.
Mejora en el nivel de atención a los clientes de una entidad bancaria usando simulación
Agosto 2012
1
Luis Clemente Moquillaza
Pontificia Universidad Católica del Perú
Resumen
Uno de los canales de atención más importante de un banco es el referido a la atención
personalizada en oficinas, no sólo por el número de transacciones que allí se realizan a diario,
sino por ser el punto de contacto directo con los clientes, y porque del servicio que allí se
brinde depende en gran parte la imagen que pueda tener una persona sobre la empresa.
En este artículo se presenta un modelo de simulación para evaluar mejoras en el desempeño de
una oficina enfocadas en uno de los principales indicadores de la percepción del servicio: la
espera en colas.
1. El Sistema de Colas actual:
Dada la naturaleza confidencial de la información,
los datos aquí mostrados no reflejan
necesariamente la realidad. Sólo se muestran para
probar la utilidad del modelo de simulación en la
mejora del desempeño de las oficinas.
Como cualquier empresa, el banco segmenta a sus
clientes según pautas de marketing para determinar
las estrategias adecuadas en cada sector. Como es
de esperarse, estos grandes grupos de clientes (de
ahora en adelante “clientes tipo 1, 2 y 3”, siendo el
cliente 1 el de mayor prioridad) tienen distintas
metas en acciones de venta, productos y servicio
(básicamente tiempos de espera).
MMeejjoorraa eenn eell nniivveell ddee aatteenncciióónn aa llooss
cclliieenntteess ddee uunnaa eennttiiddaadd bbaannccaarriiaa
uussaannddoo ssiimmuullaacciióónn
Mejora en el nivel de atención a los clientes de una entidad bancaria usando simulación
Agosto 2012
18
Tabla 1: Proporción de arribos a nivel nacional
por tipo de cliente
Lima Provincias Nivel Nacional
Porcentaje Porcentaje Porcentaje
Cliente tipo 1 7.50% 5.50% 6.60%
Cliente tipo 2 54.50% 48.70% 52.00%
Cliente tipo 3 38.00% 45.80% 41.40%
Fuente: La empresa
Elaboración propia
Se puede observar en la Tabla 1 que la proporción
de arribos correspondientes a estos tres grupos de
clientes no es similar, por lo que es necesario un
manejo especializado de la cola para poder
satisfacer las necesidades específicas de cada tipo
de cliente. Para esto se adquirió un Sistema
Administrador de Colas (o simplemente “QSM”)
que balancee y priorice la atención de los clientes
mediante un algoritmo interno que consiste
básicamente en 4 pasos:
El cliente llega a la oficina y el sistema emite
un ticket impreso según la clasificación que le
corresponda al cliente.
Cuando una ventanilla se desocupe, el sistema
multiplica todos los tiempos de espera de los
tickets emitidos que aún no han sido atendidos
por un factor determinado según el tipo de
cliente.
El ticket con la mayor ponderación según este
cálculo es llamado a atenderse mediante un
aviso en el televisor de la oficina.
El cliente se acerca a ventanilla para iniciar el
proceso de atención.
Este algoritmo es el que se emplea actualmente
pues es el que mejor balancea la priorización propia
de los clientes y los tiempos de espera en la cola. El
factor de ponderación que emplea el QSM puede
ser variado según necesidades del sistema, pero por
temas de estandarización, se han creado hasta tres
perfiles de atención que pueden ser asignados a
cada ventanilla y que difieren uno del otro en los
factores de ponderación usados para cada tipo de
cliente, como puede verse en la Tabla 2
Tabla 2: Perfiles de atención del QMS
Factor Cliente
Tipo 1 Factor Cliente
Tipo 2 Factor Cliente
Tipo 3
Perfil 1 25 10 5
Perfil 2 10 25 10
Perfil 3 5 5 25
Fuente: La empresa
Elaboración propia
Adicionalmente a los tres grandes grupos de
clientes, existen otros con una participación
menor pero con prioridad de atención superior a
todos (derivados de otros canales, clientes
especiales como embarazadas o personas
mayores, etc)
Para controlar la adecuada gestión de la cola, se
cuenta con 3 indicadores básicos relacionados a la
espera en la cola por tipo de cliente. En el Gráfico
1 se puede apreciar el esquema seguido para el
planteamiento de estos indicadores.
Gráfico 1: Esquema para cálculo de indicadores
Cliente 3
Cliente 2
Cliente 1
0
10
20
30
40
espera
(min)
Bien Atendido
Tolerancia
Mal Atendido
Fuente: La Empresa
Elaboración propia
Mejora en el nivel de atención a los clientes de una entidad bancaria usando simulación
Agosto 2012
19
Espera promedio: La meta es de 4, 10 y 20
minutos por tipo de cliente
Nivel de atención: Porcentaje de tickets “bien
atendidos” sobre el total de tickets emitidos.
Fuera de rango: Porcentaje de tickets “mal
atendidos” sobre el total de tickets emitidos.
Todas estas consideraciones se encuentran presentes
en todas las oficinas, sin embargo es necesario
realizar un análisis independiente de cada caso pues
el comportamiento no es exactamente igual en todas
ellas. Incluso, es necesario un análisis diferenciado
según los momentos de más arribos en la oficina.
Para ello se trabaja con tres tipos de día: fines de
semana, días pico (viernes, quincena y fin de mes,
días previos a feriados largos) y días valle (los de
menos arribos).
En la Tabla 3 se muestran los indicadores actuales
de la oficina elegida para el análisis
Tabla 3: Indicadores de gestión – niveles actuales
Indicador Unidad de
medida Tipo de Cliente Día Valle Día Pico
Fin de Sem.
Espera promedio
Minutos
Cliente tipo 1 2.95 3.29 2.84
Cliente tipo 2 6.88 7.45 7.15
Cliente tipo 3 10.05 11.03 10.83
Nivel de Atención
%
Cliente tipo 1 70.48 67.81 70.05
Cliente tipo 2 75.29 70.77 70.98
Cliente tipo 3 81.44 79.03 81.01
Nivel de Oficina 77.66 73.66 74.32
Fuera de Rango %
Cliente tipo 1 5.02 5.26 2.77
Cliente tipo 2 9.13 8.78 6.83
Cliente tipo 3 8.73 9.64 7.55
Nivel de Oficina 8.85 9 7
Fuente: La Empresa
Elaboración propia
2. Diseño del Modelo
El modelo de simulación creado sirve para
evaluar el impacto de la modificación de los
parámetros propios del QSM (se decidirá que tipo
de perfil de atención asignar a cada ventanilla
disponible) en los indicadores de gestión,
manteniendo constante los otros parámetros
propios de este sistema de colas, esto es, tasa de
llegadas, tiempos de servicio, número total de
ventanillas disponibles por turno, etc.
Para la simulación de la llegada de clientes a la
oficina, se analizó la historia de 4 meses típicos,
obteniendo la tasa de arribos de cada tipo de cliente
por hora durante un día tipo (haciendo la diferencia
entre días pico, valle y fin de semana antes
mencionada). No se consideró una tasa constante
durante todo el día por las variaciones de demanda
diferentes en cada turno en la oficina (p.e. mayor
concentración de clientes a media mañana y al final
de día).
Mejora en el nivel de atención a los clientes de una entidad bancaria usando simulación
Agosto 2012
20
En la Tabla 4 se muestra la composición de la
clientela para cada día típico.
Tabla 4: Promedio diario de arribos
Arribos diarios por tipo de día
Valle Pico Fin de Semana
Cliente tipo 1 32.00 33.00 11.00
Cliente tipo 2 612.00 805.00 396.00
Cliente tipo 3 445.00 470.00 203.00
Fuente: La Empresa
Elaboración propia
Para el cálculo de la tasa de abandono en un inicio se
planteó la idea de usar una única tasa histórica
representada por un porcentaje fijo de abandono de
tickets, pero luego de una primera revisión se vio que
si se desea mejorar los tiempos de espera, la tasa de
abandono debería también reducir. Por ello se usaron
intervalos de espera históricos y se calculó el
porcentaje de tickets abandonados en cada intervalo.
Así se construyó, mediante un análisis de regresión,
una tasa de abandono que dependía directamente del
tiempo de espera de cada tipo de cliente. Tabla 5: Tasa de abandono por tipo de cliente
Tipo de Cliente Tiempo de espera (x)
probabilidad de abandono
Cliente tipo 1
x ≤ 2.33 0.0016x + 0.0789
2.33 < x ≤ 6 0.0283x + 0.039
6 < x 0.13
Cliente tipo 2 x ≤ 31.66 0.0049x + 0.0762
31.66 < x 0.26
Cliente tipo 3 x ≤ 58.5 0.006x + 0.1906
58.5 < x 0.58
Fuente: La Empresa
Elaboración propia
El tiempo de servicio de los clientes se calculó
teniendo en cuenta la pericia del usuario (llamados
promotores de servicio), el tipo de cliente y el turno
de atención, esto último debido a que por política del
banco los promotores sólo trabajan un turno por día.
Para representar el tipo de perfil de atención de cada
ventanilla, se trabajó con horarios asignados a cada
recurso (en este caso las ventanillas mismas) para de
esta manera decidir que ventanillas y qué perfiles
“activar” o no en cada turno de atención.
En la Tabla 6 se muestra la cantidad de promotores
que emplean determinado tipo de ventanilla, donde
DS = promotor con desempeño superior,
DM = promotor con desempeño medio,
DI = promotor con desempeño inferior.
Tabla 6: Configuración actual de ventanillas
Día Valle Día Pico Fin de
Semana
Mañana Tarde Mañana Tarde Único
Perfil 1
2 DS 2 DS 2 DS 2 DS 2 DS
1 DM 2 DM 1 DM 2 DM 2 DM
2 DI 1 DI 2 DI 1 DI 2 DI
Perfil 2 - - - - -
Perfil 3 1 DM 1 DI 1 DM 1 DI 1 DM
Fuente: La Empresa
Elaboración propia
Todos los datos históricos necesarios se encuentran
almacenados en el propio servidor del QSM de
manera detallada (ticket por ticket), por lo que es
posible acceder a la información real sin necesidad
de realizar alguna toma de tiempos adicional o
inferir ciertos parámetros como tasas de llegadas o
tiempos de servicio
El modelo trabajado en ARENA® refleja la lógica
de priorización descrita con anterioridad, y trabaja
con todos los parámetros ya mencionados (para
mayor detalle remitirse a los anexos de la Tesis). En
todos los casos el horizonte de simulación es igual
al usado para obtener los datos, un cuatrimestre.
3. Resultados obtenidos
Para cada tipo de día se evaluaron tres alternativas
de mejora únicamente cambiando la cantidad de
ventanillas por perfil de atención y decidiendo qué
tipo de promotor (según se experiencia) atiende
cada uno en determinado turno.
Mejora en el nivel de atención a los clientes de una entidad bancaria usando simulación
Agosto 2012
21
La evaluación se realizó en dos etapas. En la
primera se calcularon los nuevos indicadores en
cada escenario, y se adicionó en el análisis el ratio
de abandono (pues es un factor importante en el
cálculo económico como se verá luego) para cada
tipo de cliente y tipo de día. En todos los casos se
pudo observar que los indicadores mejoraban
considerablemente respecto a la situación real (por
tipo de cliente y a nivel oficina). Sin embargo, no
era posible determinar una única propuesta en cada
caso pues no existía una que sobresalga en todos los
indicadores.
Por ello fue necesaria una segunda etapa de
evaluación, esta vez económica. Para ello se
calcularon los costos incurridos por el
mantenimiento propio de la cola (televisores,
ticketera, pagos del QSM, etc) y se prorrateó entre
el tiempo de espera promedio de la oficina. Además
se consideró el costo de oportunidad en que el banco
incurre por no atender a los clientes que abandonan
la agencia sin ser atendidos. Para ello se realizó un
análisis que involucra la rentabilidad anual de cada
tipo de cliente, el uso de las oficinas respecto a otros
medios de atención y el número promedio de veces
que emplea este canal. De esta forma el costo quedó
determinado por las ecuaciones
Costo Total Valle = (186.6 x TE) + (12 x AB1) +
(1.5 x AB2)
Costo Total Pico = (169.5 x TE) + (12 x AB1) +
(1.5 x AB2)
Costo Total Fin de Semana = (52.7 x TE) + (12 x
AB1) + (1.5 x AB2)
Donde TE representa el tiempo promedio de espera
de la oficina (clientes 1, 2 y 3); AB1 representa la
cantidad de tickets abandonadas del tipo 1; y AB2
representa los abandonos de los clientes 2.
Cabe resaltar que no se toma en cuenta el impacto
de los clientes tipo 3 pues la rentabilidad de estos es
casi despreciable (ya que no se les carga portes ni
comisiones por transacción) y no mantienen ningún
producto con el banco que podría correr el riesgo de
ser transferido a la competencia. Por ello, sólo se
busca mejorar la percepción que tienen del servicio
en general tratando de balancear los tiempos de
espera y niveles de atención pero sin llegar a ser
considerados en las funciones de costo.
Los resultados obtenidos en cada caso se muestran
en la Tabla 7
Tabla 7: Evaluación Económica
Tipo de día Tipo de Cliente Espera Prom. (min)
Aban. CT1 Aban. CT2 Costo (US$)
Día Valle
situación Actual 8.04 169 3485 8456
Propuesta 1 7.92 140 2795 7350
Propuesta 2 7.7 127 2744 7077
Propuesta 3 7.16 120 2822 7009
Día pico
situación Actual 8.63 146 3528 8507
Propuesta 1 7.83 144 3327 8046
Propuesta 2 7.49 136 3214 7723
Propuesta 3 8.18 131 3331 7955
Fin de semana
situación Actual 8.3 37 1462 3074
Propuesta 1 7.74 38 1351 2890
Propuesta 2 7.55 36 1331 2826
Propuesta 3 7.75 47 1321 2954
Fuente: La Empresa Elaboración propia
Mejora en el nivel de atención a los clientes de una entidad bancaria usando simulación
Agosto 2012
22
4. Conclusiones y recomendaciones
Es posible mejorar el desempeño de una
oficina sólo con cambios en los esquemas y
prioridades de atención, sin incurrir en gastos
adicionales de personal o cambios de horario.
La elección de estas nuevas configuraciones de
ventanillas propuestas representan un costo de
espera total del US$ 17,558 en comparación a
los US$ 20,037 actuales (un ahorro de US$
2,479 equivalente al 12.4%)
El modelo como tal puede ser aplicado en
todas las oficinas a nivel nacional (modificando
en cada caso los parámetros necesarios propios
de cada agencia) en búsqueda de mejoras sin el
empleo de recursos adicionales.
Se recomienda realizar encuestas periódicas a
los clientes para conocer lo que ellos esperan
referente a la atención en las oficinas. Esto
permitirá conocer con mayor detalle el nivel de
servicio deseado por ellos y en el futuro se
podrán plantear metas más objetivas para cada
oficina acorde a lo que desee la clientela.
5. Bibliografia
BANKS, Jerry [et al.]. Discrete – Event System Simulation (3 ed.). New Jersey, Prentice – Hall,
2001. 594p.
BOCQUET, S. Queueing Theory with Reneging. Defence Systems Analysis Division, (DSTO-TR-
1772), 2005.
CLEMENTE, Luis. Mejora en el Nivel de Atención a los clientes de una entidad bancaria usando
simulación. Tesis (Ingeniero Industrial). Lima, Perú, Pontificia Universidad Católica del Perú,
Facultad de Ciencias e Ingeniería, 2008. 88p.
DALEY, D.J. & SERVI, L.D. Estimating customer loss rates from transactional data. Statistics
Research Report, (SRR 12-97), 1997.
FITZSIMMONS, James & FITZSIMMONS, Mona. Service management: operations, strategy and
information technology (4 ed.). Boston, Mc Graw-Hill, 2004. 587p.
KELTON, W. David, SADOWSKI Randall P. & STURROCK, David. Simulation with Arena.
Boston, Mc Graw-Hill Higher Education, 2004. 667p.
Isabel Quispe Trinidad
Pontificia Universidad Católica del Perú [email protected]
Jessica Yearwood Travezán
Katherine Matos Meza [email protected]
Resumen
El objetivo del estudio fue estimar y comparar los impactos ambientales de los biocombustibles (biodiesel y
etanol) con los combustibles fósiles (diesel, gasolina de 84 octanos, gasolina de 97 octanos y gas natural)
obtenidos y utilizados en el Perú.
El estudio fue realizado en dos regiones del Perú: la Amazonía Peruana para los cultivos de Palma aceitera y
Jatropha en tres escenarios: bosque primario, bosque secundario (purma) y tierras forestales degradadas
(pastizales) y en la costa Peruana para los cultivos de Jatropha, Caña de Azúcar y sorgo Dulce.
Para el estudio se utilizó la herramienta Análisis de Ciclo de Vida (ACV), donde la unidad funcional elegida
para realizar la comparación de los impactos ambientales es un kilómetro recorrido en un vehículo de
pasajeros. La metodología de evaluación de impactos ambientales utilizada es la metodología de gases de
efecto invernadero del IPCC.
Este estudio muestra que un factor determinante en el impacto ambiental es el uso previo de los suelos.
Además, muestra que la contribución al cambio climático durante la etapa de uso es mínima en comparación
con los combustibles fósiles. Esto se debe a que los biocombustibles emiten el carbono absorbido durante su
vegetación y no contienen tantos contaminantes (SO2, CO, NOx) como los combustibles fósiles (Puppán,
2001). A pesar de las emisiones mínimas durante la fase de uso, existe una carga ambiental considerable en la
producción debido a la fase agrícola. Esta podría minimizarse si se utiliza un mayor porcentaje de la biomasa
incrementando los rendimientos, pues según Larson (2006), el principal motivo del pobre rendimiento de los
biocombustibles de primera generación es el hecho de utilizar sólo una parte del total de la biomasa.
Análisis de ciclo de vida
de los biocombustibles
producido en el Perú
Análisis de ciclo de vida de los biocombustibles producido en el Perú
Agosto 2012
24
1. Introducción
Actualmente, debido al cambio climático y a la
escasez de hidrocarburos se ha impulsado el uso y
desarrollo de fuentes de energía alternativas. A su
vez, se han venido discutiendo las desventajas que
presenta la quema de combustibles no renovables,
especialmente los derivados de hidrocarburos,
como el diesel y gasolinas. Es así que los
biocombustibles han ganado cada vez mayor
importancia. Estos tienen el potencial de
incrementar los ingresos nacionales por
exportaciones, beneficiar a los pequeños
agricultores y sectores rurales y favorecer al medio
ambiente. Como una consecuencia a estas ventajas
su producción está incrementándose
exponencialmente a nivel mundial y muchos países
están incluso impulsando los biocombustibles con
herramientas políticas.
Sin embargo, según investigaciones recientes,
estos pueden tener un impacto negativo al
ambiente. Según Lian Pin Koh (2008) existen otros
riesgos tales como emisiones de CO2 a lo largo del
ciclo de vida de los biocombustibles, amenazas a la
biodiversidad, riesgo de deforestación y
competencia del uso de agua. Por otro lado, los
biocombustibles han revelado un impacto
significativo en la seguridad alimentaria y por ello
representan un mayor riesgo económico para la
población que vive en la pobreza (FAO, 2008).
En países como el Perú, que cuentan con selva
Amazónica, los impactos causados por la
deforestación son un tema crítico. Regiones como
la Amazonía peruana, ofrecen condiciones
adecuadas para la producción de biocombustibles,
debido a los altos rendimientos y múltiples
cosechas que se pueden tener en el año. Es por ello
que la utilización de tierras degradadas es una
opción que incrementa la seguridad energética
nacional y que, a su vez, promueve la creación de
empleo en zonas rurales. Considerando lo
mencionado y la necesidad de disminuir los
impactos ambientales generados por los
combustibles fósiles, fue que se promulgó la Ley
de Promoción del Mercado de Biocombustibles
(2003), reglamentada en el 2007. Este reglamento
establece una mezcla obligatoria de 2% de
biodiesel en el diesel para el 2009 y 5% para el
2011, así como el 7.8% de etanol en la gasolina.
En los estudios existentes de impacto ambiental de
los biocombustibles en el Perú se ha considerado
de manera muy limitada la eficiencia energética y
la reducción posible de gases de efecto invernadero
del proceso de producción obviando otros aspectos
ambientales y etapas del ciclo de vida del
biocombustible. Por lo tanto, es necesario contar
con una evaluación actual de los impactos
ambientales del uso de los biocombustibles
comparados directamente con los combustibles
fósiles, realizada con la colaboración de los
distintos actores de la escena agrícola, transporte y
energía.
El estudio busca comparar de manera objetiva los
impactos ambientales generados al producir
biocombustibles y combustibles fósiles, de tal
forma que los resultados sean útiles para la toma
de decisiones en el desarrollo de políticas
sectoriales sostenibles. Además, el estudio
pretende fortalecer las capacidades en el desarrollo
de la metodología del ACV, poco conocida en el
país.
2. Materiales y Métodos
El objetivo del estudio es evaluar y estimar los
impactos ambientales de los biocombustibles con
los combustibles fósiles producidos en Perú,
usando el ACV como herramienta de gestión que
permitirá la toma de decisiones informadas para
políticas gubernamentales y sectoriales.
Los objetivos específicos son:
Identificar la alternativa de menor impacto
ambiental entre las evaluadas con el ACV
comparativo.
Identificar y evaluar las oportunidades para
reducir los impactos ambientales generados a
lo largo del ciclo de vida y mejorar la cadena
de valor.
Crear y fortalecer la capacidad local que
permita evaluar los impactos ambientales
utilizando el ACV como herramienta de
gestión en la toma de decisiones.
Análisis de ciclo de vida de los biocombustibles producido en el Perú
Agosto 2012
25
La metodología utilizada para realizar la
evaluación de los impactos ambientales es el
Análisis de Ciclo de Vida. El ACV es una
metodología que permite registrar y evaluar los
efectos ambientales de las actividades humanas al
producir un producto o servicio desde la extracción
y adquisición de la materia prima, la producción y
consumo de energía, hasta la disposición final,
como se muestra en la ilustración 1.
Ilustración 1: Ciclo de vida de los biocombustibles
De acuerdo a la norma internacional ISO 14040 un
ACV es un ciclo interactivo de conocimiento y
optimización que comprende las etapas mostradas
en la ilustración 2, donde se observa su interacción
y las aplicaciones directas de los resultados del
análisis.
Ilustración 2: Marco de trabajo del ACV
.
Fuente: ISO 14040 (2006)
Interpretación
Objetivo y alcance
Análisis del inventario
Análisis del impacto
Marco de trabajo del análisis de ciclo de vida
Aplicaciones directas:
•Desarrollo y mejora de
productos
•Planeamiento
estratégico
•Desarrollo de políticas
públicas
•Marketing
•Otros
Interpretación
Objetivo y alcance
Análisis del inventario
Análisis del impacto
Marco de trabajo del análisis de ciclo de vida
Aplicaciones directas:
•Desarrollo y mejora de
productos
•Planeamiento
estratégico
•Desarrollo de políticas
públicas
•Marketing
•Otros
Análisis de ciclo de vida de los biocombustibles producido en el Perú
Agosto 2012
26
La metodología de evaluación de impactos,
encargada de cuantificar los impactos ambientales
generados durante el ciclo de vida del biodiesel es
el IPCC 2007, metodología creada por el IPCC, el
cual cuantifica la categoría de impacto ambiental
“Cambio climático” en kilogramos de CO2
equivalentes.
El software utilizado para realizar el ACV es
SIMAPRO 7.1, una herramienta informática
comercial desarrollada por Pré Consultants que
analiza y compara sistemática y consistentemente
los aspectos ambientales de un producto según la
norma ISO 14040. Se usó también la base de datos
ECOINVENT, el cual cubre más de 4,000
procesos. Esta base de datos es el resultado de un
gran esfuerzo de parte de institutos suizos para
actualizar e integrar las bases bien conocidas ETH-
ESU 96, BUWAL250 y varias otras bases de datos.
Esta base de datos cuenta con una muy buena
documentación y especificación de los datos
inciertos. En este proyecto se usa ECOINVENT
para modelar los procesos comunes tales como
transportes y productos químicos básicos, y como
una base de datos que se ha adaptado a la realidad
peruana en el resto de procesos.
La unidad funcional debe ser una medida que
permita comparar la cantidad de producto
necesario para realizar una misma función,
proporcionando una referencia para normalizar las
entradas y salidas del sistema. En el estudio se
definió como unidad funcional: un kilómetro
recorrido en un vehículo de pasajeros.
3. Resultados
Para determinar si los biocombustibles tiene un
menor impacto ambiental que los combustibles
fósiles, es necesario identificar y analizar la carga
ambiental de todas las etapas de su ciclo de vida:
fase agrícola, producción, transporte y uso
energético del biodiesel. En la Tabla 1 se muestran
las emisiones de GEI en kilogramos de CO2
equivalente para el biodiesel en los diferentes
escenarios y del diesel.
Tabla 1: Emisiones de CO2 eq para los sistemas del biodiesel y el diesel por etapa
Sist
ema
Esc
enar
io
LU
C
Fas
e
Agr
íco
la
Fas
e P
rod
ucc
ión
Fas
e U
so
kg
CO
2 e
q
S1 Palma Bosque primario 0.272 0.050 0.038 0.023 0.38
S2 Palma Purma 15 años 0.030 0.034 0.039 0.023 0.13
S3 Palma Deforestado -0.264 0.034 0.039 0.023 -0.17
S4 Jatropha Bosque primario 0.777 0.077 0.033 0.023 0.91
S5 Jatropha Purma 15 años 0.302 0.051 0.034 0.023 0.41
S6 Jatropha Deforestado -0.288 0.051 0.034 0.023 -0.18
S7 Jatropha Eriazo -0.269 0.151 0.033 0.023 -0.06
S10 Diesel - - - 0.03 0.20 0.23
En la tabla 2 se muestran las emisiones de GEI en kilogramos de CO2 equivalente para el etanol en los
diferentes escenarios, la gasolina y gas natural.
Análisis de ciclo de vida de los biocombustibles producido en el Perú
Agosto 2012
27
Tabla 2: Emisiones de CO2 eq para los sistemas de E100, la gasolina y el gas natural por etapa
Sist
ema
Esc
enar
io
LU
C
Fas
e
Agr
íco
la
Fas
e P
rod
ucc
ión
Fas
e U
so
kg
CO
2 e
q
S8 Caña Eriazo 0.035 0.118 0.029 0.022 0.20
S9 Sorgo Eriazo 0.000 0.047 0.024 0.022 0.09
S11 G97 - - - 0.04 0.21 0.25
S12 G84 - - - 0.04 0.23 0.27
S13 Gas Natural - - - 0.02 0.27 0.19
Al realizar la comparación de los biodiesel con el
combustible fósil, considerando las emisiones de
GEI durante todo el ciclo de vida se obtuvo que:
El biodiesel obtenido de la palma aceitera emiten
menos GEI que el diesel en el escenario tierras
degradadas en la Amazonía peruana, mientras
que los obtenidos de jatropha emiten menos GEI
que el diesel en los escenarios tierras degradas en
la Amazonía y costa peruana.
El biodiesel obtenido de palma aceitera y de
jatropha en tierras degradadas y en costa tienen,
además, un efecto positivo al ambiente debido al
cambio de uso de suelo.
El biodiesel obtenido de jatropha en bosque
primario es altamente perjudicial en emisiones
de GEI en comparación con el biodiesel obtenido
de palma aceitera en bosque primario. Ambos
escenarios emiten más GEI que el diesel.
Los biocombustibles obtenidos de palma
aceitera, en ambos escenarios, impactan menos
que los biocombustibles obtenidos de jatropha.
La etapa agrícola para la obtención del biodiesel
aporta entre un 46% y 82% del total del proceso
de producción; esto se debe principalmente al
uso de fertilizantes, herbicidas, fungicidas
químicos y maquinaria que funciona con
combustibles fósiles.
El cambio de uso de suelos es el factor
determinante en las emisiones de GEI en el
biodiesel en el escenario de bosque primario
donde se comprueba que el CO2 emitido por
cambio de uso de suelos representa más del 70%
de los GEI.
Al realizar la comparación del etanol con los
combustibles fósiles: gasolina y gas natural,
considerando las emisiones de GEI durante todo el
ciclo de vida se obtuvo que:
El etanol obtenido del sorgo emite una menor
cantidad de GEI que el etanol obtenido con la
caña, ambos resultados son en un escenario de
tierras eriazas en la costa peruana.
Las emisiones de GEI asociadas a la actividad
agrícola son las más representativas con un 59%
para el etanol obtenido de la caña y 52% para el
etanol obtenido del sorgo.
El aporte de GEI asociadas a la actividad
agrícola son más representativas para la caña de
azúcar debido a la cantidad de fertilizantes,
pesticidas, maquinaria y a la quema de campos
durante la cosecha.
El cultivo de caña de azúcar en terrenos eriazos
asocia una emisión de GEI por cambio de uso de
suelos a diferencia del sorgo cuya contribución
es nula.
Según Searchinger et al (2008) muchos de los
estudios previos sobre los impactos de los
biocombustibles sólo consideran las emisiones
generadas durante la etapa agrícola y la etapa de
Análisis de ciclo de vida de los biocombustibles producido en el Perú
Agosto 2012
28
producción del combustible. De esta manera,
consideraron que los combustibles agro-energéticos,
al capturar carbono de la atmósfera, pueden
disminuir las emisiones de GEI en relación con los
combustibles fósiles. Sin embargo, la deforestación
en que se incurre para los cultivos energéticos emite
a la atmósfera una gran parte del carbono
almacenado previamente en las plantas y suelos. En
el estudio se han calculado los impactos ambientales
incluyendo las emisiones por cambio de uso de
suelos. Para el cálculo de la deuda de carbono de los
biocombustibles es necesario disgregar dichas
emisiones.
De acuerdo a Fargione et al (2008) al transformar
bosques primarios, secundarios o pastizales para
producir biocombustibles a partir de cultivos agro-
energéticos se genera una deuda de carbono, pues se
emite más CO2 que las reducciones anuales de GEI
que se obtienen al desplazar combustibles fósiles.
La fórmula, según Gibbs et al (2008), para calcular
el tiempo de pago de de dicha deuda de carbono
(ECPT: Ecosystem „Carbon Payback Time‟),
definida como la cantidad de años requeridos para
que las emisiones evitadas por desplazar
combustibles fósiles compensen las pérdidas de
carbono en los ecosistemas por cambio de uso de
suelos, es:
En la Tabla 3 se muestra la cantidad de kg
equivalentes de CO2 que se dejan de emitir al
reemplazar los combustibles fósiles por
biocombustibles (a), la deuda incurrida al realizar el
cambio de uso de suelos (d) y los años requeridos
para pagar dicha deuda (e). Para calcular las
emisiones ahorradas (a) se obtienen las emisiones de
GEI del B100 y E100 sin tomar en cuenta las
emisiones de CO2 por cambio de uso de suelos y se
restan de las emisiones de diesel o gasolina
respectivamente.
Se puede observar que los escenarios en bosque
primario son los que demoran más tiempo en pagar
su deuda de carbono, mientras que los escenarios en
tierras forestales degradadas no incurren en una
deuda de carbono. Según Fargione et al (2008) los
biocombustibles producidos a partir de plantaciones
perennes, como lo son la palma y la jatropha,
cultivadas en tierras degradadas minimizan la
destrucción de ecosistemas y las deudas de carbono,
asociadas con la deforestación directa o indirecta
para la producción de biocombustibles.
Tabla 3: Cálculo de la deuda de carbono para los biocombustibles al 100%
Sistema kg CO2 eq ahorrado/ km
km/ ha año
tCO2 eq ahorrado/ ha año
Deuda (tCO2/ha)
Deuda (años)
(a) (b) (c)=(a)x(b) (d) (e)=(d)/(c)
S1 0.116 53024 6.153 260 42.3
S2 0.132 53024 6.993 39 5.6
S3 0.132 53024 6.993 -329 -
S4 0.094 24459 2.292 383 167.1
S5 0.094 24459 2.930 170 58.0
S6 0.120 24459 2.930 -164 -
S7 0.021 24459 0.514 -153 -
S8 0.087 72633 6.302 51 8.1
S9 0.163 173814 28.336 51 1.8
ECPT = Cecosistema – Ccultivo energético
Emisiones ahorradas/ha/año
Análisis de ciclo de vida de los biocombustibles producido en el Perú
Agosto 2012
29
Al realizar el análisis de la deuda de carbono, se
observa que el biodiesel obtenido a partir de la
jatropha en bosques primarios requieren cuatro
veces más de tiempo para pagar su deuda de
carbono que el biodiesel obtenido a partir de palma
aceitera; mientras que en tierras degradas no
incurren en deuda de carbono.
Al no considerar las emisiones de CO2 por cambio
de uso de suelos los biodiesel tienen menores
emisiones de GEI que los combustibles fósiles.
4. Conclusiones
Los primeros estudios sobre eficiencia energética y
balance de carbono de los biocombustibles fueron
publicados hace más de siete años, mostrando una
reducción significativa de gases de efecto
invernadero. Más adelante, los estudios de ACV
fueron extendidos a un análisis completo de los
impactos ambientales, incluyendo aspectos como
contaminación del aire, toxicidad, degradación de
suelos y pérdida de biodiversidad. Si se considera
la pérdida de biodiversidad asociados con los
cambios directos e indirectos en el uso del suelo,
en la mayor parte de los casos dominan los efectos
negativos (Fargione, 2008; Searchinger, 2008).
Este estudio muestra que un factor determinante en
relación a las emisiones de GEI es el uso previo de
los suelos. La alternativa de reemplazar el diesel
por biodiesel de palma aceitera y jatropha
constituye un beneficio en la contribución de GEI
cuando se realiza el cultivo en tierras deforestadas
o en la costa. La principal razón del beneficio de
los biodiesel de palma aceitera y jatropha en tierras
degradadas frente al diesel se debe a que en la
etapa de cambio de suelo las nuevas plantaciones
captan gran cantidad de CO2, dando un balance
positivo frente a las emisiones de las etapas de
producción y uso energético.
El estudio muestra que la contribución al cambio
climático de los biocombustibles durante la etapa
de uso es mínima en comparación al de los
combustibles fósiles. Esto se debe a que se
considera un ciclo de carbono cerrado para los
biocombustibles, pues estos emiten la cantidad de
carbono absorbida durante su vegetación, ya que
no contienen tantos contaminantes (SO2, CO,
NOx) como los combustibles fósiles (Puppán,
2001).
A pesar de las emisiones mínimas de GEI durante
la fase de uso, existe una carga ambiental
considerable en la etapa de producción de los
biocombustibles debido a la fase agrícola. Esta
podría minimizarse si se utilizara un mayor
porcentaje de la biomasa incrementando los
rendimientos, pues según Larson (2006), el
principal motivo del pobre rendimiento de los
biocombustibles de primera generación es el hecho
de utilizar sólo una parte del total de la biomasa.
Respecto a las emisiones por cambio de uso de
tierras, Gibbs et al (2008) menciona que la
expansión agraria hacia ecosistemas de bosques
tropicales guía hacia una emisión neta de GEI,
mientras que el cultivo en tierras degradas suele
brindar ahorros casi inmediatos. En los resultados
mostrados para este estudio se puede observar que,
de la misma manera, aquellos biocombustibles
obtenidos a partir de cultivos sembrados en zonas
eriazas o deforestadas tienen una deuda de carbono
baja o incluso un impacto positivo, pues la nueva
biomasa de las plantaciones captura más carbono
del que había previamente en esos escenarios.
Debido a las altas deudas de carbono que alcanzan
los diferentes biocombustibles producidos a partir
de cultivos agro-energéticos cuando son cultivados
en zonas boscosas, la investigación de Searchinger
et al (2008) resalta el valor de aquellos
biocombustibles producidos a partir de residuos
municipales, agrícolas e industriales. Según esto,
los escenarios en que se convierten ecosistemas
naturales para la producción de biocombustibles
pueden ser contraproducentes.
Las mejoras en rendimientos y tecnologías para la
producción de biocombustibles a partir de cultivos
agro-energéticos incrementarán los beneficios en
reducción de emisiones. Sin embargo, si se
deforestan bosques, la deuda de carbono aun
requerirá de varias décadas para ser pagada. (Gibbs
et al, 2008).
Análisis de ciclo de vida de los biocombustibles producido en el Perú
Agosto 2012
30
Bibliografía
Food And Agriculture Organization of the United Nations. (2008). El estado mundial de la
agricultura y la alimentación. Roma: FAO
Fargione, J., Hill, J., Tilman, D., Polasky, S., Hawthorne, P. (2008). Land clearing and the biofuel
carbon debt. Science 319, 1235 (2008). Recuperado el 21 de setiembre de 2009 de
www.sciencemag.org
Gibbs, H., Johnston, M., Foley, J.A., Holloway, T., Monfreda, C., Ramanmkutty, N., Zaks, D.
(2008) Carbon payback times for crop-based biofuel expansion in the tropics: the effects of
changing yield and technology. Environ. Res. Lett. 3 (2008) 034001 (10pp). Recuperado el 21 de
setiembre de 2009, de http://iopscience.iop.org/1748-9326/3/3/034001
Larson, E. (Junio de 2006). A review of life-cycle analysis studies on liquid biofuel systems for
the transport sector. Energy for sustainable development, Volumen X No. 2.
Ley de Promoción del Mercado de Biocombustibles D.L.Nº28054. (8 de agosto de 2003). Diario
Oficial el Peruano, Lima, Perú.
Lian Pin Koh, Jaboury Ghazoul. (Setiembre, 2008). Biological Conservation 141 (2008) 2450-
2460: Biofuels, biodiversity, and people: Understanding the conflicts and finding opportunities.
Puppán, D. (2002). Environmental evaluation of biofuels. Periodica Polytechnica Ser. Soc. Man.
Sci. Vol. 10, No. 1, pp. 95-116.
Searchinger, T., Heimlich, R., Houghton, R.A., Dong, F., Elobeid, A., Fabiosa, J., Tokgoz, S.,
Hayes, D., Yu, T. (2008). Use of U.S. croplands for biofuels increases greenhouse gases through
emissions from land-use change. Recuperado el 21 de setiembre de 2009 de www.science.org
José Rau Alvarez
Pontificia Universidad Católica del Perú
Resumen Los casos de mejoras que se presentan corresponden a una planta de manufactura de medias, a mediados de la década pasada, periodo en el que se evidenció una baja productividad de los recursos materiales y humanos. Las causas fueron diversas, así como las acciones tomadas para revertir la situación, con variedad de cobertura e impacto. Se han elegido y se describen a continuación 3 casos: innovación en la mejora del consumo y la productividad del recurso energético; innovación en la mejora del sistema de aire para el transporte y acarreo en tejedoras e innovación en la mejora de la organización del trabajo y consumo de materiales
1. Introducción
La empresa estudiada tiene casi medio siglo de actividad en la industria manufacturera nacional, siendo una de las pioneras en la industria textil de producción de medias y calcetines. Se inició como una empresa familiar orientando su negocio a la fabricación de medias y calcetines, esto de manera principal, pero también incursionó en la producción de hilados, como:
Hilados industriales: acrílico, alpaca, lana.
Hilados para alfombras.
Ovillos para tejer chompas artesanales y tejidos planos
Es así que sus operaciones contaban con dos negocios, siendo el primero, encargado de la producción de hilados textiles, el cual, fue absorbido por el segundo negocio de calcetines, en diciembre de 1996. Cabe señalar que culminada la fusión, la empresa aplicó una fuerte política de reconversión empresarial, empezando por modernizar toda su maquinaria existente que producía la línea de calcetines, con el fin de afrontar la apertura del mercado.
Cabe destacar que los tres casos referidos estuvieron articulados técnica y operacional mente, constitu-yéndose por tanto, en los tres principales agentes de los logros obtenidos en el período ya señalado. Esto fue resultado de un correcto enfoque de procesos, para lo cual, las mejoras no deben ser aisladas sino integradas buscando resolver todos los obstáculos de cada factor del proceso sujeto de la mejora.
Mejoras de los procesos y de las instalaciones
en tejeduría - calcetines
Mejoras de los procesos y de las instalaciones en tejeduría - calcetines
Agosto 2012
32
Además, se notará que se otorgó especial énfasis a la “calidad del proceso” en sí, bajo lo cual se intervino en factores usualmente poco atendidos de los procesos, buscando no sólo resolver problemas de pérdidas de producto y de material, sino también, pérdidas de recursos de proceso, como la fuerza eléctrica, la neumática y la humana. 2. Primer caso: innovación en la mejora del
consumo y la productividad del recurso energético.
2.1. Antecedentes
En el escenario inicial se observó un alto consumo de energía eléctrica y una distribución poco apropiada de las instalaciones eléctricas en la mayoría de las áreas de la planta incluyendo pasillos, almacenes. Las instalaciones eléctricas en general eran administradas de forma desordenada y parcial, no se contaba con tableros de control independientes y en general las instalaciones eléctricas se encontraban en mal estado (mal cableado, tomacorrientes averiados, malos contacto, fugas, etc.) Por otro lado, los costos tarifarios, en general, eran bastante elevados, tanto en lo referente a la corriente activa (mala distribución de las diferentes instalaciones), como de la corriente reactiva (básicamente debido al mal estado de los bancos de condensadores y otros componentes). Cabe señalar que como política de la empresa, al producirse una baja de tensión, se daba la orden de apagar inmediatamente todos los artefactos y equipos eléctricos (máquinas, turbinas, compresoras, extractores, planchas, etc.) a fin de preservar sus componentes. Esto daba como consecuencia que luego que se establecía nuevamente un adecuado suministro, los equipos se reiniciaban prácticamente en forma simultánea, lo que generaba altos picos de tensión, que era penalizado económicamente por la empresa de suministro eléctrico. Igual situación se producía los días lunes, al reiniciar las operaciones en la planta, esto es identificado en las tarifas como potencia variable.
Debido a que esta situación se daba en forma continua y sostenida en el tiempo, se decidió realizar un estudio para encontrar una solución al grave problema.
El objetivo principal del estudio y mejoras esperadas, era reducir los altos costos tarifarios eléctricos, que incrementaban los costos fijos. Para esto se formó un equipo de estudio con el Gerente de Producción al mando y constituida por el supervisor de la planta, técnicos electricistas contratados para este fin.
2.2. Análisis y Desarrollo del proceso de
mejora Luego de revisar documentos y registros, y de reuniones de análisis, se identificó la problemática, confirmándose que las facturas por consumo eléctrico eran altas, que se podría reducir, previa evaluación de la situación de la corriente reactiva, activa y potencia variable. Entre las principales medidas que se tomaron, tenemos: Se determinó estudiar y aplicar soluciones con
base técnica y profesional.
Se determinó la importancia y necesidad de contar con mediciones y registros.
Se requirió y ubicó un técnico especialista para redistribuir las instalaciones eléctricas, a fin de reducir costos en corriente activa.
Se instalaron e independizaron los tableros eléctricos a fin de optimizar la manipulación de los cambios de llaves que alimentan las diferentes áreas de la empresa, debido a cambios de compresoras, cambios de corriente externa con la proveniente de grupos electrógenos, entre otros.
Se encargó la reparación y mantenimiento de los bancos de condensadores para reducir costos en corriente reactiva.
Referente a la potencia variable, se implantaron normas y procedimientos de trabajo para el encendido de los diferentes equipos de la planta.
Se designaron responsables para el encendido de los equipos y asegurar el cumplimiento de lo normado.
Se formalizaron registros de horas de encendido, de trabajo de equipos, incluyendo las tensiones respectivas.
Se encargó a los electricistas el llevar minucioso control de los requerimientos eléctricos de equipos.
Mejoras de los procesos y de las instalaciones en tejeduría - calcetines
Agosto 2012
33
El supervisor se encargó de revisar
mensualmente los recibos de suministro
eléctrico para monitorear la efectividad de las
medidas tomadas.
2.3. Resultados y Beneficios
Luego de implementar las medidas en la planta, los
resultados positivos se dieron de inmediato,
considerando los siguientes beneficios, tanto
económicos como laborales:
Formalidad en el control y registro de los usos y
consumos eléctricos.
Incorporación de tareas para los electricistas, a
fin de cuidar el consumo.
Incorporación de tareas para el supervisor,
quien no sólo debe preocuparse de la “salida del
producto”, sino también de los consumos
eléctricos y conservación de los equipos.
Mejora en las responsabilidades y hábitos del
personal, especialmente en el encendido de las
máquinas y sus equipos complementarios. En
este aspecto, inicialmente se tuvo que romper
malos hábitos y superar cierta oposición inicial.
Comprensión e involucramiento de todo el
personal. Los trabajadores fueron parte
importante de los logros finalmente obtenidos,
tomando ellos conciencia de esto, lo que generó
una adecuada integración y correcto sentido
organizacional.
Se mejoró la seguridad de los trabajadores.
Se logró una mayor racionalidad para el
aprovechamiento de las instalaciones eléctricas
de manera directa y de las máquinas y equipos
de manera indirecta.
Se redujeron los costos por paradas debido a
fallas eléctricas redistribuidas.
Se logró reducir costos en tarifas eléctricas en
un 30% mensual.
En general, puede decirse que las medidas tomadas
fueron acertadas y oportunas, en momentos que la
empresa tenía como prioridad competitiva, reducir
costos.
3. Segundo caso: innovación en la mejora del sistema de aire para el transporte y acarreo en tejedoras.
3.1. Antecedentes
En la planta de tejeduría de calcetines, cada máquina tejedora aprovecha un sistema de movimiento y transporte por “succión de aire”, para realizar el desplazamiento a lo largo de tuberías, que posteriormente llegan a la salida de la máquina para su embolsado. En las secciones de tejedurías (incluyendo la principal, con 6 líneas), se notaba una pérdida de la fuerza de succión a medida que cada punto de acceso a la tubería, se alejaba de la turbina principal de aspiración, dado que la distribución de las máquinas estaba en línea. Estas líneas tenían una longitud aproximada de 30 metros. Lo más notorio en esto eran las demoras y alteraciones en los flujos de producto y la cantidad por hora o turno. Además, por la longitud y el número de máquinas (17 en promedio), la poca succión que se generaba en las máquinas más alejadas a la turbina principal de succión, ocasionaba un incremento de la tasa de fallas de algunos componentes mecánicos, esto porque se acumulaba el tejido en las máquinas más alejadas, sobrecargando los elementos de soporte y llegando incluso, a romper el canal del cilindro del mecanismo. Es así que se incrementaban las paradas y sobre todo el tiempo de horas de parada. Adicionalmente, a estos problemas, anteriormente ya se había considerado y mantenido como solución el colocar turbinas adicionales de menor capacidad a las máquinas más alejadas, consumiendo más energía y el no aprovechamiento de la principal.
3.2 Análisis y Desarrollo del proceso de
mejora
Bajo el escenario descrito, y ya teniendo los aportes del estudio de consumos eléctricos, se presentó la necesidad de revisar, analizar y replantear el diseño de la instalación, planteándose como principales objetivos el reducir el consumo de repuestos generados por la carga del tejido en las máquinas., la cantidad de productos defectuosos que se generaban y el consumo eléctrico. Asimismo se buscaba mejorar el aprovechamiento del equipo principal de succión.
Mejoras de los procesos y de las instalaciones en tejeduría - calcetines
Agosto 2012
34
Para esto se conformó un equipo multidisciplinario,
entre personal de mecánica general, técnicos de los
equipos de tejeduría y el comandados por el
supervisor de planta.
Luego de reuniones y el análisis exhaustivo del
problema, se identificó y comprendió las
principales causas de la problemática detectadas
La reducción de flujo de producto terminado
por hora.
Lo importante de mantener los equipos en sus
mejores niveles de rendimiento durante el
mayor tiempo factible.
Los consumos adicionales de las turbinas
adicionales.
La factibilidad de medir el grado de de succión
de las diferentes salidas de la turbina principal a
las máquinas tejedoras, confirmando
aproximadamente que el 35% de las máquinas
que conforman la línea, no tenían el aire de
succión adecuado (críticas).
La necesidad de elevar la succión a lo largo de
las líneas de tejedoras.
A partir de lo anterior, se intervino el proceso
bajo las siguientes acciones:
Mantenimiento exhaustivo a la turbina principal
(cambios de rodajes, limpieza preventiva,
cambio de carbones, etc.).
Limpieza del ducto principal que sale de la
turbina que succiona la línea 16” de diámetro, lo
cual aportó, aunque de manera mínima.
Se establecieron procedimientos para el
mantenimiento del sistema de aire.
Se aplicaron principios físicos, como el
principio de Bernoulli [1] [2] y de la
continuidad del flujo de aire, determinando que
el diámetro del tubo principal debería reducirse
por tramos a medida que se acerque a las
máquinas más alejadas.
Se empezó con un prototipo en una de las líneas
más críticas para el nuevo diseño del tubo de
succión, los cálculos de longitud de los tramos y
el diámetro respectivo. Los resultados fueron
positivos y rápidamente se replicó en todas las
líneas de producción de tejeduría.
Se retiraron turbinas adicionales.
3.3 Resultados y Beneficios Luego de implementar las medidas y procesos de mejora, pudieron observarse los siguientes beneficios en la planta:
Se estableció un nuevo sistema de
mantenimiento general del sistema de succión de aire (turbina, ductos, máquinas).
Se implantaron registros y controles adecuados para el necesario monitoreo de manera sostenida.
Se incrementó significativamente el grado de succión de aire de las maquinas.
Se retiraron de la planta principal de seis líneas de producción, aproximadamente el 35% de turbinas individuales por línea.
Se redujo el requerimiento de repuestos en un 30% por línea y por turno.
Se redujo la producción de medias con no conformidades, reduciéndose el promedio de defectuosos por línea de producción en aproximadamente de 6% a 8 %.
El consumo de material, también se redujo, como consecuencia de lo anterior.
4. Tercer caso: innovación en la mejora de la organización del trabajo y consumos de materiales.
4.1. Antecedentes
En la planta de tejeduría en estudio, existían 6 líneas de producción de calcetines, cada línea consta de 17 máquinas en promedio, distribuidas en una longitud de 30 metros aproximadamente, como ya se señaló anteriormente. Dos de éstas líneas se ubican a los extremos de la zona y el resto, se hallan entre ellas adosadas una línea frente a otra. La distribución del trabajo aplicada era la siguiente: • Un maquinista–tejedor encargado de vigilar,
alimentar y atender las máquinas de su línea, buscando evitar toda parada de máquinas o de resolverlas prontamente apenas se presenten.
• Un revisor de los calcetines, por línea, encargado de la inspección al 100% de todas las medias.
• Un volante que apoyaba a dos líneas (tres volantes en la planta).
Mejoras de los procesos y de las instalaciones en tejeduría - calcetines
Agosto 2012
35
El método de revisión era máquina por máquina de manera secuencial, es decir empezaba por un extremo y terminaba su ciclo de revisión en el extremo posterior (aproximadamente una 16 vueltas por turno de 12 horas). La pauta de trabajo del revisor consiste en la inspección al 100% de los calcetines de cada máquina, las cuales se van depositando en una bolsa que recepciona al calcetín a la salida de la máquina, esto con el sistema de succión, ya referido. Bajo el tipo de distribución física de las líneas y máquinas tejedoras, el diseño de trabajo aplicado originaba los siguientes inconvenientes para el proceso y para el producto resultante: No sincronización entre la producción y la
revisión, esto debido a la velocidad de producción contra los recorridos amplios a lo largo de la línea, a pesar del apoyo del volante.
Acumulación de los calcetines en las bolsas, esto debido al recorrido y al trabajo lineal.
Demoras en tiempo de llegada por parte del tejedor en atender una máquina parada, para recorrer a lo largo de la línea y llegar a la máquina detenida.
Sucedían fallas de tejido que afectaban a más de un calcetín, esto trae como consecuencia un conjunto de calcetines defectuosos que por falta de tiempo no pudo evitar reducir los calcetines defectuosos.
Detección de defectos recurrentes a destiempo, esto por la acumulación y cuando ocurrían fallas significativas que afectaban a cantidad de medias seguidas.
Acumulación de pérdidas (medias defectuosas sin ser detectadas porque el revisor ya llegaba tarde.
El revisor debido a este tipo de distribución, ya no podía voltear el calcetín, revisarlo y amarrarlos en 12 pares reunidos, sino que se convertía en un “volteador”, esta actividad se volvía prioritaria por exigencia del flujo del proceso en perjuicio de la calidad.
Pérdidas de eficiencia de la mano de obra, esto por el cansancio debido a lo largo de los recorridos y de todo el equipo de personas que conforman la línea (tejedor, revisor, mecánico, inspector de calidad, supervisor).
Mayor consumo de repuestos por no detenerse la máquina que está fallando, y/o atenderla oportunamente, para reducir el daño a otros componentes, y también por no parar automáticamente (sensores que no detectan las fallas).
4.2. Análisis y Desarrollo del proceso de
mejora Para esto se conformó un equipo con apoyo del técnico de mantenimiento de la planta, inspectores, y del supervisor de la planta y del área [4]. El equipo identificó la problemática y las relaciones causa-efecto de lo que estaba ocurriendo, identificando principalmente que los tiempos de llegada a cada máquina eran muy variables y altos; la cantidad de calcetines por bolsa (15 unidades en promedio).; el tiempo por calcetín por parte del revisor era muy variable-; el alto porcentaje de máquinas paradas (18% por línea) y tiempo de espera después de ser atendidas. Sobre la base de lo anterior, se plantearon los siguientes objetivos para las mejoras: Reducir el número de unidades no conformes,
generadas por el tiempo largo para atender a las máquinas.
Asegurar una revisión correcta de las medias.
Reducir el cansancio y fatiga generados por los recorridos.
Incrementar la productividad de las líneas en pares por hora y en pares por kilo de hilado.
Reducir las tasa de consumo anual de repuestos.
Reducir las pérdidas de materiales, de tiempo y de energía.
Para el logro de los objetivos planteados se implementaron las siguientes medidas:
Redistribución de trabajo para el tejedor y del revisor. Atenderán hasta la mitad de la línea y la mitad de las dos líneas (frente a frente) [3].
Ambos, avanzarán ahora, la mitad del recorrido que en la situación inicial.
El revisor iba a ser recorridos en zigzag, revisando las máquinas frente a frente.
Se coordinó con Sistemas, para modificar las tarjetas y registros de producción, que se destinaban antes para toda la línea y ahora iba a tomar dos medias líneas (dos mitades).
Mejoras de los procesos y de las instalaciones en tejeduría - calcetines
Agosto 2012
36
Se redistribuyeron las máquinas por la complejidad de las mismas.
Se redistribuyeron las máquinas acorde al grado de experiencia del tejedor.
Se tuvo que capacitar a los tejedores para que puedan manejar otro tipo de máquinas.
Se replantearon métodos y procedimientos para los tejedores.
Se replantearon métodos y procedimientos para la inspección.
4.3. Resultados y Beneficios
El impacto social fue muy positivo luego de la implementación de las mejoras, siendo los principales beneficios los siguientes: Rediseño más efectivo de las instalaciones de
las máquinas tejedoras.
Reducción de tiempos muertos y la cantidad de máquinas paradas en un 50%.
Reducción de la cantidad de calcetines por bolsa en un 40%.
Reducción de la frecuencia y probabilidad de las medias defectuosas, reduciendo las mermas de material del proceso.
Reducción de la fatiga del personal.
Mejora y adaptación de los manuales de calidad y mantenimiento.
Mejora de la supervisión.
Mejora del flujo de los materiales, de entrada y de salida de la sección.
Mejora del orden interno y de la limpieza de la sección.
5. Conclusiones
La Empresa considera lo realizado y lo logrado como altamente positivo y uno de las mejores
ejecuciones que han realizado, a la vez, que reconoce que es factible su realización en otras empresas, haciendo la salvedad que lo aplicado y lo obtenido tiene alta vinculación causal con:
El diseño de planta.
El diseño de la organización de la sección.
El diseño de los puestos del trabajo.
El tipo de equipamiento.
La tecnología implantada en el proceso.
Finalmente, como recomendaciones para una similar experiencia se tienen:
1. Enfoque de proceso.
2. Enfoque de proyecto.
3. Racionalidad en la toma de decisiones.
4. Aplicación de técnicas de Ingeniería Industrial (Métodos, Tiempos, Plantas, Calidad, Organización)
5. Planificación del trabajo.
6. Organización y asignación de roles y responsabilidades claras.
7. Formación de equipos de mejora.
8. Levantar información inicial para medir situación actual y plantear metas.
9. Involucrar a la gerencia para que de un soporte a la mejora continua-
10. Involucrar a los mandos medios y los supervisores para la mejora.
11. Documentar en informes y reportes para futuras revisiones y usos posteriores.
12. Lograr que lo aprendido se ejecute de manera sostenida.
6. Referencias
Serway, R., (1996) ; Física tomo I; cuarta edición ; editorial McGraw-Hill.
Piaggio, M., (1998) ; Física con ejercicios tomo III ; editorial Lima PUCP Fondo Editorial.
Tompkins, J. y WHITE J., (2006); Planeación de Instalaciones. Tercera edición. Madrid. Editorial Thomson.
Meyers, F., (2006) ; Diseño de las Instalaciones de Manufactura y Manejo de Materiales. Tercera edición. Editorial Pearson Prentice Hall.
Krajewski, L., y Ritzman, M. ; (2007) ; Operations Management ; Octava Edición ; Pearson Educación.
Fernando Ormachea Freyre
Pontificia Universidad Católica del Perú
Resumen
El presente artículo presenta una propuesta metodológica para definir los tiempos normales de operaciones
de costura con mejor precisión, considerando que sólo se contaría con menos de 20 lecturas, tomadas durante
la preproducción o en producción en condiciones de bajo nivel de ejercitación, característico de prendas de
estilo complejo en lotes de pequeña cantidad, con operaciones de preparado, posicionado y costura con
características o detalles no comunes o no frecuentes.
El estudio que sustenta nuestra propuesta se realizó en la planta de costura de una importante empresa del
rubro textil-confección del Perú, como parte de las actividades del proyecto PITEI-01-275, financiado por el
FINCYT (Financiamiento para la Innovación, la Ciencia y la Tecnología).
1. Introducción
En los casos de producciones por demanda de prendas de vestir de moda, se presentan - con significativa
frecuencia - pedidos simultáneos de prendas con costuras y componentes diferenciados, y además, en
cantidades cada vez más bajas. Lo anterior implica mayor ocupación del personal especializado (ingenieros y
analistas), lo que induce a seleccionar o priorizar, derivando en un conjunto de operaciones con cálculo y
aplicación de tiempos estándares con mayor error de lo aceptable. Aunque tales operaciones no sean las más
comunes o repetitivas, se pueden volver a presentar, incluso de manera combinada, afectando negativamente
a las entregas, la planificación, la programación de recursos y el control.
En estos casos, la determinación de tiempos estándares, por el método tradicional de cronometraje, se ve
afectado principalmente por las siguientes razones:
Estudio de tiempos por cronometraje:
caso de operaciones de costura
bajo corridas cortas
Estudio de tiempo por cronometraje: caso de operaciones de costura bajo corridas cortas
Agosto 2012
38
1. Se toman tiempos en etapas sin suficiente grado de ejercitación, lo cual implica en una muestra de datos con asimetrías significativas.
2. Se aplican análisis simplificados, similar a mediciones de ciclo completo o time-check, esto es, descomponiendo las operaciones en pocos elementos (por ejemplo: toma, cose, deja), lo cual oculta movimientos con variaciones importantes de detectar, dado que se trata de un estudio de tiempos.
3. Se toman pocas lecturas: de 5 a 10, sin verificar estadísticamente si se cuentan bajo el nivel de error aceptable.
4. Las lecturas manifiestan alto grado de dispersión (desviación estándar), que no se notan ni se evalúan para efectos de mejoras.
5. Se eliminan o depuran datos extremos extraños) con predilección a extraer los datos de mayor valor sin percatarse del tipo de asimetría presente, originando casos en los que se eliminan datos que deberían utilizarse, cuando pertenecen a los intervalos o zonas de mayor probabilidad o frecuencia.
Claro está que estamos considerando que se cuenta con personal idóneo, capacitado (ingenieros o analistas y operarios con ritmo normal; caso contrario, no hay metodología que ayude a mejor precisión. Por lo anterior se justifica una propuesta que contribuya a reducir los errores y omisiones ya señalados, conduciendo a una mejor estimación del tiempo normal, que debe ser basado en un estadístico de tendencia central calculado de manera más objetiva y robusta. Como preámbulo, a continuación, se presentan los aspectos relevantes de la metodología tradicionalmente aplicada para los estudios de tiempos por cronometraje:
2. El Estudio de Tiempos.
El objetivo del estudio de tiempos, es el determinar el tiempo de ejecución o duración referencial y representativa de una operación o actividad.
Tal tiempo referencial se denomina Tiempo
Estándar, el cual es como el patrón de tiempo
necesario para realizar una operación.
Como condiciones para determinar el tiempo
estándar tenemos:
1. Operación con objetivo definido.
2. Diseño de puesto definido.
3. Equipamiento y herramental definidos.
4. Condiciones ergonómicas y ambientales
normales.
5. Método establecido.
6. Operario a medir con rendimiento y habilidad
normal.
7. Nivel de ejercitación suficiente como para
evitar presencia de dudas, interrupciones y
variaciones significativas en movimientos.
Es de especial importancia y necesidad porque:
a) Determina el tiempo estándar los estándares de
actuación.
b) Permite evaluación de eficiencia y
productividad.
c) Permite el cálculo de recursos de mano de obra
y maquinaria.
d) Facilita la programación y control de
operaciones.
e) Da soporte al costeo de parte de los recursos
insumidos.
f) Brinda base para la remuneración e incentivos.
3. El Cronometraje.
El cronometraje es la metodología más común,
consiste en medir los tiempos de la operación, en
base a un conjunto de muestras o lecturas.
El procedimiento básico es el siguiente:
i. Descomponer la operación en elementos.
ii. Identificar los elementos regulares
(repetitivos), presentes en cada ciclo u
operación, cuya frecuencia FREC = 1.
Estudio de tiempos por cronometraje: caso de operaciones de costura bajo corridas cortas
Agosto 2012
39
iii. Identificar los elementos irregulares y su
frecuencia, por ejemplo:
Atar paquete, FREC = 1/25
Anotar producción, FREC = 1/25
Cambiar cono de hilo, FREC = 1/325
Colocar etiquetas, FREC = 1/100
iv. Tomar “n” lecturas preliminares con el
cronómetro, mínimo 10 veces cada
elemento.
v. Identificar lecturas extrañas, extremas y
eliminarlas (por errores, omisiones, fallas).
vi. Para los elementos regulares, comprobar,
con fórmula estadística, si se requieren más
lecturas para el nivel de confianza y error
(usualmente 95% y 5% respectivamente),
esto es el valor “N”.
Para los irregulares, por el bajo impacto en
el tiempo total, se toman de 3 a 5 lecturas,
sin comprobación del N.
vii. Completar las lecturas que se requieran
viii. Repetir pasos de iii a v hasta que la cifra de
la fórmula (N) sea menor o igual a la
cantidad de lecturas (n) que se tienen, para
cada elemento.
ix. Calcular el tiempo observado promedio
para cada elemento:
Tobs_prom = Suma (Tobs) / n
x. Calificar o valorar el ritmo de ejecución
para cada elemento, considerando un factor
de calificación, el cual, para operaciones
nuevas, el rango aceptable de un operario
normal debería estar entre 0.85 (bajo) a
1.15 (alto). Para valores más alejados, se
incorporaría mayor error en los cálculos.
xi. Calcular el tiempo normal de cada
elemento:
Tnorm = ( Tobs_prom ) x FREC x FV
xii. Sumar los Tnorm de cada elemento
obteniendo el Tnorm_ope (de la operación
completa)
xiii. Calcular el porcentaje de suplementos
(%Tsup), o de concesiones por fatiga,
necesidades fisiológicas, condiciones
ambientales e interrupciones necesarias o
inevitables.
xiv. Calcular el Tiempo Estándar:
TE = Tnorm x ( 1 + %Tsup/100).
2. Sustento estadístico.
Para una variable con población homogénea, se
definen los parámetros que caracterizan su
distribución es decir, su comportamiento; al
estimar tales parámetros a partir de muestras de la
población, obtenemos los estadísticos, con los
cuales trabajamos para establecer el valor del TE.
Es así que para el parámetro que mide la
tendencia central, se denomina media, la cual se
calcula o estima, comúnmente, a partir del valor
promedio (la media aritmética de la muestra de
datos).
Este estadístico es el usado formalmente para la
metodología tradicional, el TE basa en el valor
promedio. Esto es válido para muestras mayores
que 25, que posean distribución simétrica
alrededor de la media, y sin valores extremos
(muy altos o muy bajos), significativos, situación
tal que no siempre se presenta. Los valores
extremos afectan al valor de la media, es por ello
que la media se le califica como no robusta o no
consistente ante la presencia de valores extremos.
Lo anterior es típico en los casos de producción
de reducida cantidad de repeticiones, donde la
curva de aprendizaje se extiende en tiempo para
llegar a una estabilización, agravándose cuando se
trata de nuevas operaciones.
Una alternativa es la mediana, la cual consiste en
identificar o calcular el valor intermedio de la
muestra, luego de ordenarla de menor a mayor
valor, es así que la mediana divide al conjunto de
lecturas por la mitad (50% a cada lado). Como la
mediana no se calcula en base a los valores
extremos, es más robusta que el promedio para
distribuciones de datos asimétricos, pero, depende
del número de observaciones y no utiliza todos los
datos, como sí lo hace la media, por lo cual no
permite mejores aproximaciones a la media.
Estudio de tiempo por cronometraje: caso de operaciones de costura bajo corridas cortas
Agosto 2012
40
También tenemos a la moda, el valor de mayor
frecuencia en un conjunto de datos, pero, como en
nuestro caso, se trata de datos individuales, no es
de aplicación favorable, a menos que se utilice
gran cantidad de lecturas (tiempos) y se agrupen
en intervalos, lo cual estaría fuera de nuestra
premisa (corridas cortas).
En la figura siguiente se ilustra, a manera de
ejemplo, casos de distribuciones asimétricas
comparando los 3 estadísticos comentados:
Se observa que si la:
Media > Mediana: hay asimetría positiva o
derecha
Media < Mediana: hay asimetría negativa o
izquierda
La asimetría nos permite identificar si los datos se
distribuyen de forma uniforme alrededor de la
medida de tendencia central. Se calcula con la
siguiente fórmula:
Dónde:
n= cantidad de lecturas (tamaño de muestra)
xi = lectura i-ésima
X = Tobs_prom
s = desviación estándar de la muestra de n
valores
Si:
CAsim < 0: la distribución es asimétricamente
negativa, donde los datos se
concentran a la derecha de la media.
CAsim = 0: la distribución es Simétrica, existe
aproximadamente la misma cantidad
de valores a ambos lados de la media.
CAsim > 0: la distribución es asimétricamente
positiva, donde los datos se
concentran a la izquierda de la media.
En cuanto a la concentración de los datos
alrededor de la medida central, tenemos el
coeficiente de curtosis, cuando hay alta
concentración de valores se denomina
Leptocúrtica, cuando es normal, Mesocúrtica y en
caso de baja concentración, Platicúrtica, tal como
se aprecia en la siguiente ilustración.
Si:
CCurt < 0 : la distribución es Platicúrtica.
CCurt = 0 : la distribución es Mesocúrtica.
CCurt > 0 : la distribución es Leptocúrtica.
Este coeficiente se calcula con la siguiente
fórmula:
Dónde:
n = cantidad de lecturas (tamaño de muestra)
xi = lectura i-ésima
X = Tobs_prom
s = desviación estándar de la muestra de n
valores
Por convención, la condición de cuasi-normalidad
será si:
-0.5 ≤ CAsim ≤ 0.5, y
-0.5 ≤ CCurt ≤ 0.5
Estudio de tiempos por cronometraje: caso de operaciones de costura bajo corridas cortas
Agosto 2012
41
Bajo esto, se puede asumir que la distribución de
la muestra tiene un comportamiento aproximado a
la distribución Normal.
Para los casos de distribución no normal, las
propiedades estadísticas nos indican que la
mediana sería más representativa de la medida del
valor central o más frecuente, pero no aproximará
bien cuando se tengan pocas lecturas, esto se
manifestará con mayor significancia a medida que
se empleen datos de magnitudes mayores, donde
las variaciones de precisión serán más evidentes.
Para resolver lo anterior, se cuenta con otra
medida de tendencia central: la media geométrica,
cuya mejor representatividad como medida central
de conjunto de datos no simétricos y de pocas
lecturas (n < 25) ha sido comprobado por Sauro y
Lewis [3].
Ahora, veamos el sustento para el cálculo de la
cantidad de datos.
La literatura presenta la distribución normal como
el modelo para representar el comportamiento de
los tiempos; claro está que se da por hecho el
cumplimiento de los siguientes aspectos:
Método ya definido.
Operario calificado y capacitado en tal
método.
Operario con desempeño o ritmo normal.
Condiciones normales.
Diseño del puesto ya definido.
Para calcular la cantidad de datos requerida, la
fórmula, para un nivel de confianza del 95.45% y
un error de +/-5% es la siguiente:
Dónde:
N = cantidad de muestras que se requerirán.
x = cada valor o dato de la muestra tomada.
Lo anterior se debe aplicar cuando “n” es mayor o
igual de 30, caso contrario, se debe aplicar la
siguiente fórmula, basada en la distribución t de
Student [1]:
Donde:
N = cantidad de muestras que se requerirán.
s = desviación estándar de la muestra de n
valores
k = error aceptable, generalmente 0.05 (5%)
t = valor de la distribución t de estudent
calculado para n-1 grados de libertad y k
de error.
Tobs_prom = la media de los valores de la
muestra de n lecturas de tiempo.
Esta fórmula es la que se debería aplicar en
nuestro caso (corridas cortas).
Para calcular el valor de la desviación estándar,
contamos con la siguiente fórmula:
S = desviación estándar obtenida.
xi = cada valor o dato de la muestra tomada
x = media aritmética de los datos de la muestra
(Tobs_prom)
n = cantidad de datos que conforman la
muestra
Cabe destacar que no hemos considerado el
método práctico basado en el Rango, por
incorporar mayor imprecisión a los resultados.
Finalmente, para efectos de comparaciones entre
diferentes distribuciones, necesitamos indicadores
relativos, como los coeficientes de variación:
CV_S_muestra = S/Tobs_prom
(Media – Tobs_prom) /Tobs_prom
Estudio de tiempo por cronometraje: caso de operaciones de costura bajo corridas cortas
Agosto 2012
42
5. Procedimiento de Investigación
Se desarrollaron las siguientes actividades:
1. Selección aleatoria de una muestra de
operaciones (20), con estudios de tiempos
realizados con operarios normales y analistas
experimentados.
2. Revisión y comprobación del cumplimiento de
la metodología.
3. Cálculo de estadísticos: media, mediana, media
geométrica, rango, desviación estándar.
4. Cálculo de indicadores de variación
(coeficientes).
5. Análisis general.
6. Propuesta.
7. Estimaciones de impactos.
6. Resultados y discusión
Se obtuvo los estudios de tiempos completos de
20 operaciones de costura de polo camisero (polo
box), contemplando un total de 66 elementos, esto
luego de depurar (descartar) elementos con menos
de 7 datos.
En cuanto a la metodología la muestra tomada
evidencia las siguientes situaciones relevantes:
1. Consideración de 2 o más elementos como
uno, implicando diferente tipo de
manipulación y propósito así como empleo
de diferentes accesorios o herramientas,
como por ejemplo:
a. Costuras con recortes o piquetes.
b. Costuras con marcados.
Esto se ha detectado en el 6% de los
elementos, con un ligero potencial de
imprecisión por tales combinaciones.
2. El número de lecturas varía de 7 a 13, de
donde un 19.7% se calculó estándares con
menos de 10 lecturas, esto implica potencial
significativo de cálculos con mayor error.
3. Los CV_S_muestra varían de 3.9% a 45.3%, lo cual evidencia alta dispersión, siendo un 60.6% los elementos con más de 10% de CV_S_muestra.
4. En el 34.8% de los casos los analistas
eliminaron lecturas cercanas a la mediana, en vez de las lecturas extremas en el lado opuesto, contribuyendo al mayor valor de la dispersión, por no considerar el sentido de la asimetría.
5. En el 23% de los casos, se observan valores
de tiempos extremos que implican mayores desviaciones estándar (mayor error).
6. En el 100% de los casos no se ha
comprobado estadísticamente la cantidad de lecturas necesarias para el nivel de confianza (95%) y error (5%), contribuyendo a mayor error en los estándares calculados.
7. En el 100% de los casos no se han tomado
más de 2 lecturas para los elementos irregulares, bajo el argumento de su baja frecuencia y contribución al total del tiempo, contribuyendo a mayor error.
8. Comparando la cantidad de muestras tomadas
(n), frente al cálculo estadístico de N, el 83.3% de los elementos requieren mayor cantidad de lecturas que el realizado, lo cual, no es nada conveniente.
9. Sólo 1 caso se calificó con 75% de
valoración, en un elemento de tipo manual (coger prenda); esto es evidencia positiva de la metodología, en cuanto a las condiciones normales como premisa (las valoraciones debes ser cercanas al 100%).
10. Sólo 4 casos (6.1%) cumplen con la
condición de cuasi-normalidad, lo cual indica que el valor promedio no será buen estimador. Por tanto es más conveniente emplear la media geométrica.
11. En base a los cálculos realizados para los 66
casos, el coeficiente de variación considerando la media geométrica: [(Media – Tobs_prom) /Tobs_prom ]x 100%
Resultó en un rango de 0.0% a 6.4%.
Estudio de tiempos por cronometraje: caso de operaciones de costura bajo corridas cortas
Agosto 2012
43
12. El coeficiente de variación considerando la
desviación estándar CV_S_muestra, presenta
mayores valores en los elementos
eminentemente manuales, lo cual es de
esperar.
13. El 45% de los casos el N requerido va de 20 a
60 datos, frente a los 7 a 13 datos realmente
tomados. Esto implica desatender
oportunidades de mejora ya que los altos
valores de N indican que hay alta dispersión,
por ende, complicaciones con el método,
materiales y/o diseño del puesto.
14. Comparando el total de lecturas realizadas
contra el calculado estadísticamente, resulta
en un faltante de 2232 lecturas para obtener
los niveles de significancia y precisión
aceptables.
15. Para evaluar el impacto de no haber
eliminado o descartado lecturas extremas de
manera correcta, revisamos todos los estudios
para los casos que requieran un N mayor o
igual 30, y descartamos adicionalmente sólo
un valor extremo considerando el sentido de
asimetría:
a. Valor máximo para asimetría positiva.
b. Valor mínimo para asimetría negativa
Luego de los cálculos resultó un faltante de
lecturas requeridas menor, siendo 825 datos,
esto es, una reducción del 63% de lecturas
(de 2232 a 825). Esto evidencia el nivel de
impacto con una correcta revisión y
depuración.
En cuanto a los cálculos del tamaño de muestra, a
partir de los estudios de tiempo analizados
analizamos los datos y empleando el coeficiente
de variación de la desviación estándar:
CV_S_muestra.
Relacionamos los valores requeridos de N (los
calculados bajo la distribución t) con los valores
del coeficiente CV_S_muestra para evaluar la
correlación y el comportamiento. Luego de
graficar y calcular el coeficiente de correlación
lineal, observamos alta correlación del valor de N
con el coeficiente de variación de la desviación
estándar, como se aprecia en la siguiente figura:
Observando los datos, confirmamos que podemos emplear el valor del CV_S_muestra como elemento de
juicio para acotar los valores de N. Es así que, agrupando los datos de la muestra de estudios tenemos lo
siguiente:
Estudio de tiempo por cronometraje: caso de operaciones de costura bajo corridas cortas
Agosto 2012
44
De lo anterior podemos plantear una tabla de
valores de N a partir de rangos de valores del
coeficiente, como sigue:
N %CV_S_muestra
10 hasta 7.0%
15 de 7.1% a 8.8%
20 de 8.9% a 9.9%
25 de 10.0% a 11.3%
Ya no consideramos mayores variaciones
aceptables en una muestra de datos, para el cálculo
del TE, dado que ya se excedería
significativamente del doble de la tolerancia ( 2 x
error = 10%).
Para mayores valores de variación, recomendamos, revisar la operación, métodos y el puesto, a fin de detectar las causas, volver a tomar tiempos, ya con mejor resultado.
7. Propuesta metodologica.
1. Tomar 15 lecturas para cada elemento.
2. Analizar los datos empleando una hoja de cálculo previamente ya preparada para determinar:
a. El coeficiente de variación de la desviación estándar: CV_S_muestra
b. El coeficiente de asimetría: CAsim
3. Comprobar que el valor del CV_S_muestra sea menor o igual que 8.8%, para cada elemento.
4. Caso contrario, revisar los coeficientes de asimetrías de los elementos cuyo valor se exceda el intervalo: -0.5 <= CAsim <= 0.5.
Descartar valores extremos considerando eliminar:
a. Un valor máximo para asimetría positiva
b. Un valor mínimo para asimetría negativa
Repetir y recalcular evitando descartar más de 5 lecturas.
5. Si se cumple lo indicado, calcular los tiempos normales empleando la media geométrica, para luego calcular el tiempo estándar, acorde al método tradicional.
6. Si no se logra reducir los coeficientes, suspender el estudio de tiempos y revisar el estudio de métodos y ergonómico. Mientras se realiza ello, se puede calcular un valor de tiempo estándar pero considerándolo como preliminar.
8. Referencias
Kanawaty; G. Introducción al Estudio del Trabajo; Oficina Internacional del Trabajo, 4ta.
Edición, 2006.
Niebel, Ben ; Freivalds, Andris. Ingeniería Industrial, Métodos, Estándares y Diseño del Trabajo;
Alfaomega, 11ra. Edición, 2004
Sauro, Jeff; James, Lewis. Average Task Times in Usability Tests: What to Report?
CV_S_ muestra
N
CV_S_ muestra
N
CV_S_ muestra
N
CV_S_ muestra
N
4.0% 4
7.0% 11
8.9% 16
10.5% 22
3.9% 4
7.5% 11
9.1% 17
10.7% 23
3.9% 4
7.3% 11
9.5% 18
10.8% 23
4.1% 4
7.1% 12
9.2% 19
11.1% 24
4.7% 5
7.8% 12
9.9% 19
11.1% 24
5.1% 6
7.7% 12
11.3% 25
5.8% 7
8.1% 13
6.0% 8
7.9% 13
7.0% 10
8.1% 14
8.4% 14
8.4% 15
8.8% 15
Jonatán Edward Rojas Polo
Pontificia Universidad Católica del Perú
Carla Pretell Vásquez
Luis Márquez Villacorta
Luis Vásquez Salinas
Resumen Agroindustrial es una empresa que produce diversos tipos de productos como conservas de vegetales, vegetales en
fresco y congelados. Dentro de las conservas de vegetales tenemos la conserva de ensalada de pimiento piquillo 8
oz., y dentro de este proceso una de las características para mejorar es la disminución de la variabilidad del pH,
que es lo que actualmente está originando producto no conforme. Se decidió aplicar la metodología SIX SIGMA
para reducir la variabilidad del pH presente en las conservas de vegetales controlando que los impactos no alteren
considerablemente al proceso. En la etapa Definir colocamos la descripción del proyecto, se identifica los
requisitos del proyecto, las etapas del proceso donde se desarrolla el proyecto describiendo sus características
como los recursos de entrada, los recursos que genera el proceso, los proveedores, los clientes internos, externos y
los stakehorders. La Etapa de Medir se enfocó en determinar y medir las variables críticas de entradas (X´s) y
salida (Y´s), mediantes las herramientas de mejora, como el diagrama de flujo de procesos, gráfica de Pareto. Otro
punto de esta etapa es validar las mediciones de estas variables crítica, asegurándose que las mediciones sean las
correctas, y por último se determina la línea base del proceso. En la Etapa de Análisis se buscó las causas raíces
con herramientas cuantitativas, demostrando estadísticamente sí los KPIV’S, que se encontraron en la etapa
anterior, influyen en nuestra gran Y (pH de conserva de ensalada de pimiento piquillo). Las herramientas
estadísticas que utilizamos fueron básicamente regresión y análisis de varianza (ANOVA). En la Etapa de Mejora
y Control se desarrolla el Diseño de Experimentos con las variables, presión ejercida por el personal y % de
pimiento en tiras.
RReedduucccciióónn ddee llaa vvaarriiaabbiilliiddaadd ddeell ppHH
eenn ccoonnsseerrvvaass aacciiddiiffiiccaaddaass
ddee ppiimmiieennttoo ppiiqquuiilllloo
RReedduucccciióónn ddee llaa vvaarriiaabbiilliiddaadd ddeell ppHH eenn ccoonnsseerrvvaass aacciiddiiffiiccaaddaass ddee ppiimmiieennttoo ppiiqquuiilllloo
Agosto 2012
46
Para realizar la mejora del proceso de conservas
acidificadas del pimiento piquillo se aplicó la
metodología DMAI (metodología correspondiente
al six sigma)
1. Etapa definir
En esta etapa establecemos la base para el
desarrollo del proyecto. En el Cuadro 1 se muestra
el estatuto del proyecto donde se detalla el
proyecto, problema, objetivo, participantes, etc.
Cuadro 1 – Definir el proceso
Proyecto Reducción de la variabilidad del pH en conservas acidificadas de ensalada de pimiento piquillo 8 oz. en la Planta de Conservas.
Problema Actualmente el 68 % de los envíos de las conservas acidificadas de ensalada de pimiento piquillo 8 oz., se encuentran fuera de los rangos de pH requerido por el cliente.
Caso del Negocio
Dentro del proceso de elaboración de conservas acidificadas de ensalada de pimiento piquillo 8 oz., se tiene como aspecto a mejorar la variabilidad del pH, esta variabilidad genera productos fuera de especificación siendo los rangos del pH establecido por el cliente 4.3 – 4.5. Si este parámetro se encuentra por encima del valor de 4.5, provoca pérdidas de producto por problemas de inocuidad y si estuviese por debajo de 4.3 produce reclamos por parte del cliente por exceso de acidez, lo cual genera sobre costos (retrabajo, producto rechazado, recolecta de producto en destino). El control de esta variable nos permitirá mejorar el nivel de satisfacción y las expectativas del cliente y a la vez evitar las pérdidas económicas que se originan por desviación del proceso (variabilidad del pH).
Objetivos del Proyecto
Reducir la variabilidad del pH en conservas acidificadas de ensalada de pimiento piquillo 8 oz., lo cual significa pasar de un rango de pH de 4.1 – 4.5 a un rango de pH de 4.2 – 4.4 durante el año 2011, reduciendo los costos de calidad en un 90% que equivale a un ahorro 75 439 nuevos soles por año.
Alcance del Proyecto El proyecto abarca desde la recepción de las materias primas e insumos hasta recepción de producto terminado en destino.
Equipo de Trabajo
Nombre Rol del Equipo Dedicación
Gerente Planta Champion 5%
Jefe Calidad Property 15%
Jefe Planta Stakeholder 5%
Administrador SIG Stakeholder 5%
Supervisor Calidad Colaborador 10%
Control Proceso Colaborador 10%
Supervisor Planta Colaborador 10%
Carla Pretell Green Belt 20%
Luis Vásquez Green Belt 20%
Plan de Proyecto
Etapa DMAIC Fecha Inicio Fecha Termino
Definir 01/09/2011 15/09/2011 Medir 01/09/2011 31/10/2011 Analizar 01/10/2011 30/11/2011 Mejorar 15/11/2011 31/12/2011 Controlar 15/12/2011 31/01/2012 Entrega del Proyecto a Propietario
01/02/2012 04/02/2012
Control Financiero 01/11/2011 31/01/2012
Elaboración Propia
RReedduucccciióónn ddee llaa vvaarriiaabbiilliiddaadd ddeell ppHH eenn ccoonnsseerrvvaass aacciiddiiffiiccaaddaass ddee ppiimmiieennttoo ppiiqquuiilllloo
Agosto 2012
47
Para poder entender con mayor facilidad el proceso de elaboración de la conserva, se presenta en la Figura 1
el diagrama de flujo para la elaboración de conservas acidificadas de ensalada de pimiento piquillo 8 oz:
Figura 1. Diagrama de Flujo para la elaboración de conserva acidificada
de ensalada de pimiento piquillo 8 oz.
RReedduucccciióónn ddee llaa vvaarriiaabbiilliiddaadd ddeell ppHH eenn ccoonnsseerrvvaass aacciiddiiffiiccaaddaass ddee ppiimmiieennttoo ppiiqquuiilllloo
Agosto 2012
48
Voz del Cliente
En el Cuadro 2 se presenta los requisitos del
cliente, que nos ayudó a establecer las
características de trabajo.
Cuadro 2. Requisitos del cliente
Característica Objetivo Tolerancia
% de sal: 0.7 – 0.8% 0.6 – 1.0
Vacío: > 2 pulg. Hg
pH: 4.40 4.30 – 4.50
% Brix: 11.5 10.5 – 12.5
Color del producto:
Hasta rojo nivel 5
Se requiere uniformidad en el fruto para hacer tiras, es decir SIN MANCHAS.
Limpieza: Ausencia de materias extrañas
Textura: Rojo, típico de la variedad
Olor: Característico
Sabor: Característico
De acuerdo al problema planteado en el proyecto
y a los requisitos entregados por el cliente, la voz
del cliente nos indica que quiere tener un pH que
se encuentre en el rango de 4.3 – 4.5.
2. Etapa de medición
En esta etapa definimos las variables de entrada y
las variables de salida del proceso ensalada de
conserva acidificada de pimiento piquillo 8 oz.,
los costos de calidad, gráficas de control, cálculo
de la capacidad de proceso, análisis de varianza y
análisis de regresión múltiple.
Mapa del Proceso de Interés
Para la obtención de la conserva acidificada de
ensalada de pimiento piquillo 8 oz, se utiliza
como materia prima tiras de pimiento y cebolla
picada. En el proceso se mezclan las materias
primas, en proporciones de 10 % mínimo de
cebolla y 90 % máximo de pimiento
representando un peso escurrido de 180 g.
El incumplimiento de las proporciones causa
problemas a nivel de calidad ya que el consumidor
sentirá la diferencia al degustar el producto, a la
vez también tenemos la adición de líquido de
gobierno (compuesto de agua, sal vinagre y ácido
cítrico) que debe mantener un pH de 2.0 – 2.5
para cumplir con las especificaciones del cliente.
En el desarrollo del proceso en la etapa de
acidificación se ejerce una presión manual de
compactación (aplaste) a la mezcla de materias
primas que permitirá la adición del líquido de
gobierno, por lo que este punto es clave en la
disminución de la variabilidad del pH que se
encuentra en el producto terminado ya que es
realizado por personal operario. En la Figura 2 se
presenta el diagrama de proceso detallado.
Figura 2. Proceso de interés
RReedduucccciióónn ddee llaa vvaarriiaabbiilliiddaadd ddeell ppHH eenn ccoonnsseerrvvaass aacciiddiiffiiccaaddaass ddee ppiimmiieennttoo ppiiqquuiilllloo
Agosto 2012
49
Determinación de las variables de entrada
Kpiv y salida Kpov del proceso.
Para la determinación de los Kpiv se ha
seleccionado todas las variables de entradas del
proceso de interés para realizar un Pareto,
enfocándose en la importancia de influencia
conserva acidificada de ensalada de pimiento
piquillo 8 oz. En el Cuadro 3 se muestra las
votaciones del personal involucrado en el proceso.
Cuadro 3. Votación por las variables de entradas del proceso
conserva acidificada de ensalada de pimiento piquillo 8 oz
Entradas del Proceso (KPIV)
Característica de interés: pH de producto
terminado Suma
1 2 3
% pimiento en tiras 5 5 3 13
% cebolla picada 3 3 5 11
Envases vacíos 0 0 0 0
Personal envasado 1 1 0 2
Balanza 0 0 0 0
Personal pesado 0 1 0 1
pH líquido de gobierno 5 5 3 13
Personal acidificado 1 1 3 5
pH metro 0 0 3 3
Presión ejercida por personal 5 5 5 15
Termómetro 0 0 1 1
Temperatura líquido de gobierno 0 0 1 1
Tapas 0 0 0 0
0: no interfiere 1: poca interferencia 3: mediana interferencia 5: mucha interferencia
Figura 3. Diagrama de Pareto de las
variables de entrada
RReedduucccciióónn ddee llaa vvaarriiaabbiilliiddaadd ddeell ppHH eenn ccoonnsseerrvvaass aacciiddiiffiiccaaddaass ddee ppiimmiieennttoo ppiiqquuiilllloo
Agosto 2012
50
De la Figura 3, se selecciona las variables críticas
de entrada que influyen en el valor del pH de la
conserva acidificada de ensalada de pimiento
piquillo de 8 oz., las cuales se muestra en el
Cuadro 4.
Cuadro 4. Variables de entrada KPIV
N° Variables de entrada KPIV
1 Presión ejercida por personal
2 % de tiras de pimiento piquillo
3 pH Líquido de gobierno
4 % de cebolla picada
Los KPOV son seleccionados de las variables
generadas del proceso de interés e influyen en el
cliente. En el Cuadro 5 se muestra las variables
críticas de salida.
Cuadro 5. Variables de salida del proceso KPOV
N° Variables de salida de
proceso KPOV Unidades
1 pH del producto
terminado
2 Peso del producto
terminado g
3 Concentración de sal %
4 Sólidos solubles °Brix
Costos de la Calidad
En el Cuadro 6 se muestra el cálculo del costo de
calidad donde podemos observar el costo de
exceso que se tiene por la variabilidad que se
presenta en el pH de las conservas acidificadas de
ensalada de pimiento piquillo de 8 oz., el cual
asciende a 75 439 nuevos soles al año, lo cual
representa el 90% de los costos totales de calidad.
Cuadro 6. Costos de calidad del proceso
Costos de Fallas Internas % Total S/.
Producto terminado descartado 58.48 48384
Producto en proceso 14.89 12315
Total de costos falla interna 73.37 60699
Costos de Falla Externa % Total S/.
Producto terminado descartado 13.71 11340
Análisis de fallas 1.45 1200
Total de costos falla externa 15.16 12540
Costos de Evaluación % Total S/.
Inspección 7.86 6500
Pruebas 2.66 2200
Total de costo evaluación 10.52 8700
Costos de Prevención % Total S/.
Capacitación de personal 0.96 792
Total de costo prevención 0.96 792
TOTAL DE COSTOS CALIDAD 100 82731
Costos Calidad que se mantienen % Total S/.
Inspección 7.86 6500
Capacitación de personal 0.96 792
Total de costo calidad a mantener 8.81 7292
AHORRO EN COSTOS DE CALIDAD 91.19 75439
RReedduucccciióónn ddee llaa vvaarriiaabbiilliiddaadd ddeell ppHH eenn ccoonnsseerrvvaass aacciiddiiffiiccaaddaass ddee ppiimmiieennttoo ppiiqquuiilllloo
Agosto 2012
51
Método de Medición
Para el cálculo de la variable de salida principal,
pH del producto terminado, se utiliza el método
potenciométrico. En el Cuadro 7 se presenta los
datos del pH de la conserva con los cuales se
estableció la línea base del proceso.
Cuadro 7. Línea base del pH de la conserva
Descripción Cantidad %
Valores entre 4.51 - 4.60 1 0.67
Valores entre 4.30 - 4.50 48 32.00
Valores entre 4.20 - 4.29 88 58.67
Valores entre 4.10 - 4.19 11 7.33
Valores menores de 4.10 2 1.33
Valores dentro rango 48 32.00
Valores fuera rango 102 68.00
Evaluación de RyR de la Medición del pH de
Producto Terminado
Para evaluar la capacidad y estabilidad del
sistema de medición se realiza la prueba de RyR
de la variable principal, pH del producto
terminado. Para realizar la prueba se seleccionó
10 muestras del producto terminado y 3
operadores con 2 repeticiones de las medidas.
En el Cuadro 8 y Figura 4 se muestra el análisis
estadístico cuantitativo de la evaluación de
repetitibilidad y reproducibilidad y la gráfica de la
prueba que demuestran la buena estabilidad de los
datos.
Cuadro 8. Evaluaciónde repettividad y reproductividad (R y R)
RReedduucccciióónn ddee llaa vvaarriiaabbiilliiddaadd ddeell ppHH eenn ccoonnsseerrvvaass aacciiddiiffiiccaaddaass ddee ppiimmiieennttoo ppiiqquuiilllloo
Agosto 2012
52
Además observemos la siguiente imagen.
Figura 4. Repetitibilidad y Reproducibilidad
Medición para las variables controlables
En el cuadro 9 se muestra el plan de medición de
las variables X´s. Así mismo podemos decir que
para la variable principal Y (pH de conserva
acidificada de ensalada de pimiento piquillo 8 oz)
se encontró que él % de contribución de
variabilidad fue de 8.08%, lo que significa que
hay repetitibilidad y reproducibilidad de los datos
por parte del personal y del instrumento usado
respectivamente.
Cuadro 9. Plan de medición de las variables X’s
N° Variables Definición Equipo /
Instrumento Responsable
Toma de muestra
1 % cebolla Ingrediente secundario Balanza Auxiliar de producción
Cada 30 minutos
2 % pimiento
piquillo Ingrediente primario Balanza
Auxiliar de producción
Cada 30 minutos
3 pH líquido de
gobierno Líquido de gobierno pH 2.0
– 2.5 Medidor de
pH Auxiliar de
calidad Cada 30 minutos
4 Peso de producto Peso de producto g Balanza Auxiliar de
calidad Cada 30 minutos
5 pH producto
homogenizado pH producto homogenizado
4.3 – 4.5 Medidor de
pH Auxiliar de
calidad Cada 30 minutos
6 Presión (aplaste) Presión (aplaste) media, espacio de cabeza 4 mm
Regla Auxiliar de
calidad Cada 30 minutos
Part-to-PartReprodRepeatGage R&R
100
50
0
Perc
ent
% Contribution
% Study Var
10 9 8 7 6 5 4 3 2 110 9 8 7 6 5 4 3 2 110 9 8 7 6 5 4 3 2 1
0.04
0.02
0.00
Muestra
Sam
ple
Range
_R=0.006
UCL=0.01960
LCL=0
1 2 3
10 9 8 7 6 5 4 3 2 110 9 8 7 6 5 4 3 2 110 9 8 7 6 5 4 3 2 1
4.30
4.25
4.20
Muestra
Sam
ple
Mean
__X=4.2483UCL=4.2596
LCL=4.2370
1 2 3
10987654321
4.30
4.25
4.20
Muestra
321
4.30
4.25
4.20
Operario
10987654321
4.30
4.25
4.20
Muestra
Avera
ge
1
2
3
Operario
Gage name:
Date of study :
Reported by :
Tolerance:
M isc:
Components of Variation
R Chart by Operario
Xbar Chart by Operario
pH by Muestra
pH by Operario
Muestra * Operario Interaction
Evaluación R y R del pH del producto terminado
RReedduucccciióónn ddee llaa vvaarriiaabbiilliiddaadd ddeell ppHH eenn ccoonnsseerrvvaass aacciiddiiffiiccaaddaass ddee ppiimmiieennttoo ppiiqquuiilllloo
Agosto 2012
53
Gráficas de control de Y (pH de la conserva de
ensalada de pimiento piquillo 8 oz.)
Para el cálculo del valor sigma hemos recolectado
los datos del mes de noviembre del pH de la
conserva de ensalada de pimiento piquillo 8 oz. En
la Figura 5, se puede observar que los valores del
pH de la conserva en el mes de noviembre del
2011, no están bajo control estadístico.
Figura 5. Control de la variable principal Y
De acuerdo a los datos trabajados para el pH de la
conserva acidificada de ensalada de pimiento
piquillo 8 oz., se puede apreciar en el Cuadro 7
que el 32% de los valores se encuentran dentro del
rango de trabajo establecido de 4.30 - 4.50 y el
68% restante se encuentra fuera del rango de
trabajo 4.00 - 4.29 y mayor a 4.5.
Cálculo de la Capacidad y Nivel Sigma
De los datos recolectados se pudo calcular el nivel
sigma y la capacidad del proceso. En las Figuras 6
y 7 se presenta los cálculos realizados.
Respecto a la capacidad del proceso, se evidencia
que el proceso no es capaz (valores de Cp y Cpk
menores a 1.0).
De la Figura 7 se calcula el nivel sigma la cual es
-0.28 + 1.50 = 1.22, la cantidad de defectos que se
tiene expresada en ppm fue de 609533 que
representa el 60.95%.
Figura 6. Capacidad de proceso
Figura 7. Nivel sigma
464136312621161161
4.5
4.4
4.3
4.2
4.1
Número de observaciones
Va
lor d
e p
H
__X=4.2771
UC L=4.4054
LC L=4.1487
464136312621161161
0.60
0.45
0.30
0.15
0.00
Número de observaciones
ra
ng
o m
óv
il
_R=0.1254
UC L=0.3229
LC L=0
11
1
1
1
1
Gráfica de Control del pH de conserva de ensalada de pimiento piquillo
4.804.654.504.354.204.05
LEI LES
LEI 4.3
O bjetiv o *
LES 4.5
Media de la muestra 4.27707
Número de muestra 150
Desv .Est. (Dentro) 0.0740903
Desv .Est. (General) 0.0864866
Procesar datos
C p 0.45
C PL -0.10
C PU 1.00
C pk -0.10
Pp 0.39
PPL -0.09
PPU 0.86
Ppk -0.09
C pm *
C apacidad general
C apacidad (dentro) del potencial
PPM < LEI 673333.33
PPM > LES 6666.67
PPM Total 680000.00
Desempeño observ ado
PPM < LEI 621541.58
PPM > LES 1310.81
PPM Total 622852.39
Exp. Dentro del rendimiento
PPM < LEI 604559.35
PPM > LES 4973.53
PPM Total 609532.89
Exp. Rendimiento general
Dentro de
General
Capacidad de proceso de pH
4.804.654.504.354.204.05
LEI LES
LEI 4.3
O bjetiv o *
LES 4.5
Media de la muestra 4.27707
Número de muestra 150
Desv .Est. (Dentro) 0.0740903
Desv .Est. (General) 0.0864866
Procesar datos
Z.Bench -0.31
Z.LEI -0.31
Z.LES 3.01
C pk -0.10
Z.Bench -0.28
Z.LEI -0.27
Z.LES 2.58
Ppk -0.09
C pm *
C apacidad general
C apacidad (dentro) del potencial
% < LEI 67.33
% > LES 0.67
% Total 68.00
Desempeño observ ado
% < LEI 62.15
% > LES 0.13
% Total 62.29
Exp. Dentro del rendimiento
% < LEI 60.46
% > LES 0.50
% Total 60.95
Exp. Rendimiento general
Dentro de
General
Capacidad de proceso de pH
RReedduucccciióónn ddee llaa vvaarriiaabbiilliiddaadd ddeell ppHH eenn ccoonnsseerrvvaass aacciiddiiffiiccaaddaass ddee ppiimmiieennttoo ppiiqquuiilllloo
Agosto 2012
54
3. Etapa de analizar
En esta etapa se hallan las causas de la variación
de la gran Y (pH de la conserva de ensalada de
pimiento piquillo 8 oz.), las posibles causas son
los KPIV’S del proceso que fueron encontrados,
las principales herramientas estadísticas que se
utilizaron fueron Anova y Correlación.
Determinación de las causas raíces
Regresión de las variables presión ejercida por el
personal, % pimiento en tiras y % de cebolla
picada.
Durante el llenado de la materia prima e insumos
en el envase se hace uso de mano de obra y
equipos para poder llevar a cabo esta operación
por lo cual hay posibilidad de que afecten en la
variación de la gran Y, motivo por el cual usamos
el análisis de correlación para medir la intensidad
de asociación entre las variables.
Matriz de correlación
La Figura 8 muestra aparentemente que existe
correlación entre las variables presión ejercida, %
pimiento en tiras y % de cebolla picada en función
al pH de la conserva.
Figura 8. Gráfica de correlación
Análisis de correlación
En el Cuadro 10 se observa la correlación de
Pearson de las variables presión ejercida por el
personal, % pimiento en tiras y % de cebolla
picada versus el pH de la conserva. Los bajos
valores de la correlación p indican que existe
correlación entre las variables. En el caso de las
variables % de cebolla picada y % de pimiento en
tiras observamos que no existe una correlación.
Cuadro 10. Correlación: Presión Ejercida; % Pimiento en tiras;
% Cebolla picada; pH líquido gobierno, pH conserva
Presión ejercida % pimiento tiras % cebolla picada pH conserva
% pimiento tiras 0.000
1.000
% cebolla picada 0.000 -1.000
1.000 *
pH conserva 0.551 0.355 -0.355
0.000 0.002 0.002
pH líquido gobierno 0.085 -0.072 0.072 0.042
0.477 0.546 0.546 0.726
Correlación Pearson
P-Value
90
85
8020
15
10
321
4.4
4.3
4.2
908580 201510
Presión ejercida
% pimiento
% cebolla picada
pH conserva
Matrix Plot of Presión ejer; % pimiento; % cebolla pi; pH conserva
RReedduucccciióónn ddee llaa vvaarriiaabbiilliiddaadd ddeell ppHH eenn ccoonnsseerrvvaass aacciiddiiffiiccaaddaass ddee ppiimmiieennttoo ppiiqquuiilllloo
Agosto 2012
55
Análisis de regresión
En el Cuadro 11 se muestra la regresión de las
variables, donde se observa que la variable % de
cebolla picada es removida del modelo debido a
que está demasiado correlacionada con la variable
% de pimiento en tiras. Por tanto en el análisis de
regresión el R-cuadrado ajustado tiene un valor de
44% siendo un valor intermedio que nos indica
que existe una influencia de las variables presión
ejercida por el personal y % pimiento en tiras
sobre el pH de la conserva.
Cuadro 11. Análisis de regresión
La ecuación de regresión es
phcon = 3.89 + 0.0345 Presión + 0.00382 Pimien + 0.0037 phliquid
Predictor
Coef SE Coef T P VIF
Constante 3.8939 0.1298 30 0
Presión 0.0345 0.0077 4.45 0 1.148
% pimiento 0.0038 0.0014 2.64 0.013 1.002
Phliquid 0.0037 0.0199 0.19 0.853 1.15
S = 0.0354011 R-cuad. = 48.8% R-cuad.(ajustado) = 44.0%
Análisis de varianza
Fuente GL SC MC F P
Regresión 3 0.03826 0.01275333 10.176209 0
Error residual 32 0.040104 0.00125325
Total 35
Fuente GL SC Sec.
Presión 1 0.0294
% Pimiento 1 0.008817
Phliquid 1 0.000044
Resumen de las causas raíces
Después de realizar las pruebas para encontrar las causas raíces, realizamos el siguiente Cuadro 12 donde se
identifica estas.
RReedduucccciióónn ddee llaa vvaarriiaabbiilliiddaadd ddeell ppHH eenn ccoonnsseerrvvaass aacciiddiiffiiccaaddaass ddee ppiimmiieennttoo ppiiqquuiilllloo
Agosto 2012
56
0.100.050.00-0.05-0.10
99.9
99
90
50
10
1
0.1
Residual
Pe
rce
nt
N 72
AD 0.134
P-Value 0.979
4.354.304.254.20
0.10
0.05
0.00
-0.05
Fitted Value
Re
sid
ua
l
0.090.060.030.00-0.03-0.06
16
12
8
4
0
Residual
Fre
qu
en
cy
7065605550454035302520151051
0.10
0.05
0.00
-0.05
Observation Order
Re
sid
ua
l
Normal Probability Plot Versus Fits
Histogram Versus Order
Gráfica de residuos para pH conserva
4. Etapa de mejora
En esta etapa nos enfocamos a desarrollar un
diseño de experimento para las variables presión
ejercida por el personal, % de pimiento en tiras, %
de cebolla picada y pH de líquido de gobierno para
poder tener mejoras del proceso.
1. Diseño factorial
a) Análisis de los factores
Los resultados de los análisis de factores se
muestran en el Cuadro 13, se detalla que las
interacciones entre los dos factores (presión
ejercida por personal y % de pimiento en tiras) no
influyen en el pH de la conserva de ensalada de
pimiento piquillo 8 oz. (Y), mientras que los
factores independientes si lo hacen. Así mismo en
el Cuadro se muestra el análisis de varianza de los
factores del diseño de experimento. El valor de R2
nos indica que el pH de la conserva es explicado
por los dos factores presión ejercida por el personal
y % de pimiento en tiras.
Cuadro 13. Descripción cuantitativa del
análisis de varianza de los factores
Valores de niveles de presión ejercida por personal:
Nivel Descripción Espacio de cabeza
1 Mayor 7 – 9 mm
2 Regular 4 – 6 mm
3 Menor 1 – 3 mm
b) Validar el modelo
En la Figura 9 se muestra los residuos cumpliendo
los requisitos necesarios para que el modelo sea
válido.
Figura 9. Residuos para el pH de la conserva
c) Optimización
Se obtienen los parámetros de las variables,
presión ejercida por el personal y % de pimiento en
tiras, los valores de las variables son 2.9394 y
86.0606 % respectivamente. Se muestra la
optimización en la Figura 10.
Figura 10. Optimización del modelo
2 Plan Piloto
En esta etapa se desarrolla cuando se va realizando
la mezcla de los materiales para elaborar la
conserva de ensalada de pimiento piquillo 8 oz.,
con los parámetros establecidos por la
optimización del proceso. En la Figura 11 se
muestra el control de los datos del piloto, podemos
indicar que los datos se encuentran bajo control
estadístico.
CurHigh
Low0.32410D
Optimal
d = 0.32410
Targ: 4.40
pH conse
y = 4.3324
0.32410
Desirability
Composite
80.0
90.0
1.0
3.0% pimienPresión
[2.9394] [86.0606]
RReedduucccciióónn ddee llaa vvaarriiaabbiilliiddaadd ddeell ppHH eenn ccoonnsseerrvvaass aacciiddiiffiiccaaddaass ddee ppiimmiieennttoo ppiiqquuiilllloo
Agosto 2012
57
71645750433629221581
4.45
4.40
4.35
4.30
4.25
4.20
4.15
4.10
Observation
Ind
ivid
ua
l V
alu
e
_X=4.2906
UCL=4.3677
LCL=4.2134
1
1
1
1
1
1
Gráfica de control pH conserva
4.404.364.324.284.244.204.16
LSL USL
LSL 4.2
Target *
USL 4.4
Sample Mean 4.29123
Sample N 73
StDev (Within) 0.0256107
StDev (O v erall) 0.0473153
Process Data
C p 1.30
C PL 1.19
C PU 1.42
C pk 1.19
Pp 0.70
PPL 0.64
PPU 0.77
Ppk 0.64
C pm *
O v erall C apability
Potential (Within) C apability
PPM < LSL 41095.89
PPM > USL 13698.63
PPM Total 54794.52
O bserv ed Performance
PPM < LSL 183.81
PPM > USL 10.84
PPM Total 194.65
Exp. Within Performance
PPM < LSL 26915.74
PPM > USL 10758.91
PPM Total 37674.65
Exp. O v erall Performance
Within
Overall
Capacidad de proceso pH conserva despues de la mejora
4.404.364.324.284.244.204.16
LSL USL
LSL 4.2
Target *
USL 4.4
Sample Mean 4.29123
Sample N 73
StDev (Within) 0.0256107
StDev (O v erall) 0.0473153
Process Data
Z.Bench 3.55
Z.LSL 3.56
Z.USL 4.25
C pk 1.19
Z.Bench 1.78
Z.LSL 1.93
Z.USL 2.30
Ppk 0.64
C pm *
O v erall C apability
Potential (Within) C apability
% < LSL 4.11
% > USL 1.37
% Total 5.48
O bserv ed Performance
% < LSL 0.02
% > USL 0.00
% Total 0.02
Exp. Within Performance
% < LSL 2.69
% > USL 1.08
% Total 3.77
Exp. O v erall Performance
Within
Overall
Capacidad de proceso de pH conserva despues de mejora
Figura 11. Carta de control de los resultados del piloto
Después de realizar el piloto, se calcula la nueva
capacidad y nivel sigma del proceso, en las Figura
12 y 13 se presentan respectivamente la capacidad
y el nivel sigma del proceso mejorado.
El valor del nivel sigma es 3.28 (1.78 + 1.5), con
productos defectuosos de 37674 ppm ó 3.77 %.
Figura 12. Capacidad de proceso mejorado
Figura 13. Six Sigma del proceso
5. Etapa de control
En esta etapa desarrollamos un análisis de riesgo
AMEF para encontrar las variables con alto riesgo
de producir defectos en el pH de la conserva de
ensalada de pimiento piquillo 8 oz., para luego
realizar un plan donde describe acciones para
reducir los riesgos.
En el Cuadro 14 se detalla las acciones que se
realizarán a las variables con mayor riesgo,
detallando los responsables de las acciones, tiempo
de ejecución, y otros.
Cuadro 14. Plan de control de la mejora
RReedduucccciióónn ddee llaa vvaarriiaabbiilliiddaadd ddeell ppHH eenn ccoonnsseerrvvaass aacciiddiiffiiccaaddaass ddee ppiimmiieennttoo ppiiqquuiilllloo
Agosto 2012
58
6. Conclusiones Se logró reducir la variabilidad del pH en la
conserva acidificada de pimiento piquillo 8
oz., pasando de un rango de 4.1 – 4.5 a un
rango de 4.2 – 4.4, lo que permite asegurar
la inocuidad del producto, así como
mantener sus características organolépticas
inalteradas.
El valor sigma se incrementó de 1.22 a 3.28
Se confirmó que las variables que influyen
en el proceso son la presión ejercida por el
personal y el porcentaje de tiras de pimiento
piquillo.
Los beneficios económicos alcanzados
fueron de S/. 75 439 nuevos soles por año,
entre los cuales se encuentran la reducción
por ahorro en costos de falla interna, falla
externa, de evaluación y de prevención.
7. Bibliografía
George, M.; Rowlands, D.; Price, M.; Maxey, J. 2005. The Lean Six Sigma Pocket. Editorial
Mc Graw Hill. USA
Christian Cornejo Sánchez
Pontificia Universidad Católica del Perú
Miguel Mejía Puente
Pontificia Universidad Católica del Perú
Resumen El artículo trata sobre la aplicación de la programación lineal entera mixta en la planificación de las
importaciones de piezas en una empresa dedicada a la manufactura y venta de componentes de acero. Se
construyó un modelo matemático que se adaptara a las características de los procesos de importación de
dicha empresa, y cuyo objetivo es ayudar a decidir cuál es el plan de importaciones con régimen aduanero
definitivo que tiene costos totales mínimos. Los resultados obtenidos recomiendan a que proveedores
comprarle las piezas, qué cantidad comprarles a cada uno y qué medio de transporte es el más adecuado para
transportarlas. Con los datos obtenidos de la empresa en estudio, se demostró empíricamente que se puede
ahorrar US$ 135,490 anuales.
1. Introducción
Este trabajo presenta una aplicación de la investigación de operaciones utilizando la técnica de programación
lineal entera mixta, con el objetivo general de definir el planeamiento de las importaciones en régimen
aduanero definitivo en una empresa que importa parte y piezas para producción y posterior comercialización.
Aplicación de las técnicas de programación
lineal a los costos y planeamiento
de las importaciones en régimen
aduanero definitivo
Aplicación de las técnicas de programación lineal a los costos y
planeamiento de las importaciones en régimen aduanero definitivo 60
2. Alcances y limitaciones del modelo matemático
El planeamiento de las importaciones, consiste
principalmente en la selección de los proveedores,
la definición el tamaño de lote de importación, la
determinación del período entre importaciones, la
selección de la modalidad de transporte, y la
reducción del costo de oportunidad que genera el
dinero invertido en los prologados tiempos que
caracterizan a los procesos y actividades de la
importación.
El régimen aduanero definitivo para importaciones
es aquél que permite ingresar legalmente
mercancías que provienen del exterior, para ser
destinadas a consumo, en el mercado interno. La
importancia de este régimen no sólo está en su
efecto recaudador, sino principalmente porque
permite el ingreso de mercancías que la industria
local puede transformarlos en productos con un
mayor valor agregado para consumo nacional o
posterior exportación.
La estructura general de costos para partes
importadas en este régimen es el siguiente:
Valor FOB + flete + seguro
Ad/Valórem, cuya base imponible, según el
Acuerdo del Valor de la Organización Mundial
de Comercio, es la suma del valor FOB, más el
flete y el seguro.
Gastos de desaduanaje.
Comisión de la agencia de aduanas.
2.1 Supuestos
El escenario en el cual se desarrolló este trabajo
consideró los siguientes supuestos:
a. El horizonte de tiempo es anual y se considera
30 días para el despacho de mercancías, el
cual corresponde al tiempo de producción
promedio del proveedor en el extranjero.
b. El monto del seguro se calculará, para
cualquier caso, con la tasa de seguro definida
en el arancel del producto. El monto del
seguro no se incluirá como un costo adicional
en la función objetivo, sólo servirá para
definir las bases imponibles del ad/valórem y
demás impuestos.
c. Las modalidades de transporte internacional
usadas son aéreo y marítimo.
d. El escenario global del modelo es económico
u operativo, es decir, sólo se analizan los
costos operativos vinculados a la importación.
por lo tanto, no consideraremos los gastos
financieros por financiamiento.
e. El modelo se plantea para períodos entre
importaciones, mensual, bimestral y
trimestral, sin embargo, es posible agregar
otros períodos.
f. Los resultados del modelo indicarán el
período óptimo entre importaciones para cada
proveedor, y un tamaño uniforme para el lote
de compra.
g. El Artículo 17 de la Ley General de Aduanas,
permite el pago de derechos arancelarios y
demás tributos según el estado físico de la
mercancía (valoración de mercancías
dañadas). El estado físico de la mercadería
que llega, es una variable aleatoria. Como
nuestro modelo es determinístico, se asumirá
que la mercancía que la empresa importa
siempre llega en buenas condiciones, y que el
pago de derechos arancelarios y demás
impuestos es según este escenario.
h. El modelo está elaborado en el escenario que
define la figura de “Contrato de Mandato”, –
Artículo 99– en la cual la empresa
importadora, faculta al agente de aduanas a
efectuar los trámites de desaduanaje en su
representación. La agencia de aduanas cobra
una comisión y gastos operativos por el
servicio y se incluirán en el modelo.
Aplicación de las técnicas de programación lineal a los costos y
planeamiento de las importaciones en régimen aduanero definitivo 61
3. Modelación
Variables de decisión
Uptijk: Cantidad de unidades mensuales de la
pieza i, del producto j, origen k.
Fptk: Costo del flete de las importaciones
desde el origen k. Recibe el valor del
flete aéreo o marítimo, para las
importaciones efectuadas desde el
origen k.
BIptk: Valor de aduanas de las importaciones
desde el origen k. Recibe el valor de
aduanas (CIF) de la importación
efectuada desde el origen k, en
cualquiera de las modalidades de
transporte y con un período de
importaciones:
AVIptk: Ad/valórem, IGV e IPM de las
importaciones desde el origen k. Recibe
el ad/valórem, IGV e IPM de las
importaciones desde el origen k, en
cualquiera de las modalidades de
transporte y con un período de
importaciones determinado.
COptk: Costo de oportunidad de las
importaciones desde el origen k. Recibe
el costo de oportunidad de las
importaciones desde el origen k, en
cualquiera de las modalidades de
transporte y con un período de
importaciones
Cptk: Costo FCA o FOB + seguro + flete aéreo
o marítimo, de todas las piezas
importadas i, del producto j, origen k.
Recibe el valor de aduanas de las
variables BIptk, respectivamente:
Donde:
t=1 (importaciones por vía aérea); t=2
(importaciones por vía marítima).
p=1 (importaciones mensuales), p=2
(importaciones bimestrales), p=3
(importaciones trimestrales)
Parámetros
ad/vi: Tasa aduanera aplicada a la base
imponible del ad/valorem, según la
partida arancelaria de la pieza
importada i.
IGV: Tasa del IGV.
IPM: Tasa del IPM.
μ: Monto fijo que cobra la comisión de la
agencia de aduanas cuando el monto
CIF es menor a
ρ: Tasa que cobra la agencia de aduanas
por su servicio, aplicable al valor de
aduana de la mercancía.
: Monto CIF a partir del cual la comisión
de agencia de aduana es variable e igual
a *(monto CIF).
: Promedio de los gastos de desaduanaje,
no incluye la comisión de la agencia de
aduanas.
t%%%: Costo de oportunidad del capital.
TP: Número de días de producción del
proveedor extranjero, previos a la fecha
de despacho. Se definió igual a 30 días
para todos los proveedores del
extranjero.
TTk: Número de días de transporte
internacional para la mercadería
importada desde el origen k.
TDk: Número de días que demora el
desaduanaje de la mercadería cuyo
origen es k.
Función objetivo
Minimizar los costos de la importación
Aplicación de las técnicas de programación lineal a los costos y
planeamiento de las importaciones en régimen aduanero definitivo 62
1 t; 0,1,2,...skU*am
1j
n
1i
* ωφ
ijkijk ptk
1 t; 0,1,2,...skU*/100^3(a )υ*βm
1j
n
1i
*φ
ijkijk ptk
2 t; 0,1,2,...skUpm *φm
1j
n
1i
* υ
ijkijk tk
2 t;0,1,2,...skU*(mm
1j
n
1i
* /1000)ωφ
ijkijk ptk
Donde:
cexwijk: costo unitario EXW de la pieza i, del
producto j, origen k.
cftijk: si t=1, entonces el costo unitario es
FCA; si t=2, entonces el costo unitario
es FOB; de la pieza i, del producto j,
origen k.
tk: porcentaje que representa del flete
internacional los gastos al FCA o FOB
cuando la importación es desde el origen
k; k = 1, 2, 3,…, p
s
1k
F*η ptktk son los gastos al FCA o FOB
Restricciones
Flete aéreo y flete marítimo
Fptk ≥
Fptk ≥
Fptk≥
Fptk≥
Donde:
ijk: Volumen unitario en cm3 de la pieza i,
del producto j, importada del origen k.
ijk: Peso unitario en kilogramos de la pieza
i, del producto j, importada del origen k.
: Factor peso-volumen igual a 1000/6
ak: Costo unitario del flete internacional en
unidades monetarias por cada
kilogramo para mercancía importada
por vía aérea, desde el origen k.
mk: Costo unitario del flete internacional en
unidades monetarias por cada tonelada
o metro cúbico para mercancía
importada por vía marítima, desde el
origen k.
Ad/valórem
AVIptk ≥ expresión ad/valórem más IGV e
IPM según el criterio del peso total, ya sea en el
caso aéreo o en el caso marítimo.
AVIptk ≥ expresión ad/valórem más IGV e
IPM según el criterio del peso equivalente total,
en el caso aéreo o según el criterio de volumen
total en el caso marítimo.
Gastos de desaduanaje
zptk ≤ 1000000000*vptk
CMtk ≤ 1000000000*(1 – vptk)
1 - zptk ≤ 1000000000*Cptk
Comisión de la agencias de aduanas
BIptk ≥ expresión de la base imponible o valor
de aduanas según el criterio del peso total, ya
sea en el caso aéreo o en el caso marítimo.
BIptk ≥ expresión de la base imponible o valor
de aduanas según el criterio del peso
equivalente total, en el caso aéreo o según el
criterio del volumen total en el caso marítimo.
Cptk =0* wpt1k + * wpt2k+ N*wpt3k
wpt1k ≤ ypt1k
wpt2k ≤ ypt1k + ypt2k
wpt3k ≤ ypt2k
ypt1k + ypt2k = 1
wpt1k + wpt2k + wpt3k = 1
zptk ≤ 1000000000*vptk
Cptk ≤ 1000000000*(1 – vptk)
1 - zptk ≤ 1000000000*Cptk k = 1,2,3…p
ypt1k; ypt2k; zptk; vptk = 0 ó 1
El costo de oportunidad
Sea A: costo de adquisición de la mercadería
importada
Sea B: costo del transporte internacional
Sea C: costo derechos arancelarios
Aplicación de las técnicas de programación lineal a los costos y
planeamiento de las importaciones en régimen aduanero definitivo 63
s
1k
s
1k
s
1k
D*aU*4U*6U*12 ijij3t1k2t1k1t1k
El costo de oportunidad de producción la
expresión es:
COP = ( (1+i%)^(TP/360)
- 1 )*(A)
El costo de oportunidad del transporte la
expresión es:
COT = ( (1+i%)^(TTk/360)
- 1 )*(A + B)
El costo de oportunidad del desaduanaje la
expresión es:
COD = ( (1+i%)^(TDk/360)
-1 )*(A + B + C)
El costo de oportunidad hasta que se agota el
stock importado: D = A + B + C
Si el período entre importaciones es mensual
tenemos: ((1+i%)^(30/360)-1)*D
Si el período entre importaciones es bimensual
tenemos: ((1+i%)^(60/360)
-1)*((1/2)*C) +
((1+i%)^(30/360)
-1)*((1/2) *C)
COptk ≥ expresión del costo de oportunidad
según el criterio del peso total, ya sea en el caso
aéreo o en el caso marítimo
COptk ≥ expresión del costo de oportunidad
según el criterio del peso equivalente total, en el
caso aéreo o según el criterio del volumen total
en el caso marítimo
Restricciones para los períodos excluyentes
entre importaciones.
Para las importaciones con período mensual
U2tijk + U3tijk ≤ 1000000000*(x1tijk)
U1tijk ≤ 1000000000*(1-x1tijk)
Para las importaciones con período bimestral
U1tijk + U3tijk ≤ 1000000000*(x2tijk)
U2tijk ≤ 1000000000*(1-x2tijk)
Para las importaciones con período trimestral
U1tijk + U2tijk ≤ 1000000000*(x3tijk)
U3tijk ≤ 1000000000*(1-x3tijk)
Restricciones de demanda
i=1,2,…n ; j=1,2,…m
Donde:
aij es el parámetro cantidad de piezas i que se
necesitan en el producto j.
Dj es el parámetro demanda del producto j.
Rango de existencia
Uptijk ≥ 0 y enteras; Fptk ≥ 0; BIptk ≥ 0;
AVIptk ≥ 0; COptk ≥ 0; Cptk ≥ 0
wpt1k; wpt2k; wpt3k ≥ 0
x1tijk; x2tijk; x3tijk; vptk; ypt1k; ypt2k; zptk = 0
ó 1
4. Resultados
A continuación presentaremos los resultados de las
corridas del modelo, comparándolos con la política
de importación que actualmente se aplica en la
empresa ABC S.A.
Resultado 1:
El proveedor 1 suministra las piezas de los
productos 1 y 2
Los resultados del modelo indican que el 100%
de las piezas del producto 1, se deben importar
por vía marítima en contraste con la forma
actual, donde el 40% de las veces se efectúan
por vía aérea y 60% por vía marítima. La
empresa justifica las importaciones por vía
aérea cuando los lotes son pequeños, sin
embargo, se puede lograr un ahorro total de
US$ 21,491 debido a la elección del medio
marítimo como forma exclusiva de transporte,
lo cual también genera un 21% de ahorro en
derechos arancelarios e impuestos. El modelo
sugiere reemplazar la frecuencia trimestral de
importaciones, por una cuatrimestral.
Resultado 2:
El proveedor 2 suministra las piezas de los
productos 1 y 2.
Los resultados del modelo indican que el 100%
de las piezas del producto 2 se deben importar
por vía marítima en contraste con la forma
actual, el 80% de las veces por vía aérea y 20%
Aplicación de las técnicas de programación lineal a los costos y
planeamiento de las importaciones en régimen aduanero definitivo 64
por vía marítima, con preferencia por la
importación por vía aérea cuando se tienen
volúmenes de compra reducidos; empero, se
puede lograr un ahorro total de US$ 18,705
debido a la elección del medio aéreo como
forma exclusiva de transporte, lo cual también
genera un 55% de ahorro en derechos
arancelarios e impuestos. Resultado 3: El proveedor 3 suministra las piezas de los productos 1 y 2 En este caso, hay un incremento de los costos de US$ 6,924 con respecto a la política de importación actual para el proveedor 3. La razón es la reasignación de las piezas que antes se compraban al proveedor 2 y que ahora el modelo sugiere adquirirlas al proveedor 3. La compra a este proveedor se incrementa en 34%, pero a pesar del mayor volumen de adquisición, el flete es menor en 52% porque se utiliza intensivamente la modalidad de transporte marítimo. Resultado 4: El proveedor 5 suministra las piezas de los productos 5 y 6 Actualmente, del proveedor 5, la empresa importa el 30% de las veces por vía aérea y 70% por vía marítima, cada dos meses. Con el modelo matemático se puede lograr un ahorro total de US$ 9,445, (ver Tabla 5) debido al uso intensivo de la modalidad de transporte marítimo, decisión que reduce en 51% los costos por flete, y en 6% los costos del ad/valórem. Resultado 5: Los proveedores 6 y 7 suministran las piezas del producto 6 Actualmente la importación se realiza de ambos proveedores 6 y 7 por vía aérea exclusivamente y cada dos meses. Con el modelo matemático se obtiene un ahorro total de US$ 498, el costo del flete se reduce en 52% y los gastos de desaduanaje y comisión de agencia en 50%, cada uno.
Resultado 6: El proveedor 9 suministra todas las piezas del producto 7 Actualmente la importación desde el proveedor 9, se efectúa el 50% de las veces vía aérea y 50% vía marítima, cada trimestre. El costo del flete se reduce en un 82% por uso del transporte marítimo. El ad/valórem se reduce en 32%, los gastos de desaduanaje en 40% y la comisión de agencia en 51%. Sin embargo, el costo de oportunidad se incrementa fuertemente en 32% porque el período semestral prolongado eleva su importe, a pesar que la modalidad de pago es con carta de crédito y pago diferido, lo cual no genera costo de oportunidad de producción. Este incremento se compensa con la reducción del costo del flete, con un saldo a favor de la empresa por US$ 69,473. Resultado 7: El proveedor 10 suministra todas las piezas del producto 4 Actualmente la importación desde el proveedor 10, se efectúa el 80% de las veces por vía aérea y 20% vía marítima, cada trimestre. Con el modelo matemático se obtiene un ahorro total de US$ 7,656; el costo del flete se reduce en 18%, los derechos arancelarios e impuestos en 25%, los gastos de desaduanaje en 50% y la comisión de agencia en 44%. Resultado 8: El proveedor 11 suministra todas las piezas del producto 3 Actualmente la importación desde el proveedor 11, se efectúa el 20% de las veces por vía aérea y 80% vía marítima, cada trimestre. En este caso, el modelo rechaza al proveedor 11 para suministrar las piezas del producto terminado 3, y elige sólo al proveedor 1; de esta forma se incluyen en los lotes de compra de las piezas del producto 1 y 2 que se importan desde este proveedor 11 y se ahorra los gastos de desaduanaje y comisión de agencia que son costos que se incurren cada vez que se efectúa una importación desde otro proveedor. El ahorro total obtenido es US$ 15,148.
Aplicación de las técnicas de programación lineal a los costos y
planeamiento de las importaciones en régimen aduanero definitivo 65
5. Conclusiones
El modelo está elaborado según los
supuestos definidos y que surgen de la
operatividad real de una importación así
como las restricciones que impone la Ley
General de Aduanas.
El modelo propuesto muestra la
posibilidad de expresar la complejidad del
comportamiento de los costos en
importaciones con régimen aduanero
definitivo, así, a través de las técnicas del
problema de costo fijo de programación
entera, y minimización del máximo
progreso y la programación lineal entera
por partes, se expresó en un modelo lineal
costos fijos, variables y de
comportamiento mixto.
Con excepción de la mercadería del
proveedor 10, para el resto de proveedores
la modalidad de transporte elegida es la
marítima debido a que el valor de su flete
es menor al flete aéreo, y a pesar de que
genera un mayor costo de oportunidad por
los días que permanece en travesía y por la
duración del proceso de desaduanaje.
La modalidad de transporte aérea elegida
para el proveedor 10, se justifica porque al
ser su modalidad de pago por adelantado,
genera un alto costo de oportunidad de
producción. Si la modalidad de transporte
hubiese sido marítima se hubiera
incrementado aún más el costo de
oportunidad porque mayor sería la
travesía, por tanto, la modalidad de pago
fue decisiva en la elección de la modalidad
de transporte.
En la mayoría de los casos el período de
importaciones que sugiere el modelo es
cuatrimestral, excepto para el caso de la
mercadería importada desde el proveedor 9
que es semestral. A pesar que el monto de
adquisición aumenta, y también la
comisión de agencia porque en la mayoría
de casos el valor de aduanas supera los
US$ 10,000.00, debido al mayor lote de
compra, este incremento se compensa con
la reducción de los gastos de desaduanaje
incurridos porque son menos las veces que
se importa por año.
Para las piezas importadas que necesitan
los productos 1 y 2, el modelo redefine
totalmente la forma de importación.
Actualmente, ABC S.A. reparte la compra
principalmente entre los tres proveedores 1
y 3 al 50%, y las piezas 1, 2, 8, 14 y 16 las
adquiere al proveedor 2. El modelo
redefine este proceso de compra de la
forma siguiente: Al proveedor 1 le asigna
el 31% de la compra; al proveedor 3 le
asigna el 64% de la compra; al proveedor 2
le asigna únicamente la pieza 13, que
representa el 5% debido a que su diseño
especial, ocupa menos espacio, y genera
un menor flete, incluso a pesar que sólo es
una pieza, el modelo elige la modalidad
marítima. En este caso el flete y no el
costo de oportunidad fue la variable
decisiva para la selección del proveedor y
la modalidad de transporte.
El ahorro total según el modelo asciende a
US$ 135,490; equivalente a un promedio
de US$ 11,290 mensuales. El modelo
planteado finalmente aporta una
metodología de trabajo eficiente para las
importaciones con el objetivo de obtener
una reducción de costos importante para
ABC S.A.
Por cuanto el escenario de las ventas en
esta empresa están definidas por
licitaciones, las ventas mensuales son
prácticamente fijas. Esta situación de la
empresa permite superar la crítica
frecuente a los modelos de programación
lineal de adolecer de falta de dinámica o
aleatoriedad. En este caso, el tratamiento
determinístico de la demanda está
plenamente justificado, porque la licitación
define montos de ventas constantes mes a
mes.
Aplicación de las técnicas de programación lineal a los costos y
planeamiento de las importaciones en régimen aduanero definitivo 66
6. Referencias
Cosio, F. (1997). Comentarios a la Ley General de ADUANAS. Librerías y Ediciones
Jurídicas, Lima Perú.
Winston, W.L. (2005). Investigación de operaciones: aplicaciones y algoritmos. Thomson.
México 2005
Hillier, F.S. y Lieberman, G. J. (2006) Investigación de operaciones. McGraw-Hill. México.
Hillier, F.S. y Lieberman, G. J. (2008) Métodos cuantitativos para administración. McGraw-
Hill. México.
Anderson, D.R.; Sweeney, D.J. y Williams, T.A. (2004). Métodos cuantitativos para los
negocios. Thomson. México.