Inteligencia artificial y Aerosoles
-
Upload
lucesita-avila -
Category
Documents
-
view
232 -
download
0
description
Transcript of Inteligencia artificial y Aerosoles
LA INTELIGENCIA ARTIFICIAL
La inteligencia artificial ¿Hacia dónde nos lleva?
Renato Gómez Herrera
Un vistazo al sueño humano de la creación
Cuando en los años cuarenta se pusieron a funcionar las primeras computadoras (esos roperos de
metal, llenos de bulbos) se les llamó “cerebros electrónicos”, ya que podían hacer sumas. Esto hizo
imaginar a muchos: “Mañana las máquinas conversarán con nosotros”. Y entonces el cine, los
dibujos animados y la televisión se poblaron de robots “inteligentísimos”
—aunque de movimientos algo torpes— que acompañaban a los humanos en toda clase de mundos.
Mientras los alumnos de cibernética seguían perforando tarjetas, en el cine la computadora HAL se
ponía paranoica y tomaba la decisión de asesinar a los astronautas de la película 2001, Odisea del
Espacio.
La industria de las computadoras no dejó de evolucionar y, de pronto, aquellos enormes aparatos
con grandes cintas de carrete se volvieron pequeños y mucho más fáciles de operar. Un día ya
tenían un monitor y un teclado para comunicarnos con sus circuitos. Al día siguiente aparecieron en
nuestras casas las computadoras personales y hoy están por todos lados, volviéndose indispensables.
Los niños de hoy viven en un mundo que, por lo menos en parte, la ciencia ficción imaginó hace 50
años.
¿A nuestra imagen y semejanza?
La palabra robot, acuñada en 1921 por el escritor checo Karel Capek, ya ha dejado de ser sinónimo
de androides metálicos que van moviendo sus brazos como tentáculos, mientras avanzan sobre sus
rueditas por el planeta de las Amazonas Sicodélicas. Los robots serán parte de nuestra vida
cotidiana.
Ya comienzan a serlo. En el siglo XX, el ser humano intenta reproducir el antiguo mito de la
creación. Así como, según la Biblia, Dios creó a Adán y a Eva para no estar solo, ahora nosotros
quisiéramos crear compañeros a nuestra imagen y semejanza. ¿Pero, de qué tipo? Que nos sean
útiles y podamos interactuar con ellos de una forma cercana, casi natural; por eso se desea poner un
cerebro artificial dentro de un cuerpo que imite lo mejor posible al nuestro. Finalmente somos como
tristes Gepetos soñando con darle vida a un muñeco de madera para no sentirnos tan solos.
Procurando ese sueño, el industrial estadounidense Joe Engelberg construyó un prototipo en los
años cincuenta, y en la década siguiente vendió su primer robot útil. Pero realmente los robots
dejaron de ser ficción en los años ochenta, cuando brazos gigantes que se movían obedeciendo un
programa predeterminado, desplazaron a los obreros en las fábricas automotrices de Japón. Y
aunque la robótica tiene el objetivo de poner a las máquinas a trabajar en todas las áreas posibles,
esto es caro y complicado.
En los Estados Unidos han logrado crear un modelo que es capaz de caminar, captar el movimiento
de una pelota en el aire y cacharla con su mano mecánica. Sin embargo, para ejecutar un
movimiento tan sencillo, el costoso robot (que asemeja más a una maraña de alambres y pistones
hidráulicos que a un humano) está conectado a varias computadoras que trabajan a su máxima
capacidad intentando coordinar lo que detectan los “ojos” (varias cámaras de video) y el
movimiento del brazo y la mano.
Aunque es cierto que Mike —otro robot acoplado a una lavadora rodante que limpia, pule y
abrillanta pisos— es aún tan caro que cuesta menos tener un empleado que lo haga, no siempre será
así. Un día, la producción en masa hará a los robots baratos. Si algunos tendrán una figura
semejante a la nuestra, está por verse. Lo que parece más factible es que sus cerebros electrónicos
tengan algún grado de inteligencia.
¿Puede la inteligencia ser artificial?
La inteligencia artificial (IA) puede definirse como el medio por el cual las computadoras, los
robots y otros dispositivos realizan tareas que normalmente requieren de la inteligencia humana. Por
ejemplo, la resolución de cierto tipo de problemas, la capacidad de discriminar entre distintos
objetos o el responder a órdenes verbales. La IA agrupa un conjunto de técnicas que, mediante
circuitos electrónicos y programas avanzados de computadora, busca imitar procedimientos
similares a los procesos inductivos y deductivos del cerebro humano. Se basa en la investigación de
las redes neuronales humanas y, a partir de ahí, busca copiar electrónicamente el funcionamiento
del cerebro.
El avance en la investigación de las redes neuronales va ganando terreno a una velocidad
espectacular. Entre sus aplicaciones destaca la poderosa computadora Deep Blue, que puede vencer
a cualquier jugador de ajedrez: no sólo tiene gran cantidad de jugadas programadas, sino que
aprende de su adversario, por lo que se va volviendo capaz de adelantarse a las decisiones de su
enemigo y hundir sus estrategias antes de que prosperen.
Esas redes también se han usado en los autos robot, que pueden circular por las autopistas a una
velocidad normal con un excelente margen de seguridad, y de hecho han cruzado la Unión
Americana de costa a costa sin que el conductor tuviera que tocar el volante o los pedales. Persisten
dos problemitas: la cajuela continúa atiborrada de equipo y cuestan un dineral. Pero siguiendo esta
línea de avance, es posible que en la próxima década sea común que en la central de autobuses una
máquina pregunte al pasajero si desea viajar en un autobús conducido por un humano o guiado por
computadora; este último servicio será más seguro y por lo tanto más caro. Se espera que en poco
tiempo, imitando el funcionamiento de nuestro cerebro, las computadoras ya no tendrán un gran
procesador, sino miles (y más adelante millones) de pequeños procesadores totalmente
interconectados entre sí, lo que permitirá la maravillosa capacidad de aprender a través de
experiencias recogidas por los “sentidos” de la máquina (cámaras de video, micrófonos, etcétera).
A la vanguardia de la IA
Entrevista con el doctor Ismael Espinosa Espinosa.
El doctor Ismael Espinosa me abre sonriente las puertas del Laboratorio de Cibernética de la
Facultad de Ciencias, de la UNAM. Son las nueve de la mañana en punto. Nos concede la entrevista
en su despacho, saturado de libros, imágenes de paisajes futuristas y uno que otro robot de juguete.
¿Qué sueñan los que ahora están a la vanguardia de la inteligencia artificial?
—Creo que el hombre desea, desde hace mucho, a un amigo que lo acompañe en su viaje por el
cosmos. Hace milenios se inventaron las marionetas, después los androides animados por complejos
mecanismos de relojería, como el famoso jugador turco de ajedrez, que incluso le ganó a Napoleón
una partida (años después se descubrió que en su interior había estado escondido un enano). Los
robots del futuro harán que los prototipos actuales se parezcan a aquellos llenos de engranes del
siglo XVIII.
¿Y cómo serán esos robots?
—Quizá sean robots biológicos. Definitivamente la clonación es un fuerte competidor de la
robótica como la conocemos. Ya se puede clonar fibra muscular mucho más fuerte que la nuestra, u
órganos internos tan complejos como el corazón.
¿Se puede clonar un cerebro?
—Aún no, pero ya trabajamos en las redes neuronales, que intentan ser la copia electrónica del
funcionamiento de un cerebro. Actualmente usamos redes pequeñas, pues cuando éstas son muy
complejas, se pierde el control y ya no sabemos exactamente qué está ocurriendo ahí dentro.
¿Qué diferencia existe entre las redes neuronales y las computadoras actuales?
—Mucha. Las redes neuronales están conectadas entre sí de manera que la información no se
almacena en un solo lugar, sino que está repartida, y cada neurona puede activar o inhibir el
funcionamiento de las otras. Esto quiere decir que si la computadora recibe un golpe que destruya
una parte de la red, ésta puede seguir funcionando. Pero lo que se busca es reproducir la capacidad
de aprender.
¿Cómo va el estudio de la robótica en México?
—Un poco atrasado. Las redes neuronales comenzaron a usarse desde los años 60, pero entonces,
cuando yo traje ese concepto a México y me tildaron de loco, ni siquiera me dieron acceso a las
computadoras que se tenían, así que perdimos muchos años. Ahora, que ya se sabe qué son y qué
alcances tienen, todos quieren saber de redes neuronales. Por otro lado, la robótica es una ciencia
muy compleja, que necesita ingenieros en computación, ingenieros mecánicos y electrónicos,
matemáticos y hasta expertos en fisiología. Desarrollar un robot requiere de equipos
multidisciplinarios que no siempre son fáciles de armar. Finalmente, sólo quisiera agregar que por
más que avancemos en el campo de la inteligencia artificial, siempre sentiremos que hay una
especie de enano escondido dentro de los robots.
¿Qué podemos esperar en el futuro?
Se han hecho cuantiosas predicciones de lo que la aplicación de las técnicas de IA traería en el
futuro; algunas podrían ser realidad en poco tiempo y otras parecen francamente especulativas.
Echemos un vistazo:
En el terreno de las computadoras personales, la velocidad de un procesador será enorme y no
podremos agotar su memoria ni cargando ciclos enteros de cine ruso, que podremos ver doblados al
español con una voz idéntica a la de los actores. Serán gobernadas con la voz: “Actívate”. Quizá ya
no sean necesarios los monitores; unos anteojos inalámbricos de realidad virtual nos mostrarán
cómo va quedando nuestro texto. Los teclados también serán tan obsoletos como ahora lo son las
tarjetas con hoyitos; en vez de teclear, quizá podremos plasmar palabras en la memoria de la
computadora con sólo imaginarlas, gracias a una discreta placa (chip) adherida a nuestra frente. Una
voz agradable nos dirá al oído que hemos cometido un error de sintaxis y nos proporcionará, si lo
deseamos, una lista de posibles soluciones. En lugar de usar el “ratón”, podremos manipular el texto
(o el dibujo, o lo que sea) con el movimiento de nuestros ojos, que será detectado por un inofensivo
rayo láser.
La red Internet, que llegará a nuestra casa a través del cableado óptico, transportará inmensas
cantidades de información que serán cargadas en nuestra computadora en décimas de segundo. Las
imágenes aparecerán instantáneamente y nos reiremos de la época en que una página tardaba hasta
10 minutos en “bajar”. Por medio de la red podremos acceder a cualquier programa de televisión o
radio que se transmita en cualquier parte del mundo, con una traducción impecable, o guardarlo en
la memoria de la máquina si deseamos verlo más tarde, como si fuera una videocasetera. Pero si
algún amigo se perdió de ese programa, se lo enviaremos a su terminal en segundos. Los estudiantes
tendrán cada vez más clases virtuales en las que accederán directamente a los bancos de
información de la universidad y se comunicarán con sus maestros sólo para resolver dudas o
exámenes.
Pronto los robots comenzarán a desplazar al personal que nos atiende detrás de las ventanillas. Una
máquina podrá perfectamente cambiarnos un cheque y resolver de manera satisfactoria las dudas
sobre nuestro estado de cuenta. El cajero automático del cine recibirá nuestro dinero (o una tarjeta)
para darnos a cambio entradas para la película en el horario que le indiquemos. Y así será en los
aeropuertos, las estaciones de ferrocarril y en todas partes donde ahora hay ventanillas ocultando a
empleados que aguardan impacientes la hora de salida.
Es muy probable que la economía cambie. Quedarán en el pasado los tipos de traje peleándose a
gritos en las casas de bolsa. Las computadoras, conectadas en red a los indicadores bursátiles de
todo el mundo, moverán los capitales de un lugar a otro, sin que sea necesaria la voluntad humana,
obedeciendo tan sólo a agresivos programas que beneficiarán a los dueños del dinero, sin importar
si una nación se hunde en una pavorosa crisis en algunos instantes.
Los edificios “inteligentes” serán comunes. Al llegar a casa la puerta se abrirá con el sonido de
nuestra voz. Sensores dispuestos en cada rincón encenderán la luz de la habitación a la que
entremos y dejarán a oscuras la que ha quedado sola, ahorrando electricidad. La temperatura
también será regulada por la computadora central para ofrecernos un clima privado a nuestro gusto.
Verbalmente activaremos la televisión, el aparato de sonido o cualquier otro electrodoméstico
conectado a nuestra ama de llaves cibernética. Por las mañanas, el desayuno que dejamos en el
microondas comenzará a prepararse; en la radio la estación de nuestra preferencia nos despertará
mientras el calentador se ajusta para que nos demos una ducha deliciosa. Al salir podremos estar
tranquilos porque la casa estará capacitada para detectar a posibles intrusos y, en caso dado, la
alarma se activará a la más mínima insinuación de peligro, dando aviso a los cuerpos de seguridad.
Si llega a haber una guerra global, ésta podría ser nombrada por los medios como “The Robot War”,
en la que los pilotos controlarían por realidad virtual pequeños y mortíferos aviones, helicópteros y
tanques a cientos de kilómetros del campo de batalla sin arriesgar un solo cabello.
Es muy probable que en pocos años, robots cirujanos realicen complejas intervenciones utilizando
el instrumental quirúrgico con la precisión de una impresora.
Algún día, el Sojourner, el robot que exploró Marte, será una caja de zapatos comparada con los
que llegarán a ese planeta, no para posar un espectrómetro sobre las piedras, sino para construir los
centros urbanos de los primeros colonizadores. La última frontera serán los robots biológicos
autorreplicantes que poblarán en nuestro nombre otros sistemas solares hasta hacerlos habitables
para nuestra especie.
¿Pueden pensar las máquinas?
Se ha logrado dotar a las máquinas de información útil que pueden usar en un ámbito especializado,
por ejemplo para recorrer una trayectoria de obstáculos y memorizarla o para ejecutar algunos
procesos complejos, pero el pensamiento humano es otra cosa: nuestro cerebro posee
aproximadamente 10 mil millones de neuronas y si todavía no sabemos exactamente cómo se
interrelacionan para “pensar”, mucho menos podemos reproducir en una máquina ese proceso. Hay
muchos aspectos que diferencian al cerebro humano de los sistemas desarrollados por la
inteligencia artificial, entre ellos:
• Las máquinas carecen de mecanismos intuitivos y se basan sólo en el método automático de
prueba y error; por ello, no tienen la capacidad de reaccionar ante situaciones inesperadas ni la
posibilidad de generalizar acontecimientos distintos.
• Las máquinas carecen de creatividad, aspecto hasta ahora totalmente humano. En las máquinas no
existe una interrelación creativa, y los cambios de contexto no implican una modificación sustancial
entre sus circuitos y programas; el medio circundante no modifica estructuralmente sus funciones.
• La mente humana está provista de valores producto de la interrelación social; al carecer de
aquéllos, las máquinas no pueden evolucionar o autoperfeccionarse.
¿Y la gente?
Al parecer la inteligencia artificial promete un mundo fantástico, pero ¿realmente lo será? ¿Qué
pasará, por ejemplo, con la enorme cantidad de seres humanos que no tienen acceso a la educación
ni a la tecnología?, ¿qué pasara con las relaciones humanas y con la economía, con la enorme
brecha entre ricos y pobres, entre desarrollo y subdesarrollo? No sabemos a ciencia cierta cuál será
el futuro de la humanidad, pero sí sabemos que indudablemente cambiarán las relaciones de
producción y quizá de comunicación. Es altamente probable, por ejemplo, que se agrave aún más el
problema del desempleo; que se transformen radicalmente los conceptos de ocio y tiempo libre; que
cambien las relaciones laborales entre patrones y trabajadores; que haya una revolución aún mayor
en cuanto al acceso a la información y que se agudicen las diferencias entre países hacedores de
tecnología y de aquellos históricamente dependientes. Es casi seguro que la inteligencia artificial y
el desarrollo tecnológico subsecuente estarán al servicio de una minoría. Si por el contrario, el
desarrollo tecnológico –y específicamente la inteligencia artificial— se utiliza para lograr que todos
en este planeta logremos un mejor nivel de vida en estricta relación con el medio ambiente, tal
artificio será realmente inteligente.
http://www.comoves.unam.mx/numeros/articulo/2/la-inteligencia-artificial-hacia-donde-nos-lleva
Inteligencia artificial
La inteligencia artificial (IA) es un área multidisciplinaria, que a través de ciencias como
las ciencias de la computación, lamatemática, la lógica y la filosofía, estudia la creación y diseño de
sistemas capaces de resolver problemas cotidianos por sí mismas utilizando como paradigma
la inteligencia humana.[cita requerida]
General y amplio como eso, reúne a amplios campos, los cuales tienen en común la creación de
máquinas capaces de pensar. En ciencias de la computación se denomina inteligencia artificial a la
capacidad de razonar de un agente no vivo.1 2 3John McCarthy acuñó la expresión «inteligencia
artificial» en 1956, y la definió así: “Es la ciencia e ingenio de hacer máquinas inteligentes,
especialmente programas de cómputo inteligentes”.4
Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones
posibles.
Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).
Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y
humanos).
Razonamiento mediante una lógica formal análogo al pensamiento abstracto humano.
También existen distintos tipos de percepciones y acciones, que pueden ser obtenidas y producidas,
respectivamente, por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos
en computadoras, tanto como por entradas y salidas de bits de un software y su entorno software.
Al igual que en la informática convencional, en la Inteligencia artificial tenemos una serie de
elementos peculiares que la caracterizan y la diferencian. Para Nilsson son cuatro los pilares básicos
en los que se apoya la Inteligencia Artificial, los cuales serán analizados a continuación.
Varios ejemplos se encuentran en el área de control de sistemas, planificación automática, la
habilidad de responder a diagnósticos y a consultas de los consumidores, reconocimiento de
escritura, reconocimiento del habla y reconocimiento de patrones. Los sistemas de IA actualmente
son parte de la rutina en campos como economía, medicina, ingeniería y lamilicia, y se ha usado en
gran variedad de aplicaciones de software, juegos de estrategia, como ajedrez de computador, y
otros videojuegos.
Categorías de la inteligencia artificial
Búsqueda heurística. Podemos definir una heurística como un truco o estrategia que limita
grandiosamente la búsqueda de soluciones ante grandes espacios de problemas. Por lo tanto ante un
problema, no ayuda a seleccionar las bifurcaciones, dentro de un árbol, con más posibilidades, con
ello se restringe la búsqueda aunque no siempre se garantiza una solución adecuada. Todo lo que se
debe tener para que una heurística sea adecuada es que nos proporcione soluciones que sean lo
suficientemente buenas. Además utilizando la heurística, no será necesario replantear un problema
cada vez que se afronte, ya que si lo hemos planteado anteriormente, ésta sugerirá la forma en que
se ha de proceder para resolverlo. Representación del conocimiento. La representación es una
cuestión clave a la hora de encontrar soluciones a los problemas planteados, y que además éstas
sean adecuadas. Si analizamos más detenidamente el término y además dentro de la Informática, y
más concretamente dentro de la Inteligencia Artificial, encontramos varias definiciones, como
pueden ser las siguientes: según Barr y Feigenbaum, la representación del conocimiento es una
combinación de estructuras de datos y procedimientos de interpretación que, si son utilizados
correctamente por un programa, éste podrá exhibir una conducta inteligente. La opinión de Fariñas
y Verdejo será que la Inteligencia Artificial tiene como objetivo construir modelos computacionales
que al ejecutarse resuelvan tareas con resultados similares a los que obtenida una persona. Por ello,
el tema central de esta disciplina es el estudio del conocimiento y su manejo. Y por último la
opinión de Buchanan y Shortliffe apunta a que la Representación del Conocimiento en un programa
de Inteligencia Artificial significa elegir una serie de convenciones para describir objetos,
relaciones, y procesos en el mundo. Gran parte del esfuerzo realizado en la consecución de
ordenadores inteligentes, según Rahael, ha sido caracterizado por el intento continuo de conseguir
más y mejores estructuras de representación del conocimiento, junto con técnicas adecuadas para su
manipulación, que permitiesen la resolución inteligente de algunos de los problemas ya planteados.
Otra característica a resaltar, es la inclusión en los programas de Inteligencia artificial, aunque por
separado, de los conocimientos y la unidad que controla y dirige la búsqueda de soluciones. Dada
esta disposición, en estos programas se hace fácil la modificación, ampliación y actualización de los
mismos. Hemos de tener en cuenta que un programa de Inteligencia Artificial, tiene toda la
información interconectada e interrelacionada, y estas interconexiones se utilizaran para representar
relaciones unidas al conocimiento genérico sobre el problema planteado. Para que un problema sea
tratado adecuadamente, sabiendo que no es fácil la representación del conocimiento en un entorno
concreto, hemos de elegir un esquema de representación acorde con la naturaleza del dominio de
conocimiento donde se vaya a trabajar. Sentido común y lógica El razonamiento que puede tener
cualquier persona, ha demostrado ser una de las cosas más difíciles de modelar dentro de un
ordenador. El sentido común, a menudo nos ayuda a prever multitud de hecho y fenómenos
corrientes, pero como ya hemos dicho es muy complicado representarlos en un ordenador ya que los
razonamientos, son casi siempre inexactos, dado que sus conclusiones y reglas en las que se basan
solamente son aproximadamente verdaderas. Lenguajes, entornos y herramientas de Inteligencia
Artificial En la Inteligencia Artificial, se han desarrollado diferentes lenguajes específicos para los
diferentes campos de aplicación. Estos lenguajes en su mayoría cuentan con una serie de
características comunes que podemos resumir de la siguiente forma: Este tipo de software ofrece
una gran modularidad. Poseen gran capacidad de tomar decisiones de programación hasta el último
momento, es decir cuando el programa ya está ejecutándose. Ofrecen grandes facilidades en el
manejo de listas, y esto es importante, ya que las listas son la estructura más habitual usada para la
representación del conocimiento en la Inteligencia Artificial. Facilitan la realización de ciertos tipos
de deducción automática permitiendo también, la creación de una base de hechos, que es el lugar
donde se recogen los datos iniciales del problema a resolver y también los resultados intermedios
una vez obtenidos. Permite el uso simultáneo de estructuras que incorporan conocimiento
declarativo y conocimiento procedimental. Tienen una marcada orientación gráfica. Además, las
herramientas de Inteligencia artificial, permiten hacer un seguimiento de todos los cambios
realizados a lo largo de toda la sesión Disponen herramientas capaces de desarrollar programas que
son capaces de comprender otros programas y también de realizar modificaciones sobre ellos.
Stuart Russell y Peter Norvig diferencian estos tipos de la inteligencia artificial:5
Sistemas que piensan como humanos.- Estos sistemas tratan de emular el pensamiento
humano; por ejemplo las redes neuronales artificiales. La automatización de actividades que
vinculamos con procesos de pensamiento humano, actividades como la toma de
decisiones, resolución de problemas y aprendizaje.6
Sistemas que actúan como humanos.- Estos sistemas tratan de actuar como humanos; es
decir, imitan el comportamiento humano; por ejemplo la robótica. El estudio de cómo lograr
que los computadores realicen tareas que, por el momento, los humanos hacen mejor.7
Sistemas que piensan racionalmente.- Es decir, con lógica (idealmente), tratan de imitar o
emular el pensamiento lógico racional del ser humano; por ejemplo los sistemas expertos. El
estudio de los cálculos que hacen posible percibir, razonar y actuar.8
Sistemas que actúan racionalmente (idealmente).– Tratan de emular de forma racional el
comportamiento humano; por ejemplo los agentes inteligentes.Está relacionado con conductas
inteligentes en artefactos.9
Escuelas de pensamiento
La IA se divide en dos escuelas de pensamiento:
La inteligencia artificial convencional
La inteligencia computacional
Inteligencia artificial convencional
Se conoce también como IA simbólico-deductiva. Está basada en el análisis formal y estadístico del
comportamiento humano ante diferentes problemas:
Razonamiento basado en casos: Ayuda a tomar decisiones mientras se resuelven ciertos
problemas concretos y, aparte de que son muy importantes, requieren de un buen
funcionamiento.
Sistemas expertos: Infieren una solución a través del conocimiento previo del contexto en que
se aplica y ocupa de ciertas reglas o relaciones.
Redes bayesianas: Propone soluciones mediante inferencia probabilística.
Inteligencia artificial basada en comportamientos: Esta inteligencia contiene autonomía y puede
auto-regularse y controlarse para mejorar.
Smart process management: Facilita la toma de decisiones complejas, proponiendo una
solución a un determinado problema al igual que lo haría un especialista en la dicha actividad.
Inteligencia artificial computacional
La Inteligencia Computacional (también conocida como IA subsimbólica-inductiva) implica
desarrollo o aprendizaje interactivo (por ejemplo, modificaciones interactivas de los parámetros en
sistemas conexionistas). El aprendizaje se realiza basándose en datos empíricos.
Historia
El término “inteligencia artificial” fue acuñado formalmente en 1956 durante la conferencia de
Darthmounth, más para entonces ya se había estado trabajando en ello durante cinco años en
los cuales se había propuesto muchas definiciones distintas que en ningún caso habían logrado
ser aceptadas totalmente por la comunidad investigadora. La IA es una de las disciplinas más
nuevas junto con la genética moderna.
Las ideas más básicas se remontan a los griegos, antes de Cristo. Aristóteles (384-322 a. C.) fue
el primero en describir un conjunto de reglas que describen una parte del funcionamiento de la
mente para obtener conclusiones racionales, y Ctesibio de Alejandría (250 a. C.) construyó la
primera máquina autocontrolada, un regulador del flujo de agua (racional pero sin
razonamiento).
En 1315 Ramon Llull en su libro Ars magna tuvo la idea de que el razonamiento podía ser
efectuado de manera artificial.
En 1936 Alan Turing diseña formalmente una Máquina universal que demuestra la viabilidad
de un dispositivo físico para implementar cualquier cómputo formalmente definido.
En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el
cual se considera el primer trabajo del campo, aún cuando todavía no existía el término. Los
primeros avances importantes comenzaron a principios del año 1950 con el trabajo de Alan
Turing, a partir de lo cual la ciencia ha pasado por diversas situaciones.
En 1955 Herbert Simon, Allen Newell y J.C. Shaw, desarrollan el primer lenguaje de
programación orientado a la resolución de problemas, el IPL-11. Un año más tarde desarrollan
el LogicTheorist, el cual era capaz de demostrar teoremas matemáticos.
En 1956 fue inventado el término inteligencia artificial por John McCarthy, Marvin
Minsky y Claude Shannon en la Conferencia de Dartmouth, un congreso en el que se hicieron
previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi
total de las investigaciones durante quince años.
En 1957 Newell y Simon continúan su trabajo con el desarrollo del General Problem
Solver (GPS). GPS era un sistema orientado a la resolución de problemas.
En 1958 John McCarthy desarrolla en el Instituto de Tecnología de Massachusetts (MIT)
el LISP. Su nombre se deriva de LISt Processor. LISP fue el primer lenguaje para
procesamiento simbólico.
En 1959 Rosenblatt introduce el Perceptrón.
A finales de los 50 y comienzos de la década del 60 Robert K. Lindsay desarrolla «Sad Sam»,
un programa para la lectura de oraciones en inglés y la inferencia de conclusiones a partir de su
interpretación.
En 1963 Quillian desarrolla las redes semánticas como modelo de representación del
conocimiento.
En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual
era capaz de inferir conocimiento basado en información que se le suministra. Bobrow
desarrolla STUDENT.
A mediados de los años 60, aparecen los sistemas expertos, que predicen la probabilidad de una
solución bajo un set de condiciones. Por ejemplo DENDRAL, iniciado en 1965 por Buchanan,
Feigenbaum y Lederberg, el primer Sistema Experto, que asistía a químicos en estructuras
químicas complejas euclidianas, MACSYMA, que asistía a ingenieros y científicos en la
solución de ecuaciones matemáticas complejas.
Posteriormente entre los años 1968-1970 Terry Winograd desarrolló el sistema SHRDLU, que
permitía interrogar y dar órdenes a un robot que se movía dentro de un mundo de bloques.
En 1968 Minsky publica Semantic Information Processing.
En 1968 Seymour Papert, Danny Bobrow y Wally Feurzeig desarrollan el lenguaje de
programación LOGO.
En 1969 Alan Kay desarrolla el lenguaje Smalltalk en Xerox PARC y se publica en 1980.
En 1973 Alain Colmenauer y su equipo de investigación en la Universidad de Aix-Marseille
crean PROLOG (del francés PROgrammation en LOGique) un lenguaje de programación
ampliamente utilizado en IA.
En 1973 Shank y Abelson desarrollan los guiones, o scripts, pilares de muchas técnicas actuales
en Inteligencia Artificial y la informática en general.
En 1974 Edward Shortliffe escribe su tesis con MYCIN, uno de los Sistemas Expertos más
conocidos, que asistió a médicos en el diagnóstico y tratamiento de infecciones en la sangre.
En las décadas de 1970 y 1980, creció el uso de sistemas expertos, como MYCIN: R1/XCON,
ABRL, PIP, PUFF, CASNET, INTERNIST/CADUCEUS, etc. Algunos permanecen hasta hoy
(Shells) como EMYCIN, EXPERT, OPSS.
En 1981 Kazuhiro Fuchi anuncia el proyecto japonés de la quinta generación de computadoras.
En 1986 McClelland y Rumelhart publican Parallel Distributed Processing (Redes
Neuronales).
En 1988 se establecen los lenguajes Orientados a Objetos.
En 1997 Gari Kaspárov, campeón mundial de ajedrez, pierde ante la computadora
autónoma Deep Blue.
En 2006 se celebró el aniversario con el Congreso en español 50 años de Inteligencia Artificial
- Campus Multidisciplinar en Percepción e Inteligencia 2006.
En el año 2009 ya hay en desarrollo sistemas inteligentes terapéuticos que permiten detectar
emociones para poder interactuar con niños autistas.
En el año 2011 IBM desarrolló una supercomputadora llamada Watson , la cual ganó una ronda
de tres juegos seguidos de Jeopardy!, venciendo a sus dos máximos campeones, y ganando un
premio de 1 millón de dólares que IBM luego donó a obras de caridad.10
Existen personas que al dialogar sin saberlo con un chatbot no se percatan de hablar con un
programa, de modo tal que se cumple la prueba de Turing como cuando se formuló: «Existirá
Inteligencia Artificial cuando no seamos capaces de distinguir entre un ser humano y un
programa de computadora en una conversación a ciegas».
Como anécdota, muchos de los investigadores sobre IA sostienen que «la inteligencia es un
programa capaz de ser ejecutado independientemente de la máquina que lo ejecute,
computador o cerebro».
Críticas
Las principales críticas a la inteligencia artificial tienen que ver con su capacidad de imitar por
completo a un ser humano. Estas críticas ignoran que ningún humano individual tiene capacidad
para resolver todo tipo de problemas, y autores como Howard Gardner han propuesto que
existen inteligencias múltiples. Un sistema de inteligencia artificial debería resolver problemas. Por
lo tanto es fundamental en su diseño la delimitación de los tipos de problemas que resolverá y las
estrategias y algoritmos que utilizará para encontrar la solución.
En los humanos la capacidad de resolver problemas tiene dos aspectos: los aspectos innatos y los
aspectos aprendidos. Los aspectos innatos permiten por ejemplo almacenar y recuperar información
en la memoria y los aspectos aprendidos el saber resolver un problema matemático mediante el
algoritmo adecuado. Del mismo modo que un humano debe disponer de herramientas que le
permitan solucionar ciertos problemas, los sistemas artificiales deben ser programados de modo tal
que puedan resolver ciertos problemas.
Muchas personas consideran que el test de Turing ha sido superado, citando conversaciones en que
al dialogar con un programa de inteligencia artificial para chat no saben que hablan con un
programa. Sin embargo, esta situación no es equivalente a un test de Turing, que requiere que el
participante esté sobre aviso de la posibilidad de hablar con una máquina.
Otros experimentos mentales como la Habitación china de John Searle han mostrado cómo una
máquina podría simular pensamiento sin tener que tenerlo, pasando el test de Turing sin siquiera
entender lo que hace. Esto demostraría que la máquina en realidad no está pensando, ya que actuar
de acuerdo con un programa preestablecido sería suficiente. Si para Turing el hecho de engañar a un
ser humano que intenta evitar que le engañen es muestra de una mente inteligente, Searle considera
posible lograr dicho efecto mediante reglas definidas a priori.
Uno de los mayores problemas en sistemas de inteligencia artificial es la comunicación con el
usuario. Este obstáculo es debido a la ambigüedad del lenguaje, y apareció ya en los inicios de los
primeros sistemas operativos informáticos. La capacidad de los humanos para comunicarse entre sí
implica el conocimiento del lenguaje que utiliza el interlocutor. Para que un humano pueda
comunicarse con un sistema inteligente hay dos opciones: o bien el humano aprende el lenguaje del
sistema como si aprendiese a hablar cualquier otro idioma distinto al nativo, o bien el sistema tiene
la capacidad de interpretar el mensaje del usuario en la lengua que el usuario utiliza.
Un humano durante toda su vida aprende el vocabulario de su lengua nativa. Un humano interpreta
los mensajes a pesar de la polisemia de las palabras utilizando el contexto para resolver
ambigüedades. Sin embargo, debe conocer los distintos significados para poder interpretar, y es por
esto que lenguajes especializados y técnicos son conocidos solamente por expertos en las
respectivas disciplinas. Un sistema de inteligencia artificial se enfrenta con el mismo problema, la
polisemia del lenguaje humano, su sintaxis poco estructurada y los dialectos entre grupos.
Los desarrollos en inteligencia artificial son mayores en los campos disciplinares en los que existe
mayor consenso entre especialistas. Un sistema experto es más probable de ser programado en
física o en medicina que en sociología o en psicología. Esto se debe al problema del consenso entre
especialistas en la definición de los conceptos involucrados y en los procedimientos y técnicas a
utilizar. Por ejemplo, en física hay acuerdo sobre el concepto de velocidad y cómo calcularla. Sin
embargo, en psicología se discuten los conceptos, la etiología, la psicopatología y cómo proceder
ante cierto diagnóstico. Esto dificulta la creación de sistemas inteligentes porque siempre habrá
desacuerdo sobre lo que se esperaría que el sistema haga. A pesar de esto hay grandes avances en el
diseño de sistemas expertos para el diagnóstico y toma de decisiones en el ámbito médico y
psiquiátrico (Adaraga Morales, Zaccagnini Sancho, 1994).
Aerosoles
Los coloides, también llamados suspensiones coloidales, son dispersiones en las cuales el diámetro
de sus partículas dispersas son entre 1.0 nm y 1000 nm y, consecuentemente, tienen características
intermedias entre los compuestos homogéneos y heterogéneos. Sus partículas no pueden verse con
el ojo desnudo, pero dispersan luz porque son lo suficientemente grandes para tal.
Existen varios tipos de coloides característicos de los procesos importantes en nuestra vida
cotidiana. Ellos se distinguen según las fases dispersas, que pueden estar en los estados sólidos,
líquidos o gaseosos.
Los aerosoles pueden ser sólidos (cuando las partículas sólidas se dispersan en un gas) o líquidos
(cuando un líquido está disperso en un gas). Veamos ejemplos de ambos tipos de aerosoles a
continuación.
Aerosoles líquidos Brumas y nieblas: en términos generales, son el resultado de la condensación
del vapor de agua que, en forma de gotas, quedan suspendidos en la atmósfera, casi siempre junto a
la superficie terrestre.
En ese caso, tenemos un aerosol líquido en el cual el medio de dispersión es un gas, el aire; y la
fase dispersa es un líquido, el agua. Sin embargo, existen nieblas resultantes de la dispersión de
otros materiales que no son los vapores de agua. Principalmente en los grandes centros urbanos, hay
nieblas constituidas por un enorme número de sustancias gaseosas, sólidas y líquidas que resultan
de las actividades humanas e interactúan entre sí.
Desodorantes y otros productos domésticos en la forma de spray: en el spray, el componente
activo es disperso en el aire.
Nube: constituida de agua y aire.
Aerosoles sólidos Humo: consiste en partículas sólidas dispersadas en el aire.
Polvo: los granos de polvo normalmente presentan diámetro superior a 1000 nm. Ellos se presentan
en suspensión y tienden a sedimentar y a depositarse sobre los objetos. Sin embargo, hay en el aire
algunos granos de polvo y dimensiones coloidales que nunca sedimentan. Ese tipo de coloide es un
aerosol sólido. El efecto Tyndall, a saber, la dispersión de la luz por partículas coloidales, se
observa más comúnmente en la niebla citada anteriormente y en el polvo. Por ejemplo, puedes ver
el camino de la luz causado por la dispersión de la luz solar en sus partículas coloidales.
Fuente original: Escuelapedia.comhttp://www.escuelapedia.com/aerosol-un-tipo-de-coloide/
Aerosoles
El término aerosol se aplica a la mezcla heterogénea de partículas sólidas o líquidas en un medio
gaseoso, cuyo tamaño va desde 0,002 μm (algunas moléculas) hasta 100 μm, esto significa que
pueden permanecer en suspensión por un tiempo de al menos 1 hora (glosario
EPA http://yosemite.epa.gov/oar/globalwarming.nsf/content/glossary.html), algunos autores
incluyen la condición de que deben ser capaces de observarse o medirse (Hinds, 1982). En la
práctica el término aerosol usualmente se refiere a los componentes semivolátiles y no volátiles que
forman parte de las partículas pero no a los compuestos volátiles que residen exclusivamente en la
fase gaseosa (Pöschl et al., 2005).
Fuentes
Las partículas del aerosol ambiental pueden ser de origen primario o secundario. Los aerosoles
primarios son formados por la emisión directa de las partículas desde su fuente y los secundarios se
forman a partir de reacciones atmosféricas a partir de precursores gaseosos
(Pandis et al., 1992; Jacobson et al., 2000). Tanto los primarios como los secundarios pueden
formarse como consecuencia de las actividades naturales o antrópicas. Las partículas naturales
incluyen los siguientes orígenes.
–marino: partículas de sal formadas por la acción combinada del viento y de las olas en el
océano
–mineral: materiales derivados de la acción de los vientos sobre distintas superficies geológicas
–volcánico: inyección de gases y partículas durante una erupción y lava caliente
–biogénico: fuegos forestales, polen, hongos, bacterias, virus, acción de organismos vivientes,
desintegración y dispersión de materiales descompuestos de las plantas
–cósmico: algunos materiales ingresados a la atmósfera desde el espacio exterior (Gourdeau,
2003; Oberdörster et al., 2005).
Los aerosoles orgánicos secundarios (AOS) son un producto de la oxidación atmosférica de algunos
de los gases orgánicos reactivos (GOR) presentes en ella por uno de los tres gases electrofílicos
presentes en trazas en la atmósfera: el radical hidroxilo (OHo), el ozono (O3), y el radical nitrato
(NO3o) (Bjorseth y Ramdahl ,1985; Jacobson et al., 2000).
Los GORs son emitidos durante el quemado de madera y combustibles fósiles, uso de solventes,
emisiones de los vegetales y por los océanos (Duce et al., 1983), estos gases incluyen a compuestos
como alquenos, hidrocarburos aromáticos y fenoles (Jacobson et al.,
2000).
Partículas y aerosol atmosférico.
Por su origen, los aerosoles atmosféricos se clasifican en naturales, compuestos principalmente por
cenizas volcánicas, esporas, polen, sal marina, polvo terrestre, polvo desértico etc., y
antropogénicos, derivados de la actividad humana, tales como humo de chimeneas, tránsito
vehicular, partículas minerales surgidas de procesos industriales, las partículas producidas
fotoquímicamente a partir de contaminantes gaseosos también entran en este apartado. Su
concentración puede oscilar desde unos pocos μg/m3 de un aire limpio a varias centenas de mg/m3
en una atmósfera contaminada (Manahan, 2007).
Las partículas no son esféricas ni todas de igual densidad, sino que responden a un alto grado de
variabilidad de tamaño y de anisotropía en todas sus demás propiedades físicas; a fines práctico-
comparativos se les asigna un diámetro equivalente (De) que corresponde al diámetro que tendría la
partícula esférica con el mismo volumen que la partícula en estudio, además y mas importante aún
es el diámetro aerodinámico equivalente (Da) (Bird et al.,
1982). El Da depende de la densidad de la partícula y se define como el diámetro de una partícula
esférica de densidad igual a 1 g/cm3 que tendría los mismos efectos gravitatorios y velocidad en la
atmósfera que la partícula en cuestión. Esta última definición es fundamental para la interpretación
de resultados ambientales y ecotoxicológicos (Baron y Willeke, 1993;
Wilson et al., 2002). Cuando el diámetro aerodinámico de la partícula es menor a 0,5 μm., se utiliza
el diámetro de difusión de la partícula en lugar del diámetro aerodinámico, el cual corresponde al
diámetro de una esfera con el mismo coeficiente de difusión que el de la partícula, bajo las mismas
condiciones de presión, temperatura y humedad relativa (Allen,
1997).
Se pueden distinguir, distintos modos de distribuciones de tamaño (USEPA, 1996;
Seinfeld y Pandis, 1998; Qerol et al., 2001, Puigcerver y Dolors, 2008) (Figura 2.1.2.1):
Partículas ultrafinas, moda de nucleación (<0,02 μm): la mayor concentración en
número de partícula se encuentra entre 5-15 nm. Son atribuidas a precursores como H2SO4,
NH3 y vapor de agua. La vida media de estas partículas en la atmósfera es del orden de horas
ya que coagulan rápidamente con otras partículas o incrementan de tamaño por condensación.
La nucleación se ve favorecida por descensos en la temperatura y/o incrementos en la
humedad relativa (Eastern y Peter 1994, Kulmala et al., 2001).
Moda Aitken (0,02-0,1 μm): estas partículas pueden tener un origen primario (natural
o antropogénico) o secundario (a partir de partículas del moda nucleación). Mucho se
desconoce aún acerca de la composición química de estas partículas, aunque es muy probable
que las de origen secundario se formen por procesos de coagulación a partir del modo de
nucleación, por condensación y/o por reacciones en fase líquida (con compuestos
inorgánicos). La influencia de las emisiones antropogénicas en las partículas de la moda
Aitken no está bien definida en la actualidad.
Moda de acumulación (0,1-1 μm): la mayor densidad de partículas se registra entre
150-250 nm. En la atmósfera, las partículas de la moda Aitken crecen hasta formar parte de la
moda de acumulación por medio de reacciones en fase líquida que tienen lugar en gotas de
agua en las nubes. La transferencia de masa es máxima en la nube a pesar del escaso tiempo
de reacción, debido al elevado volumen de agua y la velocidad de reacción en las nubes.
Aproximadamente el 90% del sulfato que se forma en la atmósfera es originado por la
oxidación en fase líquida del dióxido de azufre en las nubes (Langner y Rodhe, 1992). El
tiempo de residencia en la atmósfera es máximo para las partículas de esta moda.
Moda gruesa (>1 μm en términos de aerosoles atmosféricos): en términos de calidad
del aire y epidemiología esta moda comprende las partículas de diámetro >2,5 μm. La mayor
parte de las partículas en esta moda se forman por procesos mecánicos tales como la erosión
de la superficie terrestre. El crecimiento de las partículas de diámetro <1 μm no puede dar
lugar a partículas de diámetro >1 μm. Por otra parte, los procesos mecánicos que generan las
partículas primarias no pueden normalmente producir partículas de diámetro <1 μm debido
a limitaciones energéticas. Consecuentemente, la transferencia de partículas entre diferentes
modas se encuentra con un límite en torno a 1 μm. Las partículas <1 μm son denominadas
partículas finas, mientras que aquellas de diámetro >1 μm son gruesas (USEPA, 2004).
Figura 2.1.2.1: Distribuciones modales de tamaños de partículas según USEPA 1996,
2004, y Querol et al. (2001).
Todo ello se reduce a dos modas, finas y gruesas, si se contabilizan los dos primeros conjuntamente,
o bien si se hace una clasificación atendiendo a la masa de las partículas.
Referente a su eliminación de la atmósfera, los núcleos de Aitken se condensan en partículas de
mayor tamaño para posteriormente sufrir una coalescencia en cadenas de agregados, siendo
finalmente eliminados por precipitación en el agua de lluvia (WHO, 2003). Las partículas entre del
moda de acumulación forman gotas que se eliminan de modo parecido aunque menos eficazmente y
las partículas gruesas se eliminan por acción gravitatoria, esto es, por sedimentación (Pósfai y
Molnár, 2000).
En primer lugar, el tiempo de residencia atmosférica posee una relación inversa con el tamaño de
partícula (para partículas de diámetro aproximadamente >50 nm). La vida media de las partículas de
la moda de nucleación (<0,02 μm) es muy reducida (horas), debido a su rápida transformación a la
moda Aitken. El tiempo de residencia en suspensión de las partículas de la moda gruesa incrementa
al disminuir el diámetro: varias horas para las partículas de diámetro >20 μm, y de 2-4 días para
partículas de 2-3 μm. Finalmente, las partículas en las modas de acumulación y en el límite superior
de la moda Aitken (0,1-1 μm) presentan el mayor tiempo de residencia en la atmósfera (Mészáros,
1999).
Las partículas de diámetro >0,1 μm (modas de acumulación y gruesa) actúan como eficientes
núcleos de condensación debido a que suelen contener una importante fracción soluble en agua, y es
por ello que uno de sus principales mecanismos de retirada de la atmósfera es la deposición
húmeda. De esta manera, la vida media de las partículas entre 0,1-
1 μm se considera similar a la del agua (alrededor de 10 días) (Pósfai y Molnár, 2000). Por el
contrario, las partículas carbonosas son de naturaleza más hidrofóbica, por tanto es necesario el
transcurso de cierto tiempo hasta que la oxidación de la superficie de estas partículas permita su
retirada por deposición húmeda. Como resultado, la vida media de las partículas carbonosas es
superior a la de la fracción soluble (Gaffney et al., 2002).
Partículas.Calidad de aire y Salud.
El número de partículas domina las modas de Nucleación y Aitken, mientras que la distribución en
función de la superficie muestra un máximo en torno a 0,1 μm, lo cual indica que en este diámetro
se produce la acumulación de masa de forma más efectiva por procesos de coagulación y
condensación, con un máximo de masa concentrado en la moda gruesa
(Querol et al, 2001). Este comportamiento también fue observado en un estudio realizado en
33 puntos de muestreo repartidos por toda Europa, en el que se concluye que el número de
partículas se incrementa en mayor medida que la masa en zonas contaminadas (Putaud et al.,
2002).
En términos de calidad del aire se definen también cuatro parámetros fundamentales, atendiendo al
tamaño de corte de los sistemas de captación: TSP, PM10, PM2,5 y PM1
(Figura 2.1.2.1). Mientras que el término TSP (del inglés Total Suspended Particles), se refiere a
partículas totales en suspensión, PM10 (del inglés Particulated Matter) se define como la masa del
material particulado que atraviesa un cabezal de tamaño selectivo para un diámetro aerodinámico de
10 μm, con una eficiencia de corte del 50 %. La misma definición para cabezales de corte de 2,5 μm
y 1 μm se aplica para PM2,5 y PM1, respectivamente.
Desde el punto de vista ambiental y especialmente por su impacto sobre la salud, pueden
clasificarse según su tamaño como (Harrison et al., 1998):
-TSP: corresponde a las partículas menores a 100 μm
-PM10 (fracción inhalable): partículas menores de 10 μm
-PM2,5 ( fracción respirable): partículas menores de 2,5 μm, esta fracción también contiene al PM1,
que corresponde a partículas menores a 1 μm.
Revisten interés las fracciones inhalable y especialmente la respirable, ya que las partículas más
grandes que 10μm son retenidas en las vías respiratorias superiores, mientras que las de tamaño
mayor a 5 μm son retenidas en la zona nasofaríngea, las de 1 a 5 μm son depositadas en la región
traqueo bronquiolar del pulmón, que es la región media, de aquí pueden ser eliminadas del sistema
respiratorio por vehiculización en el moco y con la ayuda de los movimientos de las fibras ciliares,
pueden pasar de esta manera al sistema digestivo
para su eliminación (Klaassen et al., 1990) (Figura 2.1.3.1 ).
Figura 2.1.3.1: Distribución granulométrica del material particulado atmosférico en función del
número de partículas, la superficie y la masa (según Hasson, comunicación personal).
Las de 1 μm y menores penetran en los sacos alveolares de los pulmones, pudiendo
seguir distintas vías de eliminación entre ellas por la acción de macrófagos (Soukup et al.,
2000; Peña et al., 2001).
A partir de numerosos estudios epidemiológicos llevados a cabo en las décadas de
1980 y 1990 se han obtenido suficientes datos para afirmar que existe una correlación significativa
entre la exposición al material particulado atmosférico y diversos efectos adversos sobre la salud
(Dockery et al., 1993; Schwartz, 1994 y 1996; Bascom et al., 1996;
Dockery y Pope, 1996; Brunekreef et al., 1997; Künzli et al., 2000). Los efectos de la exposición al
material particulado atmosférico se observan tanto en episodios de contaminación crónicos como
agudos (WHO, 2002). Ambos tipos de situaciones conllevan aumentos en los ingresos hospitalarios
por enfermedades respiratorias y cardiovasculares, siendo estas las principales causas de los
incrementos en la mortalidad (Schwartz, 1994;
Dockery y Pope, 1996).
El mayor riesgo para la salud de la fracción PM2,5 (fracción alveolar de PM10) se relaciona con su
mayor capacidad de penetración en el organismo (Figura 2.1.3.2 y 2.1.3.3) y mayor reactividad
química por las elevadas áreas superficiales (Figura 2.1.3.1) (USEPA,
1996; Monarca, 1997; Kittelson, 1998). Sin embargo, Abbey et al. (1999) discuten la relación entre
PM2,5 y cáncer de pulmón, al observar un mayor grado de correlación con PM10 y las emisiones
de O2. Asimismo, debido a la evidencia existente en la literatura que demuestra los efectos adversos
de la fracción gruesa PM2,5-10 (Dockery y Pope 1993; Pekkanen et al.
1997; Künzli et al., 2000) sugiere garantizar la vigencia de la normativa respecto a PM10
(WHO, 2003).