ROBÓTICA ¿SOÑAREMOS E CON OVEJAS …...02 HERALDO DOMINGO Heraldo de Aragón, 20 de agosto de...

3
02 HERALDO DOMINGO Heraldo de Aragón, 20 de agosto de 2017 ROBÓTICA ¿ SOÑAREMOS CON OVEJAS ELÉCTRICAS? que las dos partes (cliente y empresa) queden satisfechos. Es decir, que si que- remos comprar un billete y no hay fe- chas, el programa nos proponga alterna- tivas pero tenga en cuenta nuestra nece- sidad de volar en unas fechas determina- das. Una especie de ‘empatía’ robótica. «En la investigación de Facebook, parte del juego consistía en intercambiar men- sajes, simulando los posibles modos lin- güísticos humanos en una negociación. Si el resultado era considerado un éxito, se ‘premiaba’ al programa. Y dado que los agentes estaban programados para hacer eficientes estos intercambios, en ocasiones apocoparon las frases preesta- blecidas, simplificando las explicaciones. Facebook no apagó el sistema por miedo, sino porque tenía que reprogramar a esos agentes para imponer que escribie- ran de una manera legible. No hubo nada reseñable, ni inteligencias superiores ni peligros amenazadores». NUEVA REALIDAD. Ciencia ficción o no, lo cierto es que la Unión Europea ya prepa- ra leyes para la llegada de los robots in- teligentes. Los asuntos jurídicos de la Eurocámara reclaman la creación de un estatus de ‘persona electrónica’ para los robots más avanzados. Más que nada, porque hay 1,7 millones de robots en uso en todo el mundo, ya sean brazos indus- triales o máquinas ordeñadoras. En Ara- gón, sectores como la agricultura, la lo- gística o la automoción ya han incorpo- La inteligencia artificial se ha convertido en un reto tecnológico, jurídico y ético. Má- quinas capaces de pensar y autofabricarse pueden convertir al ser humano en obso- leto. No es una novela de ciencia ficción, ya hay juristas y expertos que trabajan en legislar una situación cada vez más cercana Texto: David Navarro E lon Musk, gerente de Tesla, empresa en ex- pansión que diseña, fabrica y vende co- ches eléctricos así co- mo grandes acumula- dores, se ha enzarza- do en internet con Mark Zuckerberg, creador y dueño de Facebook, respecto a los peligros de la inteligencia artificial. Para Musk, una máquina capaz de realizar operaciones que se consideran propias de la inteli- gencia humana, como el autoaprendiza- je, es un «peligro» y critica a Zuckerberg por su incapacidad de ver los riesgos que este avance significaría para el ser huma- no. Por su parte, el creador de Facebook, que ha invertido millones en el desarro- llo de esta inteligencia en robots, tacha de «irresponsable» al que mantenga una opinión negativa y vislumbre un futuro apocalíptico. Por ahora, todo era un intercambio dialéctico. Hasta que Facebook recono- ció hace unas semanas que ha interrum- pido un experimento con ‘chatbots’ o ‘agentes virtuales’ porque mostraban un comportamiento «demasiado indepen- diente»: habían desarrollado un lenguaje propio para comunicarse. Por su puesto, la noticia ha encendido de nuevo los miedos a que se hagan realidad escena- rios como los de ‘2001, una odisea en el espacio’, ‘Terminator’ o ‘Blade Runner’, en los que androides y máquinas habían desarrollado hasta tal punto su propia inteligencia que se convertían en un ries- go fatal para la raza humana. «Pero esas películas, todas esas historias, son un gran imaginario mítico. Ya el mito de Prometeo, que en el siglo XIX reproduce la historia de Frankestein, nos dice que los dioses castigarán a aquel que se atre- va a hacer lo que solo ellos pueden: crear vida. ¿Podría ser que una máquina se re- belara y se volviera maligna? Mi opinión es que no, esa posibilidad solo está cir- cunscrita para los guionistas de ciencia ficción», zanja Manuel G. Bedia, profe- sor del departamento de Informática e Ingeniería de Sistemas de la Universidad de Zaragoza y miembro del Grupo de In- formática Gráfica. El término ‘inteligencia artificial’ ha formado parte de la ciencia ficción du- rante décadas, pero es ahora cuando ese futuro se torna cada vez más cercano. Google, Amazon, Apple o Facebook han creado sus propios laboratorios de inves- tigación para desarrollar robots virtuales que imiten la inteligencia humana. Goo- gle, a través de Deep Mind, desarrolla ordenadores capaces de aprender por sí mismos; Apple y Amazon cuentan con asistentes virtuales que aprenden con- forme se los utiliza (como la famosa ‘Siri’ de los iPhones) y Facebook, junto a in- vestigadores de la Universidad Tecnoló- gica de Georgia, intenta desarrollar pro- gramas capaces de negociar. Estos últi- mos fueron hace unas semanas los pro- tagonistas de la noticia que, quizá por sensacionalismo o por tratarse de las aburridas fechas estivales, dio la vuelta al mundo y abrió el debate. «La noticia se ha difundido con un significado dis- torsionado, la realidad no es tan lírica y atractiva como se ha contado –advierte Bedia–. Los ordenadores no se desconec- taron porque estuvieran convirtiéndose en peligrosos ni inquietaran, sino porque no resultaba eficiente el resultado». La investigación de Facebook consiste en desarrollar agentes de diálogo con capa- cidad para negociar, lograr acuerdos en 1921 Nace el término ‘robot’ En las lenguas eslavas, el verbo tra- bajar tiene la raíz ‘robota’. De ahí procede la palabra, que fue por pri- mera vez utilizada en una obra de teatro checa, estrenada en 1921. Ti- tulada ‘Robots Universales Rossum’, su autor, el escritor Karel Capek, describe un futuro donde se crean androides que, una vez han supera- do al ser humano, se rebelan para conquistar el mundo. 1941 Las leyes de la robótica El relato ‘Círculo vicioso’ de Isaac Asimov, publicado en 1941, describe unas leyes de la robótica que impi- den al robot hacer daño a un ser hu- mano, a quien debe obedecer siem- pre y cuando no incurra en daño. Así, el autor contrarrestó la idea de que la robótica sería siempre negativa.

Transcript of ROBÓTICA ¿SOÑAREMOS E CON OVEJAS …...02 HERALDO DOMINGO Heraldo de Aragón, 20 de agosto de...

Page 1: ROBÓTICA ¿SOÑAREMOS E CON OVEJAS …...02 HERALDO DOMINGO Heraldo de Aragón, 20 de agosto de 2017 ROBÓTICA ¿SOÑAREMOS CON OVEJAS ELÉCTRICAS? que las dos partes (cliente y empresa)

02 HERALDO DOMINGO Heraldo de Aragón, 20 de agosto de 2017

ROBÓTICA ¿SOÑAREMOS CON OVEJAS ELÉCTRICAS?

que las dos partes (cliente y empresa) queden satisfechos. Es decir, que si que-remos comprar un billete y no hay fe-chas, el programa nos proponga alterna-tivas pero tenga en cuenta nuestra nece-sidad de volar en unas fechas determina-das. Una especie de ‘empatía’ robótica. «En la investigación de Facebook, parte del juego consistía en intercambiar men-sajes, simulando los posibles modos lin-güísticos humanos en una negociación. Si el resultado era considerado un éxito, se ‘premiaba’ al programa. Y dado que los agentes estaban programados para hacer eficientes estos intercambios, en ocasiones apocoparon las frases preesta-blecidas, simplificando las explicaciones. Facebook no apagó el sistema por miedo, sino porque tenía que reprogramar a esos agentes para imponer que escribie-ran de una manera legible. No hubo nada reseñable, ni inteligencias superiores ni peligros amenazadores».

NUEVA REALIDAD. Ciencia ficción o no, lo cierto es que la Unión Europea ya prepa-ra leyes para la llegada de los robots in-teligentes. Los asuntos jurídicos de la Eurocámara reclaman la creación de un estatus de ‘persona electrónica’ para los robots más avanzados. Más que nada, porque hay 1,7 millones de robots en uso en todo el mundo, ya sean brazos indus-triales o máquinas ordeñadoras. En Ara-gón, sectores como la agricultura, la lo-gística o la automoción ya han incorpo-

La inteligencia artificial se ha convertido en un reto tecnológico, jurídico y ético. Má-quinas capaces de pensar y autofabricarse pueden convertir al ser humano en obso-leto. No es una novela de ciencia ficción, ya hay juristas y expertos que trabajan en legislar una situación cada vez más cercana Texto: David Navarro

Elon Musk, gerente de Tesla, empresa en ex-pansión que diseña, fabrica y vende co-ches eléctricos así co-mo grandes acumula-dores, se ha enzarza-do en internet con Mark Zuckerberg, creador y dueño de

Facebook, respecto a los peligros de la inteligencia artificial. Para Musk, una máquina capaz de realizar operaciones que se consideran propias de la inteli-gencia humana, como el autoaprendiza-je, es un «peligro» y critica a Zuckerberg por su incapacidad de ver los riesgos que este avance significaría para el ser huma-no. Por su parte, el creador de Facebook, que ha invertido millones en el desarro-llo de esta inteligencia en robots, tacha de «irresponsable» al que mantenga una opinión negativa y vislumbre un futuro apocalíptico.

Por ahora, todo era un intercambio dialéctico. Hasta que Facebook recono-ció hace unas semanas que ha interrum-pido un experimento con ‘chatbots’ o ‘agentes virtuales’ porque mostraban un comportamiento «demasiado indepen-diente»: habían desarrollado un lenguaje propio para comunicarse. Por su puesto, la noticia ha encendido de nuevo los miedos a que se hagan realidad escena-rios como los de ‘2001, una odisea en el espacio’, ‘Terminator’ o ‘Blade Runner’, en los que androides y máquinas habían desarrollado hasta tal punto su propia inteligencia que se convertían en un ries-go fatal para la raza humana. «Pero esas películas, todas esas historias, son un gran imaginario mítico. Ya el mito de Prometeo, que en el siglo XIX reproduce la historia de Frankestein, nos dice que los dioses castigarán a aquel que se atre-va a hacer lo que solo ellos pueden: crear vida. ¿Podría ser que una máquina se re-belara y se volviera maligna? Mi opinión es que no, esa posibilidad solo está cir-cunscrita para los guionistas de ciencia ficción», zanja Manuel G. Bedia, profe-sor del departamento de Informática e Ingeniería de Sistemas de la Universidad de Zaragoza y miembro del Grupo de In-formática Gráfica.

El término ‘inteligencia artificial’ ha formado parte de la ciencia ficción du-rante décadas, pero es ahora cuando ese futuro se torna cada vez más cercano. Google, Amazon, Apple o Facebook han creado sus propios laboratorios de inves-tigación para desarrollar robots virtuales que imiten la inteligencia humana. Goo-gle, a través de Deep Mind, desarrolla ordenadores capaces de aprender por sí mismos; Apple y Amazon cuentan con asistentes virtuales que aprenden con-forme se los utiliza (como la famosa ‘Siri’ de los iPhones) y Facebook, junto a in-vestigadores de la Universidad Tecnoló-gica de Georgia, intenta desarrollar pro-gramas capaces de negociar. Estos últi-mos fueron hace unas semanas los pro-tagonistas de la noticia que, quizá por sensacionalismo o por tratarse de las aburridas fechas estivales, dio la vuelta al mundo y abrió el debate. «La noticia se ha difundido con un significado dis-torsionado, la realidad no es tan lírica y atractiva como se ha contado –advierte Bedia–. Los ordenadores no se desconec-taron porque estuvieran convirtiéndose en peligrosos ni inquietaran, sino porque no resultaba eficiente el resultado». La investigación de Facebook consiste en desarrollar agentes de diálogo con capa-cidad para negociar, lograr acuerdos en

1921 Nace el término ‘robot’ En las lenguas eslavas, el verbo tra-bajar tiene la raíz ‘robota’. De ahí procede la palabra, que fue por pri-mera vez utilizada en una obra de teatro checa, estrenada en 1921. Ti-tulada ‘Robots Universales Rossum’, su autor, el escritor Karel Capek, describe un futuro donde se crean androides que, una vez han supera-do al ser humano, se rebelan para conquistar el mundo.

1941 Las leyes de la robótica El relato ‘Círculo vicioso’ de Isaac Asimov, publicado en 1941, describe unas leyes de la robótica que impi-den al robot hacer daño a un ser hu-mano, a quien debe obedecer siem-pre y cuando no incurra en daño. Así, el autor contrarrestó la idea de que la robótica sería siempre negativa.

Page 2: ROBÓTICA ¿SOÑAREMOS E CON OVEJAS …...02 HERALDO DOMINGO Heraldo de Aragón, 20 de agosto de 2017 ROBÓTICA ¿SOÑAREMOS CON OVEJAS ELÉCTRICAS? que las dos partes (cliente y empresa)

03HERALDO DOMINGOHeraldo de Aragón, 20 de agosto de 2017

rado robots inteligentes. Y su venta mundial crece entre un 15% y un 30% ciento cada año. «Más que legislar, desde las instituciones europeas se están sen-tando las bases de una futura legislación sobre inteligencia artificial. Las preocu-paciones no se limitan a cuestiones es-trictamente jurídicas, ya que además de si deben tributar a la seguridad social o bien exista una responsabilidad civil por accidente, esas bases indican, por ejem-plo, que no se podrán generar relaciones emocionales con robots», aclara el abo-gado zaragozano Alfredo Sánchez-Rubio, socio de Bexia Legal. «Las bases senta-das a nivel europeo ya marcan perfiles muy claros, en el sentido de que los ro-bots no podrán causar daños a los seres humanos, o bien que deberán tener un interruptor de emergencia para ser em-pleado en situaciones potencialmente peligrosas, así como un seguro de res-ponsabilidad civil. Al margen quedaría el uso de la inteligencia artificial para fines militares». Según Sánchez-Rubio, «el problema radica en la autonomía que fi-nalmente puedan tener esas máquinas en la toma de decisiones y su ejecución. Su capacidad de pensar. Pero, en cual-quier caso, las directrices legislativas no van dirigidas a la máquina, sino a quien programa».

En la Universidad de Zaragoza hay di-ferentes grupos que trabajan en aplica-ciones de inteligencia artificial, funda-mentalmente en el uso de técnicas que

manos son lo suficientemente inteligen-tes como para no conectar programas experimentales de aprendizaje en con-troladores de aviones militares o reacto-res nucleares, por ejemplo, no debería-mos preocuparnos», señala Manuel G. Bedia. «Y si alguien lo hace y se produce un desastre, sería el resultado de la negli-gencia humana, no de que los sistemas hayan desarrollado capacidades superio-res que simplemente les atribuimos cuando nos dejamos llevar por la ciencia ficción. Para tranquilidad de los lectores, la investigación actual nos dice que el fe-nómeno de la conciencia solo es posible reproducirse en organismos corporiza-dos y vivos».

ENTRA LA ÉTICA. Si Descartes decía «pienso, luego existo», ¿qué lugar ocupa-rá en nuestra sociedad una máquina ca-paz de pensar por sí misma? Se trata de una pregunta que inquieta a investigado-res de Filosofía y Ética como David Pé-rez Chico, profesor del área de Lógica y Filosofía de la Ciencia de la Universidad de Zaragoza. «Se trata del problema de establecer qué lugar ocupa la mente en el orden natural. Ya desde el siglo XX la corriente del Cognitivismo se especializa en el estudio de la mente, como función racional y de cómputo. Es decir, ¿una mente es como un ordenador, un progra-ma que computa?». En el campo de la fi-losofía de la mente, se diferencia entre dos corrientes de inteligencia artificial:

permitan resolver problemas concretos en ámbitos de reconocimiento o extrac-ción de patrones en cantidades masivas de datos. «Actualmente es un área de rá-pido crecimiento, basada en la explota-ción de grandes cantidades de informa-ción. El único riesgo podría residir en la forma en que los humanos eligen sobre qué aplicar estas tecnologías. Si los hu-

‘fuerte’ y ‘débil’. Los defensores de la fuerte consideran que lo que caracteriza a la mente es poseer un ‘programa’, un sistema con el que procesamos informa-ción y entendemos el mundo que nos ro-dea. Así pues, las computadoras podrán llegar realmente a pensar, exactamente igual que el humano y, por ello, tendrían conciencia. Pero los defensores de la co-rriente débil señalan que un robot puede actuar como si fuese inteligente, pero en realidad estaría simulando serlo, puesto que, en el fondo, solo procesa informa-ción.

¿Somos entonces los humanos un me-ro programa, como afirma la corriente fuerte? «Ahí es donde debemos pregun-tarnos si somos algo más que intelecto –afirma Pérez Chico–. Y entra entonces ese miedo a que se produzca la singulari-dad tecnológica, esa llegada de una inte-ligencia artificial tan potente que sea ca-paz de automejorarse y, a su vez, cons-truir máquinas todavía mejores que ella». Tendría lugar entonces una explo-sión de inteligencia muy superior al inte-lecto humano. Algunos expertos sitúan este momento en el año 2045, otros cre-en que se producirá en 2030. «El proble-ma será entonces si esas máquinas creen que el ser humano es despreciable. Si en-traremos dentro de su lógica».

Por eso, el investigador cree que «re-ducir al ser humano a una simple mente

«Si se produce un desastre, será resultado de la negligencia humana, no de las máquinas»

1950 El test de Alan Turing El matemático y filósofo Alan Turing desarrolló en 1950 un test para eva-luar la capacidad de una máquina de generar respuestas similares a las que daría un humano. En el siglo XXI, versiones de programas desa-rrollados desde entonces (llamados ‘bots conversacionales’) consiguen engañar a muchos consumidores.

1956 IBM y el primer ordenador El IBM 305 Ramac fue el primer or-denador comercial que utilizaba dis-co duro magnético, puesto a la ven-ta en 1956. Tenía 5 megas de me-moria. Su diseño estuvo motivado por la necesidad de sustituir el fi-chero de tarjetas perforadas utiliza-do por la mayoría de las oficinas de la época y fue instalado en las ofici-nas de Chrysler, en Detroit. Sustitu-yó a un gigantesco fichero.

1961 Tecnología en las fábricas En el año 1961 General Motors ins-tala el primer brazo robotizado en su planta de Nueva Jersey (EE. UU.). La máquina, con un peso de 1.800 kilos fue diseñada para levantar y apilar grandes piezas de metal ca-liente de hasta 225 kilos en un en-torno que suponía un peligro para los trabajadores, que podían aspirar gases tóxicos y desarrollar enfer-medades.

1966. La primera aplicación ‘bot’ El profesor Joseph Weizenbaum creó en 1966 a Eliza, el primer ‘chat-bot’ o programa escrito para res-ponder a preguntas. Se programó como psicoterapeuta, para que los humanos pudieran contarle sus pe-nas. Se limitaba a preguntar sobre las mismas cosas de las que habla-ba el interlocutor.

1972 Parry, robot con esquizofrenia Escrito en 1972, Parry era un progra-ma informático que intentaba simu-lar el comportamiento de una per-sona con esquizofrenia paranoide. Se escribió para que chateara con Eliza y las conversaciones eran en-tre absurdas e hilarantes. Resulta-ban más creíbles cuando conversa-ban con humanos.

1984 RB5X, el robot que aprendía El robot aspiradora no es un invento del nuevo milenio, ya en 1984 se presentó RB5X. No solo era capaz de obedecer, sino de aprender de su entorno, toda una novedad. Fue además el primer robot vendido en masa y su kit de montaje todavía puede adquirirse hoy en día. En su época, se promocionaba como ‘an-droide’, con sus ojos, brazos, oídos...

1999 ¿Es Furby un espía? La inteligencia artificial avanza: en 1997 el programa Deep Blue ganó al famoso ajedrecista Garry Kasparov. Y se empieza a crear cierta alarma: el éxito del muñeco Furby en 1998, del que se vendieron 25 millones de unidades, llevó a la Agencia de Se-guridad Nacional norteamericana a prohibirlo entre sus empleados. Creían que el muñeco aprendía el idioma y era capaz de interactuar. Los creadores confesaron que todo se trataba de un programa.

2014 Superado el test de Turing El programa Eugene, desarrollado en Rusia, logra superar el test de Tu-ring, al hacerse pasar ante un inte-rrogador por un adolescente de 13 años. En 2016, un ordenador de Google vence al campeón mundial del juego milenario Go, que requiere una gran estrategia.

«Si los robots superan nuestra inteligencia..., ¿nos convertiremos en obsoletos y molestos para ellos?»

CONTINÚA EN LA PÁGINA SIGUIENTE

Page 3: ROBÓTICA ¿SOÑAREMOS E CON OVEJAS …...02 HERALDO DOMINGO Heraldo de Aragón, 20 de agosto de 2017 ROBÓTICA ¿SOÑAREMOS CON OVEJAS ELÉCTRICAS? que las dos partes (cliente y empresa)

04 HERALDO DOMINGO Heraldo de Aragón, 20 de agosto de 2017

significa que quedamos por debajo si una máquina nos supera en esos procesos. Nuestros valores serían el elemento dife-renciador. Haríamos bien en implemen-tar valores en la sociedad, porque de esa manera los ingenieros e informáticos que crean máquinas y robots tendrán unos lí-mites para saber hasta dónde llegar. Ten-drán claro para qué queremos esa máqui-na en concreto. Hoy en día estamos pro-duciendo tecnología simplemente por el hecho de que podemos, no porque la ne-cesitemos. Alguna se crea y no se sabe bien en qué se podrá aplicar». Y Pérez Chico recuerda la película ‘Gattaca’, dis-topía transhumanista sobre la mejora ge-nética. «Podemos hacer cosas perfectas, pero quizá es conveniente fabricar cosas útiles».

Son valores en los que entrarían las fa-mosas leyes de la robótica del escritor Isaac Asimov. La primera dice que «un robot no hará daño a un ser humano o, por inacción, permitirá que un ser huma-no sufra daño». La segunda, que «un ro-bot debe hacer o realizar las órdenes da-das por los seres humanos, excepto si es-tas órdenes entrasen en conflicto con la primera ley». Y, finalmente, que «un ro-bot debe proteger su propia existencia en la medida en que esta protección no en-tre en conflicto con la primera o la segun-da ley». Es decir, mediante un programa, asegurar que estaremos protegidos de las todopoderosas máquinas.

Manuel G. Bedia considera que «hay varias dimensiones entre las relaciones éticas y el diseño de sistemas con inteli-gencia artificial. La primera, el compro-

miso de cada ingeniero cuando diseña, construye o usa una tecnología con po-tenciales efectos negativos. La segunda tendría que ver con el comportamiento ético que queremos que muestren las máquinas en su relación con los seres hu-manos. Y eso es importante si pensamos en la interacción que los robots tendrán con sus propietarios en los próximos años. Por ejemplo, pueden ser personal asistencial en hospitales y geriátricos».

Según el profesor de Informática e In-geniería de Sistemas, «los seres humanos establecemos vínculos porque somos ca-paces de valorar e interpretar lo que se produce a nuestro alrededor. Nuestros juicios éticos no son impersonales, no han sido incorporados ‘desde fuera’ por un diseñador. Por eso, creo que la ética en las máquinas, como en las personas, pasa por construir puentes afectivos con respecto a situaciones de sufrimiento ex-terno. Como no pienso que podamos ha-cer máquinas que tengan sentimientos de bondad o altruismo, la alternativa es pro-gramar robots que reproduzcan gestos». Ya existen algunos que enarcan las cejas para mostrar extrañeza o incluso se son-rojan, «aunque son meras ilusiones su-perficiales. Para alcanzar una relación esos robots tendrán que ser capaces de mostrar un patrón recíproco con quienes interactúan con ellos. Esta es la vía en la que creo que se incluirá la ética en las máquinas: aprendiendo de la dimensión emocional en las relacione sociales que tengamos con ellos».

Pero el profesor de Lógica y Filosofía David Pérez Chico se muestra más cauto ante ese futuro. «Quizá se pueda progra-mar una moral, quizá la pueda aprender

la máquina. El problema vendrá si real-mente cree que es eficaz, si nuestras emociones o valores son necesarios para un trabajo eficaz». Al fin y al cabo, los ro-bots de Facebook ya han considerado el lenguaje una barrera que entorpece las negociaciones y no han dudado en trans-formarlo a su antojo.

IMPACTO SOCIAL. Uno de los impactos más inmediatos de la tecnología e inteli-gencia artificial en la sociedad es la crea-ción de robots que sustituyen a los traba-jadores. «Ya ha empezado lo que se llama la Cuarta Revolución Industrial, que pue-de generar pérdidas de muchos puestos de trabajo a corto plazo. Es un fenómeno

imparable, que puede traer nuevas profe-siones y oportunidades en nuevos esce-narios, pero que requiere también una re-flexión. Los legisladores deben tener en cuenta que la sustitución de un empleado también significa la pérdida de cotizacio-nes a la seguridad social y la imposibili-dad de sostener el sistema de pensiones. Por ello, se puede legislar una vía para mitigar con impuestos la adquisición de robots para determinadas tareas», consi-dera el abogado Alfredo Sánchez-Barrio.

Los robots inteligentes por ahora están en un vacío legal, pero en países como Ja-pón, Taiwan y Corea ya se pide una legis-lación. Japón ya ha estimado que el 50% de todos los trabajos del país podrán ser llevados a cabo por robots antes de 20 años, por lo que se preguntan qué será de la población si un programa de inteligen-cia artificial es capaz de hacer el trabajo de todo un grupo de personas. También el Parlamento Europeo recomendó el pa-sado marzo a la Comisión sobre Robótica y Derecho Civil que analice el impacto de la robótica en la economía y se plan-teen nuevos mecanismos de fiscalidad y cotizaciones a la Seguridad Social. «Una posición tecno-optimista estima que la tecnología se encargará de automatizar profesiones cualificadas pero que, en promedio, no se perderán ni puestos de trabajo ni serán de peor calidad. Pero por otro lado, otros creen que los cambios de la digitalización no van a generar sufi-ciente empleo para generar la pérdida de puestos de trabajo», destaca Manuel G. Bedia. «Ese es un debate a tener en cuen-ta. Y, en mi opinión, el más importante. Y no las profecías sobre las pavorosas ame-nazas de las máquinas».

Japón ya propone medidas para paliar el desempleo que se generará. Puede suponer el 50%

La UE prepara leyes sobre los riesgos de la robótica. Prevén prohibir que se creen vínculos emocionales

El mito de Prometeo

1. Frankestein. El avance tecnológico ha estado acompañado de literatura que refleja el miedo al fu-turo, como el libro de Mary Shelley de 1818. 2. 2001 Odisea en el espacio. Película de Stanley Kubrick de 1968, donde el robot HAL se rebela contra los astronautas. 3. Blade Runner. Filme de Ridley Scott de 1982, muestra una distopía donde los an-droides se confunden con humanos. 4. Terminator. La película de James Ca-meron de 1984 imagina un futuro donde las máquinas destruyen al hombre. 5. Inteligencia Artificial. Filme de Steven Spielberg (2001).

1

3

2 5

4

VIENE DE LA PÁGINA ANTERIOR