J L G [email protected] Universidad del País Vasco ...
Transcript of J L G [email protected] Universidad del País Vasco ...
DOI: http://doi.org/10.12795/Argumentos/2019.i22.04
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
REPRESENTAR E INTERVENIR CON TECNOMUNDOS TECNOVIRTUALES:
SIMULACIONES, FICCIONES Y CONTROVERSIAS
REPRESENTING AND INTERVENING IN VIRTUAL TECHNOWORLDS: SIMULATIONS,
FICTIONS AND CONTROVERSIES
JOSÉ LUIS GRANADOS MATEO
Universidad del País Vasco/Euskal Herriko Unibertsitatea (España)
JAVIER ECHEVERRÍA EZPONDA
Academia de las Ciencias, de las Artes y de las Letras del País Vasco (España)
RECIBIDO: 27/05/2019
ACEPTADO: 18/07/2019
Resumen: Las simulaciones computacionales constituyen el principal campo de pruebas virtual en
múltiples ciencias, una práctica distintiva con respecto al Representar e Intervenir que Hacking
proponía en 1983. Estas no solamente constituyen una herramienta de cálculo, sino que también suponen una metodología de investigación en sí misma. A través de ellas se pueden recrear
tecnomundos virtuales que sustituyen como objeto de estudio a sistemas naturales experimentalmente
inaccesibles, como el cambio climático o fenómenos astrofísicos. Este artículo analiza la posibilidad de considerar este tipo de simulaciones como objetos de controversia superpuestos al debate del
realismo científico. Para ello, se parte de la caracterización de Hacking, adoptando una perspectiva praxeológica y focalizándose en aquellas con potencial explicativo causal. Finalmente, se analiza la
aplicabilidad de los argumentos de la intervención y la correspondencia múltiple de representaciones,
analizando las diferencias y analogías entre la práctica de observar con microscopios y la práctica de simular con tecnología computacional.
Palabras clave: realismo científico, simulaciones computacionales, modelos científicos, Ian
Hacking, tecnomundo virtual, ficciones.
Abstract: Computer simulations are currently the main virtual testing field within several scientific
disciplines. It's a distinctive practice with respect to the Representing and Intervening proposed by Hacking in 1983. For, a computer simulation isn't solely a calculation tool; it also acts as a research
methodology in itself. Through them, virtual technoworlds and their objects of study can be
recreated—thereby granting access to experimentally inaccessible natural systems (i.e., climate change or astrophysical phenomena). This article analyzes the tenability of considering these
simulations as objects of dispute, superimposed on the debate of scientific realism. To this end, we
start with the characterization of Hacking by adopting a praxeological perspective, and then focusing on simulations with causal explanatory potential. Following this, the applicability of the arguments of
intervention, as well as the multiple correspondence of representations, are evaluated. From this data,
the article concludes with an analysis of the analogies and differences between the practice of observing by means of a microscope and simulating by means of computational technology.
Keywords: Scientific Realism, Computer Simulations, Scientific Models, Ian Hacking, Virtual
Technoworld, Fictions.
REPRESENTAR E INTERVENIR CON TECNOMUNDOS VIRTUALES
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
97
Introducción
A la hora de abordar la controversia del realismo científico, Ian Hacking propuso
en Representing and Intervening (1983) dos perspectivas estrechamente
vinculadas entre sí: uno se podía preguntar si las entidades postuladas por las
teorías científicas existían en el mismo sentido en que existen las observables
(perspectiva ontológica), o uno se podía preguntar si las proposiciones teóricas
que elaboramos sobre dichas entidades son verdaderas o no (perspectiva
epistemológica). Hasta el momento de su publicación, el debate había sido
principalmente abordado a nivel de representación y lenguaje, dejando de lado la
práctica experimental que, según Hacking, había sido sistemáticamente
descuidada por la filosofía de la ciencia. Él se propuso invertir esa tendencia
poniendo énfasis en la práctica, su complejidad tecnológica y el uso del
conocimiento para alterar el mundo.
De este modo, propugnó que los filósofos de la ciencia estudiasen más la
observación científica (o la experimentación) en tanto acciones, y menos los
enunciados que ulteriormente se generan a partir de ésta. Según él, el análisis
teorético de estos enunciados conducía a reflexiones atrapadas en la
representación, y por ende, a un callejón sin salida. Para él, lo importante era que
la práctica (hacer, intervenir) era previa a la observación y a la experimentación
y, a su vez, esas acciones científicas eran previas a las proposiciones que las
expresan. Por ello, vio en los instrumentos y artefactos científicos, así como en
su construcción y en su uso, el campo más importante para la reflexión
filosófica.
Ahora bien, en el ensayo preliminar de La estructura de las revoluciones
científicas, Hacking mencionó que “la experimentación ya no es lo que solía ser,
sufrió cambios y, hasta cierto punto, tuvo que ceder su lugar a la simulación
computacional” (2012, p. 12). Y, efectivamente, la praxis científica ha
evolucionado desde 1983. Antes de experimentar e intervenir materialmente,
estas permiten construir y analizar múltiples estados posibles, modificando la
programación y no sólo permitiendo utilizar los recursos matemáticos
tradicionales, como diagramas y representaciones cartesianas de funciones
matemáticas, sino que además posibilitan trabajar virtualmente con técnicas más
complejas, proporcionando un valor epistémico adicional a la experimentación
que extiende nuestras habilidades cognitivas naturales (Humphreys 2004, 2009,
2019). Gracias a ello, los científicos no son sólo capaces de crear nuevos
fenómenos físicos, como diría Hacking (1983), sino que también son capaces de
crear fenómenos virtuales que proporcionan datos imposibles de obtener en los
laboratorios tradicionales, lo que las convierte en una práctica científica
JOSE LUÍS GRANADOS MATEO – JAVIER ECHEVERRÍA EZPONDA
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
98
distintiva del representar e intervenir tradicional, y considerándose, en sí misma,
una metodología de investigación con características propias (Humphreys 2009,
Winsberg 2010).
Según Hacking, había dos tipos de realismos: uno de teorías y otro de
entidades. Él se mantuvo escéptico hacia las teorías y, en sintonía con el énfasis
que dispuso en los instrumentos y la experimentación, defendió un realismo
ontológico selectivo en base a dos argumentos: el argumento de la intervención
(1983) y el argumento de la correspondencia múltiple de representaciones
(1981). Ambos aludían a entidades teóricas inobservables pero que, en virtud de
nuestra capacidad para manipularlas o la coherencia entre imágenes proyectadas
por artefactos heterogéneamente construidos, estas cobraban un estatus, para
Hacking, ineludiblemente real. Nuestro objetivo en este artículo no es
argumentar a favor o en contra de esta modalidad de realismo científico, sino
proponer y aproximarse a una controversia superpuesta a ella y que surge a la
hora de considerar las simulaciones como una práctica constitutiva de
conocimiento.
Nos referiremos, en concreto, a simulaciones destinadas a representar
virtualmente ciertos rasgos de un sistema físico en el que no podemos intervenir,
en la línea de las estudiadas por Paul Weirich (2011, 2013). Este tipo de
simulaciones son capaces de explicar parcialmente algunas causas del fenómeno
objeto de estudio a través del análisis de diversas representaciones virtuales.
Siguiendo las dos perspectivas abordadas por Hacking, la controversia que
proponemos surgiría en (i) el grado de verdad de las simulaciones que generan
explicaciones causales referidas a sistemas naturales empíricamente inaccesibles
(perspectiva epistemológica), y (ii) el realismo de entidades virtuales que
constituyen dichas simulaciones (perspectiva ontológica).
La tesis que defendemos no es, por tanto, que las simulaciones tengan algo
que aportar al debate del realismo científico, estrictamente hablando, sino que
sugieren considerar al realismo virtual como una controversia complementaria.
Esta controversia es dependiente del realismo científico del corpus teórico-
científico utilizado previamente a cualquier especificación informática, pero que
surge cuando se consideran otros elementos inherentes a todo el proceso de
simulación, desde su modelización inicial hasta la obtención de un resultado final
aceptado, superponiéndose de este modo al realismo de la representación
científica en términos clásicos.
Para abordar esta cuestión, hemos dividido el artículo en cuatro partes. En el
segundo apartado, establecemos y analizamos las nociones y conceptos con los
que trabajaremos, para lo cual adoptamos un formalismo que precisa sus
interrelaciones. En el tercer apartado, en base a las nociones planteadas en el
REPRESENTAR E INTERVENIR CON TECNOMUNDOS VIRTUALES
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
99
anterior apartado, caracterizamos la controversia del realismo virtual para el tipo
de simulaciones tratadas por Weirich (2011, 2013) e identificamos la opacidad
epistémica (Humphreys 2004, 2009) y la confiabilidad computacional (Durán y
Formanek 2019) como problemas que, en lo que nos concierne, sólo son una
componente más dentro de la controversia del realismo virtual de simulaciones.
En el cuarto apartado, analizamos el uso de ficciones en modelización
computacional y su relación con la noción de “confiabilidad” propuesta por Eric
Winsberg (2006, 2010), abriendo la posibilidad de considerar cierto grado de
verdad en algunas simulaciones. Por último, en el quinto apartado se trata la
perspectiva ontológica del realismo virtual, estudiando la posibilidad extrapolar
los dos anteriormente citados argumentos de Hacking al caso particular de
entidades virtuales. Como veremos, ambos suscitan problemas que dificultan su
aplicabilidad en los tecnomundos generados por simulación.
Simulaciones computacionales: nociones y consideraciones de partida
En la obra A Mathematical Theory of Communication (1948), Shannon demostró
que los circuitos eléctricos pueden ser analizados mediante instrumentos lógicos,
concretamente las álgebras de Boole. A nuestro modo de ver, esta demostración
del isomorfismo entre las álgebras de circuitos y la lógica proposicional fue un
momento clave para la aparición a finales de siglo del sistema tecnológico TIC.
Las diversas tecnologías eléctricas (relés, circuitos, transistores, etc.) pasaron a
tener un fundamento lógico muy preciso, suponiendo una hibridación entre la
lógica y la ingeniería eléctrica que, junto con avances ulteriores en lenguajes de
programación, permitieron sentar las bases de las simulaciones computacionales
actuales y la transformación de mundos en tecnomundos (Echeverría 2018).
Tal y como los concebimos, los tecnomundos son mundos artificiales
superpuestos a la naturaleza1, espacios de construcción simbólica propiciados
por tecnología digital que poseen una ontología dual físico-abstracta2. Las
entidades que constituyen los tecnomundos son una colección de datos3
estructurados, almacenados, comunicados y representados mediante secuencias
concretas de dígitos binarios (ceros y unos). A nuestro modo de ver, los
1 Para la distinción entre mundo-artificial/mundo-natural, véase Brocano (pp. 99-116). 2 Actualmente, existe una discusión acerca del carácter físico/abstracto de lo comúnmente denominado como software. Si bien la distinción entre software/hardware puede ser controvertida, la mayoría de autores están de acuerdo en concebir a programa informático como una entidad abstracta y también como una secuencia de operaciones físicas (Turner y Angius 2019). 3 Según Humphreys, un “dato” es el valor de una variable. Véase (2011, pp. 13-15).
JOSE LUÍS GRANADOS MATEO – JAVIER ECHEVERRÍA EZPONDA
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
100
tecnomundos existen con independencia del sujeto, en los que el científico puede
representar e intervenir mediante acciones tecnológicas, posibles gracias a
distintos dispositivos físicos (hardware) y los sistemas operativos basados en
lenguajes informáticos (software). La mediación que introducen estos lenguajes
es muy distinta a la mediación de los naturales y matemáticos a los que se refería
Hacking: permiten, en sus distintas modalidades, la comunicación humano-
máquina y el intercambio de información máquina-máquina. Así, la relación
sujeto/tecnomundo está mediada netamente por tecnologías, las cuales no son
solamente instrumentales, sino partes constituyentes de ese mundo. Ello ha
permitido utilizar a las tecnologías ya no sólo como un instrumento de
observación, sino como una plataforma de investigación en sí misma,
convirtiendo a la simulación computacional en una práctica distinta a la
experimentación y con nuevas potencialidades epistémicas (Winsberg 2010,
2019).
Las simulaciones se diseñan con diversos propósitos, y ellos no tienen por qué
estar ligados con una representación “realista” del mundo natural. Nosotros aquí
nos referiremos específicamente a simulaciones que pretenden representar
fenómenos físicos con fines explicativos, en la línea de las estudiadas por Paul
Weirich (2011, 2013). Según este autor, el interés epistémico de este tipo de
simulaciones radica en el sistema objeto, lo imita y su modelo rector comparte
con el sistema físico (algunas) características estructurales4. Son los científicos
quienes deciden en cada caso qué variables o aspectos del sistema objeto son
relevantes modelizar, y también son ellos quienes consideran si las mismas han
sido capturadas de forma suficientemente precisa. Así, estas simulaciones son
utilizadas para comprobar qué leyes o conceptos de una teoría pueden aplicarse a
fin de obtener explicaciones en el tecnomundo modelado, uno de los tipos de
“mediación” propuestos por Morrison (2015). Según Weirich (2013), una
explicación derivada de la simulación supone una explicación del modelo que lo
subyace (fijándose en las correlaciones out-put/in-put), y a su vez, esta es una
explicación parcial del sistema objeto.
Weirich (2013) utiliza las nociones de “mundo posible” y “clases de
mundos” para referirse a los modelos. Los “mundos posibles” serían aquellos
que se refieren a un sistema objeto sin dejar eventos indeterminados en la
configuración del modelo y las “clases de mundos” serían modelos no
especificados en su totalidad. Por nuestra parte, preferimos adoptar la noción de
“tecnomundo virtual”, que subsume a las nociones de “mundos posibles” y
“clases de mundos” y pone énfasis en el carácter tecnológico-digital de las
4 Véase Giri y Miguel (2018).
REPRESENTAR E INTERVENIR CON TECNOMUNDOS VIRTUALES
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
101
representaciones generadas, sin aceptar el posicionamiento realista de Weirich
ante los “mundos posibles”. Por el momento, consideremos que los mundos
virtuales pueden ser útiles, en mayor o menor medida, y proporcionar
conocimiento científico valioso acerca de nuestras teorías, experimentos y, en
algunos casos, acerca de los sistemas naturales a los que se refieren. Por ello los
denominamos virtuales: por su naturaleza digital, propiciada por las TIC, y
también por la potencia generadora de conocimiento5. El realismo de este es,
precisamente, lo que se plantea en este trabajo.
Vistas desde un sentido amplio 6, entonces, este tipo de simulaciones suponen un
método integral para el estudio de sistemas, incluyendo la configuración de
modelos informáticos, el procesamiento automático de datos y la obtención,
visualización e interpretación de resultados. Para los objetivos de este trabajo,
partiremos de una definición más acotada, en concreto una adaptación de la
propuesta por Humphreys (2004, pp. 105-114) que nos servirá para estructurar
nuestra ulterior argumentación. Esta definición7 conlleva implícitas una familia
de conceptos compositivos y que están relacionados de la siguiente manera:
5 Véase Quéau (1995, pp. 27-29) para la relación virtualidad/potencialidad. 6 Estas pueden concebirse en un sentido amplio (broad), o en un sentido acotado (narrow). Una simulación entendida en un sentido amplio consiste en el proceso integral de investigación; mientras que en un sentido acotado supone el proceso de cómputo que proporciona soluciones a un modelo computacional. Véase Winsberg (2015). 7 Partimos de la definición dada por Humphreys (2004, p. 110), que a su vez fue una respuesta ante las objeciones que presentaron Hartmann (1996) y Hughes (1999) con respecto a su primera definición propuesta en Humphreys (1990).
JOSE LUÍS GRANADOS MATEO – JAVIER ECHEVERRÍA EZPONDA
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
102
En general, la resolución analítica (CD) es imposible y por ello se recurre a la
capacidad de cómputo, que puede resolver (C) numéricamente a través de su
modelización (C EN). En estos casos, siguiendo a Humphreys (2004, p. 110),
decimos que un sistema (S) proporciona una simulación-básica (ENFN) de un
proceso (AB) sólo en caso de que (S) sea un dispositivo computacional
concreto que produzca, a través de un proceso temporal, soluciones a un modelo
computacional (EN) que represente correctamente a (AB), ya sea de forma
dinámica o estática. Si además el modelo computacional (EN) utilizado por (S)
representa correctamente la estructura del sistema objeto (O), entonces (S)
proporciona una simulación-básica del sistema (O) con respecto a (AB).
El sistema (S) se refiere a un sistema computacional concreto, esto es, aquél
compuesto por aparatos o componentes físicos (hardware) que interactúan
mediante conjuntos de instrucciones establecidas (software) para lograr una
“simulación-básica” (core simulation). Esta última (ENFN) es la
implementación de un modelo computacional (EN), es decir, el proceso de
cómputo de información (ceros y unos) del modelo en un intervalo de tiempo y
en un sistema computacional (S) concreto, abarcando el cómputo de soluciones y
el proceso de representación de estas. Este proceso se puede ejecutar tantas veces
(N) como se requiera para llegar a una representación virtual aceptada (FT),
siendo (T) el número de ejecuciones de simulaciones-básicas necesarias.
El modelo computacional (C) es una especificación formal construida para
representar un proceso natural (AB) a partir de una o varias teorías científicas
(C), estando anotados en lenguaje informacional de alto nivel y memorizados en
forma de programa informático. Los modelos, al ejecutarse, guían las
simulaciones-básicas (EF), es decir, establecen las tareas que el sistema (S)
debe ejecutar en un orden secuencial concreto. Se identifica con la noción de
modelo de Humphreys (2004), el cual los refiere como una 6-upla compuesta por
(i) una plantilla computacional, (ii) supuestos de construcción, (iii) conjunto de
corrección, (iv) una interpretación, (v) la justificación inicial de la plantilla y (vi)
una representación final8.
Una representación virtual (FN) es el conjunto de datos interactivos,
explorables y visualizables producto de una simulación-básica, es decir, un
conjunto símbolos sintetizados mediante técnicas infográficas. Estas pueden
darse simultáneamente de múltiples maneras: estructuras matriciales de datos,
arrays, gráficos o imágenes estáticas/dinámicas acerca del sistema objeto. Una
representación virtual final (FT) sería la última representación virtual, generada
8 No confundir con la noción de “representación virtual”, que se define más adelante. Esta última se refiere a las constituidas tras el proceso de simulación, para el cual se requiere de un modelo configurado a través de representaciones. Estas últimas son a las que se refiere Humphreys.
REPRESENTAR E INTERVENIR CON TECNOMUNDOS VIRTUALES
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
103
por la simuación-básica cuando (N)=(T). Estas, a su vez contienen entidades
virtuales, que forman parte constituyente de la representación virtual. Son
entidades que necesitan ser especificadas en cada modelo, tanto en la tipología
de objeto que suponen como en las propiedades y características relacionales con
el resto de los elementos del modelo. Pueden ser virtualizaciones de entidades
teóricas, pero también pueden ser entidades ficticias inexistentes en el sistema
objeto, como la viscosidad artificial, el confinamiento de vorticidad o los
termostatos sintéticos en el caso de simulaciones de hidrodinámica (Winsberg y
Mirza 2018).
Por último, el proceso (FN EN) es el proceso de re-modelización, es decir, el
del ajuste del modelo (EN) para llegar a una nueva solución. A todo ese proceso
inferencial retroalimentario out-put/in-put llevado a cabo (N) veces, es decir, el
par (ENFN)-(FNEN), es a lo que llamaremos “simulación computacional” o,
simplemente, “simulación”. El proceso de simulación diremos que ha finalizado
cuando (N)=(T), siendo (T), como se ha dicho anteriormente, el número de
simulaciones-básicas necesarias para dar con un resultado final aceptado.
De todas las nociones presentadas, se puede deducir lo siguiente:
1. La representación virtual (FN) no es una imagen del mundo natural, sino
una imagen del modelo (EN). De aquí que la distinción epistémica sea
clara: la experimentación produce información acerca de cómo se
comporta el sistema, mientras que la simulación produce información
acerca del modelo (Peschard 2013).
2. Cada representación virtual (FN) es el conjunto de “estados” posibles
del modelo (EN), el medio visual para el estudio de cada simulación-
básica (ENFN). A medida que se desarrolla el proceso iterativo de
simulación (ENFN)-(FNEN), surgen una pluralidad de entidades que
están en constante metamorfosis.
3. Una de las diferencias más notables entre las representaciones virtuales
(FN) y las representaciones a las que se refería Hacking (C) es que las
primeras son múltiples para un mismo modelo (EN), que se ejecuta (N)
veces con cada simulación-básica (ENFN) y puede reajustarse
continuamente (FNEN). Como apunta Graham Kennedy (2012), que
hace un estudio en simulaciones astrofísicas, la comparación de
resultados (FN) en función de los cambios realizados en el modelo (EN),
es lo que proporciona un potencial explicativo para determinar cuáles
son las causas del proceso y cuáles no.
4. Siguiendo a Quéau (1995), podemos afirmar que las representaciones
virtuales (FN) además se diferencian de las representaciones a las que
aludía Hacking (C) en la universalidad del código base (lo numérico), el
JOSE LUÍS GRANADOS MATEO – JAVIER ECHEVERRÍA EZPONDA
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
104
enlace operatorio entre la imagen y los lenguajes formales, el potencial
de cálculo del sistema informático y la capacidad de visualización
concreta de los modelos abstractos.
La controversia extendida: el realismo virtual de las simulaciones
Del mismo modo que en el realismo científico son especialmente relevantes las
preguntas acerca de la existencia de entidades inobservables –como los fotones o
el flogisto–, las preguntas más relevantes que proponemos atañen a la relación
entre las simulaciones y los mundos físicos a los que se refieren, especialmente
cuando nos resulta imposible intervenir en ellos. Uno puede experimentar con el
electrón, pero uno no puede hacer experimentos en la zona convectiva interna de
las estrellas o experimentar con la presión y velocidad del viento dentro de una
tormenta supercelda. En estos casos, la simulación supone la principal
metodología de investigación, constituyendo tecnomundos virtuales que
sustituyen a los mundos experimentalmente accesibles9, y ampliando, de este
modo, la controversia del realismo científico:
¿Cómo podemos afirmar que las simulaciones (E’NF’N)-(F’NE’N)
proporcionan descripciones (aproximadamente) verdaderas de (A’B’) o que
9 Véase Parker (2009).
REPRESENTAR E INTERVENIR CON TECNOMUNDOS VIRTUALES
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
105
las entidades que contienen existen de la misma forma en los sistemas objeto a
los que se refieren, si no hay posibilidad de intervención (D’A’)? Esta es la
pregunta por el realismo virtual, y aquí la abordaremos en las dos perspectivas
caracterizadas por Hacking: una epistemológica y otra ontológica.
Primeramente, debemos retomar una de las observaciones mencionadas en el
anterior apartado: las representaciones virtuales (F’N) no son una imagen del
proceso natural (A’B’), sino una imagen del modelo (E’N). Esto hace que el
valor epistémico de una simulación sea, como mínimo, dependiente de los
modelos la que rigen, los cuales conllevan una serie de idealizaciones,
parametrizaciones, etc. Por ello, podría parecer lógico pensar que las
simulaciones nada tienen que ver con la verdad, sino más bien la utilidad para
facilitar la investigación. Y esto es una postura que, en general, compartimos. Sin
embargo, a pesar de los recortes del mundo que supone la modelización (C’
E’N), ello no implica, a nuestro modo de ver, que no se pueda considerar el
realismo virtual en los casos donde las simulaciones explican aspectos de un
proceso natural inaccesible empíricamente (D’--A’), deviniendo la principal
fuente de conocimiento. En estos casos, creemos que se presenta una modalidad
de controversia particular; y afirmamos que se superpone a la del realismo
científico porque conlleva implícita, primeramente, una dependencia de la
disposición realista/anti-realista de las teorías o entidades científicas referidas en
los modelos (EN’).
Si se quiere abordar una simulación atmosférica, por ejemplo, su realismo
virtual va a depender de facto de la disposición realista/anti-realista de las teorías
de fluidos, fuerzas intermoleculares y también de las entidades teóricas que
forman parte de estas teorías (C’) y que son implementadas y desarrolladas en
los modelos (EN’). Así como el realismo científico de una teoría (C’)
consideraría (aproximadamente) verdadera la explicación causal (D’) con
respecto al proceso (A’B’), el realismo virtual de un modelo computacional
(EN’) consideraría (aproximadamente) verdadera la explicación causal (F’T) con
respecto a (D’). El realismo en el tecnomundo virtual, por tanto, es un realismo
condicionado. Sin embargo, ello no obsta para considerar el carácter verdadero
del conocimiento que se pueda derivar de una u otra simulación, ni tampoco el
realismo de las entidades que estas contienen. Habrá que considerar, eso sí,
algunos aspectos técnicos y tecnológicos añadidos durante todo el proceso de
simulación. Uno de los principales aspectos viene dado por la naturaleza de los
procesos de cómputo que, como veremos, implican atender el realismo virtual
propuesto desde una óptica praexeológica.
Por una parte, los científicos pueden construir un modelo computacional (E’)
en una modalidad de lenguaje de alto nivel, el cual sirve para expresar algoritmos
JOSE LUÍS GRANADOS MATEO – JAVIER ECHEVERRÍA EZPONDA
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
106
comprensibles para la cognición humana. Se empieza tratando una
representación científica (C’), luego se sintetiza una imagen correspondiente al
modelo sacado de su interpretación. Por otra parte, a diferencia de la
especificación algorítmica del programa (C’), la implementación (E’NF’N) se
lleva a cabo en modalidades de lenguaje de bajo nivel 10
. La implementación
supone la ejecución del modelo en un sistema computacional determinado (S), lo
cual involucra procesos físicos, conversiones analógico-digitales y comunicación
entre dispositivos. Todos ellos llevan a cabo procesamientos internos en dos
niveles de voltaje en lenguaje máquina, de ahí su representación mediante un
sistema de numeración binario. Estas representaciones internas no tienen relación
de similaridad (o de isomorfismo) con lo representado, precisamente porque el
lenguaje-máquina no ha sido elaborado para que sus secuencias de signos y de
bits sean legibles ni interpretadas por ningún ojo humano.
Esto quiere decir que los lenguajes computacionales no sólo implican la
transliteración entre lenguajes naturales o la traslación de modelos matemáticos a
programas informáticos, sino también la capacidad de transferencia automática y
humanamente ilegible de datos entre dispositivos informáticos. Ello no impide
que, ulteriormente, el ordenador sea capaz de ofrecer una representación virtual
(F’N) del objeto que sea apto para las capacidades perceptivas del ser humano, y
por tanto similar e incluso isomórfico al mundo simulado (Echeverría 1998). Lo
que sí impide, por el contrario, es comprender el proceso de cómputo (E’NF’N),
que implica lo que Humphreys ha denominado “opacidad epistémica” (2004,
2009, 2019), que se refiere a la imposibilidad de conocer todos los elementos
epistemológicamente relevantes del proceso de una simulación. Según la
complejidad de esta, puede haber simulaciones más opacas que otras; sin
embargo, todas ellas comparten cierto grado de su condición como caja negra.
Humphreys presenta este punto de la siguiente manera:
Un proceso es, en esencia, epistemológicamente opaco para X si y sólo si
es imposible, dada la naturaleza de X, que X conozca todos los elementos
epistemológicamente relevantes del proceso” (Humphreys 2009, p. 618).
Estos “elementos epistémicamente relevantes del proceso” pueden ser objetos
como una función, variable, puntero de memoria o cualquier otro componente
implicado en la ejecución (E’NF’N) del modelo (E’N), así como en la
representación de los resultados (F’N). La variable (X) se refiere a un número de
agentes cognitivos involucrados en un proceso epistemológicamente opaco. Esto
10 Para la distinción entre especificación e implementación del programa véase Turner y Angius (2019).
REPRESENTAR E INTERVENIR CON TECNOMUNDOS VIRTUALES
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
107
quiere decir que si un agente cognitivo pudiera detener la simulación y analizar
el procesamiento interno, no podría ni conocer los estados previos del proceso, ni
reconstruir la simulación procesada hasta ese momento, ni tampoco deducir
lógicamente los estados que supuestamente deberían seguirle a partir del modelo
(E’N). La complejidad y velocidad del proceso computacional hace que, en
mayor o menor medida, ningún agente cognitivo pueda saber qué hace el
ordenador a ciencia cierta; sin contar con el hecho de que la información sobre
los procesos de cómputo, aunque estos puedan dejar un rastro, permanece oculta
para el usuario (Colburn y Shute 2007). Los científicos no se preocupan por
cuestiones como la ubicación exacta de una variable en la memoria, pues son
tareas automáticas llevadas a cabo por la máquina virtual en un lenguaje de bajo
nivel. Por eso, Humphreys afirma que intentar rastrear estas operaciones
trasciende a nuestras habilidades de comprensión (2004, 2009, 2019), y por ende
a la disposición realista/anti-realista de las representaciones ulteriores (F’N) y las
explicaciones causales (D’) que se derivan de todo el proceso de simulación
(E’NF’N)-(F’NE’N).
Uno podría pensar entonces que, si se quiere abordar el realismo virtual de estas
simulaciones, habría que optar por una vía de óptica analítico-teorética hacia las
características que presentan (F’N), al igual que con las teorías científicas (C’).
Sin embargo, las simulaciones son un proceso más complejo. Como hemos
mencionado anteriormente, las explicaciones causales (D’) que se puedan llegar
desarrollar acerca de (A’B’) surgen del proceso iterativo (E’NF’N)-
(F’NE’N), no de una teoría estable en el tiempo. Por otra parte, la opacidad
epistémica de (E’NF’N) resulta un impedimento determinante, al menos en la
práctica. El análisis y la síntesis digital de signos permiten construir
representaciones informáticas finales que son parcialmente similares a las
imágenes-objeto del modelo inicial, pero la relación de similaridad desaparece
en los pasos intermedios (Echeverría 1998). Esto implica el problema de la
confiabilidad computacional (Durán y Formanek 2019), en el que se cuestiona la
justificación de los resultados de una simulación-básica. En lo que nos concierne,
que es el grado de realismo de las explicaciones causales que se derivan, así
como el realismo de las entidades que constituyen las representaciones virtuales,
la justificación de resultados sólo supone una componente de la controversia,
pero no la única que influye en el realismo del proceso (E’NF’N)-(F’NE’N).
Los procesos de modelización (E’NF’N) y re-modelización (F’NE’N) influyen
también en el realismo virtual de las simulaciones. Como afirma Jebeile (2018),
el gap entre el out-put (F’N) y el modelo (E’N) no impide generar explicaciones a
partir de las representaciones generadas, y esas explicaciones son, también,
susceptibles de ser consideradas verdaderas en mayor o menor medida. Por eso
JOSE LUÍS GRANADOS MATEO – JAVIER ECHEVERRÍA EZPONDA
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
108
la distinguimos de otros problemas como la confiabilidad de los procesos de
cómputo, los cuales son subsumidos por la controversia del realismo virtual que
proponemos.
En suma: resulta imposible tratar de analizar desde una óptica teorético-
representacional el realismo virtual del conocimiento sintetizado con
simulaciones explicativas referidas a sistemas objeto inaccesibles
experimentalmente. De ahí que haya que optar por una perspectiva praxeológica
y, siguiendo a Hacking, atender a las intervenciones técnicas de construcción de
simulaciones. Estas son un proceso, no un resultado único y puntual. Por lo
tanto, conviene analizar todos y cada uno de los pasos de dicho proceso.
Un enfoque praxeológico: ¿verdad o confiabilidad?
La práctica con simulaciones ha sido ampliamente estudiada por Eric Winsberg
(2006, 2010, 2019). Según él, podemos afirmar que los científicos deben realizar
múltiples intervenciones que integran un saber científico-teórico y un uso
creativo del saber experiencial técnico-informático (background knowledge), de
forma que la simulación cumpla sus objetivos epistémicos siendo
computacionalmente tratable11
. En otras palabras: los valores que guían las
acciones de modelización y simulación son plurales. Por una parte, se encuentran
valores epistémicos (precisión, coherencia, adecuación a la naturaleza), pero por
otra parte también aparecen valores técnicos y tecnológicos (fiabilidad, robustez,
tratabilidad, eficiencia computacional), además de otros valores periféricos,
como la consensualidad de resultados entre la comunidad científica.
Este pluralismo axiológico se evidencia en la aplicación de conocimientos
científicos y extra-científicos, lo cual supone un objeto de evaluación a la hora de
validar el proceso de simulación y verificar sus resultados (Winsberg 2010,
2019). Este conocimiento está en buena medida basada en la experiencia de los
científicos y se aplica en la especificación algorítmica de una o varias teorías
científicas en el modelo de simulación (EN), incorporando parametrizaciones,
condiciones de contorno, métodos numéricos, “trucos” computacionales,
bibliotecas de funciones, técnicas de compresión de la información,
aproximaciones, discretizaciones, suposiciones ad hoc, etc. Todas ellas ajustan el
corpus teórico-científico a las constricciones y potencialidades disponibles en el
ordenador.
11 El concepto de “tratabilidad computacional” lo entendemos como la capacidad de un sistema de computación digital de resolver un modelo de simulación en un tiempo finito determinado.
REPRESENTAR E INTERVENIR CON TECNOMUNDOS VIRTUALES
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
109
Según Winsberg (2010, 2019), para realizar estos ajustes se dan inferencias
que suponen al menos tres diferencias con respecto a la mayoría de las abordadas
dentro de las argumentaciones acerca del realismo científico, las cuales en
general refieren de lo particular a lo abstracto (Ibid.). Según él, estas técnicas son
descendentes, variadas y autónomas. Primero, son descendentes (downward)
porque su punto de partida son teorías abstractas que se van particularizando en
modelos computacionales. Segundo, son variadas (motley) porque suponen
aplicar una pluralidad de métodos simultáneamente, incluyendo técnicas de
rentabilidad computacional y herramientas de testeo típicamente informáticas.
Tercero, son autónomas (autonomous) porque requieren ser justificadas de forma
interna e independiente, debido a que no pueden ser contrastadas por la
observación o la experimentación.
Estas particularidades llevan a Winsberg a afirmar que las simulaciones son
“reivindicativas”, del mismo modo que Hacking lo afirmaba para el caso de la
experimentación y el uso de instrumentos (Hacking 1999). Cuando las técnicas y
asunciones empleadas tienen éxito – es decir, cuando producen resultados que
encajan bien dentro de lo esperado por datos previos, observaciones, intuiciones,
etc. – entonces su credibilidad como técnicas o asunciones razonables aumenta
dentro de la comunidad científica. Por lo tanto, los resultados de las simulaciones
no son aceptados ipso facto, sino que se requiere de mucha experiencia y la
habilidad de integrar una pluralidad de conocimientos y decidir qué resultados
son correctos y cuáles no. Por ello, dice Winsberg que las simulaciones también
tienen “vida propia”, al igual que Hacking para la experimentación (1992),
llevando consigo su propio historial de técnicas exitosas cuya validez es
independiente del corpus teórico-científico tratado, algo con lo que Humphreys
también está de acuerdo (2004). De esta manera, las simulaciones que
proporcionan resultados aceptados por la comunidad científica resultan
“confiables” en función de los propósitos con los que han sido construidos. En
parte por ello, utiliza el concepto de “confiabilidad” (reliability) en lugar de
“verdad”: porque el éxito de la simulación depende de sus objetivos y estos no
tienen por qué asociarse con la “verdad”. Las simulaciones utilizadas en ciencias
del cambio climático, por ejemplo, tratan de pronosticar fenómenos con fines
prácticos, como la toma de decisiones políticas de anticipación o mitigación. No
tratan de explicar cómo es verdaderamente el mundo, y ello no impide que
tengan un éxito predictivo considerable.
Uno de los ejemplos para ilustrar esto último es el caso de la “viscosidad
artificial” en hidrodinámica numérica (Winsberg y Mirza 2018), que fue
inicialmente un invento del equipo de John von Neumann durante el proyecto
Manhattan. Este equipo de tecnocientíficos utilizó simulaciones para predecir la
JOSE LUÍS GRANADOS MATEO – JAVIER ECHEVERRÍA EZPONDA
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
110
dinámica de las ondas de choque, las cuales no podían ser modeladas
“realísticamente” a nivel molecular con las capacidades computacionales
disponibles. Para que la simulación fuera tratable, se requería un modelo con una
malla de elementos finitos más gruesos, lo que producía oscilaciones alrededor
de una onda de choque de discontinuidad aguda que provocaban un resultado
erróneo. Para que la simulación fuera “confiable” y proporcionase soluciones
aproximadamente correctas sin desvirtuar la física básica, introdujeron una
variable similar a la viscosidad que amortiguase oscilaciones no deseadas. Esta
variable – la viscosidad artificial- tenía un valor demasiado alto para poder
corresponderse con el “mundo real”, pero se convirtió en un truco indispensable
para realizar una amplia gama de cálculos fluidodinámicos. Para Winsberg y
Mirza, este es un ejemplo que muestra que el éxito predictivo de una simulación
no implica su “verdad”. De hecho, sugiere que el uso deliberado de ficciones
aboga, hasta cierto punto, por desechar el argumento de los “no-milagros”
(2018).
Ahora bien, que en general los modelos computacionales contengan ficciones
no implica que las simulaciones con fines explicativos no pudieran ser
consideradas, en cierto modo, verdaderas. En general, el uso de ficciones y la
verdad del modelo que las contiene pueden considerarse compatibles, cosa que
ha sido defendida, por ejemplo, en los trabajos de Paul Teller (2009) o Ronald
Giere (2009). Para el caso de simulaciones computacionales con fines
explicativos, caben señalar los trabajos de Hindriks (2008) y Graham Kennedy
(2012). Este último, por ejemplo, argumenta que hay simulaciones que explican
aspectos del mundo en virtud de sus asunciones y falsedades, y no a pesar de
ellas. Precisamente, la posibilidad de hacer multitud de distintas configuraciones
en los modelos (E’N) tantas veces (N) como se requiera, y contrastar las distintas
representaciones generadas (F’N) para cada (E’N), permite inferir nuevo
conocimiento en base a la dinámica de correlaciones F’N/E’N. Ese conocimiento,
en forma de explicaciones causales parciales (Weirich 2011, 2013) es posible
sólo gracias a las posibilidades que ofrece la simulación y, a pesar de tener
(algunos) presupuestos falsos, ¿Cómo considerar si son verdaderas, así como sus
explicaciones derivadas?
Sea cual sea la disposición realista/anti-realista que se asuma para las teorías
(C’), la disposición ante esta pregunta debería enfrentar el problema adicional de
la naturaleza iterativa de las simulaciones y su dependencia técnica y tecnológica
en todo el proceso constituyente de un resultado explicativo final. Reconocer este
problema no hace que estos sean falsos, pero sí puede añadir motivos adicionales
para cuestionar su realismo virtual (en su vertiente epistemológica), para lo cual
podría ser coherente introducir conceptos como la verdad virtual o la
REPRESENTAR E INTERVENIR CON TECNOMUNDOS VIRTUALES
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
111
aaproximación, o no, a una verdad parcial12
. Ello daría cuenta de la
incompletitud inherente a una simulación pero podría considerar distintos niveles
o grados de verdad en función del modo en que se construyen los tecnomundos
virtuales. La controversia que surge consistiría, precisamente, en saber qué clase
de “verdad” pueden llegar a darnos a conocer, o a comprender, este tipo de
simulaciones. Para ello, las teorías de la verdad empleadas no pueden limitarse a
ser una filosofía del conocimiento científico, sino que ha de pasar a ser, además,
una filosofía de la actividad científica, incluyendo el análisis de los propósitos y
de los objetivos de las acciones representacionales a lo largo del proceso de
simulación, y no sólo a las teorías subyacentes a los modelos.
Si Hacking ya era escéptico ante la verdad en las teorías científicas, es lógico
pensar que en este debate lo fuera aún más, si cabe. Para él, conceptos como el
de “realidad” o “verdad” son creaciones humanas que se dan una vez está
constituida la representación. Primero se da esta y “una vez que hay una práctica
de representación, viene inmediatamente el concepto de la realidad” (1983, p.
163). Esto es lo que le lleva a sostener que no puede haber ningún argumento
decisivo a favor o en contra del realismo en el nivel de la representación: “El
realismo y el anti-realismo se deslizan por allí, tratando de encontrar algo en la
naturaleza de la representación que les permitirá dominar al otro. Pero allí no hay
nada más” (p. 173). Por ello, va a buscarlo en otro nivel de discusión, basado en
el hacer, no en el decir, en la intervención, no en la representación. Porque según
él, cuando se pasa de la representación a la intervención, el anti-realismo tiene
menos fuerza: “[...] la realidad tiene que ver más con lo que hacemos en el
mundo, que con lo que pensamos acerca de él” (p. 36). Dado que la simulación
depende a fin de cuentas de un corpus teórico, es lógico pensar que Hacking se
adheriría a una posición como la de Winsberg, es decir: confiabilidad sin verdad.
El realismo virtual de entidades: de los microscopios a las simulaciones
En su artículo “Do we see through a microscope?” (1981), Hacking se preguntó
cómo distinguimos un resultado válido en un microscopio de un “artefacto”
producido por los instrumentos. Con el fin de atender a esta pregunta, analizó
varios ejemplos extraídos de la física y puso de relieve que los microscopios más
desarrollados nos ofrecen representaciones artificialmente construidas, y no
imágenes “directas” de esos objetos. Dichas imágenes están posibilitadas por los
12 Para la noción de “verdad parcial”, véase Quintanilla (1985).
JOSE LUÍS GRANADOS MATEO – JAVIER ECHEVERRÍA EZPONDA
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
112
aparatos, y a éstos les subyacen a su vez múltiples intervenciones previas de los
inventores y técnicos que los han construido, al igual que las simulaciones.
Tras estudiar el microscopio de Abbe, el microscopio con polarizador, el
microscopio por fluorescencia, el microscopio de contraste de fase, el de
interferencia de contraste, el microscopio acústico, etc., Hacking afirma que la
operación de ver por un microscopio resulta cada vez más compleja en esos
sucesivos aparatos, y ello no tanto desde el punto de vista teórico (las teorías
subyacentes suelen ser elementales), sino desde el punto de vista técnico. Desde
una perspectiva ontológica, la existencia de tan diversos artefactos proporciona
el primer argumento en favor del realismo de Hacking (Diagrama 3): si en dos (o
más) micrografías (YN), como la electrónica y la fluorescente, construidas en
base a técnicas y teorías heterogéneas, la estructura general del objeto estudiado
(MN) son exactamente idénticas, entonces, la entidad debe de ser real.
Esto quiere decir que la estricta coincidencia entre dos representaciones
científicas (YN) artificialmente construidas (y totalmente heterogéneas por sus
procedimientos de construcción) resulta ser, para Hacking, no sólo un criterio
seguro para aceptar que las imágenes con las que los científicos trabajan son
verdaderas, sino también para sustentar un realismo de entidades (MN) en base a
esa correspondencia múltiple entre representaciones, la cual es previa a toda
formulación enunciativa o lingüística de los hechos: “Sería una coincidencia
ridícula si, una y otra vez, dos procesos físicos totalmente diferentes produjeran
configuraciones visuales que fueran, no obstante, artefactos de esos procesos
físicos y no estructuras reales de la célula.” (1983, p. 230).
Si bien este argumento puede proporcionar una sólida disposición realista
hacia las entidades observadas con los microscopios, cabe preguntarse si este
puede extrapolarse a la simulación-básica (Diagrama 4): ¿Sería una coincidencia
ridícula si, una y otra vez, dos (o más) modelos computacionales (EN),
construidos con técnicas y teorías heterogéneas entre sí, sintetizaran
representaciones virtuales (FN) idénticas? ¿Es la estricta coincidencia de estas un
argumento válido para determinar el grado de realismo de las entidades
virtuales?
REPRESENTAR E INTERVENIR CON TECNOMUNDOS VIRTUALES
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
113
Vistas las complejidades internas de los procesos de cómputo (ENFN), parece
que la respuesta no puede ser, a priori, afirmativa. Por una parte, los procesos
físicos que ocurren dentro de un microscopio (MNYN), aunque se basen en
técnicas y teorías muy heterogéneas entre sí, pueden ser comprendidos en todos
sus elementos epistemológicamente relevantes, cosa que no ocurre en las
simulaciones-básicas (ENFN). Si nos preguntamos si los resultados del proceso
computacional son los lógicamente derivables del modelo que lo subyace, nos
encontramos con el problema de la opacidad epistémica: no somos capaces de
justificar todas y cada una de las inferencias lógicas computadas y, por ende, no
podemos justificar de la misma manera el realismo virtual de entidades. Estas
son, ciertamente, ontológicamente distintivas con respecto a las observadas con
un microscopio, los cuales construyen “imágenes” a partir de la interacción con
el mundo natural 13
, a diferencia de las simulaciones, que producen “imágenes” a
partir de la interacción con el modelo computacional. Siguiendo a Humphreys
(2011): “las imágenes que producen las simulaciones computacionales están
deliberadamente construidas, y la ‘estructura’ supuestamente invariante es
producto de la ingeniería” (p. 23, trad. Prop.)
Según Parker (2009), un experimento es “una actividad de investigación en la
cual se interviene en un sistema para ver cómo las propiedades que nos interesan
cambian a partir de dicha intervención” (p.487). En cambio, las simulaciones son
totalmente sintéticas, no son formas a priori, sino productos de manipulaciones
simbólicas y lenguajes informáticos que hay que formalizar y que modifican
nuestra relación con lo natural, estructurándolo de otra manera. En ellas, los
sistemas tecnológicos son constituyentes de un espacio de construcción
simbólica, no son sólo instrumentales. Y ello no sólo invalida la extrapolación
del argumento de la correspondencia múltiple de representaciones, sino también
el argumento de la intervención de Hacking14
. Sin embargo, las entidades
13 Siguiendo a Peschard (2013), se podría decir entonces que se interactúa con el sistema objeto y se le da la oportunidad de expresarse por medio de los efectos causales de los instrumentos. 14 Este supone el criterio de causalidad, es decir, el poder transformar el mundo a través de las propiedades causales de las entidades. Cuando este se refiere a entidades teóricas está pensando en células, electrones, genes, quásares, agujeros negros, etc., que forman parte las teorías.
JOSE LUÍS GRANADOS MATEO – JAVIER ECHEVERRÍA EZPONDA
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
114
virtuales son de naturaleza distinta a las referidas por Hacking, como hemos
dicho anteriormente: no pueden afectar causalmente al mundo natural, al menos
de la misma forma. Por eso son virtuales, en el sentido de Quéau (1995).
Ahora bien, esto no quiere decir que las entidades virtuales no sean reales. De
hecho, podemos argumentar que algunas de ellas se refieren a entidades
existentes en el mundo natural: no todas son ficciones. Los electrones son reales,
según Hacking, porque podemos intervenir con ellos en el mundo físico, pero si
queremos realizar una simulación de un sistema cuántico se debe ahormar el
electrón teórico de forma que este sea una representación ajustada a la capacidad
de cómputo disponible y los propósitos específicos de esa simulación. El
electrón, entonces, no sólo se ha tornado experimental: también ha pasado a ser
virtual. Su realismo, ciertamente, no es el mismo que el de las “ficciones útiles”
a las que se refieren Winsberg y Mirza (2018).
Humphreys se aproximó a esta cuestión adoptando un realismo selectivo de
entidades a la hora de construir plantillas computacionales, distinguiendo cuáles
se construyen de forma fidedigna y cuáles de forma instrumental (2004, pp. 82-
85). Su mención al respecto es breve y se focaliza en las entidades que se
pretenden modelizar de forma realista, sin cuestionar la previa disposición que
uno pueda adoptar hacia las propias entidades teóricas. Tampoco atiende a las
transformaciones que puede sufrir una entidad a lo largo de todo el proceso de
simulación, pues se centra en la construcción de plantillas, que son uno de la 6-
upla de elementos constituyentes de los modelos computacionales. Por nuestra
parte, creemos que lo importante no es demarcar lo real de lo irreal, sino definir
diversos grados de realidad y, a poder ser, delimitarlos (Echeverría, 2018).
Ulises Moulines afirmó que “son filosóficamente relevantes las distinciones
conceptuales que atienden sólo a diferencias de grado y no a diferencias
absolutas en el objeto o dominio de estudio” (1987, p. 32). Siguiendo este
principio y contrariamente a lo que podríamos denominar concepción heredada
en ontología de la ciencia, según la cual la diferencia entre lo real y lo irreal es
absoluta, afirmamos que las entidades virtuales pueden poseer distintos grados
de realidad. Este realismo gradual permite distinguir a entidades más reales que
otras, considerando aquéllas que han sido virtualizadas y tienen su
correspondencia en teorías científicas y, quizás, también en el mundo natural.
Bajo la perspectiva de Hacking, por ejemplo, la consideración del realismo
gradual permite distinguir aquellas que también pueden manipularse
experimentalmente, así como entidades teóricas no manipulables y entidades
deliberadamente ficticias. También permite atender al modo en que se han
ahormado todas las entidades en el modelo computacional -las credenciales en
las técnicas de modelización empleadas-, así como atender a las transmutaciones
REPRESENTAR E INTERVENIR CON TECNOMUNDOS VIRTUALES
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
115
que “experimentan” durante todo el proceso iterativo de simulación. Aunque
pueda haber entidades construidas de forma verosímil, una célula-virtual puede
considerarse más real que un quásar-virtual, siendo ambas entidades teóricas.
Para Hacking, la primera sería real, pero se dispondría a un mayor escepticismo
para la segunda y, por supuesto, plenamente anti-realista hacia las ficciones
construidas con fines instrumentales.
Los mundos virtuales podrían considerarse entonces como mundos
tecnológicos híbridos que entremezclan lo real y ficticio en distintos grados,
subsumidos en una misma virtualidad. Las técnicas de digitalización y de
virtualización colocan en el mismo plano toda la información, sea cual sea su
grado de abstracción y, teóricamente, permiten todos los pasos posibles para
obtener nuevo conocimiento científico, cualquiera que sea su dosificación o
mezcla de naturaleza y artificio. Por lo tanto, las entidades virtuales no deben
considerarse como reales o irreales, sino que deben cotejarse en su contexto,
considerarando los aspectos técnicos y tecnológicos agregados que influyen a su
grado de realismo. Por eso decimos que el realismo virtual es una controversia
superpuesta al realismo científico, también desde la perspectiva ontológica.
Conclusiones
En este artículo hemos explorado si las simulaciones computacionales presentan
novedades filosóficas dentro del debate del realismo científico. Hemos partido de
la caracterización que Hacking postuló en Representar e Intervenir (1983),
argumentando la conveniencia de adoptar un enfoque praxeológico dado el
carácter humanamente ilegible de los procesos llevados en lenguaje máquina. En
la actualidad existen muchos tipos de simulación, nosotros aquí nos hemos
centrado en las que pueden constituir una problemática superpuesta al realismo
en ciencia: aquellas con fines explicativos y referidas a sistemas-objeto
inaccesibles experimentalmente. Siguiendo las dos perspectivas referidas por
Hacking (epistemológica y ontológica), afirmamos que estas simulaciones
sugieren una controversia añadida, que denominamos realismo virtual y surge al
considerar al menos las siguientes cuestiones:
(i) Estas simulaciones suponen una práctica científica con características
distintivas a la teorización y la experimentación, generando
conocimiento a través de las nuevas potencialidades de las TIC. Estas
constituyen tecnomundos virtuales que sustituyen a los mundos
JOSE LUÍS GRANADOS MATEO – JAVIER ECHEVERRÍA EZPONDA
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
116
naturales como objetos de estudio y permiten inferir conocimiento
susceptible de ser cuestionado por su realismo.
(ii) En su vertiente epistemológica, la literatura se refiere a las simulaciones
en términos de “confiabilidad” en función del objetivo con el que se
construyen, en lugar de en términos de “verdad” (Winsberg 2006). A
pesar de que compartimos esta terminología para referirse a las
simulaciones en general, aquellas que en concreto inducen
explicaciones causales parciales (Weirich 2011, 2013), son susceptibles
de ser cuestionadas por su verdad, en función de las técnicas e
intervenciones previas que se realizan durante todo el proceso de
simulación. Probablemente, Hacking adoptaría un posicionamiento anti-
realista, pero algunos trabajos como el de Graham Kennedy (2012)
podrían replantear la cuestión y defender una postura realista en
términos, por ejemplo, de simulaciones parcialmente verdaderas.
(iii) En su vertiente ontológica, los mundos virtuales son mundos
tecnológicamente híbridos en los que surgen entidades susceptibles de
ser consideradas en distintos grados de realidad. Humphreys (2004)
propuso un realismo selectivo de entidades en plantillas
computacionales. Nosotros hemos defendido la conveniencia de adoptar
un realismo gradual que permita esclarecer distintos niveles de realidad
entre todos los tipos de entidades virtuales y a lo largo de todo el
proceso de simulación. Aunque los argumentos pragmáticos de Hacking
pueden seguir siendo válidos en lo referido a entidades teóricas,
creemos que tanto el argumento de la intervención como el de la
correspondencia múltiple de representaciones no son extrapolables a
los tecnomundos: no hay una interacción causal directa con el objeto de
estudio y, a diferencia de los procesos internos constituyentes de
micrografías, los procesos de cómputo son, en mayor o menor medida,
epistémicamente opacos (Humphreys 2009).
En definitiva, se ha defendido que la controversia del realismo científico puede,
de forma complementaria, ampliarse a la práctica con simulaciones,
especialmente aquellas referidas en este trabajo. La caracterización propuesta del
realismo virtual refiere al conocimiento inferido por simulación, que es
dependiente del realismo del corpus teórico-científico utilizado para modelizarla,
pero también de la credibilidad depositada en las técnicas de modelización y
simulación, así como de la confiabilidad de los procesos de cómputo (Durán y
Formanek 2019). En este sentido, las simulaciones computacionales juegan un
papel diferente a la experimentación, y el realismo virtual no puede argumentarse
REPRESENTAR E INTERVENIR CON TECNOMUNDOS VIRTUALES
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
117
en los mismos términos que en la experimentación. Las diversas modalidades de
lenguajes informáticos utilizados, tanto para la comunicación humano-máquina
como máquina-máquina, presentan elementos filosóficos diferenciales con
respecto a los lenguajes matemáticos empleados por las ciencias modernas y en
la construcción de instrumentos tradicionales. Permiten entremezclar cada vez
más estrechamente lo real y lo ficticio, plantean nuevos interrogantes sobre
nuestra capacidad de aprehensión del mundo y sobre el impacto mismo de los
métodos empleados, convirtiendo el estudio de los tecnomundos es en una
empresa de genuino interés filosófico y sugiriendo, en lo que aquí nos ha
concernido, una controversia superpuesta a la del realismo en ciencia.
Agradecimientos
Deseamos agradecer a Jaume Navarro Vives, Iñaki San Pedro y Sergio Urueña
López los estimables comentarios y sugerencias que han aportado durante la
elaboración de este trabajo, así como la labor del equipo editor de Argumentos de
Razón Técnica.
Referencias biliográficas
Broncano, F. (2000), Mundos artificiales, México: Editorial Paidós.
Colburn, T, Shute, G. (2007), “Abstraction in Computer Science”, Minds and
Machines, 17(2):169-184.
Durán (2018), Computer Simulations in Science and Engineering: Concepts,
practices, perspectives. Stuttgart: Springer.
Durán, J.M., Formanek, N. (2019), “Grounds for Trust: Essential Epistemic
Opacity and Computational Reliabilism”, en Minds and Machines 28:645-666.
Echeverría, J. (2018), The Philosophy of Technoworlds and Technopersons. En
B. Laspra y J.A. López Cerezo (Ed.), Spanish Philosophy of Technology (Part
IV). Switzerland.: Springer.
––– (2001), “Virtualidad y grados de realidad”, en Daimon Revista
Internacional de Filosofía, (24), pp. 23-30.
––– (1998), “Similaridades, isomorfismos y homeomorfismos entre
representaciones científicas”, en Theoria, 13(1):89-112.
Giere, R. (2009), “Why Scientific Models Should Not be Regarded as Works of
Fiction”, en Mauricio Suárez (ed.): Fictions in Science. Philosophical Essays on
Modelling and Idealisation, London: Routledge, 248–258.
JOSE LUÍS GRANADOS MATEO – JAVIER ECHEVERRÍA EZPONDA
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
118
Giri, L. Miguel, H. (2018), “El modelo de simulación como generador de
explicaciones causales”, en Theoria 33/1: 111-128.
Graham Kennedy, A. (2012), “A non representationalist view of model
explanation”, en Studies in History and Philosophy of Science, Vol 43, Issue 2,
pp. 326-332.
Hacking, I. (2013). “Ensayo preliminar” en La estructura de las revoluciones
científicas (Kuth, T.), México: Fondo de Cultura Económica.
––– (1999), “The Self-Vindication of the Laboratory Sciences”, en Pickering, A.
(Ed.), Science as practice and culture, Chicago: University of Chicago Press. 29-
64.
––– (1992). “Do Thought Experiments have a Life of Their Own?” PSA
(Volume 2), A. Fine, M. Forbes and K. Okruhlik (eds.), East Lansing: The
Philosophy of Science Association, 302–10.
––– (1988), “On the Stability of the Laboratory Sciences,” The Journal of
Philosophy, 85: 507–15.
––– (1983), Representing and Intervening. Cambridge: Cambridge University
Press.
––– (1981), “Do We See Through a Microscope?”, Pacific Philosophical
Quarterly, 63: 305-322.
Hartmann, S. (1996), “The World as a Process: Simulations in the Natural and
Social Sciences”, en R. Hegselmann, et al. (eds.), Modelling and Simulation in
the Social Sciences from the Philosophy of Science Point of View, Dordrecht:
Kluwer, 77–100.
Hughes, R., 1999. “The Ising Model, Computer Simulation, and Universal
Physics,” in M. Morgan and M. Morrison (eds.), Models as Mediators,
Cambridge: Cambridge University Press.
Humphreys, P. (2019), Philosophical Papers, New York: Oxford University
Press.
––– (2011) “What are Data About?”, en Computer Simulations and the Changing
Face of Scientific Experimentation (Ed. Durán J.M., Arnold, E.), 12-29.
––– (2009) “The Philosophical Novelty of Computer Simulation Methods”, en
Synthese, 169(3): 615-626.
––– (2004), Extending Ourselves: Computational Science, Empiricism, and
Scientific Method. New York: Oxford University Press.
––– (1990). “Computer Simulation,” in A. Fine, M. Forbes, and L. Wessels
(eds.), PSA 1990 (Volume 2), East Lansing, MI: The Philosophy of Science
Association, 497–506.
Morrison, M (2015), Reconstructing Reality: Models, Mathematics and
Simulations. New York: Oxford University Press.
REPRESENTAR E INTERVENIR CON TECNOMUNDOS VIRTUALES
Argumentos de Razón Técnica, nº 22, 2019, pp. 96-119
119
Moulines, U. (1987), Exploraciones metacientíficas, Madrid: Alianza.
Parker, W. (2009), “Does Matter Really Matter? Computer Simulations,
Experiments and Materiality”, Synthese, 169(3): 483-96.
Peschard, I. (2013) “Modeling and Experimenting”. Models, Simulations, and
Representations, 9.
Quéau, P. (1995), Lo virtual: Virtudes y vértigos, Barcelona: Editorial Paidós.
Quintanilla, M.A. (1985), “El concepto de verdad parcial”, en Theoria, nº1, pp.
129-141.
Teller, P. (2009), “Fictions, Fictionalization, and Thruth in Science”, in Mauricio
Suárez (ed.): Fictions en Science. Philosophical Essays on Modelling and
Idealisation, London: Routledge, 235-247.
Turner, R., Angius, N. (2019), “The Philosophy of Computer Science”, The
Stanford Encyclopedia of Philosophy (Spring Edition), Edward N. Zalta (ed.),
URL = <https://plato.stanford.edu/archives/spr2019/entries/computer-science/>.
Weirich, P. (2011), “The explanatory power of Models and Simulations: A
Philosophical Exploration” en Simulation and Gaming, 42: 149-170.
––– (2013), “Models as Partial Explanations” en Andreas Tolk (Ed.) Ontology,
Epistemology, and Teleology for Modelling and Simulation: A Philosophical
Foundations for Intelligent M&S Applications. 105-119, Berlin: Springer-
Verlag.
Winsberg, E. (2019), “Computer Simulations in Science”, The Stanford
Encyclopedia of Philosophy (Spring Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/sum2018/entries/simulations-science/>.
––– (2010), Science in the Age of Computer Simulation. U.S.A: The University
of Chicago Press.
––– (2006), “Models of Success Versus the Success of Models: Reliability
without Truth”, en Synthese 152 (1): 1-19.
Winsberg, E., Mirza, A. (2018), Success and Scientific Realism: Considerations
from the Philosophy of Simulation. En J. SAATSI (Ed.), The Routledge
Handbook of Scientific Realism (Part III, 20). UK.: Routledge.