¿Hasta dónde seremos capaces de llegar por extender nuestras capacidades y la propia vida?

Luego de la presentación de Neuralink, el más reciente proyecto del físico, emprendedor y magnate sudafricano Elon Musk, nos cuestionamos sobre las implicaciones éticas en la aplicación de tecnología en humanos. Aquí una conversación con la doctora Melina Gastélum, filósofa de la ciencia

Ciudad de México (N22/Ana León).- En el episodio tres de la primera temporada de la serie de ciencia ficción distópica Black Mirror, “Toda tu historia” (2011), las personas pueden registrar y almacenar todo lo que hacen, ven y escuchan en un dispositivo electrónico que coloca detrás de la oreja. La memoria se extiende más allá de los límites y sus protagonistas no tienen esa capacidad tan valiosa que poco apreciamos: el olvidar. El exceso de memoria va produciendo una vida paranoica en el protagonista frente a una situación de infidelidad que pudo solucionarse o terminar, sin que éste se torturara masoquistamente con la repetición de las imágenes de dicho engaño y, al final, con la repetición de imágenes de tiempos más felices. ¿Hacia dónde mira la investigación y la creación de tecnología no sólo de asistencia sino aquella que apunta a extender y potenciar nuestras capacidades? 

Elon Musk no se detiene. Su emprendimiento más reciente es Neuralink, con el que pretende conectar el cerebro humano con la computadora. Frente a este anuncio, ¿hasta dónde está el límite ético de la investigación y la aplicación de la tecnología en humanos? La ciencia ficción hasta ahora es la que ha proporcionado los escenarios más interesantes y devastadores al difuminar este límite entre máquina y humano, pero ¿es ahí adonde queremos llegar y cómo esto determinaría la mutación de ese concepto que nos define como seres humanos?

Para responder ésta y otras dudas, conversamos con la doctora en filosofía de la ciencia, Melina Gastélum Vargas.

Desde la ciencia y desde la filosofía de la ciencia, ¿qué es lo que nos define como humanos?

Esa es una gran pregunta que puede abarcar muchas respuestas dependiendo por dónde te vayas. Desde la filosofía de la ciencia tradicional, lo que nos define como humanos principalmente serían el lenguaje y la racionalidad; justo ahí se mete mucho el rollo de la tecnología. 

La racionalidad se supone que es una cualidad, que ahora se ha cuestionado mucho, pero durante mucho tiempo, sobre todo desde la modernidad científica, es decir, desde Galileo y el uso de los experimentos para probar las verdades científicas o las certezas científicas, se empieza a creer que la herramienta que tenemos como seres humanos para ser diferentes, que ha sido una constante obsesión [el hacernos diferentes], es justamente la racionalidad. 

La racionalidad durante mucho tiempo y, de hecho gracias a Descartes, se consideró algo separado del cuerpo, se llamaba el Teatro Cartesiano, por esta idea de que la sustancia de la mente era diferente a la sustancia del cuerpo, a la sustancia material. Entonces, el cuerpo básicamente era un estorbo para la mente, para la inteligencia. 

Esto ha derramado ríos de tinta analizando que esto es un error. 

Yo particularmente trabajo un área de la cognición y la tecnología que se llama cognición corporizada y tiene mucho que ver con poner al cuerpo como parte fundamental o como eje fundamental de cómo es que nosotros generamos conocimiento. El conocimiento, desde que somos embriones, y esto sucede en todos los animales, tiene sobre todo que ver en cómo nos relacionamos con el entorno, y el entorno está en constante interacción con todo nuestro cuerpo, no nada más con nuestra mente.

Una de las grandes divergencias que ha tenido la filosofía de la ciencia ya después del siglo XX, fue ver que la racionalidad no era lo único que nos hacía humanos, sino que también lo es el uso de nuestras emociones, el uso de nuestros juicios, el uso de nuestra moral y cómo todas esas cosas se conforman de hecho a través del entorno que en sí mismo es social. 

En realidad, lo que nos hace muy humanos —que esto es, claro, siempre un debate— es la cooperación, el cómo nosotros podemos generar conocimiento social, grupal y ese conocimiento social lleva a poderlo materializar en elementos que transformamos de nuestro ambiente que son tecnologías. Las tecnologías se pueden considerar desde las primeras puntas que se usaron para abrir melones, por decir un ejemplo muy prosaico, hasta los teléfonos celulares. 

Ese intervenir en el medio de una manera además cooperada, grupal, nos permite extender nuestro cuerpo, de hecho. Y este extender nuestro cuerpo nos lleva a ampliar nuestras capacidades cognitivas. Entonces, no es solamente la inteligencia, sino nos interesa ampliar por ejemplo nuestra visión, nuestro oído, nuestra fuerza porque somos un animal, dentro de todos los animales que existen, que en realidad biológicamente no tienen tantos atributos. 

Black Mirror T1. E3: «Toda tu historia»

Uno de los detonantes de esta entrevista es Neuralink, el proyecto de Elon Musk. Hablaste de usos externos de tecnología en prótesis, por ejemplo, un marcapasos que asiste algo que ya no funciona, pero cuando esa tecnología se introduce para ampliar nuestras capacidades más allá del potencial que nosotros tenemos, para rebasar ese límite, ¿cómo cambia esa definición de “ser humano”?

Una de las filósofas más importantes que ha hablado de eso es Judith Butler, ella justo ha introducido, y de la mano de Donna Haraway, han introducido el término de cyborg y justamente tiene que ver con esta noción. 

Los cyborgs son unos híbridos, unos híbridos justamente de la naturaleza y la cultura y así de amplio queda y es a propósito: Haraway lo hace así de amplio para poder meter cualquier tipo de intervención que va más allá de nuestro cuerpo. 

Nuestro cuerpo siempre lo pensamos como si fuera una unidad, como si pudiéramos aislarlo en uno; de hecho los biólogos insisten siempre en que nuestro cuerpo está poblado por miles de billones de otros seres. Nosotros mismos somos un ecosistema biótico para otros muchos pequeños organismos. Y eso ya nos interviene. De hecho no podríamos digerir como digerimos, no podríamos relacionarnos con el entorno como nos relacionamos, sin esa microbiota que tenemos. Desde ahí estamos intervenidos. 

Un poco la idea de Haraway es decir: todo el tiempo estamos siendo mezclados, hibridados con lo que hay en nuestro entorno, ya sea biológico o ya sea cultural. Un ejemplo que es muy claro y que no es tan aparatoso como el Neuralink, son los lentes. Nosotros utilizamos los lentes porque la gran mayoría de los seres humanos tienen algún defecto en sus dioptrías y los usamos para corregir la vista. El Neuralink lo que pasa es que mete una serie de elementos que son muy impresionantes porque además mezcla ya una tecnología que tiene que ver con ondas entrando, digamos, a nuestro cuerpo. Sin embargo, esto lo vemos en otro tipo de tecnologías, cuando alguien tiene un tipo de cáncer y lo radian. 

Lo que pasa es que el hecho de que parezca que la cognición se aumenta de esta manera tan impresionante y tan invasiva, creo que en este momento de la historia nos importa mucho, pero en cien años no va a ser tan impactante. Creo que va a ser igual como la primera vez que alguien se puso unos lentes. 

Todo esto viene de la mano de una corriente sociológica y filosófica que se llama el transhumanismo, que es muy interesante porque lo que plantea es siempre esta superación del ser humano tanto en su calidad de vida, en sus capacidades biológicas y culturales, como en la longevidad. Es esta idea de siempre estar mejorando el cómo nuestro cuerpo interviene y se adapta con los ambientes llevándolo a límites cada vez más allá. Hasta que se borre la barrera, diría Haraway, de qué es natural y qué es cultural

Cuando se habla de ética en la implementación de la tecnología, ¿a qué se hace referencia y dónde estaría el límite (ético) para esta implementación de tecnología dentro y fuera del cuerpo humano?

Los límites de la ética se ponen desde lo humano. Ahí hay siempre dos grandes cosas que hay que poner en relevancia: la primera, es que la ciencia no es una empresa que se haga de una manera no humana, sino que la ciencia está hecha por los seres humanos y como está hecha por los seres humanos, tiene todos los valores de los seres humanos y los valores de la época histórico-social donde está planteada. Y lo mismo ocurre con las tecnologías. Las tecnologías son siempre producto de un contexto sociohistórico y de los desarrollos científicos que hay en ese momento. Por eso muchos estudiosos de la ciencia y la tecnología y la sociedad le llaman a la época actual la época de la tecnociencia, regida por una sociedad que se llama la sociedad del riesgo, que lo plantea Ulrich Beck, y que esta sociedad justo lo que va a decir, es que: es la primera vez que la humanidad en cada acto, en cada conocimiento que desarrolla, desarrolla con ellos tantos riesgos. 

Siempre se desarrollan riesgos, volviendo de nuevo a la punta para romper una fruta, esa punta puede ser usada para matar a alguien. O sea, siempre hay un riesgo que puede darse por una funcionalidad no pensada a la hora de hacer una herramienta o una tecnología. Lo que pasa es que en esta sociedad, los riesgos son mucho mayores y, sobre todo, impactan a nivel mucho más masivo, también porque somos muchos. 

La ética tampoco va sola, tampoco es una empresa que se haga sola. La ética la van marcando los distintos valores que se ponen a la hora de desarrollar tanto una tecnología como un conocimiento. Y estos valores, durante mucho tiempo, se pensó que eran valores epistémicos, es decir, valores que sólo tenían que ver con el hecho de generar conocimiento por generar conocimiento. La verdad es que desde la bomba atómica y con el nacimiento de los tratados de Derechos Humanos en 1969, se empieza a entender una ética que se llama ahora Bioética, pero las bioéticas son muchas, también tienen distintos entendimientos que empiezan a surgir para regular este tipo de valores que deben ser, en muchos casos, más importantes que los epistémicos. 

Ahí hay toda una lucha entre varias disciplina dentro de la filosofía de la ciencia, una de ellas es la axiología de la ciencia, otra es la ética y la democracia para la ciencia, que justo tiene que ver con quién debe plantear estos valores. Ahí están los límites de la ética, en quién plantea los valores y qué valores se ponen de relieve cuando, por ejemplo, se financia un proyecto tecnológico: ¿el epistémico, el ambiental o el ecológico…?

¿Por qué si es una tecnología que nosotros desarrollamos, que nosotros creamos, que va desde lo humano, se empieza a pensar entonces que esta IA está compitiendo con nosotros o que nosotros tenemos que competir con ella?

La verdad es que ahí se ha metido también mucho la ciencia ficción, que es curioso, pero digamos que desde el inicio de las pruebas de Turing que tienen que ver justamente con esta idea de plantear si podemos distinguir una decisión o una respuesta que da una máquina diferente de la de un humano, empieza a haber una obsesión desde la IA de hacer una inteligencia humana en las máquinas. 

Tiene mucho que ver con qué entendemos por inteligencia. Si entendemos por inteligencia ganar una partida de ajedrez, en efecto, la inteligencia artificial ya lo logró, Deep Blue juega mejor ajedrez que cualquier ser humano. Pero si hablamos de inteligencia como interpretar distintos contextos y poder actuar acorde a ellos, que es algo que hacemos los seres humanos, pues ninguna máquina lo ha logrado. 

Es importante porque si volvemos otra vez al cuerpo, si basamos la inteligencia solamente en cuestiones de resolver lógicamente argumentos o resolver problemas matemáticos muy complejos como el Big Data, ese es un tipo de inteligencia que sí estamos muy cerca de lograr, pero, el gran pero, es que todas esas cosas son programables y no son autónomas. Otros lo llaman que no son conscientes, que no tienen conciencia, entonces no pueden generar una autonomía en la relación con el medioambiente y eso no puede llegar a dar un comportamiento, yo no le diría tanto inteligencia, un comportamiento o una cognición humana como tal. 

Esto también se debe mucho a que hubo planteamientos desde los científicos que sí decían, en muchos sentidos, que se iba a llegar a un momento que se llama la singularidad en la IA y que, a partir de ese momento singular, que justo era ese planteamiento de que se iba a dar un momento en que las máquinas empezaran a tener conciencia, a partir de ahí iban a tener una rápida aceleración de esa conciencia y del percatamiento de sí mismos que iba a ser una de las grandes catástrofes: que era deshacerse de sus creadores, el ser humano o volverlos sus esclavos. Pero esto sólo ha ocurrido en la ciencia ficción. 

Y muchos de los grandes expertos en IA plantean que esto no va a ocurrir y que no estamos ni cerca de ello. Y ahí depende de con quién te guste hablar, porque hay quien te dice que sí, que en algunos años vamos a estar logrando máquinas conscientes y hay quien te dice que de ningún modo. 

También esta beta del transhumanismo, se ha volcado mucho menos a la IA y mucho más a la intervención del cuerpo de las máquinas en esta idea de extender nuestra cognición a través de la tecnología. 

Sophia (robot)

¿Qué sucedería con nosotros, por ejemplo si muchas de estas tecnologías se utilizan para aliviar el dolor, para corregir “errores” de nuestra naturaleza? ¿Qué pasa entonces ahí cuando se suprimen experiencias sensibles que nos hacen humanos? ¿Cómo se genera nuestra conciencia como humanos y nuestra identidad? 

Es difícil llegar a superar todas esas cosas que nos causan sufrimientos, dolores, etc. Uno de ellos es la muerte, nuestra propia muerte y la muerte de nuestros seres queridos. Y por eso el transhumanismo se enfoca tanto a alargar lo más que se pueda la vida y la vida de nuestros seres queridos. Digamos que en un escenario muy de ficción donde la vida empieza a alargarse a 200 años, en efecto, todos nuestros valores van a tener que moverse y va a tener que cambiar toda la forma en que nos relacionamos tanto con otros seres humanos como con el medio mismo, porque, y ahí se tiene que cruzar a fuerza con los modelos económicos, ¿qué modelo económico podría dar soporte a siete mil millones de humanos que somos ahorita, un poquito más, que vivieran 200 años? Sería un caos. Una caída del sistema tremenda. 

Todo tendría que moverse, los valores morales, los valores económicos, los valores de la vida misma. ¿Valdría la pena tener hijos o no? ¿A qué edad tendrías hijos? ¿Hasta dónde podría llegar en el momento en el que tienes hijos? Que también es algo que pasa naturalmente. Actualmente estamos viviendo varias crisis que nos están haciendo replantear muchas cosas que hemos llevado a acabo. Y eso ocurriría también en el supuesto de que ya fuéramos hombres-máquina. Inevitablemente el ser humano va transformando su medio, su cultura y su propia forma de integrarse en ella y las cosas se van moviendo. 

¿Para mejor o para peor?, depende mucho de quién lo valore. 

Una de las cosas que el transhumanismo plantea, que es por lo que a muchos no les gusta, es porque plantea el fin de la biología —que a mí no me parece ni siquiera plausible, pero bueno, es como se plantea desde el transhumanismo— para llegar, digamos, a una nueva especie que sería la híbrida de máquina-humano. 

Así como en la explotación de nuestro planeta llegaremos a un punto de no retorno, en la explotación del cuerpo por la tecnología ¿puede haber un punto de no retorno?

Sí, y sí me parece viable. No creo que nos lleve al fin de la vida como tal, pero sí a una transformación muy poco favorable en la que además sí puede morir mucha gente. 

La tecnología yo la abrazo, me parece justo que hemos logrado cosas maravillosas y veo el lado maravilloso, pero me parece que siempre tiene que tener límites y cotas y que eso, además, depende mucho de los gobiernos y de las formas en las que se entiende para qué podemos hacer ciencia y tecnología y para qué no. Qué cosas verdaderamente necesitamos y qué no, las concepciones de lo que llamamos bienestar y lo que no es verdaderamente bienestar. Yo creo que son cosas que tenemos que reformularnos para no llegar a esos puntos de no retorno. Y que todavía podemos.