sábado, septiembre 19, 2020

De humanos y máquinas (entrevista a Santiago Sánchez-Migallón)

Santiago Sánchez-Migallón

"Ahí está el animal constructor y pensador, con las máquinas zumbando en torno y los pensamientos dando vueltas en su interior. Construcción y abstracción han llegado a dominar su vida". Desmond Morris. El Hombre al desnudo.

"Sea la gloria o el hazmerreír del mundo, el Homo sapiens es, por encima de todo, un enigma cuya clave debe ser proclamada: el conflicto entre nuestras dos características fundamentales, la cultura y la biología. Esta dicotomía esencial entre la liebre y la tortuga, entre nuestra cultura galopante y nuestro lento desarrollo biológico, es lo más notable de la existencia humana y la base de la mayoría de nuestros problemas". David P. Barash. La liebre y la tortuga.

Del primer instrumento lítico con trazas de diseño hasta las actuales supercomputadoras y máquinas de inteligencia artificial, el ser humano ha recorrido un largo camino evolutivo, en el que la evolución cultural y tecnológica se ha solapado primero y luego la primera casi ha sustituido a la segunda en nuestra especie, haciendo válida la metáfora de la liebre y la tortuga del zoólogo y psicólogo David P. Barash.

Es correcto -es necesario - incidir en que la evolución cultural humana es también tecnológica, pues sin los artefactos de los que nos hemos servido desde nuestros comienzos como "especie única" (todas son únicas pero una más que otras, parafraseando a Orwell), prácticamente ninguna creación cultural sería factible. No habría acueductos romanos ni catedrales góticas ni un David de Miguel Ángel ni una Novena de Beethoven sin "instrumentos" diseñados específicamente para convertir una ideación en una estructura con una función. Los humanos, que proyectamos en el tiempo hacia atrás y hacia delante, somos los maestros de los fines - y sus medios.

Hemos llegado incluso, como animales culturales que vehiculan gran parte de su comunicación, y de su cultura, a través del lenguaje, al punto en que, como dijera el maestro de periodistas Marshall McLuhan: "el medio es el mensaje". En esa fase nos encontramos con las redes sociales, que afectan a nuestra percepción, cognición y comportamiento de forma tal que nos hacemos a ellas.

Antes de nosotros y nuestros artefactos, en la historia de la vida, ya existía lo que Richard Dawkins denominó genotipo extendido. Según el propio autor, sería absurdo considerar que los genes codifican proteínas sólamente para las funciones propias del organismo. En efecto, los organismos se desarrollan en sus medios ecologicos y sociales y en los genes que afectan a su comportamiento pueden llevar inscritos elementos bióticos o abióticos de su medio externo. El ejemplo paradigmático es el de las presas construídas por el castor, y hay ejemplos numerosos en los parásitos.....

Los humanos tenemos algo adicional, podría decirse, que el filósofo Andy Clark denomina la mente extendidaComo decía en este mismo blog en respuesta a una entrevista: "Al llamar extendida a la mente, lo que quiero decir es que la maquinaria de la mente no necesita estar toda en la cabeza. Nuestros cerebros pueden subcontratar trabajo cognitivo a paquetes de software, calculadoras, otras personas. Al hacerlo, construímos circuitos más grandes que son procesadores de información por derecho propio".

Llegado a cierto punto de desarrollo tecnológico surgieron las ahora conocidas como Tecnologías de la Información y la Comunicación, gracias a héroes como, por ejemplo, John Von Neumann o Alan Turing. 

Los ordenadores procesaban información a velocidades cada vez más vertiginosas, dejando a la mente humana en ese terreno, aparentemente, como a un idiota. Llegaba la época de la informática.

Si Dios hizo en el Génesis al ser humano a su imagen y semejanza, el ser humano, en un tiempo de dioses cuestionados, quiere hacer a una máquina "inteligente", quiere crear una Inteligencia Artificial.

A considerar las potencialidades y los limites del desarrollo de esta nueva forma de inteligencia bien podría dedicarse un filósofo peripatéticamente y, efectivamente, ocurre que son muchos los filósofos los que reflexionan sobre ello.

Entre ellos se encuentra nuestro invitado de hoy, amigo y colaborador de este blog y fundador de uno bastante exitoso y mucho más centrado en sus inquietudes cibernéticas: La Máquina de Von NeumannSantiago Sánchez-Migallón.  

Agradecemos a Santiago que haya dedicado un rato de su tiempo a responder a nuestras preguntas.



1. Una de las fronteras de la ciencia más fascinantes es la del bastión aparentemente inexpugnable de la consciencia. Parece no haber forma directa de comprobar cómo emerge de la materia. Con este asunto aún por resolver de forma satisfactoria uno se pregunta ¿Soñarán algún día los androides con ovejas eléctricas?

Esta es una pregunta con mucha trampa. En verdad no tenemos ni idea, y quien te diga que sí lo estará haciendo a partir de la más endeble evidencia científica. Yo me quejo mucho de aquellos que venden que esto va a ocurrir en las próximas décadas, cuando la triste realidad es que no hay investigador ni desarrollador tecnológico que tenga la más remota idea ni de cómo empezar. Cuando me dicen que no, suelo retar a tan atrevido contertulio a que intente programar, por ejemplo, un sentimiento de dolor en Python (uno de los lenguajes de programación más populares para IA) ¿Por dónde empezar? ¿Con qué paradigma de programación? ¿Funcional u orientado a objetos? Y es que aquí hay un claro error de principio: suponer que la mente es, por completo, un ordenador. Cada época ha tendido a entender la mente con la metáfora de su tecnología más a la vanguardia. En la Francia de Descartes se entendía el cerebro como un sistema hidráulico. Cuando llegó la telefonía con hilos se pensó en que era una centralita telefónica. Y ahora, cuando el ordenador es lo más de lo más, nuestra mente tiene que ser un ordenador. Falso. Los cerebros transmiten información a través de potenciales de acción eléctricos, y en eso pueden asemejarse a un circuito electrónico, pero hasta aquí llega la semejanza. Si crees que la mente es un circuito electrónico estarás ignorando absolutamente toda la bioquímica del cerebro ¿Qué pasa con los neurotransmisores químicos como el GABA o la adrenalina por ejemplo? ¿No tienen importancia? ¿Todo el sistema endocrino no tiene nada que ver con la mente?

La IA está muy bien para solucionar problemas de diverso tipo que no tienen nada que ver con la mente humana. También puede servir como una gran herramienta para intentar comprender dicha mente, pero, al menos hoy en día, nadie con un mínimo conocimiento del sector puede decir que las IAs existentes tengan mentes o piensen de una forma similar a como lo hacemos los humanos ¿Soñaran entonces los androides con ovejas eléctricas? Quizá, si esto sucede, que será dentro de mucho, mucho tiempo, los androides que las sueñen serán algo completamente diferente a los androides que manejamos en el presente.

2. ¿Qué nos enseñan los diseños y los comportamientos de los seres vivos sobre cómo debiera ser una inteligencia artificial?

    La robótica siempre se fijó en los organismos para sus diseños. La idea era buena: si queremos construir robots tan inteligentes como los seres humanos, empecemos por emular a los organismos biológicos sencillos y, progresivamente, iremos haciendo máquinas más complejas. Hoy tenemos la computación evolutiva, que se inspira directamente en la selección natural darwiniana. Se trata de diseñar lo que se llaman algoritmos genéticos, y que consisten en poner a competir un montón de programas para que realicen una determinada tarea. A cada programa se le va modificando aleatoriamente alguna parte de su código (como si fuera una mutación), y los programas que mejor lo van haciendo se van seleccionando, mientras que los peores se desechan. Al final, igual que ocurre en el mundo biológico, tenemos algoritmos muy optimizados para dicha tarea. John Henry Holland, padre de las criaturas, trabajó siempre entre la computación y la biología, porque su intención fue la de explica el orden natural a través de, como él los llamaba, sistemas adaptativos complejos. Recomiendo mucho su libro El orden oculto (1995).

    Obviamente, la estructura biológica del sistema nervioso siempre fue una inspiración para la IA. No obstante, en los últimos tiempos se ha ido dando una brecha cada vez mayor. Si, por ejemplo, los primeros modelos de redes neuronales, los de McCulloch y Pitts o los de Rosenblatt, pretendían emular las neuronas reales, en la actualidad, las arquitecturas más importantes no tienen más que un parecido anecdótico, e incluso parece haberse perdido el interés por seguir buscando esa similitud. A los ingenieros solo les interesa que las cosas funcionen, por lo que si para conseguirlo, se pierde la referencia al cerebro, no importa. Así que yo me atrevería a decir que, mientras que en otras épocas se ha dado cierta convergencia entre la IA y la biología, ahora atravesamos uno de divergencia.

3. Creo que estaremos de acuerdo en que la evolución no es teleológica ni una escalera que se eleve hasta el ser humano. Pero ha habido una creciente complejidad a lo largo de la evolución con los procesos emergentes y, de resultas de ello hay ahora un primate que se interroga por el cosmos y por sí mismo, y que quiere crear artefactos complejos a su imagen y semejanza ¿Nos encontramos ante una revolución, ante una Creación, ante una nueva evolución?

Nada de eso. La inteligencia artificial, en tanto que disciplina tecnológica, está pasando por un gran momento, nada más (y nada menos). Solemos entender muy mal el desarrollo tecnocientífico. La ciencia va mucho más despacito que como los medios nos hacen pensar. Ahora mismo se están haciendo grandes avances, sobre todo en lo que se conoce como redes neuronales profundas (deep learning), superándose el estado del arte en muchas tareas que antes parecían insuperables. Sin embargo, de eso a poder hablar de metafísica con HAL 9000 mientras juegas con él al ajedrez, va un mundo.

    Hay un sesgo que cometemos muchísimo cuando analizamos el progreso tecnocientífico. Consiste en dar por supuesto que si la versión 1.0 de algo es muy buena, cuando llegue la versión 8.0, será ya el sin parangón, es decir, pensar en que todo programa de investigación científica seguirá progresando indefinidamente al mismo ritmo que lo hace en el presente. Falso. Miles de investigaciones se quedan solamente en promesas y no llegan a nada. Ahora el deep learning está en su auge, ya veremos dentro de diez o veinte años dónde estará. Lo mismo lo consideran como ahora nosotros contemplamos la Betamax o el Apple Cube: tecnología obsoleta sustituida por cosas mucho mejores.

    Tampoco creo que la evolución tecnológica sea la continuación de la biológica. No creo que ambas formen un continuo de ningún tipo. Una razón es que al decir eso estamos minusvalorando la biológica y sobrevalorando la tecnológica. A septiembre de 2020, un mero insecto es varios órdenes de magnitud más complejo que el mejor de nuestros supercomputadores. Además, también es presuponer que la tecnología avanza de forma independiente, sin contar con los hombres, al igual que lo hace la biológica. Eso tan solo es un mito de la Ilustración alimentado con la concepción histórica del diecinueve. Pensemos que si el ser humano lleva aquí, pongamos unos 300.000 años, solo hace unos cuatrocientos que le dio por desarrollar ciencia y tecnología. Los griegos podían haber desplegado tecnología pero no lo hicieron porque ya tenían una pléyade de esclavos trabajando para ellos ¿Para qué mejorar el arado si no me importa sacar más rendimiento a la tierra? Ctesibio conocía las armas de aire comprimido en el siglo III a.C. sin pensar en ningún momento lo que podrían significar militarmente, y Herón de Alejandría diseñó una máquina de vapor en el siglo I a la que no vio ningún tipo de utilidad práctica. Tuvo que ser ya en el siglo XVI cuando comenzó a pensarse que hacer ciencia y tecnología estaba muy bien, pero hasta entonces nada. Por eso no tenemos que pensar en el avance tecnocientífico como la fase de un proceso que avanza irremisiblemente, sino como algo contingente que, perfectamente, pudo no pasar: sería perfectamente posible que la humanidad no hubiese jamás desarrollado ciencia ni tecnología. Y, a fortiori, menos aún podemos pensar que es una continuación del “progreso” biológico. Estaríamos cayendo, como bien dices, en el teleologismo que tan poco nos gusta a los neodarwinistas.

4. ¿Qué es capaz de hacer hoy la Inteligencia Artificial que hace apenas unos años nos hubiera parecido casi utópico? ¿En qué ámbitos se está aplicando preferentemente?

    Hay tres ámbitos donde los avances han sido alucinantes: uno es todo lo que tiene que ver con tratamiento y generación de imágenes. Me gusta decir que ahora sí, la IA ha aprendido a ver. Antes, la visión artificial se encontraba bastante atascada: procesar una imagen llevaba demasiado tiempo, por lo que si hablábamos de imágenes en tiempo real, no había nada que hacer. Ahora tenemos capacidad de cómputo suficiente y tenemos algoritmos como las redes convolucionales o las redes generativas adversarias que hacen maravillas.

    Después está el campo del procesamiento del lenguaje natural (NLP, por sus siglas en inglés). Los pioneros de la IA pensaban que en poco tiempo se iban a tener traductores de idiomas automáticos. Pronto se vio que el lenguaje humano era muchísimo más rico y más complejo que lo que nadie hubiera imaginado. Ahora tenemos sistemas que utilizan semánticas distribuidas capaces de traducir idiomas de una forma bastante competente ¿Te has dado cuenta en lo bien que va funcionando el traductor de Google? Todavía comete errores, pero en general, lo hace bastante bien. En la misma línea tenemos programas de generación de texto que son mucho mejores que sus sucesores. Google BERT, T5, Turing-NLG o el famosísimo GPT-3, son modelos de lenguaje que, básicamente, son sistemas automáticos de escritura. Tú les das un texto y ellos lo continúan. Puedes ponerles el título de una noticia y ellos te escribirán la noticia al completo. Lo interesante es que si les das una operación aritmética como “3x4=” te responden correctamente “12”. Eso quiere decir que, de alguna forma, han adquirido competencias aritméticas. O, por ejemplo, si les dices que te hagan un programa en Phyton que resuelva raíces cuadradas, te lo hacen. Eso quiere decir que están aprendiendo a realizar un montón de tareas diferentes, que, de un modo todavía un tanto misterioso, de su enmarañada estructura de capas, pesos y nodos, emergen ciertas capacidades o estrategias cognitivas. Todavía fallan mucho y son bastante peores que lo que las grandes multinacionales de la IA nos quieren vender, pero son, desde luego, un buen avance.

    Y por último yo hablaría de los juegos. Superar a los seres humanos en cualquier tipo de juego ha sido una forma de medir los avances en el campo. En el ajedrez ya nos machaban desde hace mucho tiempo, pero ahora van conquistando otros juegos que parecían difíciles para las computadoras. La saga AlphaZero de GoogleMind no solo ha jugado al ajedrez como nunca antes se había visto, sino que también lo ha hecho en otros juegos como el Go, un juego mucho más indefinido y amplio que el ajedrez que, a priori, se mostraba mucho menos asequible para las máquinas. Y la IA ha terminado por salir del tablero: ahora va dominando los videojuegos. De momento ya nos van ganando a la vieja y simpática Atari 2600, pero también lo hacen en juegos contemporáneos como el Starcraft II o el Dota 2. Esto es sumamente importante porque los entornos de estos videojuegos (tiempo real y no por turnos, información imperfecta, mapa más realista, etc.) se asemejan más a la realidad que un tablero de ajedrez.

5. Karl Marx dijo que las máquinas reemplazarían al hombre como fuerza productiva en plena Revolución Industrial. Pero no sucedió entonces. Ahora, con la Revolución de las Tecnologías de la Información y Comunicación parece mucho más factible. Las utopías de una humanidad entregada al ocio y servida por las máquinas no parece más que eso: una utopía. Esto va a hacer que se tenga que reorganizar la economía de alguna manera ¿Nos esperan tiempos convulsos?

    Todo comenzó en 2013 con el apocalíptico informe de Frey y Osborne de la Universidad de Oxford, en donde se decía que el 47% de los empleos de Estados Unidos iban a desaparecer sustituidos por máquinas. A este le siguió el de Acemoglu y Rastrepo, quienes estudiaron el mercado estadounidense de 1990 a 2007, llegando a la conclusión de que introducir un robot más por cada mil trabajadores reduce la relación empleo-población en aproximadamente 0,18-0,34 puntos porcentuales y los salarios en 0,25-0,5%. Las alarmas se dispararon y desde entonces se han sucedido miles de noticias en los medios sensacionalistas anunciando una era desempleo sin precedentes.

    También hay gente muy optimista. Sobre todo desde sectores liberales se argumenta que no es para tanto porque los adelantos tecnológicos siempre han terminado por aumentar el empleo. Ha sido una constante histórica. En la película Novecento de Bertolucci se ve muy bien como los agricultores italianos temían la mecanización del campo, expresada en la película con la llegada de los primeros tractores. Hoy se ha demostrado todo lo contrario: la mecanización del campo no eliminó empleó sino que lo creó. Lo mismo se pensó cuando llegaron los primeros ordenadores a las empresas, pero la demanda de trabajadores no ha dejado de incrementar. Se habla de la destrucción creativa de empleo como algo propio de una economía saludable: unos trabajos se van quedando obsoletos mientras surgen nuevos. Antes existían serenos y aguadores, ahora surgen youtubers y científicos de datos. Quizá además, los trabajos que desaparezcan sean los peores: los de las tres Ds (dirtydull y dangerous). Desde luego, estaríamos en un mundo mejor sin que nadie tuviera que ser pocero, minero o artificiero. Incluso se ha hablado de que lo que podría pasar es que bajara nuestra jornada laboral drásticamente. Desde luego sería el paraíso keynesiano.

    No obstante, creo que en el futuro (si es que tiene sentido ser futurólogo en un mundo tan impredecible como el nuestro) ni tanto ni tan poco. No creo que desaparezcan tantos empleos como los más agoreros pronostican, ni creo que no se vaya a perder empleo como los más optimistas creen. Y es que la IA, como dicen Ramón González de Mantarás, es muy artificial pero todavía muy poco inteligente, por lo que no será capaz de acaparar tanto empleo como se dice. Sin embargo, tampoco va a generar tanto como para poder reemplazar las pérdidas: youtubers hay muy pocos que se puedan ganar la vida, mientras que en el sector industrial hay miles de trabajadores que perderán sus puestos. Entonces es de esperar un notable incremento del desempleo ¿Qué pasará? En el peor de los casos, ninguna economía puede soportar mucho más de un 25% de paro por mucho tiempo, por lo que si se llegara a estos percentiles no quedaría otra que la abogar por una renta básica en alguna de sus modalidades.

    Así que sí, creo que la robotización traerá una época de transición y ajuste que estará marcada por un desempleo más o menos drástico, hasta que consiga estabilizarse. Serán tiempos complicados.

6. Como profesor de filosofía y como hombre dado a filosofar ¿Qué grandes problemas filosóficos crees que suscita la inteligencia artificial?

Todos. Si miramos la historia de la humanidad vemos como cada tanto tiempo aparecen una serie de objetos que revolucionan el pensamiento. Pensemos en la escritura, la brújula, los mapas, las catedrales, la imprenta, la electricidad… En nuestro tiempo el gran invento es el ordenador, siendo además una tecnología que está teniendo un largo recorrido (nada tiene que ver ENIAC con el ordenador que es mi smartphone) y una transversalidad increíble: todos los aspectos de nuestra vida y todos los aspectos de la investigación científica se han visto trastocados por él. Y eso ha violentado radicalmente nuestra forma de pensar. Lo ha puesto todo patas arriba: ¿somos una computadora o podremos llegar a serlo? ¿Nos van a superar? ¿Cómo nos vamos a relacionar con ellas? ¿Engaño a mi mujer si tengo relaciones sexuales con una IA? ¿Se puede tener una relación de amor o de amistad con una IA? ¿Será ético hacer daño a una IA? Fíjate que, en el fondo, al compararnos constantemente con la IA estamos reformulando la pregunta que para Kant era la más fundamental de todas: ¿qué es el hombre?

De hecho, yo sostengo una tesis que suele ser mal recibida. Sostengo que no hay nada más humano que una máquina, cuando todo el mundo tiende a pensar en las máquinas como lo opuesto a lo humano. Los robots son artificiales, fríos, desalmados, incapaces de sentir y de actuar moralmente… ¡Son lo inhumano por excelencia! Pues no, esa es una visión romántica y contrailustrada, que nada tiene que ver con la realidad. El ser humano, siguiendo la filosofía de Ortega y Gasset, se caracteriza por su capacidad de ensimismamiento, es decir, por su capacidad de dejar de hacer lo que está haciendo, para adentrarse en su mundo subjetivo. Eso le ha permitido imaginar realidades diferentes a la real, planificar alternativas, diseñar herramientas, contar historias… Lo propio del hombre es estar fuera del mundo para volver al mundo y modificarlo, es decir, para realizar en él tareas técnicas. El auténtico mundo del hombre no es el natural sino el artificial, y huir de eso apelando a una roussoniana vuelta a la naturaleza no sería más que una ridícula vuelta a las cavernas. Muchos movimientos ecologistas terminan por negar completamente al hombre al afirmarse en posturas tecnófobas que, yo creo, nadie se cree del todo. Las máquinas son nuestra mejor apuesta en el mundo, y si hay máquinas que se han usado mal, la solución no es, desde luego, renunciar a ellas, sino corregir, enmendar, reparar… pero de nuevo usando máquinas. Me gusta mucho la famosa cita de Asimov que dice: “No me dan miedo los ordenadores. Lo que temo es la falta de ellos”.

7. Nuestra capacidad de cómputo jamás superará a la de un ordenador. Si creamos robots con capacidad de “sentir” su entorno y adquieren capacidad de aprender y comunicar (y superan el test de Turing) nos pueden sobrepasar en muchos sentidos pero ¿no es la necesidad en el ser humano, la necesidad en todo organismo vivo, el motor de la acción orientada a un fin, no deliberadamente programada? ¿Cómo escaparía la IA de la programación externa?

Desde la desinformación habitual de los medios se ha hablado mucho de programas que, de una a otra forma, han escapado ya de sus programadores. Me hizo especial gracia cuando unos chatbots de Facebook crearon un lenguaje propio para comunicarse entre ellos que resultaba incomprensible para los programadores. Entonces la prensa publicó a bombo y platillo que los ingenieros de Facebook habían tenido que “desactivar” una IA porque se les estaba descontrolando. Es muy gracioso pensar que un chatbot, un trozo de código diseñado para mantener una conversación lo menos absurda posible, tiene que ser desactivado, como si los programas informáticos se desactivaran, o como si un trozo de código hecho para procesar lenguaje pudiese intentar dominar el mundo. No, un programa se ejecuta y cuando termina la tarea para la que está diseñado para y ya está. Los periodistas nos estaban diciendo algo así: “¡Desactiva el Word! ¡La función que pone las letras en negrita se ha descontrolado! ¡Oh, Dios mío, ya ha empezado la revolución de las máquinas!”. Algo que no tiene ni el más mínimo sentido fue una noticia bastante viral. Lo que pasa es que si donde pone “Word” pones IA, ya la gente se asusta porque ha visto demasiado cine hollywoodiense.

La verdad es que en las fechas en las que nos movemos la IA depende por completo de los programadores. Existen cosas como el Auto-ML (Auto Machine Learning), que trata de enseñar a las máquinas a programarse a sí mismas o, dicho de otro modo, de automatizar ciertos procesos de programación. Por ejemplo, una de las cosas que no están nada claras a la hora de programar una red neuronal artificial es ajustar los hiperparámetros (características arquitectónicas de la red: número de capas y de neuronas, tasa de aprendizaje, etc.). Muchas veces suele hacerse a ojo, a ver qué pasa y se van corrigiendo en virtud de si funciona o no. Pues se puede utilizar otra red neuronal para que optimice dichos parámetros ahorrándole esos quebraderos de cabeza al ingeniero. Estarías usando redes neuronales para diseñar otras, pero de aquí a que las máquinas puedan programarse a sí mismas de modo que escapen a nuestro control… Nada de nada. Me hace gracia una frase que oí decir en una conferencia al filósofo argentino Mario Bunge: “Si te dan miedo las máquinas… ¡desenchúfalas!”. Así es, si te inquietan, apaga el ordenador y sal a dar una vuelta.

8. ¿Hasta qué punto ves factible la fusión de seres humanos con robots?

Tan viable como que ya es algo muy viejo. La gran mayoría de los seres humanos llevan un smartphone en la mano casi todo el rato. Es decir, llevan incorporado un computador con una inimaginable cantidad de funciones. Eso es ya una fusión de seres humanos y robots. El cine de ciencia ficción nos ha hecho entender que esa fusión tiene que ser física: tienes que meterte algo electrónico dentro del cuerpo ¡Qué estupidez! Ahora mismo yo, frente a mi ordenador, tengo la enciclopedia más grande de la historia, Wikipedia, a unos treinta centímetros de mi cerebro ¿De verdad que es importante que tenga que meterme un dispositivo en el cerebro para ahorrarme esos treinta centímetros? ¿Tengo que abrirme el cráneo e introducirme un cacharro que, seguramente, se me encapsulará y podrá causarme peligrosas infecciones?

Por eso yo no he visto en la Neuralink de Elon Musk nada que me llame demasiado la atención. Ha introducido ciertas mejoras a nivel de miniaturización: los electrodos son más finos y menos invasivos, y el registro de datos a 1024 canales es muy bueno. Pero en lo más interesante, que es el software, nada de nada. Neuralink podrá monitorizar actividad cerebral pero ¿cómo descifrarla? ¿Cómo, a partir de ella, hacer cosas útiles? La multitudinaria presentación de Musk dio la engañosa impresión de que su dispositivo ya estaba listo para usarse… ¡Y nada más lejos de la realidad! Además, todo este desarrollo se ha dado, sospechosamente, al margen del resto de la comunidad científica. Ningún científico externo al proyecto ha podido testar el aparato ni nada por el estilo. Musk ha tenido que justificar frente a sus inversores que en Neuralink se estaban haciendo progresos, y alguno hay, pero gran parte es solo humo.

Todavía nos queda mucho para que las personas lleven implantados dispositivos dentro. La tendencia será seguir como hasta ahora, llevando muchos dispositivos, pero fuera. Y es que los ciborgs ya están pasados de moda. Las películas de ciencia-ficción de los años 80 y 90 tenían el problema de que mostrar un robot, sin las técnicas de animación actuales, era complicado, caro y no quedaba bien. Por eso se encontró una solución: hacemos que el robot tenga apariencia externa humana. Así, solo hace falta pegarle al actor un ojo biónico, dos o tres trozos de chapa y ya está. A eso lo vamos a llamar cíborg. Así tuvimos a los legendarios terminators de James Cameron. Entonces llegó la animación y los cíborgs desaparecieron. Así que no, no veo implantes cibernéticos en los próximos años más que como prótesis médicas.

9. ¿Qué ventajas y oportunidades se abren con la cada vez mayor tecnificación de la sociedad, y qué peligros encierra, a su vez, la cada vez mayor dependencia de dispositivos extraños (externos) como el internet de las cosas y el posible aumento de vulnerabilidades asociadas?

    En general soy bastante optimista (se me ha pegado mucho de Steven Pinker o de Matt Ridley). Todo se va a volver un poquito inteligente, lo cual abre una cantidad de servicios y funcionalidades impresionante. En 2017 había unos 8.400 millones de cosas conectadas a internet, fundamentalmente ordenadores y teléfonos. En 2019 ya había más de 22.000 millones. Si la población mundial ronda los 6.000 millones de personas, tenemos más de tres dispositivos por habitante del planeta. Ahora se han sumado televisiones, videoconsolas, tablets, relojes y pulseras, pero pronto se irán conectando muchas cosas más: lavadoras, neveras, robots de cocina, juguetes, ropa… La domotización de las casas va a ser total y eso va a mejorar notablemente nuestras vidas. No puedo entender como todavía hay mucha gente tecnófoba, que piensa que cualquier avance tecnológico va a suponer el fin del mundo ¡Por favor, estudien la historia de la humanidad! En la actualidad un ciudadano medio de un país occidental vive mucho mejor que un rey de la Edad Media. Y eso es gracias, entre otras cosas, al desarrollo tecnológico ¿De verdad que la tecnología ha traído más mal que bien?

    El peligro del internet de las cosas radica en que nada de esto se diseñó en sus inicios para ser seguro. El mismo Internet no se hizo pensando, desde luego, en el peligro de la ciberdelincuencia. Sus protocolos básicos siguen siendo hoy en día inseguros (No hay seguridad en el sistema DNS, ni en los protocolos de tiempo de red, ni en los protocolos HTML originales… Ni siquiera el protocolo HTTPS está libre de muchas vulnerabilidades). Gran parte del software que hace funcionar todo no es de gran calidad. Se quiere que el mercado sea rápido y barato y, en general, un software regularcillo basta para que algo funcione más o menos bien. Pero claro, hacerlo seguro es bastante caro, por lo que la política habitual es la de poner parches, es decir, la de las continuas (y molestas) actualizaciones. Se saca el software al mercado con muy poca seguridad y cuando alguien se da cuenta de algún error o vulnerabilidad, se saca la actualización con el arreglo. Esta política, siempre a posteriori, no inspira, desde luego, mucha confianza.

    En 2015 investigadores de ciberseguridad tomaron el control de un Jeep Cherokee a través de un sistema de entretenimiento del vehículo que tenía conexión a Internet. Hackearon todo: puerto de diagnóstico, reproductor de DVD, sistema de navegación, ordenadores integrados en los neumáticos, aire acondicionado, y, cómo no, también el motor… Imaginemos ahora un futuro lleno de coches autónomos que, además de estar conectados todos con todos, lo están con la propia ciudad por la que circulan (lo que ahora se llama smart city). Se podría liar bastante gorda si un hacker se hiciera con el control de unos cuantos de ellos. Y, dado como están las cosas, da para pronosticar que cosas así pasarán.

    Por tanto, tocará ponerse las pilas en ciberseguridad, pero estoy seguro de que así se hará, fundamentalmente, porque va a haber mucho dinero en juego. Si yo compro una muñeca inteligente a mi hija y resulta que un pederasta puede utilizar las cámaras instaladas en sus ojos para espiarla, el caso saltará rápidamente a la luz pública y la venta de muñecas inteligentes se desplomará. Entonces, a las empresas les va a interesar mucho que sus productos sean seguros y ahí será cuando invertirán más en ello. Cuando tantos dispositivos entren en el interior de nuestros hogares y, por tanto, tengan acceso a nuestras vidas privadas y seres queridos, la seguridad va a cobrar mucha más importancia.

10. ¿Qué te obsesiona? ¿Qué te inquieta? ¿Qué proyectas? ¿Qué te hace humano?

    Mi tema siempre ha sido la mente ¿Cómo puede generar el cerebro pensamiento? ¿Cómo menos de kilo y medio de amorfa masa gelatinosa puede generar la Teoría de la Relatividad General o escribir el Quijote? Además, uno hubiera pensado que algo como la mente estaría generada por una variedad de órganos u orgánulos morfológicamente diferentes, pero no, el cerebro tiene, al menos aparentemente, una insultante uniformidad: un tipo de célula esencial repetida unos ochenta y tres mil millones de veces… ya está. Y esas neuronas, de nuevo aparentemente, realizan funciones bioquímicas similares a las de otras del cuerpo… ¿cómo se las ingenian para que yo imagine en mi mente El nacimiento de Venus de Botticelli? Ahorma mismo me estoy imaginando los anaranjados cabellos ensortijados de la venus… ¿cómo son esos procesos bioquímicos que tejen sensaciones y sueños? No se si hace falta una nueva física como dice Penrose o si tan solo hay que seguir ahondado en la neurología como dice Crick, pero este es, sin duda, uno de los misterios más grandes de la ciencia.

    ¿Qué proyecto? Últimamente he estado muy enfrascando con las redes neuronales artificiales, intentando comprender por qué, siendo aparentemente tan estúpidas, lo hacen tan bien en ciertas tareas ¿Cuáles son sus límites? ¿Seguirán mejorando o se quedarán estancadas? Son sistemas basados en una fuerza bruta monstruosa… ¿Todo puede llegar a hacerse con fuerza bruta? Por ejemplo, hoy es trivial diseñar un programa para jugar a las tres en raya que, sencillamente, agote todos los movimientos posibles (que, aún así son muchos más de lo que podríamos pensar para un juego tan simple). Ese programa tendría un juego perfecto y sería imposible que perdiera. Pues ahora llevemos esta idea a sus máximas consecuencias: ¿y si dispusiéramos de fuerza bruta suficiente para probar todas las posibilidades de muchas otras tareas? El número de pensamientos con sentido que una persona puede tener es muy grande pero finito…

    ¿Qué me hace humano? ¡Las máquinas! ¡Está muy claro!

  

1 comentario: