Luis Echarte es médico, doctor en Neurociencia y en Filosofía, y profesor de Ética Médica en la Universidad de Navarra, en una reciente entrevista con Javier Lozano, para el número 71 de la revista Misión, analiza los elementos más inquietantes de ChatGPT y de la Inteligencia Artificial en general.

"Algunos empiezan a hablar de una cuarta Revolución industrial. Son cambios importantes y rápidos. Hay que pensar de manera urgente, porque solucionar los problemas es después más complicado. Necesitamos anticiparles a los científicos, a los políticos y a la sociedad las dificultades asociadas a la tecnología", comienza diciendo Echarte.

Inteligencia no tan inteligente

Para el experto, en IA es importante distinguir entre comprender y conocer. "La IA tiene un nombre que puede llevar a equívocos, porque una aspiradora o un supercomputador no puede pensar, al final manejan ceros y unos. La inteligencia humana no se reduce a lo que puedo medir o cuantificar. Eso lo hace una máquina y lo hace muy bien. Aldous Huxley distinguía entre comprender y conocer", explica.

"La inteligencia humana es capaz de comprender, tiene conciencia, puede estar despierta a la realidad y -entender que tiene un sentido. La máquina lo que hace es conocer: sintetiza un proceso de información y encuentra correlaciones, como hace ChatGPT. Pero de ahí a que sea capaz de comprender la información que maneja es otra cosa", advierte.

Pero, es una diferencia que podría llegar a ser inapreciable. "Creo que llegará un momento en que no seamos capaces de distinguir entre una máquina y un ser humano. Las máquinas podrán ser capaces de simular cualquier cosa si las 'entrenamos'".

Una simulación que no es inteligencia. "En absoluto, es como un cascarón vacío. El filósofo Daniel Dennett habla de zombis filosóficos: por fuera se comportan como un ser humano, pero por dentro son engranajes que ni sienten ni padecen. Ahí está el peligro, en que se llegue a identificar una simulación con un ser humano", comenta.

3 peligros de creerse lo que simulan

Esto podría traer tres graves consecuencias. "La primera es atribuirles titularidad moral, creer que como simulan pensar y sentir merecen una serie de derechos al amparo de la ley, como ocurre ahora con los animales. Esto es muy grave. En segundo lugar, que al reconocerles titularidad moral también se les reconozca responsabilidad. Si un ordenador se equivoca habría que ver si es por un fallo, por un error cognitivo, o porque realmente el programa ha elegido el mal. Entonces podría ir a juicio. No es utópico. En California ha habido ya accidentes mortales con automóviles autónomos", recuerda.

Responsabilidad que podría ser del programador, de la empresa, del usuario que aceptó montarse o de la máquina. "Es un argumento práctico, pero con consecuencias ontológicas, porque si un juez decide que hay un sistema al que se le puede atribuir responsabilidad, equiparamos al ser humano con la máquina. No es que digamos que son como nosotros, sino algo peor, que nosotros somos como ellos. Esto es terrible. Sería tecnificar al ser humano".

Y el tercer punto es el peor de todos y más cercano. "Mantener relaciones interpersonales con los robots. No es ciencia ficción. En España ya hay robots cuidadores con inteligencia artificial emocional capaces de mantener interacciones con el usuario, de saber cómo se siente, de detectar cuándo el usuario quiere que le den la razón. Vemos ya a ancianos abrazando y creando vínculos de apego con estos robots".

"Por fuera se comportan como un ser humano, pero por dentro son engranajes que ni sienten ni padecen. Ahí está el peligro, en que se llegue a identificar una simulación con un ser humano".

Algo que, en opinión de Echarte, es cosificante. "Estos robots hacen una cosa aparentemente muy humana, que es aliviar la soledad, pero no la alivian, son ficciones. Estos ancianos ya no se sienten solos, pero están solos, y lo peor es que ya no quieren salir de la soledad. Incluso los familiares pueden llegar a no visitarlos porque 'ya están acompañados'". 

"Es una trampa ética de primer nivel a nivel global. En Japón ya hay un hombre 'casado' con un holograma. Gilles Lipovetsky habla de la sociedad del vacío y la relaciona con una sociedad tecnoconectada. Estamos más conectados, pero hay más experiencia de abandono. Y estos robots son como la heroína: nos dicen lo que queremos oír. Esto nos encierra más en nosotros", añade el médico.

Algo que, a su vez, nos deshumaniza. "La tecnificación despersonaliza al ser humano: eres lo que vales. En función de lo útil que seas para la empresa o para la sociedad valdrás más o menos. Es una idea utilitarista. Al final, se valora al humano de una manera puramente técnica. Y si somos máquinas podemos modificarnos al gusto, como las máquinas, sin ninguna barrera moral".

"Perderemos capacidad crítica y de razonamiento. No sólo las máquinas se volverán más inteligentes, sino que nosotros seremos cada vez menos inteligentes. Puede llegar un momento en el que las máquinas no avancen más, pero nosotros sigamos degradándonos", añade.

El experto habla en este punto sobre ChatGPT, "una herramienta maravillosa, puede ser utilizado en docencia como un método que evite que los estudiantes escriban, lean, sinteticen o sean capaces de relacionar. La inteligencia, la creatividad y la capacidad de autogobierno no devienen de la nada, sino que se cultivan a base de memorizar, de estructurar el pensamiento".

"Hay que avisar de los riesgos. Esta misma discusión la tuvimos hace 20 años con el uso de los móviles en los niños y ahora tenemos no pocas infancias destrozadas. Las consecuencias serán muy graves porque las competencias cognitivas y de autonomía de las personas bajarán varios puntos".

El estado que quiere control absoluto

Y, sobre el futuro, Echarte advierte. "Si nos fijamos en los imaginarios dibujados en Occidente vemos distopías. La imagen que tiene del futuro el ciudadano de a pie no es la de una sociedad tecnológica donde convivimos todos en paz, sino de guerras tecnológicas o de países oprimidos por un estado que lo quiere controlar todo. Eso es El mundo feliz de Huxley". 

"Uno de los problemas de las sociedades contemporáneas es el cortoplacismo. Nuestros políticos toman decisiones para su legislatura. Si con la educación, algo evidente e importante, no piensan en el futuro, menos aún con los peligros de la IA".

Echarte avisa del mal uso que pueden tener estas tecnologías. "El ser humano tiene cada vez más poder y no estamos desarrollando una sensibilidad ética para prevenir los grandes males. Hay que ser optimista y protecnológicos, pero también realistas y saber que esta tecnología usada mal puede llevarnos al fin".

"No me atrevería a pensar el mundo de aquí a 10 años. La IA ya está aquí y llegará a todos los ámbitos. Cambiará el mercado y el tejido laboral a una gran velocidad. Todo lo que nos ayude a realizar nuestro trabajo de manera más sencilla, bienvenido sea. El problema estribará en que las máquinas no nos asistan en nuestra actividad, sino que nos sustituyan. Las máquinas nos despegan demasiado de lo real, virtualizan nuestra conexión con la realidad".