¿Qué pinta un humanista en plena revolución digital? En un
mundo donde todo se reduce a la computación de ceros y unos, a algoritmos,
sensores, aluviones de datos, robots, procesos automatizados, ¿dónde queda
espacio para los analógicos saberes en torno al ser humano? Es una pregunta que
preocupa y que circula en el mundo de las Humanidades, mientras vamos viendo
cómo se van recortando a buen ritmo este tipo de materias en institutos y
universidades.
Ya sabemos con certeza que los trabajos del futuro serán
mayormente tecnológicos: muchos de los que existirán dentro en una década aún
no podemos ni imaginarlos. Según la Comisión
Europea en 2020 quedarán desiertos más de 750.000 empleos en áreas
cientifico-técnicas(paradójicamente, también existe escasez de
vocaciones científicas). Pero en este panorama hipertecnológico los humanistas
todavía pueden jugar varios papeles. El más obvio: aprovechar los avances
digitales para sus propias disciplinas, en lo que se han llamado las
Humanidades Digitales. Pero no solo eso: también colaborar al propio desarrollo
tecnológico (como colabora la filosofía o la psicología en el desarrollo de la
Inteligencia Artificial) o, sobre todo, crear un marco de sentido para lo que
se nos viene encima. Para poner unos límites a la Revolución Tecnológica que la
hagan compatible con el ser humano tal y como lo conocemos. Si es que tal cosa
es posible.
Aunque a primera vista pudiera no parecerlo, el desarrollo
de la tecnología ha estado y está fuertemente imbricado con ciertas ramas de
las Humanidades, sobre todo las más filosóficas. “Muchos de los desarrollos
tecnológicos han salido primero de la mente de los filósofos para luego ser
desarrollados por ingenieros”, afirma el filósofo de la ciencia y la tecnología David
Casacuberta, profesor de la Universidad Autónoma de Barcelona.
Hoy en día esa imbricación continúa. “Hay diversos aspectos
de la tecnología que se tocan con cuestiones éticas”, explica Casacuberta. Pone como ejemplo el
comportamiento de los coches autónomos, que funcionan sin conductor y que
tendrán que decidir cómo actuar en diferentes casos, si dada la posibilidad de
un choque tiene optar por salvar a las personas o al coche más caro, etc. O en
sistemas que decidan a quién dar un préstamo bancario y a quién denegárselo.
Con la llegada de las superinteligencias que pueden llegar a competir e incluso
superar a la humana, los protocolos éticos serán indispensables. Al fin y al
cabo las Leyes de la Robótica de Isaac Asimov, que prohíben
a los robots dañar a los humanos por acción u omisión, no son más que uno de
estos protocolos.
En un futuro el manejo de la tecnología se habrá
simplificado tanto que, según algunos expertos, los perfiles más técnicos, como
los de los programadores, serán menos necesarios y emergerán otros de carácter
más humanístico. “Con los avances que está habiendo en inteligencia artificial
las herramientas van a ser cada vez más sencillas de manejar a un nivel técnico
y probablemente lo que se necesite entonces sea gente que sepa hacer las
preguntas pertinentes, como psicólogos o filósofos”, concluye Juan Antonio
Torrero, responsable de big data de Orange España.
La relación entre el desarrollo de la inteligencia
artificial y la filosofía, la lingüística o la psicología es evidente. Por
ejemplo, el célebre filósofo estadounidense Daniel Dennett ha trabajado
extensamente en este ámbito. “Los filósofos han soñado con la inteligencia
artificial durante siglos”, escribe en uno de sus artículos, “Hobbes y Leibniz,
en formas muy diferentes, intentaron explorar la idea de romper la mente en
pequeñas operaciones mecánicas. Descartes incluso anticipó el test de Turing
(un experimento ideado por Alan Turing para verificar si existe
inteligencia artificial)”. Otro notable filósofo implicado en temas como
inteligencia artificial y singularidad tecnológica es Nick Bostrom,
director del Instituto para el Futuro de la Humanidad de Oxford.
Ante el posible surgimiento de una superinteligencia artificial: “Lo mejor que
podemos hacer ahora mismo es impulsar y financiar el pequeño pero pujante campo
de investigación que se dedica a analizar el problema de controlar los riesgos
futuros de la superinteligencia”, escribió en la revista Edge, “será muy
importante contar con las mentes más brillantes, de tal manera que estemos
preparados para afrontar este desafío a tiempo”.