Rodney
Brooks, uno de los padres de la robótica moderna (director
desde 2004 hasta 2007 del famoso Laboratorio de Informática e
Inteligencia Artificial del MIT) y creador de iRobot, la
empresa con más beneficios en el sector hasta la fecha, dijo hace unas décadas:
“Me han llamado conservador por decir que es probable que los robots no
conquisten el mundo”.
Frente a algunas celebridades científicas y
a la ciencia-ficción —que auguran un futuro catastrófico en el que la
tecnología nos ha consumido—, los científicos e ingenieros que trabajamos en
los sectores de la robótica y la inteligencia artificial (AI, en inglés) nos
mostramos mucho más escépticos sobre el supuestamente desproporcionado auge de
esas tecnologías en años venideros. ¿A qué se debe esta divergencia de
opiniones tan marcada? Quienes auguran una catástrofe se basan en una premisa
errónea: dan por hecho que, si la capacidad de proceso de las máquinas se dobla
aproximadamente cada dos años (Ley de Moore), sucederá
lo mismo con la inteligencia artificial. Pero esto no es así.Cuando oímos hablar sobre cómo la inteligencia artificial
va a revolucionar el mundo, se trata normalmente de un tipo de AI muy
específica: un conjunto de técnicas que tienen como único fin perfeccionar una
tarea concreta. Estas técnicas no son nuevas, hace tiempo que funcionan (por
ejemplo, los programas que juegan al ajedrez). Pero nuevas herramientas como
Internet o los smartphones generan grandes cantidades de datos valiosos que
pueden combinarse con estas técnicas. Esta mezcla ha contribuido al desarrollo
de productos como Siri (aplicación telefónica con funciones de
asistente personal)o Nest (aplicación domótica). Todo
esto promete desarrollar una economía más eficiente y próspera, donde, por
ejemplo, los algoritmos se conviertan en verdaderos expertos a la hora de
realizar tareas específicas y se supere el error humano.
Pero la
posibilidad de que los científicos e ingenieros dedicados a la AI logremos
erradicar algunos errores humanos no significa que seamos capaces de eliminar
los errores propios de las máquinas. En un sector sin regulación, ni estándares
de diseño, el sentido común del ser humano sigue siendo necesario para poder
llevar a cabo incluso hasta las tareas más sencillas fuera de un laboratorio.
Uno de los ejemplos más claros es el de las terminales de facturación en los
aeropuertos. Aunque se hayan reducido las colas de facturación, sigue siendo
necesario que un operario de la aerolínea compruebe qué pasa cuando la máquina
no funciona correctamente.
Lo mismo sucede cuando un robot nos contesta al
llamar a un número de atención al cliente y queremos que nos atienda un
operador de carne y hueso. La única solución a muchos de nuestros problemas
parece que sigue siendo el sentido común (humano) y no solo la rapidez o conveniencia
de un algoritmo. Por ello, expertos como el profesor Ken Goldberg empiezan
a vislumbrar un futuro en el que en lugar de que los humanos hablemos con los
robots, serán los robots quienes nos llamen para pedir consejo
ante una situación que no saben resolver.
Por otro lado, la AI que vemos reflejada en películas o
novelas tiene un componente mucho más generalista. La conciencia cibernética
que retratan (y que casi siempre se acaba dando cuenta de que no somos tan útiles
como especie) tiene la rara capacidad de generalizar, es decir, de pasar de la
resolución de un problema (jugar al ajedrez) a otro completamente distinto
(dominar el mundo). En la actualidad, estamos muy lejos de este tipo de sistema
generalista, ya que las máquinas (por muy complejas que sean) siguen siendo
incapaces de entender los problemas a los que se enfrentan (ningún ordenador es
capaz de contestar a esta pregunta: ¿sabes lo que estás haciendo?). Nuevos
avances en diversas disciplinas tales como la informática, la física e,
incluso, la biología y neurociencia serán necesarios para romper las barreras
que nos impiden conseguir la generalización de la AI. Algo que no parece
demasiado factible a corto o medio plazo.
Pero es posible que esta sea la era en que la AI pase
de ser un problema exclusivo del mundo de las ciencias de la computación a ser
una cuestión que tenga que ser abordada por otros campos como la filosofía, la
economía o la política. Expertos de todo el mundo vaticinan que el auge de estas
tecnologías producirá “sociedades laborales de extremos”, en las que solo los
ejecutivos que toman las decisiones de alto nivel y los trabajadores con
salarios más bajos podrán justificar su trabajo.
Sin embargo, la AI, como cualquier otra tecnología, ha
sido creada por personas y para personas. Y, por ejemplo, la confianza que
depositamos en el farmacéutico, la enfermera o el profesor no pueden
sustituirse por un algoritmo, por muy rápido o conveniente que este sea.
Es
evidente que seguiremos utilizando calculadoras, quizás más rápidas, más
fáciles de usar y con más funciones. Pero eso no significa que el que siga
apretando los botones no sea un humano de carne y hueso. No olviden que el
último mensaje de telégrafo fue enviado en 2014.
Eduardo Castelló Ferrer es investigador posdoctoral,
especializado en robótica, en el Massachusetts Institute of Technology (MIT).
No hay comentarios:
Publicar un comentario