En una extensa entrevista Noam Chomsky señala los posibles
errores del desarrollo de la Inteligencia Artificial, que ha seguido un
trayecto enfocado sobre todo desde el conductismo, una aproximación que
dista mucho de retratar al cerebro humano en toda su complejidad.
La Inteligencia Artificial (comúnmente
AI, por sus siglas en inglés) puede mirarse como el espejo en el cual el
ser humano busca reconocerse, entender los mecanismos mentales en los
que se constituye y fundamenta su esencia. Aunque con aplicaciones
prácticas tangibles, determinadas, el verdadero propósito de la AI es
casi ontológico: replicar con el mayor grado de precisión posible
nuestro cerebro y sus múltiples recursos para revelar el secreto que da
sentido a nuestra existencia en este mundo.
Entre estos, sin duda uno de los más
importantes es el lenguaje. O quizá el único si tenemos en cuenta esa
corriente de pensamiento —tanto filosófica como de otras áreas— que ve
en el lenguaje la cifra del ser humano, el elemento verdaderamente
constitutivo de su ser. Entre el cerebro y el lenguaje hay una relación
tan estrecha que, tautológicamente, es imposible saber si uno podría
existir sin el otro. Incluso algunos experimentos con personas que por
alguna condición —sordomudos de nacimiento, por ejemplo, o personas de
idiomas distintos que, sin conocer lo que habla el otro, se ven forzados
a interactuar entre sí constantemente por un periodo amplio de tiempo—
han demostrado que el cerebro está programado instintivamente para
desarrollar un lenguaje en sus estructuras más elementales, generando
espontáneamente los equivalentes de sustantivos y verbos que cualquier
idioma posee. De ahí que, al momento de plantear la posibilidad de
dispositivos robóticos que imiten al ser humano, el lenguaje sea
imposible de soslayar en su
En buena medida esto se supo gracias a
los estudios del afamado lingüista Noam Chomsky, quien en la década de
los 70 realizó estos y otros experimentos, además de estudiar la
estructura de los idiomas, descubriendo que, teóricamente, la idea de un
solo idioma subyacente a todos los que se hablan en el mundo, es
factible.
En dicha época de su desarrollo
intelectual, Chomsky confrontaba directamente los postulados del
conductismo, la escuela psicológica fundada por B. F. Skinner que
reducía toda la compleja naturaleza humana a un sistema de pesos y
contrapesos, a la acción y la reacción que se da entre un estímulo y la
respuesta que este provoca. En este marco, el lenguaje era también un
mecanismo simple de aprendizaje en el cual una persona lo hacía suyo
solo por efecto de la estimulación: conforme el mundo le hacía ver que
se llamaba rojo todo lo que tenía este color, entonces el significado de
“rojo” se asimilaba, sin mayor proceso de por medio. Las
investigaciones de Chomsky demostraron que, por el contrario, además de
tratarse de algo mucho más elaborado, el lenguaje y las estructuras
cerebrales se pertenecen y se corresponden entre sí, lo cual es tanto o
incluso más importante que los estímulos que se reciben socialmente del
mundo exterior (para una exposición más detallada, pero todavía
introductoria, de esta discusión, recomendamos el capítulo dedicado a
Gertrude Stein del libro Proust Was a Neuroscientist de Jonah Lehrer, del cual existe traducción al español)
Por esta razón, Chomsky es también una
voz autorizada para hacer notar las fallas en que ha incurrido la
Inteligencia Artificial, las razones por las cuales, aunque sin duda ha
alcanzado un desarrollo notable, todavía dista mucho de las promesas que
la imaginación científica, literaria y cinematográfica ha planteado en
diversos momentos de la historia moderna.
Recientemente el sitio The Atlantic
publicó una amplia entrevista con Chomsky (conducida por Yarden Katz)
sobre este tema, luego de que este participara en el encuentro “Brains,
Minds and Machines” organizado en el marco del 150° aniversario del MIT,
institución de la cual es profesor. En particular el interés de
escuchar el punto de vista de Chomsky radica en que de alguna forma las
críticas del conductismo que hiciera hace varias décadas parecen revivir
en el ámbito de la AI, en donde, considera, se están aplicando aquellas
premisas, salvo por algunas excepciones en que de verdad se intenta
recrear la complejidad de los procesos humanos de pensamiento.
La plática transita por varios temas,
algunos sin duda poco accesibles para el público no especializado, pero
aun así es posible encontrar la perspectiva desde la cual Chomsky juzga
el desarrollo de la AI: una que privilegia los fundamentos sobre los
efectos, que descubre en el corazón epistémico de la ciencia —la manera
en que se genera conocimiento— la determinación del rumbo que toman sus
resultados y sus productos.
Supón que quieres
predecir el clima de mañana. Una manera de hacer es obtener mis priores
estadísticas, si quieres, hay una alta probabilidad de que mañana el
clima aquí sea el mismo que el de ayer en Cleveland, así que me quedo
con eso, y dónde el sol tendrá cierto efecto, también me quedo con eso, y
así obtienes un montó de suposiciones como esa, realizas un
experimento, observas una y otra vez, lo corriges con métodos
Bayesianos, obtienes mejores priores. Das con una buena aproximación de
cómo será el clima de mañana. Eso no es lo que hacen los meteorólogos
—ellos quieren entender cómo está funcionando. Y eso son dos conceptos
diferentes de lo que significa el éxito, o qué es un logro. En mi propio
campo, el del lenguaje, está por todos lados. Como la ciencia cognitiva
computacional aplicada al lenguaje, el concepto de éxito que se usa es
virtualmente siempre este. Así que entre más y más datos obtienes, y
mejores y mejores estadísticas, puedes obtener una mejor y mejor
aproximación a un inmenso corpus de texto, como todo en los archivos del
Wall Street Journal —pero no aprendes nada sobre el lenguaje.
Una aproximación muy
diferente, que pienso que es la correcta, es intentar ver si puedes
entender cuáles son los principios fundamentales y tratar con las
propiedades nucleares, y reconocer que en el uso actual, habrá cientos
de otras variables interviniendo —como con lo que se ve desde la
ventana, que clasificarás para tener mejores aproximaciones, ese es un
acercamiento distinto. Estos son solo dos conceptos diferentes de
ciencia. El segundo es lo que la ciencia ha sido desde Galileo, la
ciencia moderna. La aproximación de datos sin analizar es una suerte de
nuevo acercamiento, no totalmente, pues hay cosas como esta en el
pasado. Es básicamente un nuevo acercamiento que se ha acelerado con la
existencia de memorias masivas, de procesamiento rápido, lo cual permite
hacer cosas que no podrías hacer manualmente. Pero pienso que se está
llevando a temas como la ciencia cognitiva computacional hacia una
dirección de cierta aplicación práctica.
En cierta forma se trata de la
aplicación de un algoritmo tras otro, una vasta y fractálica red hecha
de algoritmos (“anillos cuyo collar se sella en el anillo de otro collar
hecho de anillos”, según definió alguna vez Lacan al lenguaje) en la
cual cada paso es el resultado de una serie de causas y consecuencias,
ensayos y errores, un sistema tan aparentemente cerrado sobre sí —aunque
potencialmente infinito— que de alguna manera es imposible concebirse
fuera de él: sea el ser humano o sus creaciones robóticas. ¿O no?
[…] En teoría,
porque no sabemos cómo, puedes hablar sobre el nivel neurofisológico,
nadie sabe, pero ahí no nivel algorítmico real. Porque no hay cálculo
del conocimeinto, es solamente un sistema de conocimiento. Para
descubrir la naturaleza del sistema de conocimiento, no hay algoritmo,
porque no hay proceso. Puedes usar el sistema de conocimiento, que
tendrá un proceso, pero eso es algo diferente.
Pero esa es una
actividad fundamentalmente diferente de mí añadiendo pequeños números en
mi cabeza, lo cual seguramente tiene algún tipo de algoritmo.
No necesariamente.
Hay un algoritmo para el proceso, en ambos casos. Pero no hay algoritmo
para el sistema en sí, es un tipo de error de categoría. No preguntas de
qué es el proceso definido por los axiomas de Peano y las reglas de la
inferencia, no hay proceso. Puede haber un proceso al usarlo. Y podría
ser un proceso complicado, y lo mismo es cierto para ti haciendo
cálculos. El sistema interno que tienes —para eso, la cuestión del
proceso no surge. Pero para tu uso del sistema interno, surge, y tal vez
puedas hacer multiplicaciones con cualquier tipo de procedimiento.
Como, tal vez, cuando sumas 7 y 6, digamos, un algoritmo es decir
“Veamos cuánto toma llegar al 10 —toma 3, ahora dejé fuera al 4, así que
tengo que partir del 10 y agregar 4, tengo 14”. Ese es un algoritmo
para sumar —es de hecho uno que aprendí en el kindergarten. Es una
manera de sumar.
Pero hay otras
maneras de sumar, no hay algo como un algoritmo correcto. Estos son
algoritmos para llevar a cabo el proceso del sistema cognitivo que está
en tu cabeza. Y para este sistema no preguntas sobre los algoritmos.
Puedes preguntar sobre el nivel computacional, puedes preguntar sobre el
nivel mecánico, pero el nivel del algoritmo no existe para ese sistema.
Es lo mismo con el lenguaje. Hay algún sistema ahí dentro que determina
el sonido y el significado de un conjunto infinito de oraciones
posibles. Pero no hay pregunta sobre qué es un algoritmo. Como no hay
pregunta sobre lo que un sistema formal de aritmética te dice sobre la
comprobación de teoremas. El uso de un sistema es un proceso y puedes
estudiarlo en términos del nivel de Marr. Pero es importante tener
conceptualmente claras estas distinciones.
Por otro lado y con ciertas resonancias
de sus críticas al conductismo, Chomsky señala lo difícil que resulta
hacer simple la oposición entre externalización e internalización, la
expresión de un pensamiento y la gestación de ese pensamiento. Un poco a
la manera de Wittgenstein y su noción de “lenguaje privado”, imposible
en la medida en que las estructuras de dicho lenguaje se tomaban del
medio, de las que la sociedad había formado históricamente, no de una
creación original y personal ex nihil.
“Un
ser humano infantil entiende más de lo que puede producir”, dice
Chomsky, una observación que plantea la duda de si la evolución del
pensamiento también debería ser parte importante de la Inteligencia
Artificial. Y no se trata solo de ese aprendizaje conductista que se
denomina con el pomposo término de lo “intuitivo”, sino de una cualidad
mucho más amplia, de mayor alcance, capaz de generar conclusiones por sí
misma en función de lo que percibe pero, quizá, en ese momento no
entiende, una suerte de experiencia cognitiva que la acerque paulatina
pero sostenidamente a la perfección, libre como estará de las
limitaciones propias del ser humano.
No hay comentarios:
Publicar un comentario