Inteligencia y test de Turing

Terminator-2-cartel

«En tres años, Cyberdyne se convertirá en el mayor proveedor de sistemas de computadoras militares, todos los bombarderos antirradar se modernizarán con esas computadoras y ya no necesitarán tripulantes. De ese modo volarán con un funcionamiento operativo perfecto. Se aprobará el presupuesto del Skynet. El sistema se conectará el 4 de agosto de 1997, se eliminarán las decisiones humanas en la defensa estratégica. Skynet aprenderá en progresión geométrica, tendrá conciencia de sí mismo a las 2:14 de la madrugada del 29 de agosto. Los humanos, aterrados, intentarán desconectarlo».

Terminator 2: el juicio final (1991)

Esta semana se ha difundido la noticia de que por primera vez un ordenador supera el test de Turing. Ante semejante “hito” me decidí a escribir sobre el tema, para descubrir una vez más que no hay peor compañero de fiesta que el rigor: tocará guardar el confeti para otra ocasión. Veamos por qué.

En qué consiste el test de Turing

Alan Turing, personaje merecedor de todos los elogios que se le ocurran a uno, era un tipo cuyas inquietudes iban más allá de sentar las bases de la informática moderna o cambiar el rumbo de la Segunda Guerra Mundial, de ahí que hoy estemos hablando de un artículo suyo publicado en 1950 en el cual se limitaba a hacer conjeturas: Computing machinery and intelligence. La pregunta que formulaba abrió un melón que todavía no se ha terminado de digerir: “¿pueden pensar las máquinas?”. Lo que planteaba, dicho en términos que venden mejor, es si un ordenador podía tener inteligencia. Él partía de una premisa muy sencilla: si una computadora lograba comportarse de manera inteligente, entonces debía ser considerada como tal. Lo que propuso fue poner a prueba lo primero a través de un juego de imitación, a la postre conocido como “test de Turing”.

Dicho juego, cuyos términos originales rozarían hoy lo políticamente incorrecto, estaba inspirado en el que practicaban antiguos nobles y cortesanos varios sin mejores ocios: dos contendientes, mujer y hombre, debían convencer a un tercero a través de mensajes escritos de que eran la mujer. Algo poco apasionante hasta que el bueno de Alan lo revolucionó sustituyendo a uno de los jugadores por una máquina: el reto ahora pasaba por crear un programa capaz de ganar. La versión que sobrevive recoge la esencia de lo que pretendía con su artículo: mediante mensajes telemáticos, un juez debe distinguir cuál de los dos interlocutores es el humano. Si el examinador se confunde, Skynet nos mata a todos el ordenador supera la prueba. Desde 1990 se viene celebrando el Premio Loebner, un concurso anual al que se presentan distintos programas con el fin de lograr tal hazaña. La noticia ha sido que por primera vez uno engañaba a más del 30% de los jueces: el chatbot Eugene Goostman. La cifra podría entenderse como el criterio para contrastar una hipótesis, pero nada más lejos de la realidad…

“Nada nuevo bajo el sol”

A este refrán hace referencia Turing en su réplica de la que es, en mi opinión, la objeción más sensata de todas las que le formulan. Lady Lovelace se hizo eco en sus memorias (1842) de que la máquina analítica de Babbage (el primer ordenador, digamos) era incapaz de crear nada nuevo, simplemente hacía lo que se le ordenaba. No obstante, Hartree (1949) profundiza en la cuestión: una cosa es lo que la condesa tuviese delante (recordemos, 1842), y otra lo que sería posible fabricar en el futuro.

Bien, pues el refrán de marras resulta pertinente para valorar las consecuencias del presunto hito que nos han vendido. Cuando me propuse averiguar, todavía en mi ingenuidad, de dónde habían sacado el porcentaje crítico para confirmar la hipótesis, di con este artículo que revela su carácter meramente simbólico. Como bien apunta Francisco R. Villatoro, Turing profetizó que en torno al año 2000 se contaría con la tecnología suficiente para que una máquina engañase al menos a un 30% de jueces durante una conversación de 5 minutos:

«A mi juicio, aproximadamente dentro de 50 años será posible programar computadoras con una capacidad de almacenamiento de alrededor de 109 para que tomen parte tan bien en el juego de la imitación, que el examinador promedio no tenga más de 70% de probabilidad para lograr la identificación correcta luego de cinco minutos de preguntas».

Cabe, por tanto, extraer dos conclusiones: (1) que hoy no hay más motivos para celebrar que hace una semana y (2) que Turing era un genio, pues hasta en semejante pronóstico acertó. Lo dicho: nada nuevo bajo el sol. Ni es la primera vez que un ordenador engaña a un juez, ni nos sorprende a estas alturas que Dios naciese en Paddington. Lo del 30% se queda en mera anécdota aprovechada para darle bombo al concurso.

Hacia una definición de inteligencia

A Turing se le critica por no haber definido rigurosamente lo que es la inteligencia… y lo cierto es que ni él ni nadie ha formulado hasta hoy una definición satisfactoria. La buena noticia es que no pasa nada: tampoco la hay de “vida”, y no por ello deja de haber facultades de biología. No quisiera extenderme mucho en este punto, simplemente señalar que en esta carencia está el secreto de tantos desatinos a la hora de abordar el tema. Es la llave maestra que abre la puerta de, por ejemplo… la habitación china.

La habitación china es un experimento-ficción ideado por John Searle en 1980 y popularizado por Roger Penrose, una variante del test de Turing que consistía en lo siguiente: supongamos un interlocutor al que se le envían mensajes en un lenguaje y código que no entiende, el de caracteres chinos. Cuenta, no obstante, con un manual para saber qué respuestas dar a cada pregunta que le hagan. La moraleja es que por muy capaz que sea el individuo de responder con éxito, ello no significa que sepa hablar chino. ¿Suspendemos el Premio Loebner entonces? Definitivamente no: el error que comete es identificar al sujeto como el individuo que está dentro de la caja, y no como al conjunto de éste y el libro. Tampoco queda muy clara la naturaleza del supuesto manual, ¿mágica quizá? Si bien Turing diseñó un experimento perfectamente realizable, Searle cayó en los lodos de lo metafórico para que el peso del dualismo lo sumergiese hasta ahogase. Una cosa es recurrir a metáforas para explicarse como acabo de hacer yo, y otra utilizar una como argumento científico: a menudo seducen, pero pocas veces (por no decir ninguna) resisten el envite del escepticismo. Lo peor de todo es que ya en 1950 Turing se había hartado a replicar falacias dualistas, pero aún siguen brotando en formatos cada vez más estrafalarios.

Como decía, Turing dedicó buena parte de Computing machinery and intelligence a rebatir argumentos contrarios a su premisa, y a partir de la objeción de Lady Lovelace por fin se arranca a explicar cómo debiera ser la máquina inteligente: es entonces cuando sale a escena el término aprendizaje en este sentido, y a la luz de nuevos avances en programación, este artículo de José Andrés Lorca continúa la especulación iniciada por Turing en busca de cómo debiera ser ese ordenador. Sería muy pretencioso por mi parte establecer una definición de inteligencia, pero tengo claras las dos palabras que no podrían faltar en ella: “capacidad” y “aprendizaje”. Fijaos que Turing pone con su test el acento en el lenguaje en tanto que lo considera la cualidad más elevada de un sistema inteligente, pero no por ello necesaria. Por último, y ya que lo menciona Terminator, hablaré de qué papel juega la consciencia (o auto-consciencia) en todo esto: podríamos considerarla, tal como apunta nuestro robot psicópata favorito, una capacidad adquirida a partir del aprendizaje. Y en cualquier caso, un elemento genuinamente subjetivo imposible de atribuir con certeza tanto a una máquina como a cualquier ser vivo.

Nota: Me hago cargo de lo abierto que dejo el tema, os animo a hacer uso de la sección de comentarios 🙂

Referencias

– Ryle, G. (1949). El concepto de lo mental. Barcelona: Paidós.

– Turing, A.M. (1950). Computing machinery and intelligence. Mind, 59 (236), 433-460.

– Searle, J. (1980). Minds, Brains and Programs. The Behavioral and Brain Sciences 3, 417-424.

– Apuntes (encubiertos, jeje) de Psicología de la Inteligencia, impartida por Pablo Adarraga Morales (Facultad de Psicología, UAM).

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s