Home MundoTec Software Código fuente Tutorial / pdf Minijuegos
Cerrar

Tutorial La Inteligencia Artificial

Tutorial LA INTELIGENCIA ARTIFICIAL.







la inteligencia artificial

La psicología cognitiva ha adoptado la metáfora del ordenador para pensar sobre la mente. La mente procesa la información, la codifica, la almacena y la recupera como un ordenador. Nuestro cerebro es el hardware sobre el que corren programas que nos permiten hablar, ver o pensar (el software). La Inteligencia Artificial adopta la imagen especular y, en su versión fuerte, no de manera metafórica sino literal: Un ordenador es una mente. Los circuitos son distintos a los del cerebro y los programas con frecuencia también, aunque produzcan resultados semejantes a la conducta humana; pero cuando estos se ejecutan, la máquina piensa, igual que la mente cuando procesa la información. La cuestión es, ¿puede una entidad con unos muy limitados sentidos artificiales, esto es, sin visión artificial, aunque tal vez con sensores de distancia o con percepción de contornos y formas pero sin reconocimiento semántico de las mismas; sin nariz electrónica, aunque con un tacto simple, sin apenas oído para localizar sonidos en el mejor de los casos; con efectores sin la flexibilidad ilimitada de las extremidades humanas, si posee alguno, con prótesis mecánicas, sin emociones, sin necesidades ni sentido común como son la mayoría de los ordenadores y robots, ser consciente del mundo, tener sentimientos, autoconciencia o teoría de la mente?

ROBOCOG

Robocog

COG es un proyecto a largo plazo que se está llevando a cabo en MIT (Instituto Tecnológico de Massachusetts). El objetivo final es construir un robot humanoide capaz de interaccionar con el ambiente y con los seres humanos. La idea subyacente al proyecto es que COG aprenda mediante la interacción espontánea con su entorno; esa interacción le permitirá crecer y, si el proyecto tiene éxito, madurar hasta la conciencia, de un modo parecido al crecimiento de un niño. El proyecto está todavía en la fase inicial. ¿Llegará un día en que COG sea un ser consciente? Sólo con considerable dificultad, puedo recordar la era original de mi ser: Todos los eventos de ese periodo aparecen confusos e indistintos. Una extraña multiplicidad de sensaciones creció en mi, y yo vi, sentí, escuché y olfateé, al mismo tiempo; y transcurrió un largo tiempo antes de que aprendiera a distinguir las operaciones de mis varios sentidos... «Estaba oscuro cuando desperté; Sentí frío también, y medio congelado, instintivamente, me encontré desolado... Pronto una amable luz desde los cielos me produjo una sensación de placer. Me levanté, y una forma radiante surgió de entre los árboles...» Mary Shelley, Frankenstein o el Moderno Prometeo

Puede la ciencia construir al monstruo de Frankestein? ¿Por dónde es mejor empezar? ¿Por robots pensantes o por robots «obreros», que «simplemente» alcanzan objetos, agarran cosas, andan...? ¿Para que le sirve la conciencia a un computador, si ésta es un luchador por fines que se desarrolla ante la incertidumbre? En la evolución, la mente fue cambiando su complejidad, posiblemente al principio se parecía más a un timbre o a un despertador, esto es, a un sistema de alarma; tal vez, con el paso del tiempo llegó a ser como una lavadora o una calculadora o una cámara de fotos o un GPS (en resumen, una máquina de propósito específico), que servía para hacer un mapa del entorno, para orientarse o para reconocer a los miembros del grupo o a los depredadores. Uniendo máquinas de propósito específico y combinando funciones tal vez pudiera surgir con el tiempo un ordenador, esto es, una máquina de propósito general, que igual serviría para oír música que para ver una película o hacer la declaración de la renta o escribir un libro... Durante todos estos millones de años, fueron cambiando las condiciones del entorno, la disponibilidad de alimentos, el clima, etc Generándose adaptaciones, reorganizando funciones... De modo que el cerebro humano es resultado de la acumulación del viejo cerebro sensoriomotor reptiliano, del emocional cerebro mamífero y del inteligente neocortex.
Respecto a las máquinas, debemos destacar que el ordenador no tiene hambre ni sed o sueño, tampoco se mueve, carece de cuerpo, no recibe recompensas ni castigos, no imita a sus congéneres ni tiene empatía. ¿Para qué le serviría la conciencia a un ordenador? ¿Para luchar por la supervivencia? ¿Para lamentar su estado? ¿Para tener autoconciencia? Creemos que no es posible la autoconciencia sin un cuerpo, o la teoría de la mente sin la experiencia de las emociones. Desde este punto de vista el ordenador carece de conciencia. No obstante el ser humano tiende a «ver» caras en todos sitios, en las nubes por ejemplo, y a atribuir intenciones a todo («El cajero automático no me quiere dar dinero o no reconoce mi tarjeta»). Debemos dejar claro que este capítulo sobre inteligencia artificial no debería figurar en esta parte del libro salvo por su adecuación para poner en evidencia las limitaciones que tenemos para pensar sobre la inteligencia y la conciencia. Pensamos que la inteligencia es una entidad extracorporea, que tiene que ver con el cerebro pero no tanto con el cuerpo y su movimiento. Incluso pensamos que es extracerebral o independiente de su soporte físico, pues la puede poseer un cerebro hu- mano y un ordenador. La identificamos sobre todo con inteligencia verbal, como veremos con la prueba de Turing para demostrar inte- ligencia, olvidando las inteligencias múltiples, por ejemplo la espacial, la musical, la kine- mática o la espiritual: ¿Saben de música los ordenadores, son creativos, creen en Dios, bailan bien...? Muchos sistemas de inteligen- cia artificial son sistemas expertos, en jugar al ajedrez, en reconocer voces o caras, en derecho o medicina, pero carecen de sentido común y no entienden frases fáciles para un niño de tres años, como «el fuego quema». Por último, con el argumento de la caja china de Searle se pone de manifiesto como desde el sentido común pensamos que la inteli- gencia es un hombrecillo dentro de nuestra cabeza, el enano que habita dentro de las primeras maquinas de ajedrez, el conductor del robot Mazinger Z, el auriga que quizás los ordenadores jamás tendrán, la fuerza in- terna. De otro lado, también pensamos que la inteligencia debe ser reducible en último término a disparos neuronales y que viene determinada por la genética sobre todo. Los ordenadores no tienen redes de neuronas pero si circuitos equivalentes, igual que un corazón artificial es una versión simplificada de uno real. Los ordenadores no se ven afectados por la herencia, aunque existen ordenadores de enésima generación y se habla de algoritmos genéticos.
Planteada nuestra posición, sin cuerpo no hay mente, veamos la polémica sobre la inteligencia artificial, entendida como la capacidad de pensar, desde puntos de vista contrarios y clásicos. Nos servirá, con todas las limitaciones anteriores, para ver como razonamos a la hora de atribuir mente a un objeto.

LA PRUEBA DE TURING

La prueba de Turing

Alan Turing se puede considerar el padre de la Inteligencia Artificial (IA). Siendo el autor del concepto de computadora, predijo que la máquina podría llegar a adquirir una capacidad comparable con la inteligencia humana. Para poner fin a las posibles discusiones sobre qué es la inteligencia y si es plausible o no atribuirla a una máquina, en el año 1950 propuso la llamada Prueba de Turing (o también «juego de imitación») para examinar la inteligencia de una máquina. La prueba se basa en la idea de que la interacción verbal constituye un medio en el que la inteligencia se hace más patente. En el test de Turing una persona (juez) ha de mantener una conversación (por medio de un interfaz y un teclado) con el sistema de IA y con un humano. Si el juez no es capaz de discriminar con una probabilidad superior al azar cuál de los dos participantes es el ordenador, se puede considerar que el sistema posee una inteligencia comparable a la humana. El test de Turing despertó diversas polémicas filosóficas. A continuación voy a presentar dos posiciones opuestas. En primer lugar, hablaré de la postura de Daniel C. Dennett, un defensor feroz de la IA. Como una visión contraria, comentaré el argumento de la habitación china de J.Searle. En ambos casos trataré de responder a dos preguntas fundamentales:
a) ¿Constituye el Test de Turing una prueba suficiente de la presencia de inteligencia en una máquina?
b) ¿Es posible construir un sistema capaz de superar el juego de imitación?

El punto de vista de Daniel C. Dennett (la versión fuerte de la Inteligencia Artificial)

a) Según Dennett, el test de Turing tiene cierto parecido a la práctica que se utiliza en las orquestas sinfónicas. Cuando se realiza un concurso, el músico está separado del tribunal por medio de una pantalla opaca. Esto evita que influyan características tales como el sexo, el atractivo físico o la longitud de pelo en la decisión del tribunal. Los miembros del mismo pueden verse influidos por estas características sin ser conscientes de ello. Del mismo modo, podemos ser reacios a atribuir la inteligencia a algo/alguien que no sea de carne y hueso. El test de Turing anula un posible chauvinismo organicista por parte de los jueces.
Si no se examina el «juego de imitación» con detenimiento, es posible subestimar la severidad de la prueba y las exigencias que plantea para el sistema que quiera superarla. A pesar de que existe un universo de posibles pruebas de inteligencia, la ventaja del test de Turing reside en su gran potencial para poner a prueba una amplia gama de habilidades. Probablemente ningún sistema sería capaz de pasarlo sin exhibir, al mismo tiempo, una multitud de conductas inteligentes. De este modo, la prueba garantizaría y predeciría el éxito de la máquina en otras pruebas alternativas. Como objeción a la validez de la prueba se puede plantear la posibilidad de crear un programa que almacene en la memoria todas las preguntas y respuestas «inteligentes» y un mecanismo que busque la reacción adecuada a las cuestiones que plantee el juez. Sin embargo, la conversación implica la posibilidad de proponer cualquier tema y, por lo tanto, exige que el sistema posea un amplio conocimiento del mundo. Tendría que ser capaz de descifrar las expresiones ambiguas («La comisión no permitió la presentación del grupo porque temían la violencia.»), de comprender metáforas, conversar sobre el arte, etc. Ningún sistema imaginable sería capaz de manejar esta explosión combinatoria de temas y tópicos por medio de una búsqueda mecánica (no inteligente) en su memoria. Para ilustrar este hecho, imagínense una versión muy limitada de la prueba, en la que la conversación se restringe a un vocabulario básico de tan solo 850 palabras, sólo se permiten oraciones simples de cuatro palabras y el juez no puede plantear más de 40 preguntas. ¿Cuál es el número de posibles conversaciones bajo estas condiciones? Nadie ha intentado calcularlo pero seguramente excede el número de posibles partidas de ajedrez con no más de 40 movimientos. Este número va por 10 a la 120. Desgraciadamente, sólo llevamos unos 10 a la 18 segundos desde el principio del universo.
De hecho, la explosión combinatoria es uno de los problemas principales a resolver tanto por los diseñadores de IA como para los científicos cognitivos. De ahí que algunos autores (Newell, Simons) planteen que la superación de la explosión combinatoria puede considerarse como un signo de inteligencia. En conclusión, según Dennett la Prueba de Turing constituye un medio suficiente para detectar la presencia de la inteligencia. Sin embargo, hay que hacer una matización. Si aceptamos que para pasar el test hay que ser capaz de pensar, ¿significa ello que no pasarlo implica no pensar? Dennett afirma que no. Puede ser que existan formas de inteligencia que simplemente no están hechas para ganar el juego. Es cierto que hoy día quizá no tenemos ninguna máquina capaz de pasar la prueba pero sí existen sistemas informáticos que exhiben algunos rasgos característicos del pensamiento. ¿Se puede hablar de conciencia? Pongamos un ejem- plo ilustrativo. Consideremos la forma más cruda y simple de la «conciencia» –la de un cangrejo–. El cangrejo come cuando tiene hambre pero nunca se come a sí mismo. Por consiguiente, posee alguna manera de distinguirse a sí mismo del resto del mundo. Del mismo modo, los ordenadores actuales son sistemas capaces de vigilar y monitorizar su propia actividad. ¿Piensan realmente? En ciertos aspectos sí, en otros no. De todos modos, la mayoría de nosotros concebimos la conciencia como una cualidad que va mucho más allá de «no comerse a sí mismo». Como una luz interna que ilumina el teatro de la mente. Según Dennett, esta intuición que parece de sentido común es una ilusión. En ningún nivel de análisis del cerebro, aparece la conciencia – sólo nos encontramos con una masa pulsante de neuronas. Sin embargo, el cerebro sí es consciente y posee la inteligencia. Del mismo modo, cuando levantemos el casco de un sistema de IA, nos encontraremos con un caos de chips. Determinar como un ordenador podría ser consciente es el mismo reto para la ciencia que descubrir de dónde emerge la conciencia de un encéfalo humano.
b) Ahora vamos a trazar los argumentos que ofrece Dennett para respaldar su postura favorable a la IA. Según Dennett, la conciencia es el resultado de la actividad de las neuronas y módulos de procesamiento distribuidos en paralelo. No es una entidad y no se encuentra en algún lugar del cerebro. De ser así, tiene que ser posible replicar la actividad neuronal en un sistema informático.

Aplicaciones de la IA en la vida cotidiana

Son muchas, y con frecuencia pasan desapercibidas. Citamos sólo algunas.
1. Robots. Perros-robot, muñecas, robots-compañeros, robots para cuidar niños, jugar al fútbol, degustadores, recepcionistas, para pasear minusválidos, WWWrobots... Id a Japón o consultad la web: The web Robots Pages o robocog, can robots, Papero de NEC Corporation, Nagar-3 de Gifu Industries, Mujiro de tmsuk Co., Wakamaru de Mitsubishi, i- foot de Toyota, Toyota partner robot... En general sustituyen a seres vivos en la interacción social afectiva.
2. Videojuegos sobre drogas, sexo, violencia, deportes, de rol, guerras...Sirven para entrenar la atención y pueden crear dependencia psíquica. Como los Sims o Final Fantasy.
3. Domótica. Casa inteligentes, que regulan el consumo energético y crean comfort y hogar mientras tú estas en el trabajo.
4. La ingeniería computacional: Redes neuronales artificiales, algoritmos genéticos y evolutivos, lógica difusa (para tratar el conocimiento incierto o impreciso), sistemas híbridos de tecnología web e inte- ligencia computacional como CWI... Que sirven para el diagnóstico, reducir bases de datos, extraer el significado de las mismas, clasificar, analizar secuencias... Y se utilizan en la clínica o tienen aplicaciones industriales como sensores de presión en la industria aeroespacial, para optimizar el tratamiento con radioterapia de manera que se destruya el tumor pero no el tejido sano, en la determinación del genoma humano, para regular las demandas de gas en función de variables atmosféricas, para dirigir robots móviles que evitan obstáculos...
5. La eliminación del silencio y sus- tituir a la voz interior por la conexión electrónica, pues las personas hoy día caminan conectados a cualquier cosa menos a ellos mismos, como el teléfono-movil, dispositivos IPED, BlackBerry...
6. Dispositivos electrónicos auxiliares de la memoria o la orientación, utilizados por ejecutivos y en la rehabilitación neuropsicológica tras daño cerebral, como agendas electrónicas, dispositivos GPS...
7. La capacidad para organizar manifestaciones, crear foros, traficar con información... de la red. Su papel en la globalización.
8. El surgimiento del “Inter-paciente” que cuestiona los juicios clínicos del médico, el veterinario o el profesor, pues busca la información en buscadores...

Existe una serie de objeciones en contra de este planteamiento que Dennett va a refutar:
1. Objeción dualista: Los robots son artefactos materiales y la conciencia requiere una entidad inmaterial.
Según Dennett, detrás de las objeciones de algunos autores (incluido Searle), de hecho, está un dualismo encubierto, un deseo muy arraigado en todos nosotros – él de proteger el cerebro de la ciencia. Los «misterios» de la vida van concediendo sus secretos a la ciencia (por ejemplo, el misterio de la vida a través del descubrimiento del ADN). No hay razón alguna para considerar que la conciencia sea una excepción.
2. Los robots son inorgánicos y la conciencia requiere un cerebro orgánico; los robots serán siempre demasiado sencillos y su procesamiento demasiado lento como para ser conscientes.
Es cierto que la complejidad de la bioquímica cerebral es abrumadora. Sin embargo, en la actualidad la ciencia es capaz de imitar y suplir el funcionamiento de algunos órganos. Por ejemplo, el corazón artificial funciona realmente bien, aún siendo muchísimo más sencillo que un corazón orgánico. La construcción de un ojo artificial ya está en el horizonte. Si es posible con el corazón y el ojo, ¿por qué no con el cerebro? No hay ninguna objeción lógica en contra de la posibilidad de sustituir cada uno de los módulos cerebrales por un circuito electrónico. Con todo, de modo análogo al caso del corazón artificial, para construir un cerebro artificial probablemente no sea necesario hacer una copia sinapsis por sinapsis.
En conclusión, la conciencia y la inteligencia no son más que los disparos de las neuronas. El funcionamiento de los circuitos cerebrales es replicable por medios informáticos, sea como una réplica exacta o, mejor, utilizando simplificaciones que darán los mismos resultados funcionales. Dennett sugiere que el método más viable de crear una máquina consciente es construir un robot dotado de la capacidad de interaccionar con el ambiente de un modo similar al nuestro, y aprender. Así va a crear su propia representación mental del mundo y, finalmente, su propia conciencia.

LA HABITACION CHINA DE J. SEARLE

Habitacion china

J. Searle, eminente filósofo de la Universidad de Berkeley, propone un sencillo experimento mental para demostrar que un sistema de IA no puede poseer conciencia. Imaginemos que encierran al mismo Searle en una habitación donde hay fichas con símbolos chinos y unos cuadernos con reglas en inglés de cómo manipularlas. Fuera de la habitación hay un grupo de hablantes de chino nativos, que le hacen preguntas por escrito. Searle dentro de la habitación emplea el manual en inglés para correlacionar los signos chinos de entrada con otro conjunto de signos y responde, empleando las «fichas de respuesta». Desde el punto de vista de las personas fuera de la habitación, las respuestas que da Searle no se pueden distinguir de las de un hablante de chino. Sin embargo, la persona dentro no tiene ni idea – sólo está manipulando símbolos formales, carentes de significado. Searle dice: «Es bastante obvio que no entiendo ni una palabra en chino, aún teniendo la entrada y salida idéntica a la de un hablante nativo. Del mismo modo podría ejecutar cualquier otro tipo de instrucciones formales (programa), sin entender nada.»
En consecuencia, cualquier simulación de un fenómeno mental humano no deja de ser una simulación. No importa lo inteligente que parezca la conducta de un ordenador. Como los símbolos que manipula carecen de significado para él, no puede considerarse que es realmente inteligente. No piensa de verdad. Sus procesos internos son puramente sintácticos, el sistema no asocia ningún significado a los símbolos y, por lo tanto, no puede tener estados mentales intencionales.
Searle ofrece el siguiente razonamiento derivado de su experimento mental: A1) Los programas informáticos tienen carácter formal (sintáctico) A2) La mente humana tiene contenidos (significado, semántica) A3) La sintaxis por sí misma no constituye el significado ni es suficiente para dar lugar al mismo.

La conclusión es:
C1) Los programas no pueden constituir ni son suficientes para crear la mente.
Al principio planteamos dos preguntas:
a) Si era plausible el Test de Turing como prueba de la presencia del pensamiento en una máquina. Y b) ¿Es posible construir una sistema capaz de pasar la prueba?
Searle no niega la posibilidad de construir tal máquina. Pero responde que el Test de Turing no es suficiente para atribuirle conciencia o pensamiento ya que, según demuestra el argumento de la caja china, es posible pasar un test conductual sin pensar, sólo ejecutando un programa formal.

Objeciones a la habitación china y respuestas de Searle

En este párrafo presentaremos los argumentos más importantes en contra del planteamiento de la Habitación china.

Objeción sistémica
El ejemplo de Searle hace que nos centremos en un solo componente de la habitación – la persona dentro. Searle encerrado en la habitación forma parte del sistema y aunque él no entienda chino, el sistema considerado como un todo sí puede entenderlo.
Para refutar esta respuesta Searle propone que imaginemos un individuo que memoriza todas las reglas y signos, y realiza la búsqueda y las operaciones necesarias en su cabeza. Ahora, la persona es el sistema y sigue sin entender nada. Para Searle, el ordenador no tiene conciencia, el usuario sí: El usuario da el significado al resultado de los cómputos en pantalla.

El simulador cerebral
Si creamos un programa implementado en un ordenador (o en la persona dentro de la caja china), que simule la secuencia exacta de los disparos neuronales en un hablante de chino que comprende y responde a las preguntas, tenemos que aceptar que la máquina comprende el chino, ya que a nivel sináptico no hay ninguna diferencia entre el programa ejecutado y un cerebro chino. Si no, también habría que negar a una persona china la capacidad de comprender su idioma.
Searle responde que este acercamiento tampoco es suficiente y cambia el escenario de la caja china para demostrarlo. En lugar de operar con símbolos, el hombrecillo ahora manipula una compleja red de tuberías de agua y válvulas. Teniendo una determinada entrada de signos chinos, las instrucciones le dicen qué válvulas ha de cerrar y cuáles abrir, de forma similar a la propagación de excitaciones e inhibiciones en un cerebro chino. En cuanto ejecute el programa y el agua esté correctamente distribuida por el sistema, en la parte de salida aparecerá la respuesta en chino. Sin embargo, es evidente que las tuberías, y tampoco el hombrecillo, entienden nada de chino, aunque están copiando perfectamente la estructura formal de las sinapsis neuronales.

Otras mentes
Este argumento pretende recordarnos el simple hecho de que la única manera de saber si una persona comprende chino o no, es observando su conducta. En consecuencia, si un ordenador supera las pruebas conductuales, tenemos que atribuirle el pensamiento, del mismo modo como lo atribuimos a un ser humano. Según Searle, este planteamiento no es acertado. La cuestión no debería ser «cómo sabemos que las otras personas piensan» sino «qué es lo que les atribuimos al decir que piensan». Y ese «algo» no son sólo procesos computacionales porque estos pueden existir independientemente del pensamiento (Lo cual se ha demostrado con la Caja china.)

Las objeciones de Dennett
Uno de los atacantes más perseverantes de la Caja china es, por supuesto, Daniel Dennett, que considera que el argumento de Searle carece de validez científica. Según Dennett, Searle insiste indebidamente en un punto de vista subjetivo desde la primera persona, desde dentro de la caja china. Esto no es correcto ya que una aproximación empírica requiere una observación objetiva desde fuera. La pregunta «¿Piensan los ordenadores?» se plantea en tercera persona. Por lo tanto, requiere también una aproximación de tercera persona.
A la posición de Searle, afirma Dennett, subyace un dualismo encubierto. La caja china se parece más a una objeción teológica en contra de IA que se oculta bajo la máscara de un argumento científico serio. Searle ha construido una situación intuitiva ad hoc, que apunta en una conclusión falsa.

Conclusión

Dennett insiste en los principios científicos – la evidencia sugiere que la inteligencia y la conciencia emergen de los disparos neuronales. Entonces, para crear una mente no hace falta nada más que replicar esos procesos cerebrales. Por otro lado, la caja china de Searle apela a nuestra intuición y al sentido común. Sin embargo, al hablar de experiencia consciente estamos considerando una experiencia subjetiva – por lo tanto, ¿no es lógico adoptar un punto de vista intuitivo y subjetivo? Y Searle insiste – la habitación china no puede pensar, el pensamiento no es igual a la computación. Del mismo modo que la simulación de un coche no nos lleva de Madrid a Praga, la simulación de un cerebro no da lugar a una mente consciente.
Con todo, incluso si Searle está en lo cierto, hay que hacer una matización: Demostrar que el pensamiento no es reducible a la computación, no implica demostrar que la conducta de una máquina u ordenador carezca de intencionalidad. ¿Llegará un día en que el hombrecillo de Searle romperá las paredes y saldrá fuera de la caja?

Aplicación práctica

Ver la película de Spielberg sobre la IA. Buscar en Internet, en un buscador como Google. Comparar a un perrito robot con una mascota real. Buscar información sobre el «científico-loco» y hombre-maquina Kevin Warwick. Existe un programa informático, el Hit Song Science (HSS), que evalúa la probabilidad que tiene una canción de convertirse en éxito. Existen autómatas que piensan y formulan hipótesis (invención de los investigadores Ross King y Stephen Oliver, de las universidades de Gales y Birmingham). Los ordenadores también utilizan la lógica difusa, propia de los humanos. El ingeniero informático de Silicon Valley Jeff Hawkins programa ordenadores que funcionan como nuestro córtex cerebral mediante el contraste de hipótesis. El científico Kim Jonh-Hwam de Corea del Sur desarrolla robots con cromosomas, capaces de sentir pasión, reproducirse y tener personalidad.

Experimento mental

En lugar de pensar en los ordenadores como seres, ¿es en eso en lo que se convierten al poseer conciencia?, piensa en los seres humanos como autómatas programados: ¿Somos robots? Nuestra conducta y nuestro pensamiento es la consecuencia de la activación de programas, puestos en marcha por los estímulos adecuados, ya sean innatos o aprendidos. Un algoritmo o programa es una secuencia de pasos elementales que se pone en marcha ante la presencia de su estímulo adecuado y no se detiene hasta ofrecer su resultado. El programa motor que nos permite andar. El programa que nos permite construir frases y conversar. El programa que nos conduce a hacer café, a volver a casa al salir del trabajo, a saber comportarnos en un restaurante, a amar y reproducirnos... Todo es una secuencia de pasos que seguimos sin darnos cuenta o de un modo ciego. Una vez puestos en marcha, los programas no se interrumpen fácilmente. ¿Puede un ordenador «decidir» cuando inicia la ejecución de uno de estos programas, aunque el estímulo desencadenante esté ausente? ¿Puede un ordenador interrumpir un programa en curso en función de una condición no establecida en el mismo? ¿Puede hacer esto un ser humano? ¿Sueñan los ordenadores? ¿Sueñan los humanos? ¿Nuestro pensamiento inconsciente y sus acciones resultantes son sólo el resultado de «correr» algoritmos? Si la conciencia es el eco interno que produce nuestro pensamiento, de manera que comprender es oirnos (autoaudición, retroalimentación), los ordenadores no son conscientes, aunque podrían incorporar un mecanismo de retroalimentación continua que cambiase sus instrucciones y su función —como maquinas de propósito general que son— ante las circunstancias, mostrando así flexibilidad cognitiva.

Pensamiento crítico

Tal vez pasar la prueba de Turing sea más fácil de lo que parece, con trucos, utilizando un reducido número de expresiones del tipo «ajá», «ya veo», «Bien, bien», repetir la última palabra de la frase dicha por el juez, o frases como «no sé que decirte en este momento». Se cuenta que así funcionó un ordenador que simulaba a un doctor psicoanalista, que consiguió muchos pacientes, quienes deseaban volver a visitarlo pues se sentían escuchados. Parece que no es la inteligencia del ordenador, sino la candidez humana de nuevo. El ordenador Eliza pasa la prueba de Turing –ver a través de un buscador The Turing test page, en direcciones de Internet–. Pasamos horas en Internet, sobre todo para chatear con otros humanos, que es más divertido, y buscar cibersexo, ciberemoción y ciberamigos. Esto es una variante de la prueba de Turing (tal vez su reverso), un test que todos quieren pasar, donde manda la mentira pero nos evita el miedo a los ojos del otro y el fracaso emocional.