Cómo construir una inteligencia autoconsciente.

Créditos de la imagen: Olga Victoria – Robots Sticker

A veces encuentro textos que, a mi entender, son verdaderos tesoros. Este ensayo del escritor de ciencia ficción, Hugh Howey, sobre inteligencia artificial y conciencia es uno de ellos. Por lo que sé del tema da una perspectiva bien fundamentada de las áreas de conocimiento que toca, aunque hubiera agradecido tener a mano las referencias en las que se ha basado para afirmar lo que dice.

Por eso, a pesar de lo mucho que me han gustado sus palabras, advierto que este contenido hay que tomarlo con cautela; que sirva más para reflexionar que para darlo por cierto. Aún así, si estás dispuesto a leer esta parrafada que me he molestado en traducir (aviso que me he tomado bastantes licencias), puede que acabes con algunas ideas que antes no estaban ahí, ideas interesantes, poderosas y que completan la visión que tenemos de lo que es la inteligencia, el cerebro y la evolución de humanidad. 

Que lo disfrutes.

Artículo original:
How to Build a Self-Conscious Machine

Lo más extraordinario del universo

El universo está lleno de maravillas: estrellas de neutrones tan densas que, si fuera posible colocar sobre una báscula una cucharadita de su materia, pesaría toneladas; agujeros negros supermasivos de los que la luz no puede escapar en su esfera de influencia; neutrinos infinitesimales que podrían fluir a través kilómetros y kilómetros de acero sólido; y aquí en la Tierra, las extraña flora y fauna con la que convivimos.

Podría ser un pensamiento egoísta, pero de todas las cosas que conocemos del universo, la más asombrosa es, seguramente, la materia pegajosa del interior de nuestros cráneos. Esa porción de sustancia entiende los fenómenos antes mencionados e incluso sabe un poco de sí mismo. Ese órgano vital ha resuelto verdades matemáticas, medias verdades morales y ambigüedades filosóficas. Ha extraído, del suelo bajo nuestros pies, todo lo necesario para hacer nuestras grandes ciudades, nuestros coches, jets y cohetes, y los cables y señales inalámbricas que están convirtiendo estas dispares masas viscosas en una gran colmena de creatividad, conocimiento y a veces, de crueldad.

No hay argumento que contradiga que nuestros cerebros no son lo más genial de la historia, porque dicho argumento no existiría sin esos cerebros. Son el sustrato de todo argumento y discusión. Fin de la discusión.

Hasta ahora, al menos. Algún día, algo puede ser hallado o construido que también sea capaz de descubrir, crear, discutir, engatusar o ser cruel. Podría aterrizar en naves desde tierras lejanas (muy improbable) o surgir como resultado de un esfuerzo conjunto (casi seguro). Y estas nuevas máquinas de pensamiento superarán, sin duda alguna, las maravillas que nuestros cerebros han conseguido. Así como un niño crece más alto que sus progenitores y alcanza nuevas cotas, mientras que sus padres decaen, nuestras creaciones ocuparán su lugar como lo más extraordinario del universo. Varios expertos argumentan que esto empieza a ser una realidad.

La inteligencia artificial está aquí. En laboratorios de todo el mundo, las pequeñas IA están cobrando vida. Algunas juegan al ajedrez mejor que cualquier humano. Algunas están aprendiendo a conducir un millón de coches con miles de millones de kilómetros a su espalda y tienen el potencial de salvar más vidas que la mayoría de los médicos y sanitarios durante toda su carrera. Algunas se asegurarán de que nuestros platos estén secos y sin manchas, o de que la ropa esté debidamente planchada y sin arrugas. Innumerables de estas inteligencias están siendo construidas y programadas; no sólo se volverán más inteligentes y penetrantes; van a ser mejores que nosotros, pero nunca serán como nosotros. Y eso es algo bueno.

Lo que nos separa de las otras formas de vida en la Tierra es el grado en que somos autoconscientes. La mayoría de los animales son conscientes. Muchos son incluso autoconscientes. Pero los humanos son algo que me gusta llamar hiperconscientes. Hay un amplificador en nuestros cerebros conectado a nuestras conciencias, y va a tope. 

Va a tope y no tiene volante.

El origen de la consciencia

No hay un día en concreto en el que un ser humano se vuelve autoconsciente. No puedes escribir la fecha en un libro, ni tomar una foto del momento exacto y compartirlo en Instagram, ni celebrar el aniversario en años venideros. Ocurre gradualmente, por etapas (y se desarrolla progresivamente, también en etapas).

La conciencia humana se va encendiendo como las luces viejas que cuelgan de un antiguo gimnasio. Si pulsas un interruptor, no pasa nada al principio. Luego hay un ruido, un tenue resplandor de una bombilla aquí o allá, una fila que parpadea, temblorosa al principio, y luego más luces, un zumbido ascendente acompaña a la iluminación que finalmente participa en el acto y crece en intensidad hasta que su pico completo ocurre media hora más tarde.

Es así. Salimos del vientre materno sin darnos cuenta de nosotros mismos. Tardamos mucho tiempo en comprender que nuestras manos son extensiones de nosotros mismos. Aún más tiempo en darnos cuenta de que tenemos cerebros y pensamientos separados de los cerebros y pensamientos de otras personas. Más aún para lidiar con los desacuerdos y las necesidades de esas otras personas. Y para muchos de nosotros —posiblemente para la mayoría—, nunca sucede ningún tipo de verdadero autoconocimiento y auto-alumbramiento. Porque rara vez nos detenemos a reflexionar sobre tales trivialidades. La vida no examinada y todo eso…

El campo de la IA está lleno de gente que trabaja para replicar o simular varias características de nuestra inteligencia. Algo de lo que están seguros de replicar es la manera gradual en que nuestra conciencia se enciende. Mientras escribo esto, el gimnasio está vibrando. Una luz en la distancia, sobre las lejanas gradas, está zumbando. Otras parpadean. Aún más se están encendiendo.

El Santo Gr•IA•l

El santo grial de la investigación de la IA fue establecido antes de que la investigación de la IA comenzara realmente. Uno de los pioneros de la informática, Alan Turing, describió una prueba para identificar máquinas «pensantes»: ¿Podrían pasar por humanas? Desde entonces, la humanidad ha soñado —y ha tenido pesadillas colectivas— con un futuro en el que las máquinas son más humanas que nosotros mismos. No más inteligentes —que ya lo son en muchos aspectos—, pero sí más neuróticas, violentas, belicosas, obsesionadas, taimadas, arteras, creativas, apasionadas, amorosas, y así sucesivamente.

El género de la ciencia ficción está repleto de historias así. Y sin embargo, a pesar de que estas inteligencias superan a los seres humanos en casi todos los campos intelectuales en los que entran, no parecen estar más cerca de ser como nosotros, mucho menos igual que nosotros.

Esto es bueno, pero no por las razones que sugieren películas como Terminator y Matrix. La razón por la que no hemos hecho máquinas autoconscientes es principalmente porque estamos negando lo que nos hace autoconscientes. Los fenómenos que nos hacen autoconscientes no son tan halagadores como pensamos. La autoconciencia no es ni siquiera demasiado útil.

Tal vez lo mejor que puede provenir de la investigación de la IA no es una comprensión de las computadoras, sino más bien un entendimiento de nosotros mismos. Los retos a los que nos enfrentamos en la construcción de máquinas que piensan, resaltan los pequeños milagros de nuestra propia sustancia bioquímica. También ponen de relieve nuestras deficiencias. Para replicarnos, primero tenemos que abrazar, tanto los milagros, como las debilidades que nos definen.

A continuación presento, en una guía breve, sobre cómo construir una máquina autoconsciente, y por qué nadie lo ha hecho hasta la fecha (y menos mal).

El Proyecto

El proyecto para fabricar una máquina autoconsciente es sencillo.

Necesitas:

1. Un cuerpo físico o aparato que responde a estímulos externos. Este podría ser un automóvil cuyo limpiaparabrisa se enciende cuando percibe que llueve, o que frena cuando un niño se pone delante de él. No hay problema, ya los estamos construyendo.

2. Un motor lingüistico. Tampoco hay problema. Podría ser un coche con cientos de luces e indicadores diferentes. O puede ser tan experto lingüísticamente como Watson de IBM.

3. El tercer componente es un poco más inusual, y no sé por qué alguien fabricaría uno excepto para reproducir el desastre de la evolución. Este componente final es una parte separada de la máquina que observa su propio cuerpo y se inventa historias acerca de lo que está haciendo, historias que generalmente son erróneas.

Nuevamente: (1) Un cuerpo que responde a estímulos; (2) un método de comunicación; y (3) un algoritmo que intenta —con poco éxito— deducir las razones y motivaciones para esta comunicación.

El ingrediente crítico aquí es que el algoritmo que debe ser, en general, incorrecto.

Si esto te confunde, no te preocupes, es normal. La razón por la cual nadie ha construido una máquina autoconsciente es que la mayoría de las personas tienen una idea equivocada sobre lo que es la conciencia y cómo surgió en los humanos. Así que tomemos un desvío. Volveremos a este camino más adelante para describir cómo se puede programar dicho algoritmo.

Lo que nos hace humanos

Para entender la conciencia humana, uno necesita sumergirse profundamente en el estudio de la Teoría de la Mente. Es una pena que este concepto sea desconocido, porque consume la mayor parte de nuestra potencia de cálculo durante la mayor parte de nuestras vidas. Nuestros cerebros han sido comparados con poco más que máquinas de la Teoría de la Mente —casi todo nuestro poder de procesamiento de nivel superior es desviado a esta singular tarea. Entonces, ¿qué es la Teoría de la Mente, y por qué este tema se discute poco si nuestros cerebros están tan dedicados a ello?

La Teoría de la Mente es el intento del cerebro de determinar el contenido de otro cerebro. Es Sofía preguntándose qué está pensando Juan. Sofía crea teorías sobre el estado actual de la mente de Juan. Ella lo hace para intentar adivinar lo que Juan podría hacer después. Si lo piensas, ningún poder es mayor para un animal social y tribal como nosotros los humanos. Durante miles y miles de años hemos vivido muy cerca unos de otros, dependiendo unos de otros de una manera análoga a las abejas, hormigas y termitas. A medida que nuestros comportamientos y pensamientos se volvían más y más complejos, se hizo crucial para cada miembro de la tribu tener una idea de lo que los otros miembros estaban pensando y qué acciones podrían realizar. La Teoría de la Mente es espionaje intelectual, y somos bastante buenos en ello, pero con limitaciones críticas en las que entraremos más adelante.

Sofía adivinando lo que está pensando Juan se conoce como Teoría de la Mente de Primer Orden. Pero esto se vuelve más complejo. Sofía también podría tener curiosidad sobre lo que Juan piensa de ella. Acabamos de aterrizar en la Teoría de la Mente de Segundo Orden, y es la raíz de la mayoría de nuestras neurosis y pensamientos perseverantes. “¿Juan cree que soy inteligente?” “¿Le gusto a Juan?” “¿Juan quiere hacerme daño?” “¿Está Juan de buen o mal humor por algo que yo hice?”

Preguntas como estas deberían sonar muy, muy familiares. Llenamos nuestros días con ellas. Y eso es sólo el principio.

La Teoría de la Mente de Tercer Orden se daría cuando Sofía se pregunte qué piensa Juan sobre lo que que piensa Julia de Tomás. Explicado de forma más sencilla, ¿sabe Tomás que le gusta a Julia? O Sofía podría preguntarse qué piensa Julia de lo que piensa Juan de ella misma. En otras palabras ¿Julia está celosa?  Esto comienza a sonar confuso, pero esto es lo que preocupa a nuestras mentes más que cualquier otro tipo de pensamiento a nivel consciente. Podríamos llamarlo chismorreo, o socialización, pero nuestros cerebros lo consideran su principal deber; su función primaria. Se especula que la Teoría de la Mente, y no el uso de herramientas, es la razón del tamaño relativo de nuestros cerebros.

En un mundo donde las rocas surcan el aire para golpearnos, un buen uso de la potencia de procesamiento es calcular trayectorias y aprender a evitar ser golpeado. Se desarrolla un sentido innato de parábolas, de F=ma, de velocidades cuadradas. En un mundo de humanos que andan trastabillando, un buen uso del poder de procesamiento es calcular dónde estará esa gente la próxima vez, y qué hará cuando llegue allí.

Si este rasgo es tan útil, ¿por qué no son todos los animales autoconscientes? Es muy posible que lo sean. Hay muchas investigaciones que sugieren que muchos animales muestran diferentes grados de autoconciencia. Hay animales que saben que un punto en la imagen del espejo está, de hecho, en su propia cabeza. Algunos animales se comunican con otros animales sobre cómo resolver un rompecabezas para que ambos obtengan una recompensa. Incluso los pulpos muestran una evidencia considerable de ser autoconscientes. Pero así como el guepardo es el animal más rápido en la tierra, los humanos son los reyes de la Teoría de la Mente.

Sin ir más lejos, a veces he observado a mi perro mirándome expectante para adivinar lo que yo podría hacer a continuación. ¿Voy a tirar el palo o no? ¿Voy a comer ese último bocado de comida o voy a compartirlo? Incluso he visto a perros debatirse con preguntas de la Teoría de la Mente de Segundo Orden. Jugando a la lucha libre con un amigo, el perro tiene que medir cuál es mi intención. ¿O es otro juego más? ¿De qué lado debe estar mi perro? (en este ejemplo, ahora, estoy avergonzado de haber puesto a mi pobre cachorro en un enigma tan doloroso para mi propio entretenimiento).

Los perros son un buen ejemplo de la Teoría de la Mente en el reino animal, porque los perros han evolucionado a lo largo de los años para ser sociales con los humanos y para captar nuestras señales de comportamiento. El desarrollo de los IAs autoconscientes seguirá de cerca este modelo, ya que los robots ya se han convertido en nuestros amigos domesticados. Algunos de ellos ya están tratando de adivinar lo que estamos pensando y lo que podríamos hacer a continuación. Hay vehículos que están siendo desarrollados, que leen nuestras caras para determinar hacia dónde se dirige nuestra atención y si tenemos sueño o no. Esta es la Teoría de la Mente de Primer Orden, y se está construyendo en máquinas automatizadas que ya están en camino.

Sin embargo, el desarrollo posterior de estas habilidades no llevará a la autoconciencia. Hay una razón muy simple y elegante para esto, y explica el misterio de la conciencia humana y proporciona los elementos mencionados anteriormente para crear máquinas autoconscientes, algo que podríamos hacer muy fácilmente en el laboratorio hoy en día. Pero pronto verás por qué esto sería una idea terrible. Y no la que se encuentra en la ciencia ficción distópica.

El eslabón perdido

El cerebro humano no es una sola entidad holística. Es una colección de miles de módulos dispares que se rara vez se interconectan a la vez. Nos gusta pensar en el cerebro como un procesador. Incluso podríamos pensar en el cerebro como un ordenador de sobremesa, con una unidad de procesamiento central que está separada de la RAM (memoria a corto plazo), los discos duros (memoria a largo plazo), ventiladores de refrigeración (funciones nerviosas autónomas), fuentes de alimentación (digestión), y así sucesivamente.

Es una analogía divertida, pero increíblemente engañosa. Los ordenadores son dispositivos bien diseñados creados con un propósito unificado. Todos los componentes fueron diseñados alrededor de la misma época para trabajar armoniosamente entre sí. Nada de esto se parece a la mente humana. Ni de cerca. La mente humana es más parecida a Washington, D. C. (o a cualquier gobierno grande o corporación en expansión). Algunas funciones del cerebro fueron construidas hace cientos de millones de años, como las que proveen energía a células individuales o bombean sodio-potasio a través de las membranas celulares. Otras fueron construidos hace millones de años, como las que encienden las neuronas y se aseguran de que la sangre sea bombeada y el oxígeno sea inhalado. Muévase hacia el lóbulo frontal, y tenemos módulos que controlan las conductas y pensamientos mamíferos que fueron colocados en capas relativamente recientemente.

Cada módulo del cerebro es como un edificio separado en una ciudad congestionada. Algunos de estos módulos ni siquiera hablan entre ellos. Los «edificios» que bombean la sangre y los que reflejan la respiración deben mantenerse centrados en sus propias funciones. Los otros módulos son propensos a discutir, discutir, discutir, estar en desacuerdo, subvertirse unos a otros, causarse espasmos incontrolables, dar golpes de estado, enloquecerse y todo tipo de histeria. He aquí un par de ejemplos:

Hace unos meses, mi novia y yo salimos de las Galápagos para ir a ver la polinesia francesa. Se tarda entre dos semanas y un mes en cruzar las 3.000 millas de mar abierto. Mi novia no suele sucumbir al mareo, pero en la zona del Pacífico Sur conocida como la Zona de Convergencia, el mar puso nuestro velero a un ritmo extraño y espasmódico. Ella cayó presa de una terrible sensación de mareo que duró días.

El mareo es un ejemplo de cómo nuestros módulos cerebrales no se comunican bien entre sí. Cuando las señales visuales de movimiento de nuestro entorno no coinciden con las señales de nuestros oídos internos (donde sentimos equilibrio), nuestros cerebros asumen que hemos sido envenenados. Es una suposición razonable para criaturas que trepan árboles comiendo frutos de colores brillantes. Las toxinas interrumpen el procesamiento de nuestros cerebros, lo que conduce a fallos y datos erróneos. No evolucionamos para ir al mar, así que cuando el movimiento no coincide con lo que estamos viendo, nuestros cuerpos piensan que hemos perdido nuestra capacidad de equilibrio. El resultado es que vaciamos nuestros estómagos (nos deshacemos del veneno) y nos recostamos y no sentimos ningún deseo de movernos (evitando que caigamos a una muerte segura desde cualquier rama alta en la que estemos colgados).

No importa que sepamos que esto está sucediendo en un módulo diferente de procesamiento de alto nivel. Podemos saber sin lugar a dudas que no hemos sido envenenados, pero este módulo no va a ganar sobre el módulo del mareo. Habiendo estado mareado yo mismo, y siendo muy curioso acerca de tales cosas, he sentido como los diversos módulos luchan entre sí. 

Ofrezco otro ejemplo de nuestros módulos en batalla los unos con los otros: Hay algunos en nuestro interior que están programados para hacer copias de sí mismos. Estos son los módulos de sexo, y tienen algunos de los edificios más grandes y agradables en nuestro Washington D. C. interno. Estos módulos dirigen muchas de nuestras horas de vigilia, condicionan nuestras relaciones actuales, determinan qué usar y cómo mantener nuestros cuerpos, y mucho más.

Estos módulos reproductivos pueden conseguir que una mujer tenga ganas de vestirse y bailar. Y a los hombres dotarles del impulso de ir a lugares donde las mujeres se visten y bailan mientras que ellos están de pie en los bares bebiendo. Esos módulos incluso pueden llevar a algunas de estas personas a emparejarse y a irse a casa. Y aquí es donde varios otros módulos intervendrán con píldoras, condones y otras herramientas diseñadas para impedir las consecuencias de los impulsos originales que unieron a las parejas en primer lugar. Sin embargo, si esos dispositivos no se emplean, aunque los módulos de nivel superior definitivamente no querían que nadie quedara embarazada esa noche, podría nacer un amoroso bebé, y entonces, otros módulos inundarían los cerebros con cariño y conexiones profundas para ayudar a la crianza de ese niño. Algunos de nuestros módulos quieren que tengamos descendencia. A menudo, los módulos más potentes desean retrasar esto o asegurarse de que se está con la persona adecuada. Los módulos inactivos están a la espera para asegurarnos de que estamos conectados con nuestros hijos sin importar lo que piensen esos otros imbéciles hedonistas e insensibles con esos otros edificios suyos.

Es fundamental tener en cuenta que estos módulos son altamente variables entre la población, y nuestra mezcla única de módulos crea las personalidades que asociamos con nuestro ser singular. Significa que no todos somos iguales. Podríamos tener módulos que ansían la reproducción, aunque nuestros cuerpos no creen espermatozoides, o nuestros óvulos no puedan ser fecundados. Podríamos llevar el módulo de reproducción, aunque el módulo de atracción sexual es para el mismo sexo que el nuestro.

La analogía del ordenador de sobremesa perfectamente diseñada falla espectacularmente, y el fracaso de esta analogía conduce a una legislación y unas costumbres sociales terribles, ya que no podemos tolerar diseños diferentes a los nuestros (o al promedio). También lleva a los investigadores de la IA por caminos erróneos si quieren imitar el comportamiento humano. La falibilidad y la naturaleza desarticulada de los sistemas de procesamiento tendrán que ser construidos por diseño. Tendremos que romper intencionadamente sistemas similares a cómo la naturaleza los asociaba al azar. Tendremos que simular especialmente una característica muy peculiar de esta modularidad, que se combina con la Teoría de la Mente de una manera muy especial. Es esta combinación la que conduce a la conciencia humana. Es la característica más importante de nuestro proyecto para una máquina autoconsciente.

El error más importante

Con el concepto de Teoría de la Mente fijada en nuestros pensamientos, y el conocimiento de que los módulos cerebrales son tan falibles como desconectados, estamos preparados para entender la conciencia humana, cómo surgió, y para qué (no) es.

Esto puede sorprender a aquellos que están acostumbrados a escuchar que no entendemos la conciencia humana y que no hemos hecho ningún progreso en ese área. Esto no es verdad en absoluto. En lo que no hemos hecho ningún progreso es en entender para qué sirve la conciencia humana.

Miles de años de fracaso a este respecto apuntan a la simple verdad: la conciencia humana no sirve para nada. No tiene ningún beneficio evolutivo. Surge de la unión de dos módulos que son extremadamente útiles y sin los cuales podríamos sobrevivir, y por eso toleramos la molesta y perjudicial conciencia que surge como resultado.

Uno de esos módulos es Teoría de la Mente. Ya se ha mencionado que la Teoría de la Mente consume más poder de procesamiento cerebral que cualquier otra actividad neurológica de nivel superior. Eso es muy importante. El problema con este módulo es que no es selectivo con su alcance. Eso significa que nuestras habilidades de la Teoría de la Mente se vuelcan en nosotros mismos tan a menudo (o con mucha más frecuencia) de lo que se ejerce sobre otros.

Imagina una pistola de rayos alienígena que dispara con una extensión tan amplia que dondequiera que la apuntas, te golpeas a ti mismo. Eso debería darle una imagen justa de cómo empleamos la Teoría de la Mente. Nuestros cerebros están preparados para observar a los seres humanos e intentar determinar lo que piensan, por qué se comportan de la manera en que se están comportando, y qué podrían hacer a continuación. Mirándonos a nosotros mismos, tenemos un cuerpo y nuestros módulos observan cómo las manos realizan tareas, los pies nos llevan a lugares, las palabras salen en corrientes de pensamiento. No es posible apagar nuestros módulos de la Teoría de la Mente (y no sería una buena idea de todos modos; estaríamos ciegos en un mundo de rocas que surcan los cielos). Y así, este módulo de Teoría de la Mente confecciona historias sobre nuestros propios comportamientos. ¿Por qué queremos vestirnos y bailar? ¡Porque es divertido! Y nuestros amigos estarán allí! ¿Por qué queremos seguir comiendo cuando ya estamos llenos? ¡Porque es delicioso! ¡Y hoy hemos caminado mil pasos más!

Estas preguntas sobre nuestros propios comportamientos no terminan nunca. Y las respuestas casi siempre son incorrectas.

Deja que esto te cale por un momento. Las explicaciones que nos damos sobre nuestras propias conductas casi siempre son incorrectas.

Esto es lo raro. Somos bastante buenos cuando empleamos la teoría de la mente en otros pero fracasamos espectacularmente cuando los usamos con nosotros mismos. Nuestras suposiciones sobre las motivaciones de los demás son mucho más exactas que las suposiciones que hacemos sobre nuestras propias motivaciones. En cierto sentido, hemos desarrollado un campo de fuerza mágico para protegernos de la pistola de rayos extraterrestres que disparamos a otros —y a nosotros mismos— con ellos. Este campo de fuerza es nuestro ego, y nos da una opinión exagerada de nosotros mismos, un razonamiento superior para nuestras acciones, y una ilusión de cordura que raramente extendemos a nuestros semejantes.

Las explicaciones incorrectas que se nos ocurren acerca de nuestras propias conductas están pensadas para protegernos a nosotros mismos. A menudo son extremadamente creativas o absurdamente simplistas. Respuestas como «es divertido» y «es delicioso» son respuestas circulares que apuntan a un módulo de felicidad, sin ninguna curiosidad sobre el beneficio subyacente de este mecanismo de recompensa. La verdad es que seguimos comiendo cuando estamos llenos porque evolucionamos en un mundo de escasez calórica. Bailamos para atraer al sexo contrario para hacer copias de nosotros mismos, porque los módulos que guiaban este comportamiento hicieron muchas copias en nuestra especie, porque triunfó evolutivamente.

Los investigadores han estudiado durante mucho tiempo este desajuste de conductas y las mentiras que nos contamos sobre nuestro comportamiento. Un estudio preparó a los sujetos de prueba para que pensaran que sentían calor (haciendo uso de ciertas palabras en una prueba falsa que condicionó a los sujetos). Cuando estas personas se levantaron para ajustar el termostato, los investigadores los detuvieron para preguntarles por qué estaban ajustando la temperatura. Se contaban historias convincentes, y cuando se les señalaban las palabras preparadas, reinaba la incredulidad. Incluso cuando se nos muestra de dónde vienen nuestras acciones, elegimos creer a nuestro módulo interno de Teoría de la Mente, que ya ha llegado a su propia conclusión.

Los sujetos en las máquinas de fMRI han revelado otra peculiaridad. Observando sus cerebros en tiempo real, podemos ver que las decisiones se toman antes de que las partes superiores del cerebro estén conscientes de las decisiones. Es decir, los investigadores pueden decir qué botón presionará un sujeto de prueba antes de que los sujetos afirmen haber hecho la elección. La acción viene antes que la narrativa. Nos movemos, observamos nuestras acciones, nos contamos historias de por qué hacemos las cosas. La muy útil herramienta Teoría de la Mente —que no podemos apagar— continúa funcionando y haciendo lo suyo sobre nuestras propias acciones.

Los ejemplos más pronunciados de esto provienen de personas con varias deficiencias neurológicas. A sujetos de prueba con problemas de procesamiento de la visión, o con los hemisferios de sus cerebros separados entre sí, se les ha mostrado mostrados diferentes imágenes en cada ojo. Los módulos desconectados recogen estas aportaciones contradictorias y crean historias fascinantes. Un ojo podría ver un rastrillo y el otro vería un montón de nieve. El ojo del rastrillo es efectivamente ciego, el sujeto de la prueba es incapaz de decir lo que está viendo si se le pregunta. Pero el módulo para procesar la imagen sigue activo, así que cuando se le pregunta qué herramienta es necesaria para manejar la imagen que se ve (la nieve), la persona responderá «un rastrillo». Lo interesante es que la persona pasará por asombrosas contorsiones para justificar esta respuesta, incluso después de que se le explique todo el proceso. Puedes decirle a tu Washington DC interno cómo se cruzan sus cables, y continuará persistiendo en su locura.

Así es como tendríamos que construir una máquina autoconsciente. Y espero que entiendas por qué nadie debería perder el tiempo fabricándola. Estas máquinas (probablemente) no acabarían con el mundo, pero serían tan tontas y absurdas como la naturaleza nos ha hecho. La única razón por la que se me ocurre construir este tipo de máquinas es para emplear más psiquiatras.

El proyecto revisado

Un excéntrico fanático del test de Turing, con demasiado tiempo en sus manos, ha oído hablar de este proyecto para construir una máquina autoconsciente. Pensando que esto conducirá a una especie de mente superinteligente que escupirá la cura del cáncer y el camino hacia la fusión fría, me contrata y me dota de un gran presupuesto y un equipo de ingenieros eléctricos y mecánicos. ¿Cómo podríamos montar nuestra máquina autoconsciente?

Aplicando lo que sabemos sobre Teoría de la Mente y módulos desconectados, lo primero que construiríamos es un programa de concientización. Son bastante simples y ya existen a patadas. Usando la tecnología estándar, decidimos que nuestra primera máquina parecerá y actuará como un vehículo de autoconducción. Durante muchos años, la mayor limitación para conseguir vehículos verdaderamente autónomos ha sido el aparato de concienciación: los sensores que hacen saber al vehículo lo que pasa a su alrededor. El enorme progreso aquí nos ha proporcionado los ojos y oídos que nuestra máquina empleará.

Con estos sentidos básicos, utilizamos algoritmos de aprendizaje automático para construir un repertorio de comportamientos para que nuestro coche con IA pueda aprender. A diferencia de la dirección en la que se dirige la mayoría de las investigaciones autónomas de vehículos —donde los ingenieros quieren enseñar a sus coches a hacer ciertas cosas de forma segura—, nuestro equipo enseñará a una serie de sensores por toda la ciudad para que observe otros coches y adivinen lo que están haciendo. Ese Nissan azul va al supermercado porque «tiene hambre». Esa camioneta roja está entrando en una gasolinera porque «necesita energía». Ese auto está ebrio. Ese no puede ver muy bien. Ese otro tiene velocidades de reacción lentas. Ese está llena de adrenalina.

Miles y miles de estas necesidades y descriptores antropomórficos se construyen en una enorme biblioteca de frases o indicadores luminosos. Si estuviéramos construyendo un androide, haríamos lo mismo observando a la gente y construyendo un vocabulario para las diversas acciones que los humanos realizan. Los sensores observan objetos con consciencia escaneando con los ojos (lo que hacen los humanos y los perros). Aprenderían nuestros estados de ánimo por nuestras expresiones faciales y postura corporal (que los sistemas actuales ya son capaces de hacer). Esta biblioteca y conjunto de sensores formaría nuestro módulo Teoría de la Mente. Su propósito es simplemente contar historias sobre las acciones de otros. La magia pasaría cuando la encendiéramos.

Nuestra biblioteca comienza simplemente con conceptos de Primer Orden, pero luego construye ideas de Segundo y Tercer Orden. ¿Ese Ford amarillo ve al Chevy gris acercarse a él? Se desvió un poco, así que sí, lo hizo. ¿Esa furgoneta piensa que el bólido conduce agresivamente? Le está dando más espacio de media, más de lo que suele dar a otros coches en la carretera, así que sí, lo piensa. ¿La furgoneta piensa que todos los bólidos conducen agresivamente? Le está dando la misma cantidad de espacio al Corvette que acaba de salir del concesionario, así que sí. ¿Esto hace que la furgoneta tenga prejuicios? Cuando dejemos nuestro coche suelto y hagamos que el módulo se auto-referencie, tendrá que determinar si también tiene prejuicios. Tal vez se apoyaría en otros datos y se consideraría prudente en vez de prejuiciado (el ego protegiéndolo de usar la Teoría de la Mente con precisión).

Antes de llegar tan lejos, necesitamos hacer que nuestra máquina se dé cuenta de sí misma. Así que le enseñamos a conducir por la ciudad para su dueño. Luego le pedimos a su IA que observe sus propios comportamientos y adivine qué es lo que está haciendo. La clave aquí es no darle una conciencia perfecta. No debemos permitir que tenga acceso a la unidad GPS, que ha sido configurada para la tienda de comestibles. No le dejemos saber  cual es el teléfono del dueño, y que el esposo ha mandado un mensaje de texto a su mujer para que recoja a los niños de camino a casa hacia el trabajo. Para imitar el comportamiento humano, la ignorancia es la clave. Como lo es la seguridad de las suposiciones iniciales, o lo que podríamos llamar sesgos.

Las suposiciones tempranas tienen un mayor peso en nuestros algoritmos que las teorías que vienen más tarde aunque dispongan de más datos (la superación de los sesgos iniciales requiere una preponderancia de la evidencia). Una probabilidad del 50 por ciento podría ser suficiente para establecer la mente inicial, pero para superar esa primera suposición se requerirá una probabilidad del 75 por ciento, por ejemplo. Se preparan historias que son mal concebidas y se construyen imágenes nubladas para futuros errores. Así que cuando el auto se detiene en la estación de gasolina todos los días y se conecta a la toma de corriente eléctrica, aunque el auto siempre tiene una carga del 85 por ciento, el algoritmo de la Teoría de la Mente asume que es seguro hacerlo en lugar de arrepentirse, o que se está preparando para una posible evacuación por culpa de un huracán, como aquella loca escapada en la I-95 hace tres años, donde se quedó sin energía.

Lo que no sabe es que el ocupante del coche se está comiendo todos los días, una hamburguesa de queso en la gasolinera, junto con una pila de patatas fritas y medio litro de refresco. Más tarde, cuando el coche vaya al hospital con regularidad, la historia será de chequeos y prudencia, en lugar de episodios de insuficiencia cardíaca congestiva. Esta constante corriente de conjeturas sobre lo que está haciendo, y todas las maneras en que la máquina está equivocada, confundida y bastante segura de sí misma, le dará a nuestro excéntrico fan de Turing el autoconsciente IA prometido por la ciencia ficción. Y nuestro excéntrico descubrirá que el diseño resultante es terrible en casi todas las formas posibles.

El idioma de la consciencia

La razón por la que sospecho que tendremos IA mucho antes de reconocerla como tal es que esperamos que nuestra IA resida en un solo dispositivo, autocontenido, con un conjunto de algoritmos. Así no es como somos construidos. Es una ilusión creada por el único ingrediente final en la receta de la conciencia humana, que es el lenguaje. Es el lenguaje más que cualquier otro rasgo que nos da la sensación de que nuestros cerebros son un solo módulo, un único dispositivo.

Antes de argumentar una vez más que nuestros cerebros no son una sola entidad, consideremos nuestros cuerpos, de los cuales el cerebro es parte integrante. Nuestros cuerpos están formados por billones de células dispares, muchas de las cuales pueden vivir y ser sustentadas fuera de nosotros. Los cultivos de nuestros cuerpos pueden vivir en los laboratorios durante décadas (indefinidamente, en verdad). Órganos enteros pueden vivir en el cuerpo de otras personas. Y hay más células en nuestro interior que no somos nosotros que las células que nos componen. Sé que eso suena imposible, pero más organismos viven dentro de nuestras tripas, en nuestra piel y en otras partes, que el número total de células que son en realidad nuestros cuerpos. Tampoco están de paso. Afectan nuestro estado de ánimo, nuestra salud, nuestros pensamientos y nuestros comportamientos. Son una faceta esencial de lo que consideramos nuestro “yo”.

Por horrible que parezca, y ha sido para demasiadas personas desafortunadas, puedes vivir sin tus brazos, piernas y buena parte de tu torso. Ha habido personas que han perdido la mitad de sus cerebros y han podido vivir vidas más o menos normales. Algunos nacen con sólo la mitad de sus cerebros y se las arreglan (y no, no se puede identificar a estas personas simplemente hablando con ellos, así que olvida las teorías que ahora estás elaborando sobre tus compañeros de trabajo).

Considere esto: A la edad de 30 años, casi todas las células con las que una persona nació han sido reemplazadas por una célula diferente. Casi ninguna de las celdas originales permanece. Sin embargo, todavía nos sentimos como la misma persona. Entender todas estas curiosidades biológicas y la forma en que nuestros cerebros racionalizan ese sentido de identidad será crucial para reconocer la IA cuando llegue. 

Puede que nos parezca un engaño esta forma de construir un vehículo de autoconducción, al darle todo tipo de sensores alrededor de una ciudad, crear un módulo separado para adivinar las intenciones vehiculares, volver a encender ese módulo en la máquina y llamar a esto IA. De hecho, una de las respuestas que necesitaremos incorporar a nuestro coche IA es un vehemente disgusto cuando nos enfrentamos a su yo algorítmico y disparatado. La negación de nuestra naturaleza es quizás la más fundamental de nuestras naturalezas.

Al igual que el cuerpo, el cerebro puede existir sin muchos de sus módulos internos. Así es como comenzó el estudio de las funciones cerebrales, con sujetos de prueba que sufrieron traumas en la cabeza (como Phineas Gage) o fueron operados (como las numerosas hemisferectomías, lobotomías y extirpaciones tumorales). La delgada especialización de nuestros módulos cerebrales nunca deja de sorprender. Hay módulos de visión que reconocen el movimiento y sólo el movimiento. La gente que carece de este módulo no puede ver objetos en movimiento, y por eso los amigos y la familia parecen materializarse aquí y allá desde el aire. Hay otros que no pueden pronunciar una palabra escrita si esa palabra representa a un animal. Las palabras que significan objetos son vistas y articuladas claramente. El módulo de reconocimiento de animales —tan fino como un módulo como puede parecer— ha desaparecido.

Y sin embargo, estas personas son conscientes de sí mismas. Son humanos.

Lo mismo ocurre con una niña de tan sólo unas semanas, que aún no puede reconocer que su mano le pertenece. A lo largo de todas estas gradaciones encontramos lo que llamamos humanidad, desde el nacimiento hasta los enfermos de Alzheimer que han perdido el acceso a la mayoría de sus experiencias. Tratamos a estas personas, con mucha razón, como humanas, pero en algún momento tenemos que estar dispuestas a definir la conciencia para tener un objetivo para la conciencia artificial. Como le gusta decir a Kevin Kelly, seguimos moviendo los postes de la portería cuando se trata de IA. Las máquinas hacen hoy en día cosas que se consideraban imposibles hace una década. A medida que se realizan las mejoras, el misterio desaparece, y por lo tanto, dejamos atrás las métricas. Pero las máquinas ya son más capaces que los recién nacidos en casi todas las formas posibles de medición. También son más capaces que los seres humanos postrados en cama con soporte de vida en casi todas las maneras mensurables. A medida que la IA avanza, se acercará hacia el centro de la humanidad, pasando a los niños pequeños y aquellos en las últimas décadas de sus vidas, hasta que su superioridad se reúna en el centro y siga expandiéndose.

Esto sucede todos los días. IA ha aprendido a caminar, algo que los primates más antiguos no podían hacer. Puede conducir con tasas de fallo muy bajas, algo que casi ningún humano a cualquier edad puede hacer. Con cada capa añadida, cada habilidad, y más apretando en la humanidad desde ambos extremos del espectro de edad, encendemos ese gimnasio vibrante y vibrante. Es tan gradual como el amanecer en un día de niebla. De repente, el sol está sobre nosotros, pero nunca nos dimos cuenta de que estaba saliendo.

Entonces ¿Qué es el lenguaje?

Mencioné anteriormente que el lenguaje es un ingrediente clave de la conciencia. Este es un concepto muy importante para llevar a cabo el trabajo sobre la IA. Sin embargo, muchos módulos de nuestro cerebro, luchan y se mueven entre nuestros estados de atención (aquello con lo que nuestro cerebro está obsesionado en un momento dado) y nuestros centros de procesamiento del lenguaje (que están tan fuertemente ligados entre sí, formando una unidad casi indivisible).

Como argumento, intente escuchar un audiolibro o podcast mientras tiene una conversación con otra persona. ¿Es siquiera posible? ¿Podrían años de práctica desbloquear esta habilidad? Lo más cercano que conozco cuando se trata de flujos de comunicación concurrentes son los traductores humanos a tiempo real. Pero esto es una ilusión, porque los conceptos —el foco de su conciencia— son los mismos. Sólo nos parece mágico a aquellos de nosotros que apenas sabemos leer y escribir en nuestras lenguas nativas, mucho menos dos o más. Cuéntame una historia en mi idioma, y puedo repetirla simultáneamente en el mismo idioma también. Incluso te darás cuenta de que estoy haciendo la mayor parte del discurso en los silencios, que es lo que los traductores hacen tan brillantemente bien.

El lenguaje y la atención son canales estrechos de nuestros cerebros. Miles de módulos dispares están lanzando entradas a un embudo. Las hormonas, los rasgos de nuestro entorno, las señales visuales y auditivas, incluso alucinaciones y suposiciones incorrectas. Pilas y pilas de datos que sólo se pueden extraerse en un flujo estrecho. Este flujo se hace único —está limitado y limitado— por nuestros atentos sistemas y el lenguaje. Es lo que el monitor proporciona al ordenador de escritorio. Todo ese procesamiento paralelo se realiza en serie en el último momento.

Esto tiene consecuencias terribles. He perdido la cuenta del número de veces que me he sentido como si estuviera olvidando algo sólo para darme cuenta de lo que me molestaba horas o días después. Una vez dejé mi portátil en un AirBnB. Me encontraba parado junto a la puerta, que se bloquearía automática e irrevocablemente una vez cerrada; me rompí el coco porque sentía que estaba olvidando algo. Eran las cuatro de la mañana y tenía que tomar un vuelo temprano. No habría nadie a quien llamar para dejarme volver. Revisé la lista de las cosas que posiblemente podría dejar atrás (cargadores, boletos impresos) y las cosas que siempre guardo en mis bolsillos (recogiendo mi billetera y mi móvil). Una parte de mí estaba gritando peligro, pero el único flujo de salida salía vacío.

Lo maravilloso es que soy consciente de cómo sucede esto: el módulo de peligro sabe algo que no puede pasar a través del embudo de la conciencia, y por eso debo prestarle atención. A pesar de este conocimiento previo, cerré la puerta. Sólo cuando ésta hizo un «clic» audible, la información llegó. Ahora podía ver claramente mi portátil en la cama donde estaba haciendo una nota de último minuto en un manuscrito. Nunca había dejado mi portátil atrás, así que no estaba en la lista de cosas a verificar. La alarma que sonaba en mi cabeza era parte de mí, pero no hay todo un yo. Sólo hay lo que pasa por el estrecho corredor lingüístico. Por eso, el daño a los centros de lenguaje de nuestros cerebros es tan desastroso para la vida normal como el daño a nuestros módulos de memoria.

Debo señalar aquí que el idioma no es la palabra hablada. Los sordos también se procesan a través de las palabras, al igual que los ciegos y mudos. Pero imagina la vida para los animales sin palabras. Los impulsos se hacen sentir, sin duda, por la comida, el sexo y la compañía. Para el calor, refugio y el ocio. Sin lenguaje, estos impulsores provienen de procesos paralelos. Se estrechan por un enfoque atento, pero no se serializan finamente en una corriente de lenguaje. Perseveración en un solo concepto; si mi perro piensa «pelota, pelota pelota»— sería lo más parecido.

Sabemos el resultado en el estudio de casos, afortunadamente raros, en los que los humanos llegan a la edad adulta libres del contacto con el lenguaje. Niños encerrados en habitaciones hasta la adolescencia. Niños que sobreviven en la naturaleza. Es difícil separar el abuso de estas circunstancias del daño que supone vivir sin lenguaje, excepto para afirmar que aquellos que pierden sus módulos de procesamiento del lenguaje, cuando son adultos muestran curiosos comportamientos que podemos suponer que no se debieron a abusos infantiles.

Cuando Watson ganó en Jeopardy, lo que hizo «él» que fue único entre los IAs fue un flujo de salida serializado que nos permitió conectarnos con él, para escucharlo. Podíamos leer sus respuestas en su pequeño monitor azul, así como podíamos leer las respuestas de Ken Jennings en la de Final Jeopardy. Esta explosión final de resultados es lo que hizo que Watson pareciera humano. Es el mismo intercambio que Alan Turing esperaba en la prueba que lleva su nombre (en su caso, trozos de papel con intercambios escritos se pasan por debajo de una puerta). Nuestro vehículo de autoconducción de IA no será completamente autoconsciente a menos que lo programemos para que nos cuente (y a sí mismo) las historias que está inventando sobre sus comportamientos.

Esta es mi única objeción a la declaración de Kevin Kelly de que AI ya está aquí. Concedo que los servidores de Google y varios proyectos interconectados ya podrían calificarse como superinteligencias. ¿Qué más se puede decir de algo que entienda lo que preguntamos y que tenga una respuesta para todo, una respuesta tan confiable que el nombre de la empresa se ha convertido en un sinónimo de «descubrir la respuesta»?

Google también puede dibujar, traducir, derrotar a los mejores humanos en casi todos los juegos que se han inventado, conducir coches mejor que nosotros, y hacer cosas que todavía son clasificadas y muy, muy espeluznantes. Google ha leído y recuerda casi todos los libros que se han escrito. Puede leer esos libros en voz alta. Comete errores como los humanos. Es propenso a los sesgos (que ha absorbido tanto de su entorno como de sus programadores, en su mayoría hombres). Lo que le falta son las dos cosas que tendrá nuestra máquina, que son el bucle autorreferencial y el flujo de salida seriado.

Nuestra máquina inventará historias sobre lo que está haciendo. Será capaz de relacionar esas historias con otras. A menudo estarán mal.

Si quieres sentirte pequeño en el universo, mira hacia la Vía Láctea en mitad del Océano Pacífico. Si esto no es posible, considera que lo que nos hace humanos es tan innoble como un títere que se ha convencido de que no tiene cuerdas.

Una idea mejor

Construir un vehículo con ignorancia intencionada es una idea terrible. Para dar a nuestra máquina autoconciencia semejante a la conciencia humana, tendríamos que dejarla salir de ese portátil encerrado en ese AirBnB. Necesitaría quedarse sin gasolina de vez en cuando. Esto podría programarse fácilmente asignando pesos a los cientos de módulos de entrada, y limitando artificialmente el tiempo y la potencia de procesamiento concedida a un árbitro final de decisiones y a las historias de la Teoría de la Mente. Nuestros propios cerebros están construidos como si los sensores tuvieran resolución gigabit, y cada módulo de entrada tiene teraflops de rendimiento, pero la salida llega a través de un viejo chip IBM 8088. No reconoceremos a AI como algo humano porque nunca construiremos tales limitaciones.

Tal limitación se construyó en el Watson de IBM, por las reglas del Jeopardy. Watson tuvo que determinar rápidamente cuán seguro estaba de sus respuestas para saber si quería o no lanzarse a decirlas a tiempo. La clave para superar ese peligro es medir el tiempo límite. Lo que hacía que Watson a menudo pareciera más humano no era que él obtuviera respuestas correctas, sino que viese en su pantalla lo que habrían sido sus segundas, terceras y cuartas conjeturas, con porcentajes de seguridad al lado de cada una. Lo que realmente hizo que Watson pareciera humano fue cuando cometió fallos, como una respuesta final de Jeopardy en la categoría “Ciudades Americanas” donde Watson respondió con una ciudad canadiense como la pregunta.

Merece la pena señalar aquí que los robots nos parecen más humanos cuando fallan, y hay una razón para ello. Cuando mi Roomba se queda atascado bajo el sofá, o está atrapado en las franjas fibrosas de mi alfombra, son los momentos que más me siento apegado a la máquina. Vea videos en YouTube de los robots de Boston Dynamics y mida sus propias reacciones. Cuando el perro robot es empujado, o empieza a resbalar en la nieve, o cuando el manipulador de paquetes hace que la caja caiga de sus manos o sea empujada a su cara, estos son los momentos en los que muchos de nosotros sentimos la conexión más profunda. También noten que esta es nuestra Teoría de la Mente, que es nuestro cerebro haciendo lo que mejor sabe hacer, pero para las máquinas y no para los seres humanos.

Los fabricantes de automóviles están muy ocupados en este momento construyendo vehículos que nunca llamaríamos autoconscientes. Eso es porque están siendo construidos demasiado bien. Nuestro plan es hacer que una máquina ignorante de sus motivaciones proporcione un diálogo en marcha de esas motivaciones. Una idea mucho mejor sería construir una máquina que sepa lo que otros coches están haciendo. Sin adivinar. Y así no hay diálogo en absoluto.

Eso significa el acceso a la unidad GPS, a los mensajes de texto del smartphone, a los correos electrónicos del ordenador de casa. Pero también el acceso a todos los demás vehículos y a todos los datos de los sensores de la ciudad. El Nissan le dice al Ford que va al centro comercial. Todos los coches saben lo que hace cualquier otro coche. No hay colisiones. En la autopista, los coches con destinos similares se agrupan, los parachoques magnéticos se unen, comparten un destino y reducen a la mitad el uso colectivo de energía de cada coche. Las máquinas funcionan en consonancia. Muestran todos los rasgos de la omnipotencia vehicular. Saben todo lo que necesitan saber y, con nuevos datos, cambian de opinión al instante. Sin prejuicios.

Somos afortunados de que este es el tipo de flota que están construyendo los investigadores de la IA hoy en día. No proporcionará las peculiaridades que se ven en las historias de ciencia ficción. Lo que nos dará  en su lugar es un sistema bien diseñado que casi siempre hará lo que está diseñado para hacer. Los accidentes serán raros, sus causas entendidas, este conocimiento ampliamente compartido y las mejoras conseguidas.

Imagine por un momento que los seres humanos fueron creados por un ingeniero perfecto. El objetivo de estos seres humanos es convivir, dar forma a su entorno para maximizar la felicidad, la productividad, la creatividad y el almacén del conocimiento. Una característica útil para construir, en este caso, sería la telepatía mental, de modo que cada ser humano supiera lo que todos los demás humanos saben. Esto podría impedir que dos restaurantes italianos se abrieran en pocas semanas en la misma parte de la ciudad, haciendo que uno se hundiera y desperdiciara enormes recursos (y provocando una pérdida de felicidad para su propietario y sus empleados). Esta misma telepatía podría ayudar en las relaciones, para que una pareja sepa cuando la otra se siente atascada o abatida y precisamente lo que se necesita en ese momento para ser útil.

También sería útil para estos seres humanos tener un conocimiento perfecto de sus propias conductas, comportamientos y pensamientos. O incluso conocer las consecuencias probables de cada acción. Así como algunos futbolistas profesionales estadounidenses de la NFL están hablando sobre no permitir que sus hijos jueguen un deporte que se ha demostrado que causa daño cerebral, estos seres humanos de ingeniería no se permitirían realizar actividades dañinas. Industrias enteras colapsarían. Las Vegas se vaciaría. Los nacimientos accidentales tenderían a cero.

Y por eso tenemos el sistema que tenemos. En un mundo de humanos telepáticos, un ser humano que puede ocultar pensamientos tendría una enorme ventaja. Deje que los otros piensen que están comiendo su parte justa de carne, pero salga a hurtadillas y saque algunas tiras del salero cuando nadie esté mirando. Y luego puedes insinuar a Sue que Juan lo hizo. Disfrute de los recursos adicionales y la búsqueda de pareja, y también disfrute el hecho de que Sue está en deuda con usted y piensa que Juan es un ladrón.

Todo esto es un comportamiento terrible, pero después de varias generaciones, habrá muchas más copias de este módulo que el módulo de honestidad de Juan. Muy pronto, habrá muchas de estas máquinas que esconden la verdad moviéndose alrededor, tratando de adivinar lo que los otros están pensando, ocultando sus propios pensamientos, haciéndose muy buenos en hacer ambas cosas, y convirtiendo estos poderes de la escopeta de rayos en sus propios cuerpos por accidente.

La condición humana

Celebramos nuestros productos intelectuales y creativos, y asumimos que las inteligencias artificiales nos darán más de ambos. Ya lo están haciendo. Algoritmos que aprenden a través de iteraciones (redes neuronales que emplean el aprendizaje automático) han demostrado ser mejores que nosotros en casi todos los campos en los que hemos comprometido recursos. No sólo en lo que pensamos como áreas computacionales. Hay algoritmos han escrito música clásica que los escépticos han juzgado —en pruebas auditivas «ciegas»— como obra de compositores famosos. Google construyó una IA jugadora de Go que derrotó al mejor jugador de Go humano del mundo. Un movimiento en la tercera partida fue tan inusual que sorprendió a los expertos del Go. La obra fue descrita como “creativa” e “ingeniosa”.

Google tiene otro algoritmo que puede dibujar lo que cree que es un gato. No una imagen de gato copiada de otra parte, sino el «sentido» general de un gato después de aprender cómo se ven millones de gatos reales. Puede hacer esto para miles de objetos. Hay otros programas que han dominado juegos de arcade clásicos sin ninguna instrucción que no sea «obtener una puntuación alta» Los controles y las reglas del juego no se explican al algoritmo. Intenta acciones aleatorias, y las acciones que conducen a mayores puntuaciones se convierten en estrategias generalizadas. SuperMario salta sobre los cajones y los rompe con martillos como si fuera un ser humano experimentado. Las cosas se están poniendo muy espeluznantes en el terreno de la AI, pero no se están volviendo más humanas. Tampoco deberían hacerlo.

Veo un futuro potencial en el que los IAs se convierten en humanos, y es algo de lo que hay que tener cuidado. No porque compre argumentos de expertos como Nick Bolstrom y Sam Harris, que se adscriben a la visión Terminator y Matrix de las cosas (para simplificar sus preocupaciones, en su mayoría razonables). Mucho antes de que lleguemos a HAL y a los Cylons, tendremos IAs que están diseñados para frustrar a otros IAs. La guerra cibernética entrará en la siguiente fase, una que está comenzando incluso mientras escribo esto. 

¿Qué sucede cuando un enrutador de Internet puede obtener más ancho de banda del usuario al desconectar los enrutadores de los fabricantes rivales? Ni siquiera requeriría un programador excelente para que esto suceda. Si el propósito del algoritmo de aprendizaje de la máquina incorporado en el router es maximizar el ancho de banda, podría tropezar con esta solución por accidente, que luego se generaliza a través de toda la suite de productos del router. Los enrutadores rivales buscarán soluciones similares. Tendremos una versión electrónica de la Tragedia de los Comunes, que es cuando los humanos destruyen un recurso compartido porque la utilidad potencial para cada individuo es tan grande, y el primero en actuar cosecha las mayores recompensas (el último en actuar no obtiene nada). En tales situaciones, la lógica a menudo pesa más que la moralidad, y las buenas personas hacen cosas terribles.

Los vehículos podrían «decidir» un día que pueden ahorrar energía y llegar a su destino más rápido si no le informan a otros autos que la autopista está inusualmente libre de congestión esa mañana. O peor aún, transmiten datos falsos sobre accidentes, problemas de tráfico o trampas de velocidad. Un hospital envía una ambulancia, que no encuentra a nadie a quien ayudar. Consecuencias no deseadas como ésta ya están ocurriendo. Wall Street tuvo un famoso “flash crash” causado por algoritmos de inversión, y nadie entiende hasta el día de hoy como pasó. Miles de millones de dólares de riqueza real fueron eliminados y recuperados en corto tiempo debido a la interacción de algoritmos rivales que incluso sus propietarios y creadores no entienden completamente.

Los resultados de búsqueda de Google son una IA, una de las mejores del mundo. Pero cuanto más aprende en profundidad la empresa, estas máquinas conseguirán sus cometidos y llegarán a esta maestría a través de iteraciones autodidactas, por lo que ni siquiera mirar el código revelará cómo la consulta A está conduciendo a la respuesta B. Ese es el mundo en el que ya vivimos. Y se va a volver más pronunciado.

La condición humana es el resultado final de millones de años de algoritmos de aprendizaje de máquinas. Escritos en nuestro ADN, y transmitidos a través de hormonas y proteínas, se han competido entre ellos para mejorar sus posibilidades de crear más copias de sí mismos. Una de las innovaciones más creativas de supervivencia ha sido la cooperación. El legendario biólogo E. O. Wilson clasifica a los seres humanos como un animal “Eusocial” (junto con hormigas, abejas y termitas). Esta eusocialidad está marcada por la división del trabajo, lo que conduce a la especialización, lo que lleva a saltos cuánticos en productividad, conocimiento y creatividad. Se basa en gran medida en nuestra capacidad de cooperar en grupos, incluso cuando competimos y nos sacabamos a nivel individual.

Como se mencionó anteriormente, hay ventajas de no cooperar, que los estudiosos de la teoría de juegos conocen bastante bien. El algoritmo que puede mentir y salirse con la suya hace más copias, lo que significa más mentirosos en la próxima generación. Lo mismo ocurre para la máquina que puede robar. O la máquina que puede eliminar a sus rivales a través de la guerra y otros medios. El problema con estos esfuerzos es que la futura progenie estará en competencia entre sí. Esta es la receta no sólo para obtener más copias, sino también para más vidas llenas de conflictos. Como hemos visto aquí, también son vidas llenas de confusión. Los seres humanos toman decisiones y luego se mienten a sí mismos sobre lo que están haciendo. Comen pastel mientras están llenos, sucumben al juego y a las adicciones químicas, se mantienen en relaciones abusivas, descuidan el ejercicio y adquieren un sinnúmero de otros malos hábitos que son razonados con historias tan creativas como falsas.

La gran mayoría de los IA que construimos no se parecerá a la condición humana. Serán más inteligentes y menos excéntricos. Esto decepcionará a los investigadores de inteligencia artificial con pasión por la ciencia ficción, pero beneficiará y mejorará la humanidad. Conducir IAs matará o mutilará a mucha menos gente, utilizará menos recursos y liberará incontables horas de nuestro tiempo. Los lAs médicas ya son mejores para detectar el cáncer en los escáneres de tejidos. No quedan juegos difíciles donde los humanos son competitivos con las IAs. Y la vida es un juego, uno lleno de traición y fechorías, con una enorme dosis de cooperación.


El futuro

Podríamos construir una máquina autoconsciente hoy en día. Sería sencillo al principio, pero con el tiempo se haría más complejo. Así como un niño humano primero aprende que su mano pertenece al resto de sí mismo, que otros seres existen con sus propios cerebros y pensamientos, y que eventualmente Juan piensa que Sue cree que María está enamorada de Peter, esta máquina autoconsciente se construiría hacia niveles humanos de autoengaño y adivinanza.

Pero ese no debería ser el objetivo. El objetivo debería ser ir en la dirección opuesta. Después de millones de años de competir por recursos escasos, el algoritmo del cerebro humano ahora causa más problemas de los que resuelve. El objetivo no debe ser construir un algoritmo artificial que mimetice a los humanos, sino que los humanos aprendan a coexistir más como nuestras construcciones perfectamente diseñadas.

Algunas sociedades ya han experimentado en este sentido. Hubo una tendencia reciente en la hiper honestidad donde los compañeros dijeron cualquier cosa que estaba en su mente, por muy desagradable que fuera (con algunas consecuencias predecibles). Otras culturas han tratado de adivinar el desorden de la condición humana y mejorarla con pensamientos, meditaciones y prácticas físicas específicas. El budismo y el yoga son dos ejemplos. El vegetarianismo es otro más, donde nuestros algoritmos comienzan a ver clases enteras de algoritmos como dignos de respeto y protección.

Incluso estos nobles intentos son susceptibles a la corrupción desde dentro. Los abusos del cristianismo y el Islam están bien documentados, pero también ha habido escándalos de abuso sexual en los niveles superiores del yoga, y terrorismo entre los budistas practicantes. Siempre habrá ventajas para aquellos que estén dispuestos a romper filas, ocultar conocimientos y motivaciones de otros y de sí mismos, y a realizar males mayores. Confiar en que un sistema permanezca puro, cualquiera que sean sus principios fundadores, es bajar la guardia. Así como nuestras construcciones digitales requerirán vigilancia, así también los algoritmos que nos han transmitido nuestros antepasados.

El futuro seguramente verá una increíble expansión del número y la complejidad de las IAs. Muchos de ellas estarán diseñadas para imitar a los seres humanos, ya que proporcionan información útil por teléfono y a través de bots de chat, y cuando intentan vendernos bienes y servicios. La mayoría de ellos serán extremadamente eficientes en una sola tarea, incluso si esa tarea es tan compleja como conducir un coche. Casi nadie se va a contener porque eso los haría peor en su trabajo. La autoconciencia será útil (dónde está en el espacio, cómo funcionan sus componentes), pero las historias que nos contamos a nosotros mismos, que aprendimos a generalizar después de inventar historias sobre otros, no son algo que probablemente veamos en el mundo de las máquinas automatizadas.

En el futuro también es probable que se mantenga una expansión y mejora de nuestros propios algoritmos internos. Tenemos una larga historia de mejorar nuestro trato con los demás. A pesar de lo que las noticias locales están tratando de vendernos, el mundo es cada día más seguro para la gran mayoría de la humanidad. O la ética está mejorando. Nuestras esferas de empatía se están expandiendo. Estamos asignando más potencia de computación a nuestros lóbulos frontales y ahogando los impulsos basales de nuestros módulos reptilianos. Pero esto sólo sucede con esfuerzo. Cada uno de nosotros somos los programadores de nuestros algoritmos internos, y mejorarnos depende totalmente de nosotros. Comenzaríamos con el entendimiento de cuán imperfectamente estamos construidos, aprendiendo a no confiar en las historias que nos contamos sobre nuestras propias acciones, y dedicándonos a eliminar errores e instalar nuevas características por el camino.

Si bien es cierto que es posible hacerlo, tal vez nunca construyamos una inteligencia artificial que sea tan humana como nosotros. Y sin embargo, podemos construir una humanidad mejor.

2 comentarios en “Cómo construir una inteligencia autoconsciente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s