CAPÍTULO 1

La mente y las máquinas: una breve historia de la inteligencia artificial

Los orígenes de la inteligencia artificial (IA) se remontan a cientos de años, mucho antes de que los nueve gigantes hubieran creado agentes de IA con nombres de personas, como Siri, Alexa y su colega china Tiān Māo. En este largo lapso, no se ha producido una definición singular de IA, como sí la hay para otras tecnologías. No es fácil definir de una manera concreta la IA, pues representa muchas cosas, y más si se tiene en cuenta su constante crecimiento. Aquello que en la década de 1950 se podía considerar como IA (una calculadora capaz de hacer divisiones muy complejas), hoy no parece una tecnología avanzada. A esta realidad se le ha dado el nombre de “extraña paradoja”: cuando las nuevas técnicas inventadas pasan a ser de uso corriente, se vuelven invisibles para nosotros. Ya no consideramos que esa tecnología pueda ser IA.

En su forma más básica, la IA es un sistema que toma decisiones autónomas. Las tareas que lleva a cabo replican o imitan los actos de la inteligencia humana, tales como reconocer sonidos y objetos, resolver problemas, comprender el lenguaje y usar estrategias para alcanzar metas. Algunos sistemas de IA son enormes y llevan a cabo millones de cómputos en un tiempo muy breve, mientras que otros son limitados y hacen una tarea única, como identificar el lenguaje soez en los correos electrónicos.

Siempre estamos volviendo a las mismas preguntas: ¿pueden pensar las máquinas?, ¿qué significa que una máquina ‘piense’?, ¿qué significa que los humanos pensemos?, ¿cómo podríamos saber (de manera definitiva y sin lugar a dudas) que estamos pensando pensamientos originales? Estas preguntas nos acompañan desde hace siglos, y son fundamentales en la historia y el futuro de la IA.

El problema que surge al investigar cómo piensan las máquinas y los humanos tiene que ver con el hecho de que la palabra pensar está estrechamente ligada a la palabra mente. En el diccionario Merriam-Webster se define pensar como “formar o tener en la mente”, mientras que el diccionario Oxford explica que pensar significa “usar la mente de manera activa para formar ideas conectadas”. Si buscamos tanto en el Merriam-Webster como en el Oxford vemos que mente se define dentro del contexto de la conciencia. Ahora bien, ¿qué es la conciencia? Según ambos diccionarios, es la capacidad para reconocer el entorno o la propia existencia. El concepto de pensamiento varía según el enfoque de cada grupo de especialistas: psicólogos, neurocientíficos, filósofos, teólogos o expertos en ética e informática.

Cuando usted usa a Alexa para encontrar una mesa en su restaurante favorito, tanto usted como ella son conscientes del intercambio sobre la comida, aunque Alexa jamás haya sentido la textura de una manzana crujiente en los dientes, ni la efervescencia de las burbujas de la soda en la lengua, ni la viscosidad de la mantequilla de maní pegada en el paladar. Si se le pide a Alexa que describa las cualidades de esos alimentos, ofrecerá detalles que se asemejan a las experiencias que usted ha tenido. Alexa no tiene boca, entonces ¿cómo podría percibir la comida como la percibe usted?

Usted es una persona biológicamente única, cuyas glándulas salivares y papilas gustativas no están distribuidas exactamente en el mismo orden que las mías. Sin embargo, tanto usted como yo hemos aprendido qué es una manzana y cuáles son sus características de sabor, textura y olor. A lo largo de nuestra vida, hemos aprendido a reconocer qué es una manzana mediante el aprendizaje por refuerzo: alguien nos enseñó cómo se ve una manzana, para qué la usamos y qué la diferencia de otras frutas. Luego, con el tiempo y sin la participación de la conciencia, nuestros sistemas biológicos autónomos de reconocimiento de patrones adquirieron una excelente habilidad para determinar si algo era una manzana, aunque solo tuviéramos algunos de los datos necesarios. Si usted ve una representación en blanco y negro y en dos dimensiones de una manzana, usted sabe lo que es, aunque falten el sabor, el olor, la textura y los demás datos que le indiquen a su cerebro “esto es una manzana”. La manera como usted y Alexa aprendieron qué es una manzana se parece más de lo que usted se imaginaba.

Alexa es competente, pero ¿es inteligente? ¿Debe su percepción mecánica reunir todas las cualidades de la percepción humana para que aceptemos que su manera de ‘pensar’ es un reflejo de la nuestra? El psicólogo educativo Benjamin Bloom pasó la mayor parte de su vida académica investigando y clasificando los estados del pensamiento. En 1956, publicó una obra que pasó a ser conocida como la taxonomía de Bloom, en la que hace una clasificación de los objetivos de aprendizaje y de los niveles de logro observados en la educación. El fundamento de base consiste en recordar hechos y conceptos básicos, y está seguido, en su orden, por comprender ideas; aplicar el conocimiento en situaciones nuevas; analizar la información mediante la experimentación y hacer conexiones; evaluar, defender y juzgar la información; y, por último, producir un trabajo original. Los bebés se concentran inicialmente en recordar y comprender. Por ejemplo, primero debemos saber que el biberón tiene leche, antes de comprender que ese biberón tiene una parte delantera y una posterior, aunque no podamos verlas.

Esta jerarquía también está presente en la manera como aprenden los computadores. En el 2017, un sistema de IA llamado Amper compuso y produjo música original para un álbum llamado I AM AI (Yo soy IA). Las estructuras de los acordes, la instrumentación y la percusión fueron desarrolladas por Amper, que usó parámetros iniciales tales como el género, el modo y la longitud para generar canciones completas en tan solo unos minutos. Taryn Southern, un artista humano, colaboró con Amper en la creación del álbum, cuyo resultado incluye una balada muy expresiva llamada Break Free (Libérate), que tuvo más de 1,6 millones de visitas en YouTube y fue un éxito en la radio tradicional. Antes de que Amper pudiera crear esa canción, primero tuvo que aprender los elementos cualitativos de la balada, además de datos cuantitativos tales como el valor de las notas y los ritmos, así como la manera de reconocer miles de patrones en la música (por ejemplo, las progresiones de acordes, las secuencias armónicas y los acentos rítmicos).

La creatividad, esa que ilustra el ejemplo de Amper, se encuentra en el pináculo de la taxonomía de Bloom, pero cabe preguntarse si se trata tan solo un proceso mecánico aprendido. ¿Es un ejemplo de creatividad humana? ¿Es, acaso, un tipo de creatividad totalmente diferente? ¿Pensó Amper en la música de la misma manera como podría pensar un compositor humano? Podría argüirse que el ‘cerebro’ de Amper (una red neuronal que usa algoritmos y datos dentro de un contenedor) tal vez no sea tan diferente del cerebro de Beethoven, hecho de neuronas orgánicas, que usan datos y reconocen patrones dentro de un contenedor al que llamamos “cabeza”. ¿Fue el proceso creativo de Amper verdaderamente distinto del de Beethoven cuando compuso la famosa Quinta sinfonía, esa que comienza con la secuencia ta TAA, ta TAA, antes de pasar de una clave mayor a una menor? Beethoven no se inventó la totalidad de la sinfonía: esta no es completamente original. Las primeras cuatro notas van seguidas de una secuencia armónica, partes de escalas, arpegios y otros ingredientes comunes que conforman cualquier composición. Si se escucha con atención el scherzo, antes del final, se identificarán patrones obvios tomados de la Sinfonía n.° 40 de Mozart, compuesta veinte años antes, en 1788. Mozart fue influenciado por su rival Antonio Salieri y por su amigo Franz Joseph Hayden, quienes, a su vez, fueron influenciados por el trabajo de compositores que los precedieron, tales como Johann Sebastian Bach, Antonio Vivaldi y Henry Purcell, compositores de los siglos XVI y XVII. Es posible detectar temas de compositores aún más antiguos, de años que van entre 1400 y 1600, como Jacques Arcadelt, Jean Mouton y Johannes Ockeghem, en su música. A su vez, ellos recibieron la influencia de los compositores medievales, y así podemos seguir buscando el patrón de influencia hasta las primeras composiciones escritas, como la del “epitafio de Sícilo”, grabada en una columna de mármol para una tumba turca del siglo I. Podríamos, incluso, retroceder más en el tiempo, hasta la elaboración de las primeras flautas hechas con huesos y marfil, hace 43.000 años. Y antes de eso, los investigadores creen que nuestros primeros ancestros cantaban antes de hablar1.

Nuestro cableado humano es el resultado de millones de años de evolución. De manera similar, el cableado de la IA moderna se basa en un largo recorrido evolutivo que se remonta a los antiguos matemáticos, filósofos y científicos. Aunque parezca que las máquinas y los humanos hemos recorrido caminos diferentes, nuestra evolución siempre ha estado interrelacionada. El Homo sapiens aprendió de entorno, transmitió sus características a las siguientes generaciones, se diversificó y se multiplicó gracias a la invención de tecnologías avanzadas, como la agricultura, los utensilios para la cacería y la penicilina. Se necesitaron 11.000 años para que los seis millones de habitantes de la Tierra durante el Neolítico se propagaran y se convirtieran en una población de 7.000 millones de seres humanos hoy en día2.

El ecosistema donde viven los sistemas de IA (los insumos para el aprendizaje, los datos, los algoritmos, los procesadores, las máquinas y las redes neurales) se está mejorando e iterando a velocidades exponenciales. A los sistemas de IA les tomará tan solo algunas décadas propagarse e integrarse en todas las facetas de la vida cotidiana.

Preguntarse si Alexa percibe una manzana de la misma manera como lo hacen los humanos, o preguntarse si la música original de Amper es verdaderamente ‘original’ equivale, en realidad, a preguntarse sobre la manera como los humanos pensamos sobre el pensamiento. La IA de nuestros días es una amalgama de miles de años de filósofos, matemáticos, científicos, expertos en robótica, artistas y teólogos. Su búsqueda (y la nuestra, en el presente capítulo) apunta a la comprensión del lazo que une al pensamiento con los contenedores del pensamiento. ¿Cuál es la conexión entre la mente humana y las máquinas producidas por los nueve gigantes en China y en los Estados Unidos?

¿Está la mente dentro de una máquina?

El fundamento de la IA se remonta a la antigua Grecia y a los orígenes de la filosofía, la lógica y la matemática. En muchos de los escritos de Platón, Sócrates exhorta: “Conócete a ti mismo”, con lo cual quería expresar que, para mejorar y tomar las decisiones correctas, es necesario conocer, en primer lugar, el carácter de uno mismo. Por otra parte, Aristóteles creó la lógica de los silogismos y nuestro primer sistema formal de razonamiento deductivo. Más o menos hacia la misma época, el matemático griego Euclides concibió una forma de encontrar el máximo común divisor de dos números y, de esta manera, creó el primer algoritmo.

El trabajo de estos griegos dio pie a la concepción de dos importantes ideas nuevas: que ciertos sistemas físicos pueden operar como un conjunto de reglas lógicas y que el pensamiento humano mismo podría ser un sistema simbólico. Este fue el punto de partida para cientos de años de investigaciones adelantadas por filósofos, teólogos y científicos. ¿Era el cuerpo una máquina compleja? ¿Era, acaso, un todo unificado hecho de cientos de sistemas que trabajaban juntos, igual que un reloj de pie? ¿Qué decir de la mente? ¿Era, también, una máquina compleja, o era algo totalmente diferente? No había manera de probar la existencia o no de un algoritmo divino ni la conexión entre la mente y lo físico.

En 1560, un relojero español llamado Juanelo Turriano creó un monje mecánico diminuto, como ofrenda para la Iglesia, a nombre del rey Felipe II de España, cuyo hijo se había recuperado milagrosamente de una herida en la cabeza3. Esta creación tenía unos poderes sorprendentes: caminaba por las mesas, levantaba un crucifijo y un rosario, se daba golpes de pecho a modo de contrición y movía los labios como si estuviera orando. Fue el primer autómata, es decir, una representación mecánica de un ser viviente.

Aunque la palabra robot todavía no existía, la invención del monje era maravillosa, y debía sorprender y confundir a quienes la observaban. Es probable que a nadie en aquella época se le hubiera ocurrido que un diminuto autómata pudiera algún día, en el futuro lejano, no solamente imitar unos movimientos básicos, sino que pudiera reemplazar a los humanos en las plantas de producción, en laboratorios de investigación y en conversaciones culinarias.

El pequeño monje mecánico inspiró a la primera generación de expertos en robótica, cuyo objetivo era crear máquinas cada vez más complejas que fueran un reflejo de los humanos: los autómatas podían escribir, bailar y pintar. Esto condujo a un grupo de filósofos a preguntarse qué significa ser humano. Si era posible construir autómatas que pudieran imitar el comportamiento humano, ¿somos los humanos unos autómatas producto de una construcción divina? ¿O somos, acaso, sistemas complejos capaces de razonar y producir pensamiento original?

En De Corpore —una parte de la gran trilogía de Thomas Hobbes sobre las ciencias naturales, la psicología y la política—, este filósofo político inglés describió el razonamiento humano como “computación”. En 1655 escribió: “Cuando hablo de razonar me refiero a computar. Y computar es hacer la suma de muchas cosas puestas juntas al mismo tiempo, o saber qué queda cuando una cosa se le sustrae a otra. Razonar, por lo tanto, es lo mismo que sumar o restar”4. Ahora bien, ¿cómo podemos saber que tuvimos libre albedrío durante el proceso?

Mientras Hobbes escribía la primera parte de su trilogía, el filósofo francés René Descartes publicaba Meditaciones de filosofía primera, libro en el cual se preguntaba si podemos saber con certeza que lo percibido es real. ¿Cómo podemos verificar nuestra propia conciencia? ¿Qué prueba necesitaríamos para concluir que nuestros pensamientos son nuestros, y que el mundo que nos rodea es real? Descartes era un racionalista que creía que podíamos aprehender los hechos por medio de la deducción. Recordemos su famoso experimento de pensamiento: Descartes les pedía a los lectores imaginar que un demonio había creado, a propósito, una ilusión del mundo. Si la experiencia física, sensorial del lector de estar nadando en un lago no era más que la construcción de un demonio, entonces el lector no podía saber realmente que estaba nadando. Sin embargo, en opinión de Descartes, si el lector tenía una conciencia personal de su propia existencia, cumplía el criterio que se aplica para el conocimiento. Descartes escribió: “La proposición yo soy, yo existo es necesariamente verdadera cada vez que la pronuncio o la concibo en mi mente”5. En otras palabras, el hecho de nuestra existencia está más allá de toda duda, aun si hay de por medio un demonio que nos engaña. O sea, pienso, luego existo.

Más adelante, en su Tratado del hombre, Descartes arguye que los humanos podrían crear un autómata (en este caso, un pequeño animal) que no sería posible distinguir del ser real. Sin embargo, continúa diciendo Descartes, si algún día creáramos un humano mecanizado, este nunca podría pasar por un humano real, porque carecería de mente y, por lo tanto, de alma. A diferencia de los humanos, una máquina nunca pasaría los criterios del conocimiento: nunca podría tener conciencia de sí misma, como la tenemos nosotros. Para Descartes, la conciencia era algo que ocurría internamente: el alma era el espíritu en la máquina que es nuestro cuerpo6.

Algunas décadas más adelante, el matemático y filósofo alemán Gottfried Wilhelm von Leibniz examinó la idea de que el alma humana estaba programada, y argüía que la mente misma era un contenedor. Dios creó el alma y el cuerpo para que se armonizaran naturalmente. Puede que el cuerpo sea una máquina compleja, pero es una máquina que viene con un conjunto de instrucciones divinas. Nuestras manos se mueven cuando decidimos moverlas, pero nosotros no creamos ni inventamos los mecanismos que permiten el movimiento. Si somos conscientes del dolor o del placer, esas sensaciones son el resultado de un sistema preprogramado, una línea continua de comunicación entre la mente y el cuerpo.

Leibniz concibió su propio experimento para ilustrar el concepto de que el pensamiento y la percepción están íntimamente ligados al ser humano. Imagine el lector que entra a un molino. El edificio es un contendedor donde hay máquinas, materias primas y trabajadores. Es un complejo sistema de partes que funcionan armoniosamente para alcanzar un objetivo en particular, pero nunca podría tener una mente. “Todo lo que podríamos encontrar allí son ruedas dentadas y palancas moviéndose unas a otras, sin nada que pueda llamarse percepción”, escribió Leibniz. “Así, la percepción puede encontrarse en sustancias simples, pero no en compuestos como las máquinas”. Su argumento apuntaba a que, sin importar cuán avanzado fuera el molino, la maquinaria o el autómata, los humanos no podrían construir una máquina capaz de pensar o de percibir7.

Con todo, Leibniz sentía fascinación por la noción de la replicación de ciertas facetas del pensamiento. Algunas décadas antes, un escritor inglés poco conocido, llamado Richard Braithwaite, quien escribió sobre la conducta social, se refirió a los “computadores” humanos como personas altamente entrenadas, que podían hacer cálculos de manera muy rápida y precisa8. Entre tanto, el matemático francés Blaise Pascal, quien sentó las bases para lo que hoy conocemos como probabilidad, reflexionaba sobre la automatización de ciertas tareas computacionales. Pascal observaba cómo su padre calculaba los impuestos a mano, con gran monotonía, y quería facilitarle la tarea. Pascal comenzó a trabajar en una calculadora automática, con ruedas mecánicas y discos móviles9. La calculadora funcionaba, e inspiró a Leibniz para refinar su pensamiento: las máquinas nunca tendrían alma, pero algún día sería posible crear una máquina capaz de tener pensamiento lógico de nivel humano. En 1673, Leibniz describió su “contador de pasos”, un nuevo tipo de máquina calculadora que tomaba decisiones usando un sistema binario10. La máquina se parecía en cierto sentido a una mesa de billar, con bolas, agujeros, palos y canales. Esta máquina abría los agujeros usando una serie de ceros (cerrado) y de unos (abierto).

El contador de pasos teórico de Leibniz sentó las bases para nuevas teorías, que comprendían la siguiente noción: si el pensamiento lógico podía reducirse a símbolos y, en consecuencia, podía analizarse como un sistema computacional, y si los problemas geométricos podían resolverse usando símbolos y números, entonces todo podría reducirse a bits, incluyendo el comportamiento humano. Era un distanciamiento significativo de los anteriores filósofos: las máquinas del futuro podrían replicar los procesos del pensamiento humano sin tener que ver con la divina providencia. El pensamiento no requería necesariamente de percepción, sentidos o alma. Leibniz imaginó un computador capaz de resolver problemas generales, incluso de carácter no matemático. Lanzó la hipótesis de que el lenguaje podía reducirse a los conceptos atómicos de las matemáticas y las ciencias, como parte de un traductor de lenguaje universal11.

¿La mente y las máquinas simplemente siguen un algoritmo?

Si Leibniz estaba en lo cierto (los humanos eran máquinas con alma, que algún día inventarían máquinas sin alma, capacitadas para tener un inimaginable pensamiento sofisticado), entonces habría sobre la Tierra una clase binaria de máquina: ellas y nosotros. Pero este era tan solo el comienzo del debate.

En 1738, Jacques de Vaucanson, artista e inventor, construyó una serie de autómatas para la Academia Francesa de la Ciencia, entre los cuales se hallaba un complejo pato que parecía natural. No solo imitaba los movimientos de un pato real, como mover las alas y comer granos, sino que también podía imitar la digestión. Esta creación puso a los filósofos a pensar: si se veía como un pato y graznaba como un pato, ¿era realmente un pato? Si percibimos que el pato tiene un alma de un tipo diferente, ¿bastaría eso para probar que el pato era consciente de sí mismo, con todo lo que eso implicaba?

El filósofo escocés David Hume rechazó la idea de que el reconocimiento de la existencia era en sí mismo una prueba de conciencia. A diferencia de Descartes, Hume era empirista y desarrolló un nuevo marco científico basado en hechos observables y en argumentos lógicos. Mientras Vaucanson exhibía con orgullo su pato mecánico capaz de digerir (mucho antes de que empezara a hablarse de IA), Hume escribía, en su Tratado sobre la naturaleza humana, lo siguiente: “La razón es, y solo debe ser, esclava de las pasiones”. En este caso, al hablar de “pasiones”, Hume se refiere a “motivaciones no racionales”, y apunta a que son los incentivos, y no la lógica abstracta, los que mueven nuestro comportamiento. Si las impresiones son simplemente nuestra percepción de algo que podemos ver, tocar, sentir, gustar y oler, y si las ideas son percepciones de cosas con las cuales no entramos en contacto directo, Hume creía que nuestra existencia y nuestra comprensión del mundo circundante se basaba en un constructo de percepción humana.

A la luz de trabajos más avanzados sobre los autómatas, que se iban volviendo cada vez más realistas, y de reflexiones más profundas sobre los computadores y las máquinas pensantes, el físico y filósofo francés Julien Offray de La Mettrie emprendió un radical —y escandaloso— estudio sobre los humanos, los animales y los autómatas. En un documento escrito en 1747, que publicó inicialmente de manera anónima, La Mettrie sostenía que los humanos son sorprendentemente similares a los animales, y que un simio podría aprender el lenguaje humano, si “se lo entrena adecuadamente”. La Mettrie también concluyó que los humanos y los animales son meras máquinas, movidas por el instinto y la experiencia. “El cuerpo humano es una máquina que le da cuerda a su propio mecanismo; […] el alma no es más que un principio de movimiento, o una parte material y sensible del cerebro”12.

La idea de que los humanos son, simplemente, máquinas movidas por la materia (tuercas y engranajes que llevan a cabo una serie de funciones) implicaba que no somos especiales o únicos. También implicaba que tal vez somos programables. Si esto era cierto, y si hasta ese momento habíamos sido capaces de crear patos que parecían reales y monjes miniatura, de ahí se desprendía que, algún día, los humanos podrían crear réplicas de sí mismos y construir una variedad de máquinas pensantes e inteligentes.

¿Era posible crear una máquina pensante?

En la década de 1830, matemáticos, ingenieros y científicos empezaron a experimentar, con la esperanza de construir máquinas capaces de hacer los mismos cálculos que los “computadores” humanos. La matemática inglesa Ada Lovelace y el científico Charles Babbage inventaron una máquina llamada Máquina Diferencial y luego postularon una más avanzada, la Máquina Analítica, que usaba una serie de pasos predeterminados para resolver problemas matemáticos. Babbage no había concebido que la máquina pudiera hacer nada más allá de calcular números. Fue Lovelace quien, en las notas a pie de página de un documento científico que estaba traduciendo, especuló de manera brillante sobre la posibilidad de hacer una versión más poderosa de la máquina, que podría usarse de otras maneras13. Si la máquina podía manipular símbolos, a los cuales se les podían asignar diferentes cosas (como notas musicales, por ejemplo), entonces la máquina podría ser usada para ‘pensar’ por fuera de las matemáticas. Aunque Lovelace no creía que un computador pudiera jamás crear pensamiento original, sí contemplaba la posibilidad de crear un sistema complejo que pudiera seguir instrucciones y, por lo tanto, imitar muchas de las acciones cotidianas de la gente. En aquella época, algunos no le dieron importancia, pero Lovelace había escrito el primer programa computacional completo para una futura máquina muy poderosa, décadas antes de que se inventara la bombilla eléctrica.

Algunos kilómetros más al norte de donde trabajaban Lovelace y Babbage en la Universidad de Cambridge, un joven matemático autodidacta llamado George Boole tuvo una inspiración repentina cuando iba caminando por el campo en Doncaster. Esta idea lo llevó a dedicar su vida a la explicación de la lógica del pensamiento humano14. Su caminata fue el origen de lo que hoy conocemos como “álgebra booleana”, que es una manera de simplificar expresiones lógicas (por ejemplo, y, o y no) usando símbolos y números. Así, al computar “verdad y verdad” obtenemos “verdad”, lo que correspondería a interruptores y compuertas físicos en un computador. Boole tardó dos décadas formalizando sus ideas. Tuvieron que pasar otros cien años para que alguien comprendiera que la lógica y la probabilidad booleanas podrían ayudar a los computadores a evolucionar y pasar de automatizar las matemáticas básicas a producir máquinas pensantes más complejas. En aquella época no había manera de crear una máquina pensante (pues los procesos, los materiales y la energía todavía no estaban a nuestra disposición), y por eso no fue posible probar la teoría.

El salto de las máquinas pensantes teóricas a los computadores que comenzaron a imitar el pensamiento humano se dio en la década de 1930, con la publicación de dos ensayos pioneros: “A Symbolic Analysis of Switching and Relay Circuits”, de Claude Shannon, y “On Computable Numbers, with an Application to the Entscheidungsproblem”, de Alan Turing.

Shannon, que era estudiante de ingeniería eléctrica en MIT, tomó una materia electiva en filosofía, lo cual constituía una opción peculiar. La obra Una investigación sobre las leyes del pensamiento, de Boole, fue la referencia primaria de la tesis de Shannon. Su director de investigación, Vannevar Bush, instó a Shannon a mapear la lógica booleana en circuitos físicos. Bush había construido una versión avanzada de la máquina analítica de Lovelace y Babbage (su prototipo se llamaba Analizador Diferencial), con un diseño peculiar: en esa época no había una teoría sistemática que indicara cómo hacer el diseño de los circuitos eléctricos.

El descubrimiento de Shannon consistió en mapear los circuitos eléctricos de la lógica simbólica booleana y, luego, explicar cómo podía usarse la lógica booleana para crear un circuito funcional que permitiera añadir unos y ceros. Shannon había descubierto que los computadores tenían dos niveles: el físico (el contenedor) y el lógico (el código).

Mientras Shannon trabajaba para llevar la lógica booleana a circuitos físicos, Turing ensayaba el traductor del lenguaje universal de Leibniz que pudiera representar todo el conocimiento matemático y científico. Turing se proponía probar lo que llamaban el Entscheidungsproblem, o ‘el problema de las decisiones’. El problema, grosso modo, podría describirse así: no puede existir un algoritmo que determine si una afirmación matemática arbitraria es verdadera o falsa. La respuesta sería negativa. Turing logró probar que no existe ese algoritmo, pero, paralelamente descubrió un modelo matemático para una máquina computadora de múltiples usos15.

Eso lo cambió todo. Turing descubrió que un programa y los datos que este usa podían ser almacenados dentro de un computador: de nuevo, esta era una proposición radical en la década de 1930. Hasta ese momento, todo el mundo estaba de acuerdo en afirmar que la máquina, el programa y los datos eran independientes cada uno. Por primera vez, la máquina universal de Turing explicaba por qué los tres estaban unidos entre sí. Desde un punto de vista mecánico, la lógica según la cual operaban los circuitos y los interruptores podía también ser codificada dentro del programa y los datos. Pensemos por un instante en la significación de esta afirmación. El contenedor, el programa y los datos formaban parte de una entidad singular, no muy diferente de los humanos. Nosotros también tenemos un contenedor (nuestro cuerpo), unos programas (las funciones celulares autónomas) y unos datos (el ADN combinado con información sensorial directa e indirecta).

Entre tanto, la larga tradición de los autómatas, que había comenzado 400 años atrás con el monje diminuto que caminaba y oraba, por fin se cruzó en el camino con el trabajo de Turing y Shannon. La compañía estadounidense Westinghouse creó un robot basado en relés y llamado Elektro, para la Feria Mundial de 1939. Era un gigante burdo, dorado, con ruedas debajo de los pies. Contaba con 48 relés eléctricos que funcionaban con un sistema de relés telefónicos. Elektro respondía, mediante mensajes pregrabados, a comandos de voz que se enviaban por una bocina de teléfono. Era un computador antropomorfizado capaz de tomar decisiones rudimentarias (tales como qué decir) en tiempo real y sin participación directa de un humano.

A juzgar por los titulares de los periódicos, los relatos cortos de ciencia ficción y los noticieros cinematográficos de la época, salta a la vista que la gente fue tomada por sorpresa: quedó impresionada y desconcertada con estos desarrollos. El público sentía como si las “máquinas pensantes” ya hubieran llegado, completamente formadas, de la noche a la mañana. En el número de mayo de 1941 de la revista Astounding Science Fiction, el escritor de ciencia ficción Isaac Asimov publicó “Liar!” (“¡Mentiroso!”), un relato corto profético. Era una reacción a la investigación que veía desarrollarse en la periferia. En el relato hacía una presentación y una defensa de sus “tres leyes de la robótica”:

1. Un robot no puede hacerle daño a un ser humano ni, a través de la inacción, permitir que un humano reciba daño.

2. Un robot debe obedecer las órdenes dadas a él por los seres humanos, salvo en los casos en que dichas órdenes entren en conflicto con la Primera Ley.

3. Un robot debe proteger su propia existencia siempre y cuando dicha protección no entre en conflicto con la Primera o la Segunda leyes.

Más adelante, Asimov añadió la que él llamo la ley Zeroth, que regía las demás: “Un robot no puede hacerle daño a la humanidad ni, a través de la inacción, permitir que la humanidad reciba daño”.

¿En realidad piensa una máquina pensante?

En 1943, Warren McCulloch y Walter Pitts, investigadores en psiquiatría de la Universidad de Chicago, publicaron un importante documento titulado “A Logical Calculus of the Ideas Immanent in Nervous Activity”, en el que se describe un nuevo tipo de sistema que hace una modelización de las neuronas biológicas como una simple arquitectura neural de redes para la inteligencia. Si los contenedores, los programas y los datos estaban interrelacionados, como sostenía Turing, y si los humanos eran contenedores diseñados con una elegancia similar, capaces de procesar datos, de ahí se desprendía que crear una máquina pensante era posible si se la modelizaba usando la parte humana encargada de pensar: el cerebro. Estos autores postularon una teoría computacional moderna de la mente y el cerebro, una “red neural”. En lugar de ver la máquina como el hardware y el programa como el software, imaginaron un nuevo tipo de sistema simbiótico capaz de ingerir enormes cantidades de datos, tal como lo hacemos los humanos. Los computadores no eran, por entonces, lo suficientemente poderosos para poder probar esta teoría, pero el artículo sí inspiró a otros a trabajar en la producción de un nuevo tipo de sistema de computación inteligente.

El lazo entre los sistemas de computación inteligentes y la toma autónoma de decisiones se hizo más claro una vez que John von Neumann, el polímata húngaro-estadounidense con especializaciones en ciencias de la computación, física y matemáticas, publicó un voluminoso tratado de matemáticas aplicadas. Escrito de manera conjunta con el economista de Princeton Oskar Morgenstern en 1944, el libro de 641 páginas explica, con lujo de detalles, cómo la ciencia de la teoría de juegos es el fundamento de todas las decisiones económicas. Este trabajo propició la colaboración de von Neumann con el Ejército de los Estados Unidos, que venía trabajando en un nuevo tipo de computador eléctrico llamado Electronic Numerical Integrator and Computer (ENIAC). Originalmente, las instrucciones con las que funcionaba el ENIAC estaban integradas en el sistema, lo que significaba que, con cada nuevo programa, era necesario reconfigurar la totalidad del sistema. Inspirado por Turing, McCulloch y Pitts, von Neumann desarrolló una forma de almacenar programas en el computador mismo. Esto marcó la transición de la primera era de la computación (la tabulación) a una nueva era de sistemas programables.

El propio Turing ahora estaba trabajando en un concepto para una red neural, hecho con computadores con una arquitectura en la que los programas estaban almacenados. En 1949, el periódico The London Times citó así a Turing: “No veo por qué [la máquina] no pueda entrar en cualquiera de los campos que normalmente cubre el intelecto humano y, en un momento dado, competir en pie de igualdad. Ni siquiera creo que pueda marcarse la línea con los sonetos, aunque tal vez la comparación sea un poco injusta, pues un soneto escrito por una máquina será mejor apreciado por otra máquina”.

Un año después, en un artículo publicado en la revista de filosofía Mind, Turing trataba las cuestiones evocadas por Hobbes, Descartes, Hume y Leibniz. Allí, Turing proponía una teoría y una prueba o test: si algún día un computador podía responder preguntas de una manera que no pudiera distinguirse de la respuesta de los seres humanos, podríamos hablar de “pensamiento”. Es probable que los lectores conozcan el artículo con otro nombre: la prueba de Turing.

El artículo comenzaba con una pregunta, ya hoy famosa, formulada y respondida por diversos filósofos, teólogos, matemáticos y científicos desde antes que él: “¿Pueden pensar las máquinas?”. Sin embargo, Turing, que era sensible al antiguo debate sobre la mente y las máquinas, descartaba la pregunta por considerarla demasiado amplia, razón por la cual no permitía hacer un aporte significativo. Las palabras máquina y pensar eran ambiguas y daban demasiado espacio para la interpretación subjetiva (al fin y al cabo, durante 400 años se habían escrito artículos y libros sobre el significado de esas palabras).

El juego propuesto en el artículo se basaba en el engaño y se “ganaba” cuando el computador pudiera hacerse pasar, con todo éxito, por un humano. Esta es la prueba: en una habitación hay una persona y una máquina; en otra, hay un interrogador. El objeto del juego consiste en que el interrogador descubra cuáles respuestas provienen de la persona y cuáles de la máquina. Al comienzo del juego, el interrogador recibe unas etiquetas, X Y, pero no sabe cuál de las dos corresponde al computador y solo puede hacer preguntas como: “¿Quiere X decirme si X juega ajedrez?”. Al final del juego, el interrogador debe determinar quién era X y quién era Y. La meta de la otra persona es ayudarle al interrogador a identificar la máquina, y la meta de la máquina es engañar al interrogador para hacerle creer que la máquina es la persona. Esto decía Turing sobre el juego: “Creo que en unos cincuenta años será posible programar computadores con una capacidad de 109, que podrán jugar el juego de la imitación con tal destreza que un interrogador promedio no tendrá más del 70 % de chance de hacer la identificación correcta al cabo de cinco minutos de formular preguntas”16.

Con todo, Turing era un científico y sabía que su teoría no podía ser probada mientras él viviera. De hecho, el problema no radicaba en la falta de evidencia empírica que demostrara que las máquinas podrían pensar algún día (Turing afirmó que tal vez se necesitaría llegar a finales del siglo XX para poder llevar a cabo su prueba). “Podemos esperar que las máquinas lleguen, en un momento dado, a competir con los humanos en campos puramente intelectuales”, escribió Turing. El verdadero problema radicaba en dar el salto necesario para creer que las máquinas podrían, algún día, hacer cosas como ver, razonar y recordar, y saber que los humanos podrían interferir con este progreso. Para lograr el objetivo se requería que sus colegas científicos observaran la cognición desprovista de espiritualismo y creyeran en la posibilidad de máquinas inteligentes que, a diferencia de los humanos, tomarían decisiones de una manera no consciente.

El verano y el invierno de la IA

En 1955, los profesores Marvin Minsky (matemático y neurólogo) y John McCarthy (matemático), junto con Claude Shannon (matemático y criptógrafo de Bell Labs) y Nathaniel Rochester (científico informático de IBM) propusieron la realización de un taller de dos meses para explorar el trabajo de Turing y la promesa del aprendizaje automático. Su teoría apuntaba a lo siguiente: si era posible describir cada una de las características de la inteligencia humana, entonces se le podría enseñar a una máquina a simularlas17. Sin embargo, esta tarea requeriría la participación de un grupo amplio y diverso de expertos en muchos campos diferentes. Estos científicos creían que era posible lograr un avance significativo al reunir un grupo interdisciplinario de investigadores, para trabajar intensamente, sin interrupciones, durante el verano.

La conformación del grupo era una labor crucial. Así, crearían una red de excelsos ingenieros, científicos sociales, científicos informáticos, psicólogos, matemáticos, físicos y especialistas en cognición, que formularían y responderían preguntas fundamentales sobre lo que significa pensar, sobre cómo funcionan nuestras mentes y cómo enseñar a las máquinas a aprender de la misma manera que los humanos. La intención era que esta red diversa continuara colaborando en la investigación y haciendo aportes a este nuevo campo en el futuro.

Debido a que este sería un nuevo tipo de enfoque interdisciplinario para construir máquinas pensantes, se necesitaba un nuevo nombre para describir las actividades. Los participantes dieron con una denominación ambigua pero elegante: la inteligencia artificial.

McCarthy creó una lista preliminar de 47 expertos que creía necesitar para conformar la red de participantes y sentó las bases para toda la investigación y la elaboración de prototipos que vendrían a continuación. Fue un proceso lleno de tensiones, en el que se determinaría cuáles serían las voces que debían estar necesariamente presentes cuando se empezara a trabajar en serio en la conceptualización y la creación de la IA. A Minsky, en particular, le preocupaba que al grupo le faltaran dos voces fundamentales: la de Turing, que había muerto dos años atrás, y la de von Neumann, quien se encontraba en las últimas fases de un cáncer terminal18.

A pesar de los esfuerzos realizados para conformar un grupo diverso, con la mejor mezcla posible de habilidades complementarias, no se dieron cuenta de un importante punto ciego: todos los miembros de la lista eran blancos, aunque había muchas personas brillantes de raza negra trabajando en los mismos campos que McCarthy y Minky. Las personas que habían sido incluidas en la lista provenían de gigantes de la tecnología de la época (IBM, Bell Labs) y de un pequeño grupo de universidades. Aunque ya había muchas mujeres brillantes haciendo contribuciones significativas en las áreas de la ingeniería, la ciencia informática, las matemáticas y la física, las mujeres también fueron excluidas19. Todos los invitados eran hombres, exceptuando a la esposa de Marvin Minsky, Gloria. Sin tener conciencia de sus propios sesgos, estos científicos (que esperaban comprender cómo funciona la mente humana, cómo pensamos y cómo las máquinas podrían aprender de toda la humanidad) limitaron drásticamente su conjunto de datos a las personas que tenían un aspecto similar a ellos.

Al año siguiente, el grupo se reunió en el último piso del Departamento de Matemáticas de la Universidad de Dartmouth, para investigar sobre la teoría de la complejidad, la simulación de los lenguajes naturales, las redes neuronales, la relación entre la creatividad y la aleatoriedad y las máquinas que aprenden. Durante la semana, los científicos se reunían en el salón principal de matemáticas, donde se llevaba a cabo una discusión general, y luego se dispersaban para abordar asuntos más puntuales. En una de las sesiones generales, los profesores Allen Newell, Herbert Simon y Cliff Shaw se inventaron una manera de descubrir pruebas de teoremas lógicos y simularon el proceso a mano (un programa al que llamaron Logic Theorist). Fue el primer programa en imitar las habilidades de resolución de problemas de un humano. Más adelante, probarían 38 de los primeros 52 teoremas de Principia Mathematica, de Alfred North Whitehead y Bertrand Russell, un texto estándar sobre los fundamentos de las matemáticas. Claude Shannon, quien había propuesto, varios años atrás, enseñar a los computadores a jugar ajedrez contra los humanos, tuvo la oportunidad de mostrar un prototipo de su programa, que todavía estaba en proceso de construcción20.

Las expectativas de McCarthy y Minsky respecto a hacer avances innovadores en materia de IA no se materializaron ese verano en Dartmouth. El tiempo fue insuficiente, así como era insuficiente el poder de cómputo, para lograr que la IA pasara de la teoría a la práctica21. Sin embargo, en aquel verano se instauraron tres prácticas clave que se convirtieron en el fundamento de base de la IA tal como la conocemos hoy:

1. La teorización, la construcción, el testeo y el avance de la IA estarían a cargo de las grandes compañías de tecnología y de los investigadores académicos, en trabajo conjunto.

2. El avance de la IA requería mucho dinero, razón por la cual se necesitaba comercializar el trabajo de alguna manera, ya fuera cooperando en asociaciones con agencias gubernamentales o con el ejército o creando productos y sistemas que pudieran venderse.

3. La investigación y la construcción de la IA se basaba en una red de investigadores interdisciplinarios, lo que implicaba establecer un nuevo campo académico desde cero. También significaba que los investigadores tendían a reclutar a sus conocidos, lo que hacía que la red fuera relativamente homogénea y que tuviera una visión limitada del mundo.

Durante ese verano se produjo otro desarrollo interesante. Aunque el grupo estaba cohesionado en torno a la pregunta planteada por Turing, “¿pueden pensar las máquinas?”, no había un acuerdo respecto a cuál era el mejor enfoque para demostrar la respuesta, que era construir una máquina que aprende. Algunos de los miembros del grupo estaban a favor de un enfoque biológico. Es decir, creían que se podían usar las redes neuronales para proporcionar a la IA un sentido común y un razonamiento lógico, es decir, que era posible que las máquinas en general fueran inteligentes. Otros miembros argumentaban que nunca sería posible crear una réplica tan completa de las estructuras del pensamiento humano. Estaban a favor de un enfoque basado en la ingeniería. En lugar de escribir comandos para resolver problemas, un programa podría ayudarle al sistema a “aprender” a partir de un conjunto de datos. Haría predicciones usando datos; luego, un supervisor humano verificaría las respuestas y haría los ajustes necesarios. De esta manera, el “aprendizaje automático” significaba aprender una tarea específica, como jugar a las damas.

El psicólogo Frank Rosenblatt, miembro del taller de Dartmouth, quería hacer una modelización que indicara de qué manera el cerebro humano procesa los datos visuales y, en consecuencia, aprende a reconocer los objetos. A partir de la investigación de ese verano, Rosenblatt creó un sistema llamado Perceptron. Su propósito era construir un programa simple que pudiera responder al feedback. Fue la primera red neuronal artificial (o ANN, por las iniciales en inglés de artificial neural network) y funcionaba creando conexiones entre múltiples elementos de procesamiento en una disposición en capas. Cada neurona mecánica recibiría montones de señales de input y luego usaría un sistema de ponderación matemática para decidir cuál señal de output generar. En esta estructura paralela, sería posible acceder a múltiples procesadores al mismo tiempo, lo que significa que no solo sería un sistema rápido, sino que, además, podría procesar una gran cantidad de datos de manera continua.

¿Por qué era tan importante este descubrimiento? Aunque esto no significaba necesariamente que un computador pudiera “pensar”, sí mostraba cómo enseñarle a un computador a aprender. Los humanos aprendemos por medio del ensayo y el error. Para tocar en el piano una escala de do, se requiere hundir las teclas apropiadas en la secuencia correcta. En un comienzo, nuestros dedos, oídos y ojos no han memorizado el patrón correcto, pero si practicamos (repitiendo la escala una y otra vez, haciendo las correcciones pertinentes) al fin lograremos hacerlo bien.

Cuando yo tomaba clases de piano y tocaba mal las escalas, la profesora me corregía, pero si las tocaba bien, me ganaba una calcomanía. La calcomanía reforzaba el concepto de que yo había tomado las decisiones correctas al tocar. Lo mismo ocurre con la red neuronal de Rosenblatt. El sistema aprendería a optimizar su respuesta llevando a cabo las mismas funciones miles de veces, recordaría lo aprendido y aplicaría ese conocimiento a futuros problemas. El científico entrenaría el sistema usando una técnica llamada “propagación inversa”.

Durante la fase inicial de entrenamiento, un humano evalúa si la ANN tomó la decisión correcta. Si lo hizo, el proceso es reforzado. En caso negativo, se hacen ajustes a los sistemas de ponderación y se administra otro test.

En los años posteriores al taller, hubo un notable progreso en problemas complicados para los seres humanos, como el uso de la IA para resolver teoremas matemáticos. En cambio, entrenar a la IA para hacer algo simple (como reconocer el lenguaje hablado), siguió siendo un desafío mayúsculo, sin solución inmediata.

Antes de estos trabajos con la IA, la mente siempre había sido comparada con una caja negra. Se realizaba la entrada de datos y se obtenía una respuesta, pero no había manera de observar el proceso. Los primeros filósofos, matemáticos y científicos afirmaban que esto era el resultado de un diseño divino. Los científicos modernos sabían que esto era el resultado de cientos de miles de años de evolución. Solo hasta la década de 1950, en aquel verano en Dartmouth, los investigadores empezaron a creer que podían abrir la caja negra (por lo menos en teoría) y observar la cognición. Luego podrían enseñarles a los computadores a imitar nuestro comportamiento de estímulo-respuesta.

Hasta ese momento, los computadores habían sido herramientas utilizadas para automatizar la tabulación. La primera era de la computación, caracterizada por las máquinas que podían calcular números, daba paso a la segunda era, la de los computadores programables. Estos eran unos sistemas más rápidos y más ligeros con la memoria suficiente para almacenar conjuntos de instrucciones en los computadores. Ahora los programas podían almacenarse localmente y, sobre todo, se podían escribir en inglés y no en esos complicados códigos. Cada vez resultaba más claro que no necesitábamos autómatas o contenedores humanos para que las aplicaciones de IA fueran útiles. La IA podía estar alojada en una simple caja, sin ninguna característica humana y, aun así, ser extremadamente útil.

El taller de Dartmouth llevó al matemático británico I. J. Good a escribir sobre “una máquina ultrainteligente” que podía diseñar máquinas más inteligentes de las que podríamos crear nosotros. Esto generaría en el futuro una “explosión de inteligencia, y la inteligencia del hombre quedaría muy rezagada. De este modo, la primera máquina ultrainteligente es la última invención que necesita hacer el hombre”22.

Finalmente, una mujer entró a formar parte del grupo o, por lo menos, el nombre de una mujer. En el MIT, el científico informático Joseph Weizenbaum escribió un primer sistema de IA, llamado ELIZA, un programa conversacional bautizado con el nombre del personaje ingenuo de Pigmalión, de George Bernard Shaw23. Este desarrollo fue importante para las redes neuronales y la IA, porque era uno de los primeros intentos por crear un procesamiento a base de lenguaje natural. El programa usaba guiones preescritos, con el fin de adelantar conversaciones con personas reales. El guion más famoso se llamaba DOCTOR24, e imitaba a un psicólogo empático que se basaba en el reconocimiento de patrones para dar respuestas sorprendentemente humanas.

Para ese momento, el taller de Dartmouth ya era famoso internacionalmente, lo mismo que sus investigadores, quienes de la noche a la mañana pasaron a convertirse en el centro de atracción. Era un grupo de nerds célebres que le daban a la gente común y corriente una visión fantástica del futuro. ¿Recuerda el lector a Rosenblatt, el psicólogo que había creado la primera red neuronal? Este le dijo al Chicago Tribune que muy pronto las máquinas no solo tendrían programas ELIZA capaces de dar algunos cientos de respuestas, sino que, además, los computadores podrían asistir a reuniones y tomar dictados, “como una secretaria”. No solo profetizó la llegada del “aparato pensante” más grande que se hubiera construido jamás, sino que anunció la creación de un sistema que podría funcionar al cabo de unos cuantos meses25.

Ente tanto, ¿qué había de Simon y Newell, quienes habían creado el Logic Theorist? Estos científicos comenzaron a hacer predicciones salvajes y audaces sobre la IA, diciendo que, en diez años, es decir, en 1967, las computadoras podrían hacer lo siguiente:

Vencer a todos los grandes maestros de ajedrez y convertirse en las campeonas mundiales.

Descubrir y probar un nuevo e importante teorema matemático.

Escribir un tipo de música que incluso los críticos más severos valorarían26.

Por su parte, Minsky hacía predicciones sobre una máquina generalmente inteligente, que podría hacer mucho más que tomar dictados, jugar ajedrez o componer música. Sostenía que, en el transcurso de su vida, las máquinas llegarían a tener una inteligencia general artificial, es decir, que los computadores podrían tener pensamiento complejo y expresión lingüística, y tendrían la capacidad para tomar decisiones27.

Los investigadores del taller de Dartmouth escribían artículos y libros. Daban entrevistas en televisión, radio, periódicos y revistas. Sin embargo, el aspecto científico era difícil de exponer, muchas veces las explicaciones eran confusas y se citaba a los investigadores fuera de contexto. Dejando aparte las predicciones estrafalarias, hay que decir que las expectativas del público respecto a la IA eran cada vez más fantásticas, en parte porque se hizo una mala presentación de la historia. Por ejemplo, en la revista Life aparece una cita de Minsky: “En un plazo de tres a ocho años tendremos una máquina con la inteligencia general de un ser humano promedio. Es decir, será una máquina que podrá leer a Shakespeare, engrasar un automóvil, participar en los juegos políticos de las oficinas, contar un chiste, discutir”28. En ese mismo artículo, el periodista se refiere a Alan Turing como “Ronald Turing”. Minsky, quien obviamente era un entusiasta del tema, estaba exagerando y no podía afirmar, sin faltar a la verdad, que los robots que caminaban y hablaban ya estaban a la vuelta de la esquina. En ausencia de un contexto y una explicación adecuados, la percepción del público respecto a la IA comenzó a deformarse.

A esta confusión contribuyó el hecho de que, en 1968, Arthur Clarke y Stanley Kubrick decidieron hacer una película sobre el futuro de las máquinas con la inteligencia general de una persona promedio. Estos cineastas querían narrar la historia del origen de los humanos y de las máquinas pensantes, y acudieron a Minsky como asesor. Como ya lo habrá imaginado el lector, se trata de la película 2001: Odisea del espacio, centrada en una IA llamada HAL 9000. Esta máquina inteligente aprendió de sus creadores la creatividad y sentido del humor, y amenazaba con matar a cualquiera que quisiera desenchufarla. El nombre de uno de los personajes de la película, Victor Kaminski, está inspirado en Minsky.

Podemos decir que, a mediados de la década de 1960, la IA formaba parte del zeitgeist, del espíritu de ese tiempo, y que todo el mundo estaba fetichizando el futuro. Cada vez eran mayores las expectativas sobre el éxito comercial de la IA, debido a un artículo que salió en una oscura publicación comercial que trataba sobre la industria de la radio. El artículo, titulado simplemente “Cramming More Components onto Integrated Circuits” (“Meter más componentes en los circuitos integrados”), había sido escrito por el cofundador de Intel, Gordon Moore, y en él exponía la teoría de que la cantidad de transistores que se podían poner en una placa de circuitos integrados, por el mismo precio, se duplicaría cada 24 meses o menos. Esta atrevida idea se conoció como la ley de Moore, y en poco tiempo se vio que su tesis era acertada. Los computadores eran cada vez más poderosos y podían ejecutar innumerables tareas, más allá de resolver problemas de matemáticas. Esto significó un enorme impulso para la comunidad de la IA, porque sus teorías podrían ser sometidas a pruebas sólidas en muy poco tiempo. También planteaba la fascinante posibilidad de que los procesadores de IA pudieran superar los poderes de la mente humana, que tiene una capacidad de almacenamiento biológicamente limitada.

Todo ese frenesí, sumado al mencionado artículo, condujo a que se hiciera una gran inversión en la IA, aun si las personas que estaban fuera de la red de Dartmouth no entendían muy bien de qué se trataba realmente la IA. Todavía no había ningún producto que mostrar, ni había formas prácticas de escalar las redes neuronales y de producir toda la tecnología necesaria. El hecho de que la gente ahora creyera en la posibilidad de crear máquinas pensantes era suficiente para obtener una importante financiación corporativa y gubernamental. Por ejemplo, el gobierno de los Estados Unidos financió un ambicioso programa de IA para la traducción de idiomas. Era un momento álgido de la Guerra Fría, y el gobierno quería tener un sistema de traducción instantánea del ruso que les permitiera ser más eficientes, ahorrar costos y ser más precisos. Parecía que pudiera encontrarse una solución a este reto de traducción gracias a los avances en el aprendizaje automático. Una colaboración entre el Instituto de Lenguas y Lingüística de la Universidad de Georgetown e IBM produjo un prototipo de sistema de traducción automática ruso-inglés que tenía un vocabulario limitado de 250 palabras y se especializaba solo en química orgánica. La exitosa demostración pública hizo que muchas personas sacaran conclusiones precipitadas, y la traducción automática ocupó la primera plana del New York Times y de otros seis periódicos.

El dinero fluía entre las agencias gubernamentales, las universidades y las grandes empresas de tecnología, y, durante un tiempo, a nadie parecía preocuparle el gasto. Sin embargo, más allá de esos artículos y prototipos, no se estaban cumpliendo ni las promesas ni las predicciones relacionadas con la IA. Los avances serios e importantes eran un desafío mucho mayor de lo que habían previsto los pioneros modernos.

Pronto, empezó a ponerse el énfasis de la investigación en los usos reales y la implementación práctica de la IA. La National Academy of Sciences (Academia Nacional de Ciencias) de los Estados Unidos había conformado un comité asesor, a petición de la National Science Foundation (Fundación Nacional de Ciencias), el Department of Defense (Departamento de Defensa) y la Central Intelligence Agency (CIA) (Agencia Central de Inteligencia). En él se encontraron puntos de vista divergentes sobre la viabilidad de la traducción de idiomas extranjeros mediante IA, y se concluyó que “no se ha producido una traducción automática de un texto científico general, y no se ve que pueda haberla en el futuro inmediato”29. Un informe posterior presentado para el British Science Research Council (Consejo Británico para la Investigación en Ciencia) afirmó que los investigadores principales habían exagerado su progreso en materia de IA, y planteaba un pronóstico pesimista para todas las áreas de investigación principales en dicho campo. James Lighthill, especialista británico en matemáticas aplicadas de Cambridge, fue el autor principal del informe; su crítica más severa apuntaba a que esas técnicas tempranas de IA (enseñarle a un computador a jugar damas, por ejemplo) nunca podría escalarse para resolver problemas más grandes de la vida real30.

Tras la publicación de estos informes, los gobernantes elegidos a cargos públicos en los Estados Unidos y el Reino Unido exigían respuestas a una nueva pregunta: ¿por qué estamos financiando unas ideas descabelladas lanzadas por unos científicos teóricos? El gobierno de los Estados Unidos, incluyendo a la agencia DARPA, eliminó la financiación para los proyectos de traducción automática. Las empresas cambiaron sus prioridades y se alejaron de la investigación básica —que consume mucho tiempo— en la IA general, para dedicarse a programas más inmediatos que podrían resolver problemas concretos. Los años inmediatamente posteriores al taller de Dartmouth se caracterizaron por la generación de grandes expectativas y optimismo, pero las décadas que vinieron después de aquellos informes críticos se conocieron como “el invierno de la IA”. La financiación se agotó, los estudiantes se dedicaron a otros campos de estudio y el progreso se detuvo.

Incluso McCarthy se volvió mucho más conservador en sus proyecciones: “Los seres humanos podemos hacer este tipo de cosas muy fácilmente porque tenemos incorporados los sistemas en nuestro ser”, afirmó31. Pero tenemos una dificultad mucho mayor para desentrañar cómo entendemos el habla, es decir, los procesos físicos y cognitivos que hacen posible el reconocimiento del lenguaje. Para explicar el desafío del avance de la IA, a McCarthy le gustaba usar el ejemplo de una jaula para aves. Si le pido al lector que me haga una jaula para aves y no le doy ningún otro parámetro, lo más probable es que construya un recinto donde estén cubiertas la parte superior, la parte inferior y los laterales. Si le diera una información adicional —el ave es un pingüino—, entonces no sería necesario cubrir la parte superior. Por lo tanto, el requerimiento de una cubierta para la parte superior de la jaula depende de algunas cosas: la información que yo he proporcionado y todas las asociaciones que el lector hace con la palabra ave, tales como el hecho de que la mayoría de aves vuelan. Tenemos unas suposiciones de base y un contexto. Lograr que la IA responda como lo hacemos los humanos exige de mucha más información y de unas instrucciones explícitas32. El invierno de la IA duraría tres décadas33.

Lo que vino después: aprender a jugar

Aunque la financiación ya no fluía como antes, muchos de los investigadores de Dartmouth continuaban adelantando su trabajo relacionado con la IA y seguían dando clases a nuevos estudiantes. Entretanto, la ley de Moore demostraba su precisión y los computadores eran cada vez más poderosos.

En la década de 1980, algunos de esos investigadores descubrieron la manera de comercializar ciertos aspectos de la IA. Además, el poder de computación era mucho mayor y eran más numerosos los investigadores que descubrían que su trabajo tenía viabilidad comercial. Así, se reavivó el interés y, lo que es más importante, el flujo de dinero hacia la IA. En 1981, Japón anunció un plan decenal para desarrollar una IA llamada Quinta Generación. Esta acción llevó al gobierno de los Estados Unidos a formar la Microelectronics and Computer Technology Corporation, un consorcio de investigación cuyo objetivo era asegurar la competitividad nacional. En el Reino Unido, se restableció la financiación que se había recortado a raíz del informe crítico sobre el progreso de la IA escrito por James Lighthill. Entre 1980 y 1988, la industria de la IA tuvo un impresionante crecimiento, pues pasó de unos cuantos millones de dólares a varios miles de millones.

Los computadores, ahora más rápidos y con memoria, podían procesar datos de manera más efectiva. El énfasis estaba puesto en la tarea de replicar los procesos de toma de decisiones de los expertos humanos, en lugar de construir máquinas de uso múltiple como la famosa HAL 9000 de la película. Esos sistemas se enfocaban en el uso de redes neuronales para tareas puntuales, como jugar. En las décadas de 1990 y del 2000 se obtuvieron algunos resultados exitosos, bastante interesantes. En 1994, una IA llamada CHI-NOOK jugó seis partidas de damas contra el campeón mundial Marlon Tinsley (todas fueron empates). CHINOOK ganó cuando Tinsley se retiró del partido y renunció a su título de campeón34. En 1997, la supercomputadora Deep Blue de IBM venció al campeón mundial de ajedrez Garry Kasparov, quien no resistió el estrés de un duelo de seis partidas contra un oponente aparentemente invencible. En el 2004, Ken Jennings ganó 74 juegos consecutivos en Jeopardy! (lo cual era estadísticamente improbable), y en ese momento estableció un récord mundial Guinness por la mayor cantidad de dinero ganado en un programa de juegos. Cuando aceptó jugar un partido contra Watson de IBM, en el 2011, se sentía seguro de poder ganar. Había tomado clases de IA y suponía que la tecnología no era lo suficientemente avanzada como para entender los contextos, la semántica y los juegos de palabras. Watson aplastó a Jennings, quien comenzó a perder la confianza desde el principio del juego.

Algo que ya sabíamos en el 2011 era que la IA superaba a los humanos en ciertas tareas de pensamiento, porque podía procesar grandes cantidades de información sin sucumbir ante el estrés. La IA podría definir el estrés, pero no debía luchar contra su propio sistema endocrino.

No obstante, el antiguo juego de mesa go fue crucial para los investigadores de la IA, ya que este se podía jugar usando solo la estrategia convencional. El go, un juego creado en China hace más de 3.000 años, se juega con unas reglas bastante simples: por turnos, dos jugadores ponen piedras blancas y negras en una cuadrícula vacía. Es posible capturar las piedras cuando están rodeadas por el color opuesto o cuando no hay más espacios abiertos o “libertades”. El objetivo es cubrir el territorio en el tablero, pero esto exige mucha psicología y bastante astucia para comprender el estado mental del adversario.

En el go, el tamaño del tablero tradicional es de 19 × 19 cuadrados. A diferencia de otros juegos, como el ajedrez, todas las piedras de go tienen el mismo rango. Entre los dos jugadores, hay 181 piedras negras y 180 blancas (las negras siempre van primero, de ahí el número desigual). En el ajedrez, donde las piezas tienen diferentes fortalezas, el jugador blanco tiene 20 movimientos posibles de inicio, y luego el negro tiene 20 movimientos posibles. Después de la primera jugada en el ajedrez, hay 400 posiciones posibles en el tablero. En go, en cambio, hay 361 movimientos de apertura posibles, uno por cada intersección de una cuadrícula completamente en blanco. Después de la primera ronda de movimientos de cada jugador, hay 128.960 movimientos posibles. En total, hay 10.170 configuraciones de tablero posibles. Para tener una idea aproximada, digamos que eso equivale a más que todos los átomos en el universo conocido. Con tantas posiciones concebibles y movimientos potenciales, no hay libros de jugadas como los que existen para las damas y el ajedrez. Los maestros de go se basan en situaciones hipotéticas: si el oponente juega en un punto en particular, ¿cuáles son los caminos posibles y probables, dada su personalidad, su paciencia y su estado mental general?

Al igual que el ajedrez, el go es un juego determinista de información perfecta, donde no hay ningún elemento oculto u obvio de azar. Para ganar, los jugadores deben mantener en equilibrio sus emociones y deben convertirse en maestros en el arte de la sutileza humana. En el ajedrez, es posible calcular los probables movimientos futuros de un jugador; la torre solo puede moverse en dirección vertical u horizontal por el tablero. Eso limita el número de movimientos. Por lo tanto, es más fácil entender quién va ganando una partida de ajedrez mucho antes de que se capturen las piezas o que se ponga un rey en jaque mate. No ocurre así con el go. Es ocasiones, es necesario contar con la asesoría un gran maestro del juego para determinar qué está sucediendo en una partida y establecer quién va ganando en un momento dado. En la complejidad del go reside su gran atractivo para emperadores, matemáticos y físicos, y también es la razón por la que los investigadores de la IA siempre han sentido tanta fascinación ante la posibilidad de enseñar a las máquinas a jugarlo.

El go siempre ha representado un reto importante para los investigadores de la IA. Si bien es cierto que un computador puede ser programado para conocer las reglas, no había un programa que tuviera reglas para comprender las características humanas del adversario. Nadie había creado un algoritmo lo suficientemente poderoso como para manejar las increíbles complejidades del juego. En 1971, un primer programa creado por el científico informático Jon Ryder funcionaba con un principio técnico y perdió ante un novato. En 1987, un programa de computador más poderoso, llamado Nemesis, compitió por primera vez contra un humano en un torneo. En 1994, el programa conocido como Go Intellect resultó ser un jugador competente. Sin embargo, aun teniendo una ventaja significativa, perdió sus tres partidas contra niños. En todos estos casos, los computadores hacían movimientos incomprensibles, o jugaban de una manera demasiado agresiva, o calculaban mal la postura del adversario.

En medio de esos avances aparecieron unos investigadores que, una vez más, estaban trabajando sobre redes neuronales, una idea impulsada por Marvin Minsky y Frank Rosenblatt durante la reunión inicial de Dartmouth. El científico cognitivista Geoff Hinton y los científicos informáticos Yann Lecun y Yoshua Bengio creían que los sistemas neuronales basados en redes no solamente tendrían importantes aplicaciones prácticas (como la detección automática de fraudes con tarjetas de crédito y el reconocimiento óptico automático de caracteres, para leer documentos y cheques), sino que, además, se convertiría en la base para los desarrollos futuros de la IA.

Fue Hinton, profesor en la Universidad de Toronto, quien imaginó un nuevo tipo de red neuronal, de múltiples capas, cada una de las cuales extraía información diferente, que finalmente reconocía lo que estaba buscando. Hinton pensó que la única manera de incorporar ese tipo de conocimiento en un sistema de IA era desarrollar algoritmos de aprendizaje que les permitieran a los computadores aprender por sí mismos. En lugar de enseñarles muy bien a hacer una tarea puntual, había que construir las redes de tal manera que pudieran entrenarse a sí mismas.

Estas nuevas redes neuronales “profundas”, RNP (o DNN, en inglés, por deep neural networks) requerirían un aprendizaje automático más avanzado (“aprendizaje profundo”), para entrenar a los computadores a llevar a cabo tareas humanas, pero con menos supervisión humana (e, incluso, en un futuro, sin ella). Uno de los beneficios inmediatos era el de la escala. En una red neuronal, unas cuantas neuronas toman unas cuantas decisiones, pero el número de opciones posibles aumentaría exponencialmente si se añadieran más capas. Dicho de otro modo, los humanos aprenden de manera individual, pero la humanidad aprende de manera colectiva. Imagine el lector una inmensa red neuronal profunda, aprendiendo como un todo unificado, con la posibilidad de un aumento en la velocidad, la eficiencia y el ahorro de costos en el largo plazo.

Otro beneficio era dejar libres a los sistemas para que aprendieran por sí mismos, sin las limitaciones que implican las capacidades cognitivas y la imaginación humanas. El cerebro humano tiene limitaciones metabólicas y químicas que le ponen una cortapisa a la capacidad de procesamiento de esos computadores húmedos que llevamos dentro del cráneo. Nosotros solos no podemos evolucionar de una manera significativa, y el marco temporal de la evolución no se adapta a nuestras aspiraciones tecnológicas actuales. La promesa del aprendizaje profundo era una aceleración de la evolución de la inteligencia misma, la cual requeriría la participación de los humanos solo de manera temporal.

Una red neuronal profunda recibiría de una persona un conjunto básico de parámetros sobre los datos, y luego el sistema aprendería por sí mismo, reconociendo patrones mediante el uso de muchas capas de procesamiento. Para los investigadores, el atractivo del aprendizaje profundo es que, por diseño, las máquinas toman decisiones de forma impredecible. Pensar de maneras que los humanos jamás hemos imaginado (o que nos resultan imposibles) es de vital importancia a la hora de intentar resolver grandes problemas para los cuales todavía no se han visto soluciones claras.

La comunidad que trabaja en la IA descartó la idea de las redes neuronales profundas por considerarlas unas divagaciones sin sentido, nacidas de la mente de un científico que trabajaba en la periferia. Su duda se intensificó una vez quedó claro que, dado que los procesos de aprendizaje profundo ocurren en paralelo, los investigadores de la IA no podrían observarlos en tiempo real. Alguien tendría que crear el sistema y luego confiar en que las decisiones que este tomaba eran las correctas.

Ganar y perder

Hinton continuó trabajando y desarrollando la idea con sus estudiantes, así como lo hicieron con Lecun y Bengio, y comenzó a publicar artículos a partir del 2006. En el 2009, el laboratorio de Hinton había aplicado las redes neuronales profundas al reconocimiento de la voz, y un encuentro fortuito con un investigador de Microsoft, llamado Li Deng, permitió que la tecnología tomara un rumbo significativo.

Deng, de origen chino, era especialista en el aprendizaje profundo y pionero en el reconocimiento de la voz mediante el uso del aprendizaje profundo a gran escala. En el 2010, la técnica era sometida a pruebas en Google. Tan solo dos años después, se estaban usando las redes neuronales profundas para la elaboración de productos comerciales. Si usted ha usado alguna vez Google Voice y sus servicios de transcripción, ya ha visto los resultados del aprendizaje profundo. Esa técnica fue la base para todos los asistentes digitales que usamos hoy en día. Siri, Google y Alexa de Amazon funcionan gracias al aprendizaje profundo.

La comunidad de investigadores interdisciplinarios de la IA había crecido significativamente desde el verano de Dartmouth. No obstante, esas tres prácticas principales (a saber, que las grandes empresas tecnológicas y los investigadores académicos trabajan juntos, que el éxito comercial impulsa el progreso de la IA y que la red de investigadores tiende a ser homogénea) seguían vigentes.

Los avances que se hacían en los Estados Unidos no pasaban inadvertidos en Beijing. China contaba ahora con su propio ecosistema de IA, incipiente, pero en pleno crecimiento. El gobierno estatal incentivaba a los investigadores a publicar los resultados de su trabajo. El número de artículos científicos sobre IA publicados por investigadores chinos se multiplicó de manera importante entre el 2010 y el 201735. Para ser justos, hay que decir que los artículos y las patentes no necesariamente significaban que la investigación se fuera a traducir en un uso masivo, pero sí era un indicio temprano de la incomodidad de los líderes chinos ante los progresos que se hacían en Occidente, sobre todo en lo relacionado con el go.

En enero del 2014, Google había comenzado a invertir de manera significativa en la IA, lo cual incluía una inversión de más de 500 millones de dólares para adquirir una empresa emergente de aprendizaje profundo llamada DeepMind, junto con sus tres fundadores: el neurocientífico Demis Hassabis (quien había sido un niño prodigio del ajedrez), la investigadora en aprendizaje automático Shane Legg y el empresario Mustafa Suleyman. Parte del atractivo de este equipo era haber desarrollado un programa llamado AlphaGo.

Al cabo de algunos meses, estaban listos para poner a prueba el AlphaGo contra un jugador humano. Se concertó una partida entre DeepMind y Fan Hui, jugador profesional de go de origen chino, y uno de los más fuertes maestros profesionales de Europa. Teniendo en cuenta que jugar go en un computador no es lo mismo que hacerlo en un tablero físico, se decidió que uno de los ingenieros de DeepMind reproduciría las jugadas del computador en el tablero y comunicaría las jugadas de Hui al computador.

Antes de la partida, Toby Manning, uno de los directivos de la Asociación Británica de Go, jugó contra AlphaGo en una ronda de prueba y perdió por 17 puntos. Manning cometió algunos errores, pero también el programa se equivocó. Un pensamiento inquietante se cruzó por su mente: ¿no estaría el AlphaGo jugando de manera conservadora?, ¿sería posible que el programa solo jugara con el nivel de agresividad apenas suficiente para vencer a Manning, en lugar de darle una paliza rotunda?

Los jugadores se sentaron frente a la mesa. Fan Hui llevaba puesta una camisa de rayas con botones y una chaqueta de cuero marrón. Manning estaba en el centro y el ingeniero en el otro lado. El juego comenzó. Hui abrió una botella de agua y observó el tablero. Por ser quien tenía las piedras negras, le tocaba comenzar a él. Durante los primeros cincuenta movimientos, fue una partida tranquila: era claro que Hui estaba tratando de averiguar cuáles eran las fortalezas y debilidades del AlphaGo. Muy pronto descubrió que la IA no jugaría agresivamente a menos que estuviera perdiendo. Fue una primera partida apretada. AlphaGo obtuvo una victoria muy estrecha, por tan solo 1,5 puntos.

Hui usó esa información para la segunda partida. Si AlphaGo no iba a jugar agresivamente, Hui atacaría pronto. Sin embargo, AlphaGo comenzó a jugar más rápido. Hui mencionó que quizás necesitaba un poco más de tiempo para pensar entre un turno y el otro. En la jugada 147, Hui intentó evitar que AlphaGo obtuviera un gran territorio en el centro del tablero, pero la jugada le falló, y se vio obligado a renunciar.

En la tercera partida, los movimientos de Hui eran más agresivos, y AlphaGo lo imitó. A mitad de camino, Hui corrió un riesgo exagerado, que AlphaGo castigó; luego Hui cometió otro gran error, lo que marcó el final del juego. Aturdido por la frustración, Hui se excusó y salió a caminar un rato, para poder recuperar la compostura y terminar la partida. Una vez más, el estrés había superado a un gran pensador humano, mientras que la IA, impasible, seguía persiguiendo su objetivo sin piedad.

AlphaGo, un programa de IA, había derrotado a un jugador profesional de go por 5-0. Había ganado analizando muchísimas menos posiciones que las del Deep Blue de IBM, en varios órdenes de magnitud. Cuando AlphaGo venció a un humano, no sabía que estaba jugando, ni lo que significa un juego, ni por qué los humanos disfrutan jugando.

Hanjin Lee, un jugador profesional de go de alto nivel, originario de Corea, revisó posteriormente las partidas. En una declaración pública oficial afirmó: “Mi impresión general fue que AlphaGo parecía más fuerte que Fan, pero no podría decir qué tanto […]. Tal vez el sistema se hace más fuerte cuando se enfrenta a un adversario más fuerte”36.

Concentrarse en las partidas (es decir, vencer a los humanos en una competición directa) ha servido para definir el éxito del sistema, usando un conjunto relativamente limitado de parámetros. Eso nos lleva a una pregunta filosófica nueva, bastante desconcertante, para la era moderna de la IA. Para que los sistemas de IA ganen (cumplan las metas que hemos creado para ellos), ¿tienen los humanos que perder de maneras que pueden ser consideradas triviales, pero también profundas?

* * *

AlphaGo continuó jugando torneos, en los cuales vencía a todos los adversarios con unas habilidades destacadas y desmoralizaba a la comunidad de jugadores profesionales de go. Tras vencer al campeón número 1 del mundo por 30, DeepMind anunció que iba a retirar el sistema de IA de las competencias, pues el equipo de trabajo tenía la intención de crear nuevos retos37. El propósito del equipo era tomar el AlphaGo, un poderoso sistema que puede ser entrenado para vencer a jugadores brillantes de go, y convertirlo en un sistema que puede entrenarse a sí mismo para volverse igualmente poderoso, sin tener que contar con la participación de los humanos.

Para la primera versión del AlphaGo se necesitaban las acciones de los humanos y un conjunto inicial de datos de 100.000 partidas de go para que el sistema aprendiera a jugar. La siguiente generación del sistema fue creada de tal manera que este pudiera aprender desde cero. Así como un humano aprende a jugar desde lo básico, esta versión (llamada AlphaGo Zero) tendría que aprenderlo todo, por su propia cuenta, sin contar con una base de datos de movimientos de apertura o con alguna definición sobre lo que hacen las piedras. El sistema no solo tendría que optar entre una cosa y otra (lo cual era el resultado de una computación y podría programarse explícitamente), sino que tomaría decisiones, relacionadas con el juicio38. Esto significaba que los arquitectos de DeepMind ejercían un poder inmenso, aunque no se dieran cuenta de eso. Sobre la base de lo que ellos aportaran, Zero aprendería las condiciones, los valores y las motivaciones para tomar sus decisiones y hacer sus escogencias durante el juego.

Zero competía contra sí mismo, afinando y ajustando él solo su proceso de toma de decisiones. Cada partida comenzaría con unas cuantas jugadas aleatorias, y con cada partida ganada Zero se actualizaría y luego jugaría otra vez, de manera optimizada por aquello que había aprendido. A Zero le tomó tan solo 70 horas de juego para llegar al mismo nivel de potencia que tenía AlphaGo cuando venció a los mejores jugadores del mundo39.

En ese momento ocurrió algo interesante. El equipo de Deep-Mind aplicó su técnica a una segunda versión de AlphaGo Zero usando una red más grande y permitiéndole al sistema entrenarse y jugar contra sí mismo durante 40 días. Este no solo descubrió la totalidad del conocimiento de go acumulado por los humanos, sino que venció a la versión más avanzada de AlphaGo en un 90 % de las veces, usando estrategias completamente nuevas. Esto significa que Zero evolucionó para convertirse en un mejor alumno que los mayores maestros de go del mundo y en un mejor profesor que sus entrenadores humanos, aunque todavía no comprendemos a cabalidad qué hizo para volverse tan inteligente40. Tal vez el lector se pregunte qué tan inteligente es el sistema. Pues bien, la fortaleza de un jugador de go se mide usando un sistema de clasificación llamado Elo, que determina la posibilidad de triunfo/fracaso sobre la base del desempeño en el pasado. Los grandes maestros y los campeones mundiales suelen tener puntajes que se acercan a los 3.500. La calificación de Zero fue de más de 5.000. En comparación, esos brillantes campeones mundiales jugaban como aficionados, y sería estadísticamente improbable que algún jugador humano pudiera ganarle al sistema de IA.

Lo que sí conocemos es una condición que posibilitó este tipo de aprendizaje. Al no utilizar datos o experiencias humanos, los creadores de Zero eliminaron las limitaciones del conocimiento humano sobre la IA. Los humanos, en realidad, habrían hecho que el sistema fuera menos poderoso. El logro radicaba en haber creado un sistema que tuviera la capacidad para pensar de una manera totalmente nueva y para hacer sus propias escogencias41. Este fue un salto inesperado y repentino, que presagiaba un futuro en el que los sistemas de IA podrían mirar las pruebas de detección del cáncer, evaluar la información climática y analizar la pobreza de maneras no humanas, lo cual podría abrir la puerta a descubrimientos que los investigadores humanos jamás habrían podido producir por su propia cuenta.

En sus partidas contra sí mismo, Zero descubrió estrategias del juego de go que los humanos habían desarrollado a lo largo de 1.000 años, lo que significa que había aprendido a pensar igual que los humanos que lo crearon. En las primeras etapas, cometía los mismos errores, concebía los mismos patrones y variaciones y hacía frente a los mismos obstáculos que los humanos. Sin embargo, una vez que Zero se volvió lo suficientemente fuerte, abandonó las jugadas humanas y empezó a producir otras de su preferencia42. Cuando Zero emprendió vuelo por sí mismo, desarrolló creativas estrategias que nadie había visto antes, lo que sugiere que tal vez las máquinas ya estaban pensando de maneras que son a la vez reconocibles y extrañas para nosotros.

Otra cosa que logró demostrar Zero es que los algoritmos ahora eran capaces de aprender sin necesidad de guía humana, y que éramos los humanos quienes estábamos entorpeciendo los sistemas de IA. Así, en el futuro cercano, se les podría dar libertad a las máquinas para resolver problemas que nosotros, por nuestra propia cuenta, no podríamos predecir ni resolver.

En diciembre del 2017, el equipo de DeepMind publicó un artículo en el que mostraba que Zero era, ahora, generalmente capaz de aprender: no solamente aprender cómo jugar go, sino otra información. Por su propia cuenta, Zero estaba jugando otros juegos, como ajedrez y shoji (un juego japonés parecido al ajedrez), que sin duda son menos complejos pero que, de todas formas, requieren estrategia y creatividad. Adicionalmente, Zero estaba aprendiendo ahora más rápido que antes. Había logrado desarrollar un incomprensible poder superhumano, tras jugar el juego durante menos de veinticuatro horas. El equipo comenzó, entonces, a trabajar en el objetivo de aplicar las técnicas que habían desarrollado para Zero en la creación de una “máquina de aprendizaje general”, un conjunto de algoritmos adaptativos que imitan nuestros sistemas biológicos y pueden ser entrenados. En lugar de llenar los sistemas de IA con cantidades colosales de información y de instrucciones sobre la manera como se los puede interrogar, el equipo les está enseñando a las máquinas a aprender. A diferencia de los humanos, que pueden aburrirse, cansarse o distraerse al estudiar, las máquinas irán sin vacilaciones tras un objetivo, sin detenerse por nada.

Este fue un momento decisivo en la larga historia de la IA, por una serie de razones.

En primer lugar, el sistema se comportaba de manera impredecible, tomando decisiones que no eran totalmente comprensibles para sus creadores. Por otra parte, le ganaba al jugador humano de maneras que no se podían ni replicar ni entender a cabalidad. Esto auguraba un futuro en el cual la IA podría crear sus propios circuitos neuronales y obtener un conocimiento que nosotros tal vez nunca llegaremos a entender.

En segundo lugar, esto sentó las bases para la creación de las dos rutas paralelas de desarrollo por las que está avanzando en este momento la IA: China —en estado de alarma— busca, mediante la asignación de dinero y de capital humano, hacer que sus productos nacionales sean más competitivos, mientras que en los Estados Unidos tenemos la expectativa de que un producto fantástico de IA llegue muy pronto al mercado. Lo que está detrás del entusiasmo actual que rodea a la IA es la viabilidad de las redes neuronales profundas y el aprendizaje profundo, para no mencionar el repentino aumento de financiación en los Estados Unidos y las proclamaciones nacionales de China sobre sus planes para el futuro.

En tanto que unidad de negocios incluida dentro de Alphabet (la empresa matriz de Google), DeepMind tiene 700 empleados, a algunos de los cuales se les asignó la misión de desarrollar productos comerciales lo más rápido posible. En marzo del 2018, el negocio de la nube de Google anunció que había puesto a la venta un servicio de texto a voz con tecnología DeepMind por 16 dólares por millón de caracteres de texto procesado43. Uno de los novedosos anuncios de la conferencia de I/O de Google en el 2018 fue Duplex, un asistente de voz que automáticamente realizará llamadas en nombre de los clientes y hablará con recepcionistas humanos para hacer reservaciones en restaurantes o citas en las peluquerías, con todo e interjecciones como ummm, etc. Ese producto utiliza WaveNet, un programa generativo basado en IA que forma parte de DeepMind44.

Entre tanto, los investigadores de la IA en una división diferente de Alphabet, llamada Google Brain, revelaron que habían producido una IA capaz de generar sus propias inteligencias artificiales (¿me siguen?). El sistema, llamado AutoML, automatizó el diseño de los modelos de aprendizaje automático, usando una técnica llamada “aprendizaje por refuerzo”. El AutoML funciona como una especie de “padre”: una RNP (o DNN en inglés) controladora de alto nivel, que decidiría crear redes de IA “hijas”, para tareas puntuales y específicas. Sin que se lo pidieran, AutoML generó un hijo llamado NASNet, y le enseñó a reconocer objetos como gente, automóviles, semáforos, carteras y mucho más en los videos. Dado que no debía hacer frente al estrés, el ego, la duda o la falta de confianza en sí mismo (características que podemos encontrar hasta en los científicos informáticos más brillantes) NASNet arrojaba una tasa de precisión de 82,7 % en la predicción de imágenes. Esto significaba que el sistema hijo tenía un mejor desempeño que el de los codificadores humanos, incluidos los humanos que habían creado originalmente al padre45.

De modo arrollador, estos equipos encargados de construir sistemas que toman decisiones y hacen escogencias son liderados por hombres. Es un grupo ligeramente más diverso que el de los investigadores que se reunieron en Dartmouth, por una razón: la entrada de China. En años recientes, China se ha convertido en un centro importante para la IA, debido a que las universidades chinas y las empresas Baidu, Alibaba y Tencent, financiadas por el gobierno, han hecho un enorme esfuerzo por convertirse en jugadores importantes.

De hecho, Baidu descubrió algo que ni siquiera Zero podía hacer todavía: cómo transferir unas habilidades propias de un campo hacia otro. Es una labor fácil para los humanos, pero no tanto para la IA. Baidu buscó superar ese obstáculo enseñándole a una red neuronal profunda a navegar por un mundo virtual en 2D, usando solamente lenguaje natural, tal como hacen los padres cuando le enseñan algo a un niño.

El agente de IA de Baidu recibía comandos como “por favor, ve hasta la manzana” o “¿puedes ir hasta la cuadrícula entre la manzana y el banano?”. En un comienzo, era premiado por las acciones correctas. Tal vez parezca una tarea sencilla, pero vale la pena detenernos a pensar en lo que esto implicaba: al final del experimento, la IA de Baidu no solamente podía entender un lenguaje que en un comienzo carecía por completo de sentido para ella, sino que, además, el sistema había aprendido qué era una cuadrícula bidimensional, había aprendido que podía moverse por ella y cómo hacerlo, había aprendido que los bananos y las manzanas existen y cómo diferenciarlos.

* * *

Al comienzo del presente capítulo, formulé cuatro preguntas: ¿Pueden pensar las máquinas? ¿Qué significa que una máquina “piense”? ¿Qué significa que usted, estimado lector, piensa? ¿Cómo podría usted saber que en verdad está pensando pensamientos originales? Ahora que conoce la larga historia de estas preguntas, así como al pequeño grupo de personas que sentaron las bases para la IA, y las prácticas clave que todavía están vigentes, me gustaría proponerle algunas respuestas.

Sí, las máquinas pueden pensar. El hecho de que una máquina pase una prueba de conversación, como la prueba de Turing, o el esquema de Winograd, más reciente (propuesto por Hector Levesque en 2011, el cual se centra en un razonamiento de sentido común, donde se le pide a una IA que responda una pregunta simple donde hay pronombres ambiguos) no necesariamente mide la capacidad de un sistema de IA en otras áreas46. Simplemente demuestra que una máquina puede pensar utilizando un marco lingüístico, como lo hacemos los humanos. Todos estamos de acuerdo en afirmar que Einstein era un genio, incluso si los métodos para medir su inteligencia aceptados en el pasado, como pasar una prueba en la escuela, decían lo contrario. Einstein pensaba de una manera que resultaba incomprensible para sus maestros, razón por la cual asumieron que no era inteligente. En realidad, en aquel momento no había una manera significativa de medir la fuerza del pensamiento de Einstein. Lo mismo ocurre en el caso de la IA.

Las máquinas pensantes pueden tomar decisiones y hacer escogencias que producen efectos en el mundo real, y para ello necesitan un propósito y una meta. Al cabo del tiempo, desarrollan un sentido del juicio. Todas esas son las cualidades que, de acuerdo con filósofos y teólogos, definen el alma. Cada alma es una manifestación de la visión y la intención de Dios; cada una fue creada por un creador singular. Las máquinas pensantes también tienen creadores: ellos son los nuevos dioses de la IA, y por lo general son hombres, que viven en los Estados Unidos, Europa occidental y China y están ligados, de algún modo, a los nueve gigantes. El alma de la IA es una manifestación de su visión e intención respecto al futuro.

Por último: sí, las máquinas pensantes pueden producir pensamiento original. Luego de aprender mediante la experiencia, pueden determinar que es posible una solución diferente. O pueden establecer que una nueva clasificación es mejor. Las IA no tienen que inventar una nueva forma de arte para hacer gala de creatividad.

Todo esto significa que, de hecho, las máquinas de IA tienen una mente. Es joven y todavía se halla en proceso de maduración, y muy probablemente evolucionará de maneras que no comprendemos bien.

En el siguiente capítulo hablaremos sobre lo que constituye esa mente, los valores de los nueve gigantes y las consecuencias no buscadas, en los ámbitos social, político y económico de nuestro gran despertar en materia de IA.

_______________________

1 “The Seikilos Epitaph: The Oldest Song in the World”, Wired, octubre 29, 2009, https://www.wired.com/2009/10/the-seikilos-epitaph.

2 “Population Clock: World”, Census.gov, 2018, https://www.census.gov/popclock/world.

3 Elizabeth King, “Clockwork Prayer: A Sixteenth-Century Mechanical Monk”, Blackbird 1, n.° 1 (primavera 2002), https://blackbird.vcu.edu/v1n1/nonfiction/king_e/prayer_introduction.htm.

4 Thomas Hobbes, De Corpore Politico, or The Elements of Law Moral and Politick.

5 René Descartes, Meditations on First Philosophy, Second Meditation §25, 1641, University of Connecticut, http://selfpace.uconn.edu/class/percep/DescartesMeditations.pdf.

6 René Descartes, Treatise of Man, trad. T. S. Hall (Cambridge, MA: Harvard University Press, 1972).

7 Gottfried Wilhelm Leibniz, The Monadology, trad. Robert Latta, (1898), https://www.plato-philosophy.org/wp-content/uploads/2016/07/The-Monadology-1714-by-Gottfried-Wilhelm-LEIBNIZ-1646-1716.pdf.

8 Se cree que el primer uso conocido de la palabra computador aparece en un libro llamado The Yong Mans Gleanings, escrito por Richard Braithwaite en 1613. En esa época, los computadores eran personas que hacían cálculos.

9 “Blaise Pascal”, Biography.com, https://www.biography.com/people/blaise-pascal-9434176.

10 Leibniz escribió en De progressione dyadica: “Este cálculo binario podría ser implementado por una máquina […] provista de agujeros, que puedan abrirse y cerrarse. Deben estar abiertos en los lugares que corresponden a 1 y permanecer cerrados en los que corresponden a 0. Por los agujeros abiertos entran unas canicas, que ruedan por unos canales; por los cerrados, nada. La disposición de los agujeros debe cambiarse de columna en columna, según se requiera”.

11 Leibniz escribió: “Pensé nuevamente en mi plan para un nuevo lenguaje o sistema de razonamiento mediante la escritura, que podría servir como herramienta de comunicación entre todas las diferentes naciones […]. Si tuviéramos esa herramienta universal, podríamos discutir problemas de metafísica o cuestiones éticas de la misma manera como lo hacemos con los problemas o las cuestiones de matemáticas o geometría. Ese era mi propósito: cualquier malentendido no sería más que un error de cálculo […], fácilmente corregible mediante las leyes gramaticales de ese nuevo lenguaje. Así, en el caso de una discusión controversial, dos filósofos podrían sentarse en una mesa y calculando, como dos matemáticos, simplemente dirían: ‘revisemos’”.

12 “Apes to Androids: Is Man a Machine as La Mettrie Suggests?”, http://www.charliemccarron.com/man_a_machine/.

13 Luigi Manabrea, Sketch of the Analytical Engine Invented by Charles Babbage (London: Richard and John E. Taylor, 1843).

14 Desmond MacHale, The Life and Work of George Boole: A Prelude to the Digital Age, New ed. (Cork University Press, 2014).

15 El experto en lógica Martin Davis lo explica mejor en The Universal Computer: The Road from Leibniz to Turing: “Turing sabía que un algoritmo se especifica, en general, mediante una lista de reglas que una persona puede seguir de una manera mecánica precisa, como una receta en un libro de cocina. Turing pudo demostrar que esa persona podría estar limitada a unas pocas acciones básicas extremadamente simples, sin cambiar el resultado final de la computación. Luego, al demostrar que ninguna máquina que realice solo esas acciones básicas podría determinar si una conclusión propuesta se deriva o no de unas premisas dadas […] pudo concluir que no existe ningún algoritmo para el Entscheidungsproblem”.

16 Alan Turing, “Computing Machinery and Intelligence”, Mind 59, n.° 236 (1950): 433-60.

17 “A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence”, Stanford Computer Science Department’s Formal Reasoning Group, página de inicio de John McCarthy, con enlaces a artículos de interés histórico; modificada por última vez en abril 3, 1996, http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html.

18 En su propuesta, McCarthy, Minsky, Rochester y Shannon invitaron a varias personas para adelantar una investigación sobre la IA. La lista original de convocados, tal como fue publicada en 1955 y que incluye nombres y direcciones de las compañías, aparece en la página 369.

19 Compilé una corta lista de mujeres y de personas de color muy talentosas que habrían podido aportar un inmenso valor al taller de Dartmouth, pero que no fueron tenidas en cuenta. La lista no es exhaustiva. Habría podido rellenar docenas de páginas. Tan solo es una muestra de las personas inteligentes, capaces y creativas que quedaron por fuera del proceso:

James Andrews, matemático y profesor de Florida State University, especializado en teoría de grupos y teoría de nudos.

Jean Bartik, matemático y uno de los programadores originales del computador ENIAC.

Albert Turner Bharucha-Reid, matemático y teórico; hizo contribuciones significativas a las cadenas de Markov, la teoría de la probabilidad y la estadística.

David Blackwell, estadístico y matemático; hizo contribuciones significativas a la teoría de juegos, la teoría de la información, la teoría de la probabilidad y la estadística bayesiana.

Mamie Phipps Clark, PhD y psicóloga social, cuya investigación se centró en la conciencia propia.

Thelma Estrin, pionera de la aplicación de los sistemas de computadores en la investigación neurofisiológica y cerebral. Trabajaba como investigadora en el Electroencephalography Department of the Neurological Institute de Columbia Presbyterian en el momento del proyecto de investigación del verano de Dartmouth.

Evelyn Boyd Granville, doctora en matemáticas que desarrolló los programas de computador usados para el análisis de trayectoria en las primeras misiones tripuladas por el ser humano al espacio y la Luna.

Betty Holberton, matemática y una de las programadoras originales del computador ENIAC. Inventó los breakpoints (puntos de interrupción) en la depuración de los computadores.

Grace Hopper, científica informática y posteriormente creadora de COBOL, un lenguaje de programación que todavía hoy se usa.

Mary Jackson, ingeniera y matemática que llegó a ser la primera ingeniera de raza negra de la NASA.

Kathleen McNulty, matemática; una de las programadoras originales del computador ENIAC.

Marlyn Meltzer, matemática; una de las programadoras originales del computador ENIAC, que fue el primer computador programable totalmente electrónico.

Rózsa Péter, matemática y creadora de la teoría de las funciones recursivas.

Frances Spence, matemática; una de las programadoras originales del computador ENIAC.

Ruth Teitelbaum, matemática; una de las programadoras originales del computador ENIAC. Ella, junto con la programadora Marlyn Meltzer, calculó ecuaciones de trayectoria balística.

Dorothy Vaughan, matemática y computadora humana que, en 1949, era la supervisora encargada de West Area Computers.

Jesse Ernest Wilkins Jr., científico nuclear, ingeniero mecánico y matemático; se convirtió en el estudiante más joven de la Universidad de Chicago, a los trece años de edad.

20 “The Dartmouth Workshop—as Planned and as It Happened”, Stanford Computer Science Department’s Formal Reasoning Group, John McCarthy’s home page, lecture “AI: Past and Future”, modificado por última vez el 30 de octubre de 2006, http://www-formal.stanford.edu/jmc/slides/dartmouth/dartmouth/node1.html.

21 “The Dartmouth AI Archives”, RaySolomonoff.com, http://raysolomonoff.com/dartmouth/.

22 Irving John Good, “Speculations Concerning the First Ultraintelligent Machine”, Advances in Computers, Volumen 6 (1966): 31-88, https://www.sciencedirect.com/science/article/pii/S0065245808604180?via%3Dihub.

23 Joseph Weizenbaum, “ELIZA—A Computer Program for the Study of Natural Language Communication Between Man and Machine”, Communications of the ACM 9, n.° 1 (enero 1966): 36-45, http://web.stanford.edu/class/cs124/p36-weizenabaum.pdf.

24 El guion completo está en GitHub: https://github.com/codeanticode/eliza.

25 Ronald Kotulak, “New Machine Will Type Out What It ‘Hears’”, Chicago Tribune, 18 de junio de 1963, consultado a través de los archivos del Chicago Tribune.

26 Herbert A. Simon and Allen Newell, “Heuristic Problem Solving: The Next Advance in Operations Research”, Operations Research 6 (1958): 1-10.

27 El propio McCarthy quería trabajar con el grupo sobre sus ideas para representar el conocimiento y el razonamiento de sentido común; sin embargo, una vez se reunió el grupo, se dio cuenta de que a la matriz de participantes le faltaban algunos pensadores clave (en este caso, esperaba tener expertos en lógica).

28 Brad Darrach, “Meet Shaky, the First Electronic Person”, Life Magazine, 20 de noviembre de 1970, volumen 69, 58B-58C.

29 National Research Council, Language and Machines: Computers in Translation and Linguistics (Washington, DC: The National Academies Press, 1966), 19. https://www.nap.edu/read/9547/chapter/1.

30 James Lighthill, “Artificial Intelligence: A General Survey”, Chilton Computing, julio 1972, http://www.chilton-computing.org.uk/inf/literature/reports/lighthill_report/p001.htm.

31 “Mind as Society with Marvin Minsky, PhD”, transcript from “Thinking Allowed, Conversations on the Leading Edge of Knowledge and Discovery, with Dr. Jeffrey Mishlove”, The Intuition Network, 1998, http://www.intuition.org/txt/minsky.htm.

32 Ibid.

33 El invierno de la IA incluía nuevas predicciones (esta vez bajo la forma de advertencias). En su libro Computer Power and Human Reason (Poder computacional y razón humana), Weizenbaum argüía que, aunque la IA era posible, nunca deberíamos permitir que los computadores tomaran decisiones importantes, porque estos siempre carecerían de cualidades humanas como la compasión y la sabiduría. Weizenbaum hizo una distinción crucial entre decidir y escoger: decidir es una actividad computacional, algo que se puede programar; escoger es producto del juicio, no del cálculo. La capacidad para escoger es lo que, en último término, nos hace humanos. John Searle, filósofo de la Universidad de California en Berkeley, en su artículo “Minds, Brains, and Programs” (“Mentes, cerebros y programas”), hizo una exposición contra la conveniencia de la IA general, que él llama “fuerte”. Searle afirmó que un programa no puede darle a un computador una “mente”, ni “comprensión”, ni “conciencia”, sin importar qué tan humano sea el comportamiento de dicho programa.

34 Jonathan Schaeffer, Robert Lake, Paul Lu, and Martin Bryant, “CHINOOK: The World Man-Machine Checkers Champion”, AI Magazine 17, n.° 1 (primavera 1966): 21-29, https://www.aaai.org/ojs/index.php/aimagazine/article/viewFile/1208/1109.pdf.

35 Ari Goldfarb y Daniel Trefler, “AI and International Trade”, The National Bureau of Economic Research, enero 2018, http://www.nber.org/papers/w24254.pdf.

36 Toby Manning, “AlphaGo”, British Go Journal 174 (invierno 2015-2016): 15, https://www.britgo.org/files/2016/deepmind/BGJ174-AlphaGo.pdf.

37 Sam Byford, “AlphaGo Retires from Competitive Go after Defeating World Number One 3-0”, Verge, mayo 27, 2017, https://www.theverge.com/2017/5/27/15704088/alphago-ke-jie-game-3-result-retires-future.

38 David Silver et al., “Mastering the Game of Go Without Human Knowledge”, Nature 550 (octubre 19, 2017): 354-359, https://deepmind.com/documents/119/agz_unformatted_nature.pdf.

39 Ibid.

40 Ibid.

41 Esta declaración fue hecha por el programador líder de Zero, David Silver, en una conferencia de prensa.

42 Byford, “AlphaGo Retires from Competitive Go”.

43 Jordan Novet, “Google Is Finding Ways to Make Money from Alphabet’s DeepMind AI Technology”, CNBC, marzo 31, 2018, https://www.cnbc.com/2018/03/31/how-google-makes-moneyfrom-alphabets-deepmind-ai-research-group.html.

44 Roydon Cerejo, “Google Duplex: Understanding the Core Technology Behind Assistant’s Phone Calls”, Gadgets 360, mayo 10, 2018, https://gadgets.ndtv.com/apps/features/google-duplex-google-io-ai-google-assistant-1850326.

45 Quoc Le and Barret Zoph, “Using Machine Learning to Explore Neural Network Architecture”, Google AI (blog), mayo 17, 2017, https://ai.googleblog.com/2017/05/using-machine-learning-to-explore.html.

46 El esquema de Winograd, propuesto por el científico informático canadiense Hector Levesque en 2011, presenta una alternativa frente a la prueba de Turing para medir las capacidades de una IA y recibió su nombre en honor del científico informático de Stanford Terry Winograd. Concentrarse en vencer a los humanos en competencias directas ha hecho que se dejen de lado otras maneras de medir y mejorar la IA. El esquema de Winograd tenía la intención de ser un test más multidimensional, pues pasarlo requiere de algo más que una base de datos amplia. Ernest Davis, Leora Morgenstern y Charles Ortiz, tres científicos informáticos de NYU, propusieron el reto del esquema de Winograd, que se lleva a cabo una vez al año. En el sitio web de su facultad hay un excelente ejemplo (consultado por última vez en septiembre 5, 2018, https://cs.nyu.edu/faculty/davise/papers/WinogradSchemas/WS.html): “Los concejales les negaron el permiso a los manifestantes porque ellos temían/defendían la violencia”. Si la palabra es temían, entonces ellos hace referencia a los concejales; si es defendían, entonces ellos presumiblemente se refiere a los manifestantes.

En su artículo, Levesque afirma que los esquemas de Winograd deben satisfacer las siguientes restricciones:

Debe ser fácilmente desambiguado por un lector humano (lo ideal es que sea tan fácil hacerlo que el lector incluso no note que hay una ambigüedad).

No debe ser soluble mediante técnicas simples como las restricciones selectivas.

Debe ser a prueba de Google; es decir, no debe haber un test estadístico obvio sobre corpus de textos que permita hacer una correcta desambiguación.