Capítulo I

Introducción a la inteligencia artificial

1. Neuronas y transistores.

Empezaremos planteando la pregunta filosófica fundamental, y así podremos dedicar nuestros esfuerzos a aspectos de carácter cientifico-técnico.

¿Es físicamente posible que una máquina presente capacidad de abstracción similar a la inteligencia humana?

Para responder esta pregunta, hay que tener en cuenta que el cerebro humano es el sistema de reconocimiento de patrones más complejo y eficiente que conocemos. Los humanos realizamos acciones tan sorprendentes como identificar a un conocido entre la multitud o reconocer de oído el solista de un concierto para violín. En el cerebro humano, las funciones cognitivas se realizan mediante la activación coordinada de unas 90.000.000.000 células nerviosas interconectadas mediante enlaces sinápticos. La activación neuronal sigue complejos procesos biofísicos que garantizan un funcionamiento robusto y adaptativo, y nos permite realizar funciones como el procesado de información sensorial, la regulación fisiológica de los órganos, el lenguaje o la abstracción matemática.

La neurociencia actual todavía no aporta una descripción detallada sobre cómo la activación individual de las neuronas da lugar a la formación de representaciones simbólicas abstractas. Lo que sí parece claro es que en la mayoría de procesos cognitivos existe una separación de escalas entre la dinámica a nivel neuronal y la aparición de actividad mental abstracta. Esta separación de escalas supone la ruptura del vínculo existente entre el hardware (neuronas) y el software de nuestro cerebro (operaciones abstractas, estados mentales), y constituye la hipótesis de partida para que los símbolos abstractos puedan ser manipulados por sistemas artificiales que no requieran un substrato fisiológico natural. La posibilidad de manipular expresiones lógicas y esquemas abstractos mediante sistemas artificiales es la que permite la existencia de lo que conocemos como inteligencia artificial (Koch, 1999).

Por supuesto, el cerebro no es el único sistema físico en el que se produce una separación de la dinámica a diferentes escalas. Esta característica también se observa en otros muchos sistemas complejos que presentan fenómenos de autoorganización no lineal. De la misma forma que es posible describir las corrientes oceánicas sin necesidad de referirse al movimiento microscópico de las moléculas de agua, el pensamiento abstracto puede analizarse sin necesidad de referirse la activación eléctrica cerebral a nivel neuronal.

En cualquier caso, una de las cuestiones de mayor relevancia y aún no resueltas de la neurociencia actual es saber si existen procesos mentales-como la conciencia, la empatía o la creatividad-, que estén intrínsecamente ligados a la realidad biofísica del sistema nervioso humano y sean por tanto inaccesibles a un sistema artificial.

Otro aspecto importante en el funcionamiento del cerebro humano es el papel que tiene la experiencia y el aprendizaje. El cerebro humano actual no es solo resultado de una evolución biológica basada en alteraciones genéticas, sino también del conjunto de técnicas y conocimientos que la humanidad ha ido acumulando con el tiempo. Aspectos como la cultura o el lenguaje, transmitidas de generación en generación, también determinan la forma en la que se establecen patrones de activación neuronal en nuestro cerebro, y por lo tanto, contribuyen a la emergencia de procesos de abstracción en los que se basan áreas como las matemáticas o la literatura. A nivel biológico, existen diversos mecanismos que permiten la existencia de procesos de activación neuronal dependientes de la experiencia previa y del entrenamiento. El mecanismo principal es conocido como plasticidad sináptica, un fenómeno por el que las conexiones sinápticas entre neuronas modulan su intensidad en función de la actividad que hayan experimentado previamente. De esta forma, cuanto más veces se active un cierto canal de activación neuronal, más fácil resultará activarlo en el futuro e integrarlo a nuevos procesos cognitivos de mayor complejidad.

La plasticidad neuronal es la base de la mayoría de procesos de aprendizaje y memoria. A este paradigma se le conoce como aprendizaje reforzado, ya que la actividad sináptica se refuerza en función del número de veces que se establece una conexión entre neuronas. Esta regla –que relaciona la actividad neuronal con la función cognitiva–, se le conoce como regla de Hebb por los trabajos del neuropsicólogo canadiense Donald O. Hebb publicados en su libro de 1949 The organization of behavior. Algunas técnicas de inteligencia artificial como los métodos de aprendizaje supervisado también se basan en reglas similares que permiten modificar de forma adaptativa la forma en que el sistema artificial procesa la información.

La inteligencia artificial (IA) es una disciplina académica relacionada con la teoría de la computación cuyo objetivo es emular algunas de las facultades intelectuales humanas en sistemas artificiales. Con inteligencia humana nos referimos típicamente a procesos de percepción sensorial (visión, audición, etc.) y a sus consiguientes procesos de reconocimiento de patrones, por lo que las aplicaciones más habituales de la IA son el tratamiento de datos y la identificación de sistemas. Eso no excluye que la IA, desde sus inicios en la década del 1960, haya resuelto problemas de carácter más abstracto como la demostración de teoremas matemáticos, la adquisición del lenguaje, el jugar a ajedrez o la traducción automática de textos. El diseño de un sistema de inteligencia artificial normalmente requiere la utilización de herramientas de disciplinas muy diferentes como el cálculo numérico, la estadística, la informática, el procesado de señales, el control automático, la robótica o la neurociencia. Por este motivo, pese a que la inteligencia artificial se considera una rama de la informática teórica, es una disciplina en la que contribuyen de forma activa numerosos científicos, técnicos y matemáticos. En algunos aspectos, además, se beneficia de investigaciones en áreas tan diversas como la psicología, la sociología o la filosofía.

Pese a que se han producido numerosos avances en el campo de la neurociencia desde el descubrimiento de la neurona por Santiago Ramón y Cajal a finales del siglo XIX, las tecnologías actuales están muy lejos de poder diseñar y fabricar sistemas artificiales de la complejidad del cerebro humano. De hecho, a día de hoy estamos lejos de reproducir de forma sintética las propiedades electroquímicas de la membrana celular de una sola neurona. Pero como hemos comentado anteriormente, la manipulación de conceptos y expresiones abstractas no está supeditada a la existencia de un sistema biológico de computación. En definitiva, un ordenador no es más que una máquina que procesa representaciones abstractas siguiendo unas reglas predefinidas.

En la actualidad, la única tecnología que permite implementar sistemas de inteligencia artificial son los sistemas electrónicos basados en dispositivos de estado sólido como el transistor. En efecto, gracias a los grandes avances de la microelectrónica desde los años setenta, los ordenadores actuales disponen de una gran capacidad de cálculo que permite la implementación de sistemas avanzados de tratamiento de datos y reconocimiento de patrones. Los sistemas digitales basados en transistor constituyen una tecnología rápida, robusta y de tamaño reducido que permite la ejecución secuencial de operaciones aritmético-lógicas. En muchas aplicaciones concretas, los sistemas artificiales pueden llegar a presentar un rendimiento notablemente mejor que el del propio cerebro humano. Este es el caso, por ejemplo, en aquellas situaciones que requieran gestionar grandes cantidades de datos o que exigan una rápida ejecución de cálculos matemáticos.

Un sistema de inteligencia artificial requiere de una secuencia finita de instrucciones que especifique las diferentes acciones que ejecuta la computadora para resolver un determinado problema. Esta secuencia de instrucciones constituye la estructura algorítmica del sistema de inteligencia artificial.

Se conoce como método efectivo o algoritmo al procedimiento para encontrar la solución a un problema mediante la reducción del mismo a un conjunto de reglas.

En ocasiones, los sistemas de IA resuelven problemas de forma heurística mediante un procedimiento de ensayo y error que incorpora información relevante basada en conocimientos previos. Cuando un mismo problema puede resolverse mediante sistemas naturales (cerebro) o artificiales (computadora), los algoritmos que sigue cada implementación suelen ser completamente diferentes puesto que el conjunto de instrucciones elementales de cada sistema son también diferentes. El cerebro procesa la información mediante la activación coordinada de redes de neuronas en áreas especializadas (cortex visual, cortex motor, etc.). En el sistema nervioso, los datos se transmiten y reciben codificados en variables como la frecuencia de activación de las neuronas o los intervalos en los que se generan los potenciales de acción neuronales. El elevado número de neuronas que intervienen en un proceso de computación natural hace que las fluctuaciones fisiológicas tengan un papel relevante y que los procesos computacionales se realicen de forma estadística mediante la actividad promediada en subconjuntos de neuronas. En un sistema IA, en cambio, las instrucciones básicas son las propias de una computadora, es decir operaciones aritmetico-lógicas, de lectura/escritura de registros y de control de flujo secuencial. La tabla 1 describe las diferencias fundamentales entre sistemas de inteligencia artificial y natural en las escalas más relevantes.

Tabla 1. Comparación entre inteligencia natural y artificial a diferentes niveles

Nivel

Natural

Artificial

Abstracción

Representación y manipulación de objetos abstractos

Representación y manipulación de objetos abstractos

Computacional

Activación coordinada de áreas cerebrales

Algoritmo/procedimiento efectivo

Programación

Conexiones sinápticas plasticidad

Secuencia de operaciones artimético-lógicas

Arquitectura

Redes excitatorias
e inhibitorias

CPU + memoria

Hardware

Neurona

Transistor.

La idea principal es que, a pesar de las enormes diferencias entre sistemas naturales y artificiales, a un cierto nivel de abstracción ambos pueden describirse como sistemas de procesado de objetos abstractos mediante un conjunto de reglas.

2. Breve historia de la IA

El nacimiento de la IA como disciplina de investigación se remonta a 1956, durante una conferencia sobre informática teórica que tuvo lugar en el Dartmouth College (Estados Unidos). A esa conferencia asistieron algunos de los científicos que posteriormente se encargaron de desarrollar la disciplina en diferentes ámbitos y de dotarla de una estructura teórica y computacional apropiada. Entre los asistentes estaban John McCarthy, Marvin Minsky, Allen Newell y Herbert Simon. En la conferencia, A. Newell y H. Simon presentaron un trabajo sobre demostración automática de teoremas al que denominaron Logic Theorist. El Logic Theorist fue el primer programa de ordenador que emulaba características propias del cerebro humano, por lo que es considerado el primer sistema de ingeligencia artificial de la historia. El sistema era capaz de demostrar gran parte de los teoremas sobre lógica matemática que se presentaban en los tres volúmenes de los Principia Mathematica de Alfred N. Whitehead y Bertrand Russell (1910-1913).

Minsky y McCarthy fundaron más tarde el laboratorio de inteligencia artificial del Mas-sachusets Institute of Technology (MIT), uno de los grupos pioneros en el ámbito. La actividad de los años cincuenta es consecuencia de trabajos teóricos de investigadores anteriores como Charles Babbage (autor de la Máquina analítica, 1842), Kurt Gödel (teorema de incom-pletitud, 1930), Alan Turing (máquina universal, 1936), Norbert Wiener (cibernética, 1943) y John von Newmann (arquitectura del computador, 1950). La arquitectura de von Newmann consta de una unidad central de proceso (CPU) y de un sistema de almacenamiento de datos (memoria), y fue utilizada en 1954 por RAND Corporation para construir JOHNIAC (John v. Neumann Numerical Integrator and Automatic Computer), una de las primeras computadoras en las que más tarde se implementaron sistemas de inteligencia artificial como el Logic Theorist de Newell y Simon.

En 1954 también apareció el IBM 704, la primera computadora de producción en cadena, y con ella se desarrollaron numerosos lenguajes de programación específicamente diseñados para implementar sistemas de inteligencia artificial como el LISP. Junto con estos avances, se produjeron los primeros intentos para determinar la presencia de comportamiento inteligente en una máquina. El más relevante desde el punto de vista histórico fue propuesto por Alan Turing en un artículo de 1950 publicado en la revista Mind y titulado Computing Machinery and Intelligence. En este trabajo se propone un test de inteligencia para máquinas según el cual una máquina presentaría un comportamiento inteligente en la medida en que fuese capaz de mantener una conversación con un humano sin que otra persona pueda distinguir quién es el humano y quién el ordenador. Aunque el test de Turing ha sufrido innumerables adaptaciones, correcciones y controversias, pone de manifiesto los primeros intentos de alcanzar una definición objetiva de la inteligencia.

En este contexto, es de especial relevancia el Teorema de incompletitud de Gödel de 1931, un conjunto de teoremas de lógica matemática que establecen las limitaciones inherentes a un sistema basado en reglas y procedimientos lógicos (como lo son todos los sistemas de IA).

Tras los primeros trabajos en IA de los años cincuenta, en la década de los sesenta se produjo un gran esfuerzo de formalización matemática de los métodos utilizados por los sistemas de IA.

HAL 9000

El impacto social de la IA durante la década de los sesenta se pone de manifiesto en la película “2001: A Space Odyssey”, dirigida en 1968 por Stanley Kubrick y basada en una novela homónima de ciencia ficción de Arthur C. Clarke. El protagonista principal de la película es HAL 9000 (Heuristically programmed ALgorismic computer), un ordenador de dotado de un avanzado sistema de inteligencia artificial que es capaz de realizar tareas como mantener una conversación, reconocimiento de voz, lectura de labios, jugar a ajedrez e incluso manifestar un cierto grado de sensibilidad artística.

Los años setenta, en parte como respuesta al test de Turing, se produjo el nacimiento de un área conocida como procesado del lenguaje natural (NLP, Natural Language Processing), una disciplina dedicada a sistemas artificiales capaces de generar frases inteligentes y de mantener conversaciones con humanos. El NLP ha dado lugar a diversas áreas de investigación en el campo de la lingüística computacional, incluyendo aspectos como la desam-bigüación semántica o la comunicación con datos incompletos o erróneos. A pesar de los grandes avances en este ámbito, sigue sin existir una máquina que pueda pasar el test de Turing tal y como se planteó en el artículo original. Esto no es tanto debido a un fracaso de la IA como a que los intereses del área se se han ido redefiniendo a lo largo de la historia. En 1990, el controvertido empresario Hugh Loebner y el Cambridge Center for Behavioral Studies instauraron el premio Loebner, un concurso anual ciertamente heterodoxo en el que se premia al sistema artificial que mantenga una conversación más indistinguible de la de un humano. Hoy en dia, la comunidad científica considera que la inteligencia artificial debe enfocarse desde una perspectiva diferente a la que se tenía el los años cincuenta, pero iniciativas como la de Loebner expresan el impacto sociológico que sigue teniendo la IA en la sociedad actual.

En los años ochenta empezaron a desarrollarse las primeras aplicaciones comerciales de la IA, fundamentalmente dirigidas a problemas de producción, control de procesos o con-tabilidad.1 Con estas aplicaciones aparecieron los primeros sistemas expertos, que permitían srealizar tareas de diagnóstico y toma de decisiones a partir de información aportada por profesionales expertos. En torno a 1990, IBM construyó el ordenador ajedrecista Deep Blue, capaz de plantarle cara a un gran maestro de ajedrez utilizando algoritmos de búsqueda y análisis que le permitían valorar cientos de miles de posiciones por segundo.

Más allá del intento de diseñar robots humanoides y sistemas que rivalicen con el cerebro humano en funcionalidad y rendimiento, el interés hoy en día es diseñar e implementar sistemas que permitan analizar grandes cantidades de datos de forma rápida y eficiente. En la actualidad, cada persona genera y recibe a diario una gran cantidad de información no sólo a través de los canales clásicos (conversación, carta, televisión) sino mediante nuevos medios que nos permiten contactar con más personas y transmitir un mayor número de datos en las comunicaciones (Internet, fotografía digital, telefonía móvil). Aunque el cerebro humano es capaz de reconocer patrones y establecer relaciones útiles entre ellos de forma excepcionalmente eficaz, es ciertamente limitado cuando la cantidad de datos resulta excesiva. Un fenómeno similar ocurre en el ámbito empresarial, donde cada día es más necesario barajar cantidades ingentes de información para poder tomar decisiones. La aplicación de técnicas de IA a los negocios ha dado lugar a ámbitos de reciente implantación como la inteligencia empresarial, business intelligence o a la minería de datos, data mining. En efecto, hoy más que nunca la información está codificada en masas ingentes de datos, de forma que en muchos ámbitos se hace necesario extraer la información relevante de grandes conjuntos de datos antes de proceder a un análisis detallado.

En resumen, hoy en día el objetivo principal de la inteligencia actual es el tratamiento y análisis de datos.

Algunas veces nos interesará caracterizar los datos de forma simplificada para poder realizar un análisis en un espacio de dimensión reducida o para visualizar los datos de forma más eficiente. Por ejemplo, puede ser interesante saber qué subconjunto de índices bursátiles internacionales son los más relevantes para seguir la dinámica de un cierto producto o mercado emergente. En otras ocasiones, el objetivo será identificar patrones en los datos para poder clasificar las observaciones en diferentes clases que resulten útiles para tomar decisiones respecto un determinado problema. Un ejemplo de este segundo tipo de aplicación sería el análisis de imágenes médicas para clasificar a pacientes según diferentes patologías y así ayudar al médico en su diagnóstico. Por último, en muchos casos se hace necesario realizar búsquedas entre una gran cantidad de datos u optimizar una determinada función de coste, por lo que también será necesario conocer métodos de búsqueda y optimización. En esta clase de problemas encontramos, por ejemplo, el diseño de los horarios de una estación de trenes de forma que se minimice el tiempo de espera y el número de andenes utilizados.

3. Ámbitos de aplicación de la inteligencia artificial

Las aplicaciones más frecuentes de la inteligencia artificial incluyen campos como la robótica, el análisis de imágenes o el tratamiento automático de textos. En robótica, uno de los campos de investigación actual con mayor proyección es el del aprendizaje adaptativo, en el que un sistema robotizado explora diferentes configuraciones con el objetivo de realizar un movimiento complejo (caminar, agarrar un objeto, realizar una trayectoria, jugar a golf, etc.). El objetivo podría ser, por ejemplo, que un robot cuadrúpedo se levante y ande de forma autónoma, de forma que siga un proceso de exploración y aprendizaje similar al que realiza un recién nacido durante los primeros meses de vida. Un sistema de IA en este caso se encargaría de explorar diferentes movimientos de forma aleatoria, midiendo las variables de cada articulación y comprobando en cada momento el grado de éxito alcanzado por cada secuencia de acciones (altura del centro de masas, desplazamiento horizontal, fluctuaciones en la posición vertical, velocidad de desplazamiento, etc.). El sistema de IA modularía la ejecución de las diferentes acciones, incrementando la probabilidad de aquellas que presenten un mejor rendimiento y restringiendo las que no comporten una mejora de la función objetivo. Un área afín a la robótica es la de las interfaces cerebro-computadora (BCI, Brain-computer Interfaces), sistemas artificiales que interactúan con el sistema nervioso mediante señales neurofisiológicas con el objetivo asistir a personas discapacitadas durante la ejecución de determinadas tareas motoras.

Dentro del campo de la IA, una de las ramas con mayor proyección son los denominados sistemas expertos, en los que el objetivo es diseñar un sistema que permita analizar un conjunto de datos y realizar tareas típicamente asociadas a la figura de un profesional experto como el diagnóstico, la detección de fallos, la planificación o la toma de decisiones. Los datos con los que trabaja el sistema experto pueden ser de naturaleza muy diversa.

En un sistema de diagnóstico clínico, por ejemplo, se puede partir de imágenes radiológicas, de una serie temporal de la frecuencia del ritmo cardíaco de un paciente o de un conjunto de datos con valores extraídos de análisis de sangre o de orina. La utilización de todas las señales anteriores a la vez constituye un sistema de fusión multimodal, en el que el estado clínico del paciente se describe desde una perspectiva multiorgánica más completa. En los sistemas expertos se combina información extraída de datos con el conocimiento del sistema que aporta un experto especializado. A estos sistemas se les conoce como sistemas basados en conocimiento (KBS, knowledge-based systems), y permiten integrar reglas heurísticas y árboles de decisiones elaborados por una comunidad de expertos durante años de trabajo y experimentación. Estas reglas no pueden ser inferidas directamente de los datos observados, y son de gran utilidad en aplicaciones sobre diagnóstico y toma de decisiones. Un ejemplo de este tipo de técnicas serían el protocolo de diagnóstico que realiza un médico especialista a partir de un conjunto de pruebas, o los criterios que aplica un ingeniero de caminos para validar la resistencia mecánica de un puente.

La información aportada por humanos expertos es también necesaria para diseñar sistemas artificiales que jueguen a juegos como el ajedrez o el go.2

El análisis de textos es otro ejemplo interesante en el que se desarrollan numerosos sistemas de IA. Aspectos como la traducción automática de textos han evolucionado de forma sorprendente durante los últimos años gracias a técnicas de IA. Hoy en día es fácil encontrar plataformas web gratuitas que permitan traducir textos entre más de 50 lenguas diferentes. Estos sistemas de traducción automática presentan resultados de notable calidad, y tienen en cuenta aspectos semánticos y contextuales antes de proponer una traducción del texto. El éxito de estas plataformas se debe en gran parte a sistemas de IA que utilizan enormes cantidades de información textual aportada por los usuarios del servicio. Sistemas similares permiten realizar búsquedas inteligentes en la web, de forma que los vínculos que se ofrecen tengan en cuenta las preferencias estadísticas propias y del resto de usuarios, o enviar publicidad de forma selectiva a partir de la información que aparece en el campo asunto de nuestro buzón de correo electrónico.

Otro ejemplo de sistema en el ámbito de la ingeniería de procesos es un sistema de detección de fallos en una planta compleja. Una planta industrial dispone de múltiples sensores distribuidos que permiten monitorizar el proceso de forma continua. En la fase de entrenamiento, el sistema aprende un conjunto de patrones dinámicos de los sensores que corresponden a situaciones en los que se produce un error en la planta. En el futuro, cuando se produce un error, el sistema de IA detecta su existencia de forma automática y es capaz de diagnosticar el origen del fallo comparando la respuesta de los sensores con las respuestas características de cada error. En una tercera fase, el sistema puede incluso tomar decisiones sobre qué acciones hay que realizar para resolver el problema de la forma más rápida y eficiente. Las aplicaciones industriales de la IA es un campo con una gran proyección en el que los sistemas van dirigidos a mejorar procesos de fabricación, control de calidad, logística o planificación de recursos. En muchas ocasiones, los sistemas de IA constan de dos fases, una primera fase de aprendizaje y una segunda de predicción. En la fase de aprendizaje se saporta un conjunto de datos representativo de aquellas situaciones que se desea analizar, de forma que el sistema IA aprende las características fundamentales de los datos y es capaz de generalizar su estructura. Dicha generalización no es más que la construcción de un modelo de los datos que permita realizar una predicción acertada a partir de nuevas observaciones.

Consideremos el ejemplo de un sistema automático para el reconocimiento de caras. Al sistema se le proporcionan 100 imágenes faciales de 10 personas diferentes, 10 caras por persona. Las imágenes son tomadas en diferentes condiciones (diferente expresión facial, ropa, iluminación, exposición, fondo, etc.), de forma que sean representativas de las características faciales de cada persona. El sistema identifica las características principales de cada una de las fotos y es capaz de agruparlas en un determinado número de grupos (presumiblemente 10, excepto si se han incluido gemelos monocigóticos). Entre las características utilizadas pueden aparecer, entre otras, el color de los ojos, el grosor de los labios o el perímetro de la cabeza. En la fase de predicción, se parte de una imagen de uno de los 10 individuos que no haya sido incluida en el conjunto de datos de entrenamiento. El sistema calcula las características faciales del nuevo individuo, y debe ser capaz de identificar esa imagen como perteneciente a uno de los grupos definidos durante el proceso de aprendizaje (presumiblemente al grupo del individuo correcto, a no ser que la nueva imagen no tenga apenas rasgos comunes con las 10 imágenes de entrenamiento). Si la nueva imagen es identificada de forma correcta, diremos que el sistema de IA acierta en su predicción, mientras que cuando el sistema asigna la imagen a otro grupo de forma errónea, se produce un error de clasificación.

Tabla 3. Principales ámbitos de aplicación de los sistemas de inteligencia artificial

Área

Aplicaciones

Medicina

Ayuda al diagnóstico

Análisis de imágenes biomédicas

Procesado de señales fisiológicas

Ingeniería

Organización de la producción

Optimización de procesos

Cálculo de estructuras

Planificación y logística

Diagnóstico de fallos

Toma de decisiones

Economía

Análisis financiero y bursátil

Análisis de riesgos

Estimación de precios en productos derivados

Minería de datos

Marketing y fidelización de clientes

Biología

Análisis de estructuras biológicas

Genética médica y molecular

Informática

Procesado de lenguaje natural

Criptografía

Teoría de juegos

Lingüística computacional

Robótica y automática

Sistemas adaptativos de rehabilitación

Interfaces cerebro-computadora

Sistemas de visión artificial

Sistemas de navegación automática

Física y matemáticas

Demostración automática de teoremas

Análisis cualitativo sistemas no-lineales

Caracterización de sistemas complejos

1 En la actualidad, la IA se ha consolidado como una disciplina que permite diseñar aplicaciones de gran utilidad práctica en numerosos campos. Actualmente, existe una enorme lista de ámbitos de conocimiento en los que se utilizan sistemas de IA, entre los que son de especial relevancia la minería de datos, el diagnóstico médico, la robótica, la visión artificial, el análisis de datos bursátiles o la planificación y logística.

2 Go es un tradicional juego de mesa chino que se practica en un tablero reticular y tiene por objetivo ocupar con las fichas una región mayor que el adversario. El desarrollo de máquinas que jueguen a Go con humanos a un alto nivel es un ámbito en el que actualmente se dedican grandes esfuerzos desde el campo de la IA. En este juego, el gran número de posibles movimientos en cada jugada impide aplicar técnicas de búsqueda global, por lo que los sistemas inteligentes deben incorporar información sobre estrategias y tácticas aportada por jugadores humanos expertos.