Recibe la newsletter de los profesionales de fondos   Suscribirse

Pasado y futuro de la inteligencia artificial

  • 10-12-2019

  • 3 minutos

El tema de la inteligencia artificial no es nuevo en absoluto, pero sólo en los últimos años hemos observado una fuerte aceleración en la penetración de los métodos de Inteligencia Artificial. ¿Cuál es la razón de esta aceleración y por qué ha habido un gran avance en muchas aplicaciones (por ejemplo, el reconocimiento de voz) sólo en los últimos años?

inteligencia artificial

Automatización del comportamiento

Para explicar esto, en primer lugar definiremos los términos básicos. La inteligencia artificial es un término genérico para todos los métodos que permiten la automatización del comportamiento inteligente. Si se limita el término IA al aprendizaje automático, se habla de algoritmos que permiten la optimización de ciertos cálculos. Estos incluyen los conocidos algoritmos de regresión lineal, regresión logística, máquinas vectoriales de apoyo, métodos de agrupamiento (n-nearest neighbor y k-means clustering) y análisis de componentes principales. Ya con estos métodos se podían detectar patrones no lineales muy complejos. Sin embargo, estos métodos se conocen desde hace décadas y no representan nuevos conocimientos.

No obstante, vale la pena recordar algunas etapas de desarrollo que facilitaron el crecimiento de la Inteligencia Artificial. En primer lugar, cabe destacar que empezó en el 1985 una etapa enteramente distinta con la publicación de «In defense of probability“ de Paul Cheeseman que propuso un enfoque estadístico de la IA, es decir una renuncia de la filosofía anterior (por ejemplo «sistemas de expertos“). El autor argumenta que la teoría de la probabilidad, cuando se usa correctamente, es suficiente para la tarea de razonar bajo incertidumbre.  En particular, se aboga por la definición de probabilidad como una medida de la creencia más que como un índice de frecuencia. En el fondo de esta interpretación de la probabilidad se encuentra la famosa fórmula de Bayes, cuyo conocimiento se recomienda a cualquier interesado en la IA porque forma no solamente una parte importante en las redes neuronales sino encuentra aplicaciones en muchos otros campos.

Deep Learning

Otro paso muy importante ha sido el desarrollo y la aplicación de las redes bayesianas de Judea Peal que permitía una reducción significativa de las posibles conexiones entre las variables de una red. Aunque las redes neuronales (ahora llamadas aprendizaje profundo) se beneficiaron de los mejores enfoques metodológicos, la velocidad de computación para la aplicación de redes con un alto número de neuronas y capas fue todavía insuficiente hasta 2012. Sin embargo, se produjo un gran avance en 2012 cuando, en una competición internacional, los científicos de la Universidad de Toronto lograron resultados significativamente mejores utilizando chips de la GPU (Unidad de Procesamiento Gráfico). El aprendizaje profundo se ha establecido hoy en día como una tecnología muy fiable, especialmente para el reconocimiento de voz e imágenes, como cualquier usuario de un smartphone puede experimentar a diario. La conducción autónoma también utiliza algoritmos de aprendizaje profundo («Deep Learning“).

Una característica especial de Deep Learning es que la red «aprende» independientemente y los parámetros se ajustan automáticamente de tal manera que se consigue la mayor correspondencia posible entre los datos de entrada y salida. En pocas palabras, este proceso de aprendizaje no es más que la adaptación óptima de los pesos de la red.

Además del concepto relativamente nuevo de aprendizaje profundo, también se hace una distinción entre aprendizaje supervisado y aprendizaje no supervisado. Ambos métodos sirven para el reconocimiento de patrones. El aprendizaje supervisado difiere del aprendizaje no supervisado en los siguientes aspectos: En el aprendizaje supervisado, se especifican los patrones a reconocer, mientras que en el aprendizaje no supervisado el propio sistema intenta reconocer los patrones relevantes. Ejemplo: Si una red social quiere formar diferentes grupos de clientes, en el aprendizaje supervisado se especifican los grupos de clientes y el sistema debe asignar los clientes a los grupos de clientes correspondientes. En el aprendizaje no supervisado, los grupos de clientes no se especifican explícitamente, pero el sistema reconoce automáticamente qué grupos de clientes pueden delimitarse de forma significativa.

¿Cómo funciona el cerebro humano?

Lo que todos los enfoques anteriores de la IA tienen en común es que requieren una enorme cantidad de datos para lograr buenos resultados. Precisamente dado el requerimiento de procesar una enorme cantidad de datos China cuenta con una ventaja a la hora de desarrollar y aplicar la IA. No obstante, los científicos explican que la IA en base de procesar muchos datos ya encuentra límites. Por ejemplo, simplemente no es posible procesar una cantidad enorme de datos (se trata de los pesos utilizados en el aprendizaje de la red) a través de la nube para hacer cálculos. Por ello se están desarrollando nuevos chips donde el cálculo se hace en el chip mismo. 

Sin embargo, hay otros métodos que adoptan un enfoque completamente diferente y se basan más estrechamente en la forma en que funciona el cerebro humano. Estos incluyen la aritmética neuromórfica, pero también enfoques que se basan más estrechamente en el aprendizaje humano, como el Aprendizaje de Programación Bayesiana. El último enfoque, que tampoco necesita una gran cantidad de datos, es el llamado Principio de Energía Libre (Free Energy Principe) de Karl Friston (se basa, por cierto, también en la fórmula de Bayes).