Compendio de la inteligencia artificial

¿Qué es la inteligencia artificial?

Los autores de McKinsey la definen como “la capacidad de una máquina para realizar funciones cognitivas que asociamos con las mentes humanas como percibir, razonar, aprender, interactuar con el entorno, resolver problemas e incluso ejercer la creatividad.”

Se podrá pensar que la inteligencia artificial es algo nuevo o reciente, pero esto no es así. Veamos un poco de historia:

 

  • 1805: Legendre sienta las bases para el aprendizaje automático. El matemático francés creó un método que se desarrolló como un marco estadístico, “proporcionaría la base para muchos de los modelos actuales de aprendizaje automático.”
  • 1958: Rosenblatt desarrolla el primer algoritmo de autoaprendizaje. El psicólogo y científico informático estadounidense Frank Rosenblatt crea el algoritmo perceptrón, un tipo temprano de red neuronal artificial (ANN por sus siglas en inglés) que se erige como el primer modelo algorítmico que podría aprender por sí solo. Este método fue adoptado posteriormente por Arthur Samuelson para el aprendizaje automático
  • 1965: Nacimiento del aprendizaje profundo. “El matemático ucraniano Alexey Grigorevich Ivakhnenko desarrolla los primeros algoritmos generales de aprendizaje funcionales para redes neuronales artificiales de múltiples capas supervisadas, en las que varias ANN se apilan una encima de otra y la salida de una capa ANN se alimenta a la siguiente. La arquitectura es muy similar a las arquitecturas de aprendizaje profundo de hoy.”
  • 1986: La retropropagación queda establecida. “El psicólogo estadounidense David Rumelhart, el psicólogo cognitivo y científico informático británico Geoffrey Hinton y el científico informático estadounidense Ronald Williams publican sobre la retropropagación, popularizando esta técnica clave para el entrenamiento de redes neuronales artificiales que originalmente propuso el científico estadounidense Paul Werbos en 1982. La retroalimentación permite a la ANN optimizarse sin intervención humana (en este caso, encontró características en los datos del árbol genealógico que no eran obvias o no se proporcionaron al algoritmo de antemano).”
  • 1989: Nacimiento de las CNN para el reconocimiento de imágenes. El científico informático Yann LeCun, (director de investigación de IA en Facebook) publicó junto con otros un artículo que describía cómo “un tipo de red neuronal artificial llamada red neuronal convolucional (CNN en inglés) es muy adecuada para tareas de reconocimiento de formas.”
  • 1992: Los SVM actualizados proporcionan una solución temprana para el procesamiento de lenguaje natural. Los ingenieros informáticos Bernhard E. Boser (suizo), Isabelle M. Guyon (francés) y el matemático ruso Vladimir N. Vapnik descubrieron que “los modelos algorítmicos llamados máquinas de vectores de soporte (SVM en inglés) pueden actualizarse fácilmente para tratar problemas no lineales utilizando una técnica llamada truco del kernel, lo que lleva al uso generalizado de SVM en muchos problemas de procesamiento del lenguaje natural como la clasificación del sentimiento y la comprensión del habla humana.”
  • 1997: “Los RNN obtienen una “memoria”, posicionándolos para avanzar la voz al texto. En 1991, el científico informático alemán Sepp Hochreiter demostró que un tipo especial de red neuronal artificial (ANN) llamada red neuronal recurrente (RNN en inglés) puede ser útil en tareas de secuenciación (voz a texto, por ejemplo) si pudiera recordar el comportamiento de secuencias parciales mejor.” Hoy en día este tipo de red es útil para el reconocimiento de la voz.
  • 1998: Brin y Page publican el algoritmo de PageRank. Los fundadores de Google crearon el a2lgoritmo que clasifica las páginas de Internet en el buscador según su relevancia. Esta creación de los fundadores de Google, Sergey Brin y Larry Page, revolucionó las búsquedas en Internet, abriendo las puertas a la creación y el consumo de más contenido y datos en la red informática mundial (también conocida como World Wide Web).”
    • 2006: Hinton vuelve a potenciar el uso de modelos de aprendizaje profundo. “Para acelerar el entrenamiento de los modelos de aprendizaje profundo, Geoffrey Hinton desarrolla una forma de preentrenarlos con una red de creencias profundas (una clase de red neuronal) antes de emplear la retropropagación.” El trabajo de Hinton popularizó el uso del aprendizaje profundo en todo el mundo.

Explosión de datos

  • 1991: “Apertura de la red informática mundial (WWW). La Organización Europea para la Investigación Nuclear (CERN) comienza a abrir la World Wide Web al público.”
  • Principios de los 2000: La adopción de banda ancha comienza entre los usuarios domésticos de Internet. El acceso a Internet se hizo más rápido gracias a la banda ancha y servicios como YouTube se hicieron posibles gracias a esto.
  • 2004: “La Web 2.0 cobra fuerza, lanzando la era de los datos generados por los usuarios.”
  • 2004: “Se estrena Facebook. El estudiante de Harvard Mark Zuckerberg y su equipo lanzan “Thefacebook”, como se lo llamó originalmente. Para fines de 2005, el número de usuarios de Facebook que generan datos se acerca a seis millones.”
  • 2005: “Se estrena YouTube.”
  • 2005: El número de usuarios de Internet en todo el mundo supera los mil millones.
  • 2007: La introducción del iPhone impulsa la revolución de los teléfonos inteligentes y amplifica la generación de datos. Steve Jobs (co-fundador de Apple) presentó el nuevo producto en 2007.

Incrementos exponenciales en potencia de computación y almacenamiento

  • 1965: Moore reconoce el crecimiento exponencial en la potencia de los chips. “El cofundador de Intel, Gordon Moore, se da cuenta de que la cantidad de transistores por pulgada cuadrada en los circuitos integrados se ha duplicado cada año desde su invención. Su observación se convierte en la ley de Moore, que predice que la tendencia continuará en el futuro previsible (aunque luego se demuestra que lo hace aproximadamente cada 18 meses).”
  • 1997: “El aumento en el poder de cómputo conduce la victoria Deep Blue de IBM sobre Garry Kasparov.”
  • 1999: Llega más potencia de cálculo para los algoritmos de inteligencia artificial… pero nadie se da cuenta todavía. “Nvidia lanza la tarjeta gráfica GeForce 256, comercializada como la primera unidad de procesamiento de gráficos (GPU) verdadera del mundo.”
  • 2002: Amazon trae el almacenamiento en la nube y la computación a las masas. Gracias al almacenamiento en la nube comenzó la democratización de cómputo de datos. Esto hizo posible que millones de usuarios tuvieran acceso a sistemas de información (que antes solo estaban disponibles para las grandes compañías).
  • 2004: “Dean y Ghemawat introducen el algoritmo MapReduce para hacer frente a la explosión de datos. Con el despegue de la red informática mundial, Google busca ideas novedosas para hacer frente a la proliferación de datos resultante.”
  • 2005: El costo de un gigabyte de almacenamiento en disco se reduce a $0.79, desde $277 diez años antes. Y el precio de la DRAM también se redujo significativamente, haciendo posible que las computadoras PC funcionaran mejor.
  • 2006: Cutting y Cafarella presentan a Hadoop para almacenar y procesar grandes cantidades de datos. Los científicos en computación Doug Cutting y Mike Cafarella desarrollaron esto software para almacenar y procesar enormes conjuntos de datos.

 

Inteligencia artificial

  • 2009: UC Berkley presenta Spark para manejar grandes datos. “Desarrollado por el científico informático rumano-canadiense Matei Zaharia en el AMPLab de UC Berkeley, Spark transmite enormes cantidades de RAM aprovechadora de datos, haciendo mucho más rápido al procesamiento de datos que el software que debe leer y/o escribir en los discos duros.”
  • 2009: Ng usa GPU para entrenar modelos de aprendizaje profundo de manera más eficiente. El científico informático estadounidense Andrew Ng y su equipo en la Universidad de Stanford lograron reducir la capacitación que llevaba semanas a solo un día.
  • 2010: Microsoft y Google introducen sus nubes.
  • 2010: El tráfico IP mundial supera los 20 exabytes (20 mil millones de gigabytes) por mes. Esto se debe a que más usuarios utilizan la banda ancha en Estados Unidos.
  • 2010: El número de teléfonos inteligentes vendidos en el año se acerca a los 300 millones. Esto hace más necesario el uso de Inteligencia Artificial, ya que los teléfonos inteligentes necesitan Apps.
  • 2011: ¡IBM Watson vence a Jeopardy! Esto da a pensar, ¿puede una máquina sobrepasar la capacidad humana? Posteriormente un sistema de Inteligencia Artificial ganó también un concurso de clasificación de imágenes. Pareciera que la película Blade Runner comienza a hacerse en parte verdad.
  • 2012: Google demuestra la efectividad del aprendizaje profundo para el reconocimiento de imágenes. Esto significa un avance significativo en el reconocimiento de imágenes. Este avance podría ser de gran utilidad para los cuerpos de seguridad como el FBI o la CIA (reconocimiento facial).
  • 2012: El número de usuarios de Facebook llega a mil millones.
  • 2013: DeepMind enseña un algoritmo para jugar Atari utilizando aprendizaje por refuerzo y aprendizaje profundo. “El investigador canadiense Vlad Mnih de DeepMind (que aún no es una compañía de Google) lo aplica junto con una red neuronal convolucional para jugar videojuegos Atari a niveles sobrehumanos.”
  • 2014: El número de dispositivos móviles supera el número de personas. El acceso a teléfonos inteligentes se hace más común.
  • 2017: Los usuarios de dispositivos electrónicos generan 2.5 quintillones de bytes de datos por día.
  • 2017: AlphaZero vence a AlphaGo Zero luego de aprender a jugar tres juegos diferentes en menos de 24 horas. Google parece encontrarse a la vanguardia de todo.
  • 2017: Google introduce un TPU actualizado que acelera los procesos de aprendizaje automático. “La disponibilidad de TPU podría generar aún más (y más potentes y eficientes) aplicaciones empresariales basadas en aprendizaje automático.”

 

Aprendizaje automático

“Los avances más recientes en IA se han logrado al aplicar el aprendizaje automático a conjuntos de datos muy grandes. Los algoritmos de aprendizaje automático detectan patrones y aprenden a hacer predicciones y recomendaciones mediante el procesamiento de datos y experiencias, en lugar de recibir instrucciones explícitas de programación. Los algoritmos también se adaptan en respuesta a nuevos datos y experiencias para mejorar la eficacia a lo largo del tiempo. El aprendizaje automático proporciona predicciones y prescripciones.”

Tipos de análisis según los autores (en orden de complejidad creciente):

Descriptivo

  • Describe lo que pasó.
  • Empleado fuertemente en todas las industrias.

 

Predictivo

  • Anticipa lo que sucederá (inherentemente probabilístico).
  • Empleado en organizaciones basadas en datos como una fuente clave de conocimiento.

 

Prescriptivo

  • Proporciona recomendaciones sobre qué hacer para alcanzar los objetivos.
  • Empleado fuertemente por empresas líderes de datos e Internet.

 

 

Tipos principales de aprendizaje automático

Entrenamiento supervisado

Los autores de McKinsey indican paso por paso en qué consiste el algoritmo que se usa para este caso:

Cómo funciona

  1. Un humano etiqueta los datos de entrada (por ejemplo, en el caso de predecir los precios de la vivienda, etiqueta los datos de entrada como “época del año”, “tasas de interés”, etc.) y define la variable de salida (por ejemplo, precios de la vivienda).
  2. El algoritmo se entrena en los datos para encontrar la conexión entre las variables de entrada y la salida.
  3. Una vez que se completa el entrenamiento, generalmente cuando el algoritmo es lo suficientemente preciso, se aplica a nuevos datos.

Algoritmos y Casos de uso empresarial: es aplicable para casos como la regresión lineal, regresión logística, análisis cuadrático, árboles de decisión (este último, por ejemplo, sirve para ver qué hace que un producto se compre), etc.

 

Entrenamiento no supervisado

La descripción dada por los autores de McKinsey se encuentra a continuación:

Cómo funciona

  1. El algoritmo recibe datos sin etiquetar (por ejemplo, un conjunto de datos que describen los viajes de los clientes en un sitio web).
  2. Infiere una estructura a partir de los datos.
  3. El algoritmo identifica grupos de datos que muestran un comportamiento similar (por ejemplo, forman grupos de clientes que muestran comportamientos de compra similares).

Algoritmos y Casos de uso empresarial: se puede aplicar para agrupaciones de K-medias, modelos de mezcla gaussianas (esto analiza las preferencias de los clientes), clúster jerárquico, entre otros.

 

Aprendizaje reforzado

Los autores describieron el funcionamiento de este sistema del siguiente modo:

Cómo funciona

  1. El algoritmo realiza una acción sobre el medio (por ejemplo, realiza un intercambio en una cartera financiera).
  2. Recibe una recompensa si la acción lleva a la máquina un paso más cerca de maximizar las recompensas totales disponibles (por ejemplo, el rendimiento total más alto de la cartera).
  3. El algoritmo optimiza la mejor serie de acciones corrigiéndose a lo largo del tiempo.

Casos de uso empresarial: estrategia de negociación, almacenamiento de inventario, optimización de precios, etc.

 

Aprendizaje profundo

Los autores de McKinsey lo definen como “un tipo de aprendizaje automático que puede procesar una gama más amplia de recursos de datos, requiere menos preprocesamiento de datos por parte de los humanos y, a menudo, puede producir resultados más precisos que los enfoques tradicionales de aprendizaje automático (aunque requiere una mayor cantidad de datos para hacerlo).” En este aprendizaje se generan capas interconectadas (neuronas) y forman una red neuronal que puede procesar muchos datos y hacer determinaciones.

 

Modelos Mayores

Red neuronal convolucional

La descripción de los autores:

Cómo funciona

  1. La red neuronal convolucional (CNN) recibe una imagen, por ejemplo, de la letra “A”, que procesa como una colección de píxeles.
  2. En las capas ocultas, identifica características únicas, por ejemplo, las líneas individuales que forman “A”.
  3. La CNN ahora puede clasificar una imagen diferente como la letra “A” si encuentra en ella las características únicas identificadas previamente como parte de la letra.

Casos de uso empresarial: sirve para prevenir enfermedades o diagnosticarlas, detectar productos defectuosos, etc.

 

Red neuronal recurrente

Los autores de McKinsey describieron el siguiente proceso:

Cómo funciona

  1. Una neurona de red neuronal recurrente (RNN) recibe un comando que indica el inicio de una oración.
  2. La neurona recibe la palabra “Está” y luego emite un vector de números que se retroalimenta en la neurona para ayudarlo a “recordar” que recibió “Son” (y que la recibió primero). El mismo proceso ocurre cuando recibe “usted” y “libre”, y el estado de la neurona se actualiza al recibir cada palabra.
  3. Después de recibir “libre”, la neurona asigna una probabilidad a cada palabra en el vocabulario en inglés que podría completar la oración. Si se entrena bien, el RNN asignará a la palabra “mañana” una de las probabilidades más altas y la elegirá para completar la oración.

Casos de uso empresarial: traducciones, detección de fraudes, generar subtítulos, chatbots, etc.

Este artículo es un adaptado de: An Executive’s Guide to AI

Leave a Reply