AlphaZero vence a AlphaGo Zero luego de aprender a jugar tres juegos diferentes en menos de 24 horas. Si bien la creación de un software de inteligencia artificial con una inteligencia general completa permanece a décadas de distancia (si es posible), DeepMind de Google se acerca un paso más con AlphaZero, que aprende tres juegos de computadora: go, ajedrez y shogi. A diferencia de AlphaGo Zero, que recibió algunas instrucciones de expertos humanos, AlphaZero aprende estrictamente jugando solo, y luego continúa derrotando a su antecesor AlphaGo Zero en go (después de ocho horas de juego propio), así como a algunos de los mejores jugadores de ajedrez del mundo y programas computacionales de shogi (después de cuatro y dos horas de autojuego, respectivamente).
Los usuarios de dispositivos electrónicos generan 2.5 quintillones de bytes de datos por día. Según esta estimación, alrededor del 90 por ciento de los datos mundiales se produjeron en los últimos dos años. Y, a cada minuto, los usuarios de YouTube ven más de cuatro millones de videos y los usuarios móviles envían más de 15 millones de mensajes de texto.
Deep Mind Alpha Go vence a humanos. En octubre de 2015, el AlphaGo original se convirtió en el primer programa de computadora en vencer a un jugador profesional de Go en un tablero completo de 19×19.
El número de dispositivos móviles supera el número de personas. En octubre de 2014, GSMA informa la cantidad de dispositivos móviles en alrededor de 7.22 mil millones, mientras que la Oficina del Censo de EE. UU. informa la cantidad de personas en todo el mundo en alrededor de 7.20 mil millones.
DeepMind enseña un algoritmo para jugar Atari utilizando aprendizaje por refuerzo y aprendizaje profundo. Mientras que el aprendizaje por refuerzo se remonta a fines de la década de 1950, este año gana popularidad cuando el investigador canadiense Vlad Mnih de DeepMind (que aún no es una compañía de Google) lo aplica junto con una red neuronal convolucional para jugar videojuegos Atari a niveles sobrehumanos.
El número de usuarios de Facebook llega a mil millones. La cantidad de datos procesados por los sistemas de la compañía se dispara a más de 500 terabytes.
Google demuestra la efectividad del aprendizaje profundo para el reconocimiento de imágenes. Google utiliza 16,000 procesadores para entrenar una red neuronal artificial profunda con mil millones de conexiones en diez millones de miniaturas de videos de YouTube seleccionados al azar en el transcurso de tres días. Sin recibir información sobre las imágenes, la red comienza a reconocer imágenes de gatos, marcando el inicio de avances significativos en el reconocimiento de imágenes.
El sistema de aprendizaje profundo gana por primera vez un famoso concurso de clasificación de imágenes. El equipo de Geoffrey Hinton gana la competencia de clasificación de imágenes de ImageNet por un amplio margen, con una tasa de error del 15.3 por ciento en comparación con la tasa de error del 26.2 por ciento, utilizando una red neuronal convolucional (CNN). El equipo de Hinton entrenó a su CNN en 1.2 millones de imágenes usando dos tarjetas de GPU.
¡IBM Watson vence a Jeopardy! ¡El sistema de respuesta de preguntas de IBM, Watson, derrota a los dos más grandes campeones de Jeopardy!, Brad Rutter y Ken Jennings, por un margen significativo. IBM Watson usa diez racks de servidores IBM Power 750 con capacidad para 80 teraFLOPS (eso es 80 billones de FLOPS; la máxima capacidad a mediados de la década de 1960 era de alrededor de tres millones de FLOPS).
El número de teléfonos inteligentes vendidos en el año se acerca a los 300 millones. Esto representa un aumento de casi 2.5 veces sobre el número vendido en 2007.
El tráfico IP mundial supera los 20 exabytes (20 mil millones de gigabytes) por mes. El tráfico de protocolo de Internet (IP en inglés) se ve favorecido por la creciente adopción de la banda ancha -particularmente en los Estados Unidos, donde la adopción alcanza el 65 por ciento, según Cisco- que informa esta cifra mensual y la cifra anual de 242 exabytes
Microsoft y Google introducen sus nubes. La computación en la nube y el almacenamiento dan otro paso hacia la ubicuidad cuando Microsoft hace dispoinble a Azure y Google lanza su Google Cloud Storage (la Google Cloud Platform se conectará un año más tarde).
Ng usa GPU para entrenar modelos de aprendizaje profundo de manera más eficiente. El científico informático estadounidense Andrew Ng y su equipo en la Universidad de Stanford muestran que la capacitación en redes de creencias profundas con 100 millones de parámetros en las GPU es 70 veces más rápida que hacerla en las CPU, un hallazgo que reduciría la capacitación que una vez llevó semanas a un solo día.
UC Berkley presenta Spark para manejar grandes datos. Desarrollado por el científico informático rumano-canadiense Matei Zaharia en el AMPLab de UC Berkeley, Spark transmite enormes cantidades de RAM aprovechadora de datos, haciendo mucho más rápido al procesamiento de datos que el software que debe leer y/o escribir en los discos duros. Revoluciona la capacidad de actualizar big data y realizar análisis en tiempo real.
Amazon trae el almacenamiento en la nube y la computación a las masas. Amazon lanza sus servicios web de Amazon, ofreciendo almacenamiento basado en la nube y poder de cómputo a los usuarios. La computación en la nube revolucionaría y democratizaría el almacenamiento y el cómputo de datos, dando a millones de usuarios acceso a poderosos sistemas de TI, que antes solo estaban disponibles para grandes compañías de tecnología, a un costo relativamente bajo.
Cutting y Cafarella presentan a Hadoop para almacenar y procesar grandes cantidades de datos. Inspirados en el MapReduce de Google, los científicos en computación Doug Cutting y Mike Cafarella desarrollan el software Hadoop para almacenar y procesar enormes conjuntos de datos. Yahoo lo usa primero, para lidiar con la explosión de datos provenientes de la indexación de páginas web y datos en línea.
El costo de un gigabyte de almacenamiento en disco se reduce a $0.79, desde $277 diez años antes. Y el precio de la DRAM, un tipo de memoria de acceso aleatorio (RAM en inglés) que se usa comúnmente en las PC, se reduce a $ 158 por gigabyte, desde $ 31,633 en 1995.
Dean y Ghemawat introducen el algoritmo MapReduce para hacer frente a la explosión de datos. Con el despegue de la red informática mundial, Google busca ideas novedosas para hacer frente a la proliferación de datos resultante. El científico informático Jeff Dean (actual jefe de Google Brain) y el ingeniero de software de Google Sanjay Ghemawat desarrollan MapReduce para tratar con inmensas cantidades de datos paralelizando procesos en grandes conjuntos de datos utilizando una cantidad sustancial de computadoras.
Llega más potencia de cálculo para los algoritmos de inteligencia artificial… pero nadie se da cuenta todavía. Nvidia lanza la tarjeta gráfica GeForce 256, comercializada como la primera unidad de procesamiento de gráficos (GPU) verdadera del mundo. La tecnología más adelante será fundamental para el aprendizaje profundo al realizar cálculos mucho más rápidos que las unidades de procesamiento informático (CPU).
El aumento en el poder de cómputo conduce la victoria Deep Blue de IBM sobre Garry Kasparov. El éxito de Deep Blue contra el campeón mundial de ajedrez se debe en gran parte a la ingeniería magistral y al tremendo poder que poseen las computadoras en ese momento. La computadora de Deep Blue logra alrededor de 11 gigaFLOPS (11 mil millones de FLOPS).
Moore reconoce el crecimiento exponencial en la potencia de los chips. El cofundador de Intel, Gordon Moore, se da cuenta de que la cantidad de transistores por pulgada cuadrada en los circuitos integrados se ha duplicado cada año desde su invención. Su observación se convierte en la ley de Moore, que predice que la tendencia continuará en el futuro previsible (aunque luego se demuestra que lo hace aproximadamente cada 18 meses). En ese momento, la velocidad computacional más avanzada es del orden de tres millones de operaciones de punto flotante por segundo (FLOPS).
La introducción del iPhone impulsa la revolución de los teléfonos inteligentes y amplifica la generación de datos. El cofundador y CEO de Apple, Steve Jobs, presenta el iPhone en enero de 2007. El número total de teléfonos inteligentes vendidos en 2007 alcanza aproximadamente los 122 millones. Comienza la era del consumo las 24 horas del día y la creación de datos y contenido por parte de los usuarios de teléfonos inteligentes.
El número de usuarios de Internet en todo el mundo supera los mil millones.
Se estrena YouTube. Dentro de unos 18 meses, el sitio ofrecería casi 100 millones de visitas por día.
La Web 2.0 cobra fuerza, lanzando la era de los datos generados por los usuarios. La Web 2.0 se refiere al cambio del paradigma de Internet de la visualización pasiva de contenido a la creación interactiva y colaborativa de contenido, redes sociales, blogs, videos y otros canales. Los editores Tim O’Reilly y Dale Dougherty popularizaron el término, aunque fue acuñado por el diseñador Darcy DiNucci en 1999.
Se estrena Facebook. El estudiante de Harvard Mark Zuckerberg y su equipo lanzan “Thefacebook”, como se lo llamó originalmente. Para fines de 2005, el número de usuarios de Facebook que generan datos se acerca a seis millones.
La adopción de banda ancha comienza entre los usuarios domésticos de Internet. La banda ancha permite a los usuarios acceder a conexiones de Internet cada vez más rápidas, desde los escasos 56 kbps disponibles para descargar a través de acceso telefónico a fines de los años noventa. Hoy en día, las velocidades de banda ancha disponibles pueden superar los 100 mbps (1 mbps = 1,000 kbps). Las aplicaciones hambrientas de ancho de banda como YouTube no podrían haberse hecho comercialmente viables sin el advenimiento de la banda ancha.
Apertura de la red informática mundial (WWW). La Organización Europea para la Investigación Nuclear (CERN) comienza a abrir la World Wide Web al público.
Hinton vuelve a potenciar el uso de modelos de aprendizaje profundo. Para acelerar el entrenamiento de los modelos de aprendizaje profundo, Geoffrey Hinton desarrolla una forma de preentrenarlos con una red de creencias profundas (una clase de red neuronal) antes de emplear la retropropagación. Si bien su método se volvería obsoleto cuando el poder de cómputo aumentara a un nivel que permitiera un entrenamiento eficiente en el modelo de aprendizaje profundo, el trabajo de Hinton popularizó el uso del aprendizaje profundo en todo el mundo, y muchos lo atribuyen a acuñar la frase “aprendizaje profundo”.
Brin y Page publican el algoritmo de PageRank. El algoritmo, que clasifica las páginas web más alto a medida que otras páginas web enlazan con ellas, constituye el prototipo inicial del motor de búsqueda de Google. Esta creación de los fundadores de Google, Sergey Brin y Larry Page, revolucionó las búsquedas en Internet, abriendo las puertas a la creación y el consumo de más contenido y datos en la red informática mundial (también conocida como World Wide Web). El algoritmo también se convertiría en uno de los más importantes para las empresas, ya que compiten por la atención en un Internet cada vez más extenso.
Los RNN obtienen una “memoria”, posicionándolos para avanzar la voz al texto. En 1991, el científico informático alemán Sepp Hochreiter demostró que un tipo especial de red neuronal artificial (ANN) llamada red neuronal recurrente (RNN en inglés) puede ser útil en tareas de secuenciación (voz a texto, por ejemplo) si pudiera recordar el comportamiento de secuencias parciales mejor. En 1997, Hochreiter y su compañero científico informático Jürgen Schmidhuber solucionaron el problema desarrollando una red de gran memoria de corto plazo (LSTM en inglés). Hoy en día, los RNN con LSTM se utilizan en muchas de las principales aplicaciones de reconocimiento de voz.
Los SVM actualizados proporcionan una solución temprana para el procesamiento de lenguaje natural. Los ingenieros informáticos Bernhard E. Boser (suizo), Isabelle M. Guyon (francés) y el matemático ruso Vladimir N. Vapnik descubren que los modelos algorítmicos llamados máquinas de vectores de soporte (SVM en inglés) pueden actualizarse fácilmente para tratar problemas no lineales utilizando una técnica llamada truco del kernel, lo que lleva al uso generalizado de SVM en muchos problemas de procesamiento del lenguaje natural como la clasificación del sentimiento y la comprensión del habla humana.
Nacimiento de las CNN para el reconocimiento de imágenes. El científico informático francés Yann LeCun, ahora director de investigación de IA para Facebook, y otros publican un artículo que describe cómo un tipo de red neuronal artificial llamada red neuronal convolucional (CNN en inglés) es muy adecuada para tareas de reconocimiento de formas. LeCun y su equipo aplican las CNN a la tarea de reconocer caracteres escritos a mano, con el objetivo inicial de construir máquinas automáticas de clasificación de correo. Hoy en día, las CNN son lo último en modelos para el reconocimiento y clasificación de imágenes.
La retropropagación queda establecida. El psicólogo estadounidense David Rumelhart, el psicólogo cognitivo y científico informático británico Geoffrey Hinton y el científico informático estadounidense Ronald Williams publican sobre la retropropagación, popularizando esta técnica clave para el entrenamiento de redes neuronales artificiales que originalmente propuso el científico estadounidense Paul Werbos en 1982. La retroalimentación permite a la ANN optimizarse sin intervención humana (en este caso, encontró características en los datos del árbol genealógico que no eran obvias o no se proporcionaron al algoritmo de antemano). Aún así, la falta de potencia de cómputo y las enormes cantidades de datos necesarias para capacitar a estas redes de múltiples capas impiden que los ANN que aprovechan la retropropagación se utilicen ampliamente.
Nacimiento del aprendizaje profundo. El matemático ucraniano Alexey Grigorevich Ivakhnenko desarrolla los primeros algoritmos generales de aprendizaje funcionales para redes neuronales artificiales de múltiples capas supervisadas, en las que varias ANN se apilan una encima de otra y la salida de una capa ANN se alimenta a la siguiente. La arquitectura es muy similar a las arquitecturas de aprendizaje profundo de hoy.
Rosenblatt desarrolla el primer algoritmo de autoaprendizaje. El psicólogo y científico informático estadounidense Frank Rosenblatt crea el algoritmo perceptrón, un tipo temprano de red neuronal artificial (ANN por sus siglas en inglés) que se erige como el primer modelo algorítmico que podría aprender por sí solo. El científico informático estadounidense Arthur Samuel acuñaría el término “aprendizaje automático” al año siguiente para este tipo de modelos de autoaprendizaje (y desarrollaría un programa innovador para los inspectores considerado como un éxito temprano en la IA).
Legendre sienta las bases para el aprendizaje automático. El matemático francés Adrien-Marie Legendre publica el método de regresión de mínimos cuadrados que utilizó para determinar, a partir de observaciones astronómicas, las órbitas de los cuerpos alrededor del sol. Aunque este método se desarrolló como un marco estadístico, proporcionaría la base para muchos de los modelos actuales de aprendizaje automático.