Pero en lo que tradicionalmente las computadoras eran malas era en la estrategia: la capacidad de pensar en la forma de un juego con muchos, muchos movimientos en el futuro. La gente seguía a la cabeza.

O eso pensó Kasparov hasta que el movimiento de Deep Blue en el Juego 2 lo hizo perder el equilibrio. Parecía tan sofisticado que Kasparov se preocupó: ¡tal vez la máquina era mucho mejor de lo que pensaba! Convencido de que no tenía posibilidades de ganar, abandonó el segundo juego.

Pero no debería haber hecho eso. Resulta que Deep Blue en realidad no era tan bueno. Kasparov no había visto un movimiento que hubiera terminado el juego en tablas. Se estaba agitando: preocupado de que la máquina pudiera ser mucho más poderosa de lo que realmente era, había comenzado a ver un pensamiento humano donde no existía.

Perdido en su ritmo, Kasparov jugaba cada vez peor. Se empujó a sí mismo una y otra vez. Al comienzo de la sexta partida de todo o nada, hizo un movimiento tan malo que los observadores de ajedrez gritaron conmocionados. «No tenía ganas de jugar en absoluto», dijo más tarde en una conferencia de prensa.

IBM se benefició de su lanzamiento a la luna. En la exageración de la prensa que siguió al éxito de Deep Blue, la capitalización de mercado de la compañía aumentó en $ 11,400 millones en una sola semana. Sin embargo, lo que es más importante, el triunfo de IBM se sintió como un deshielo en el largo invierno de la IA. Si se podía conquistar el ajedrez, ¿qué venía después? Los pensamientos públicos vacilaron.

«Eso», dice Campbell, «llamó la atención de la gente».


La verdad es que no fue de extrañar que una computadora derrotara a Kasparov. La mayoría de las personas que habían prestado atención a la IA, y al ajedrez, esperaban que sucediera en algún momento.

El ajedrez puede parecer el pináculo del pensamiento humano, pero no lo es. De hecho, es una tarea mental susceptible de cálculos de fuerza bruta: las reglas son claras, no hay información oculta y una computadora ni siquiera necesita realizar un seguimiento de lo que sucedió en los movimientos anteriores. Es solo evaluar la posición de las partes.

«Hay muy pocos problemas en los que, como el ajedrez, tienes toda la información que necesitas para tomar la decisión correcta».

Todos sabían que las computadoras, una vez que fueran lo suficientemente rápidas, abrumarían a un humano. Sólo depende de cuándo. A mediados de la década de 1990, «la escritura estaba en la pared», dijo Demis Hassabis, director de la empresa de inteligencia artificial DeepMind, propiedad de Alphabet.

La victoria de Deep Blue fue el momento que mostró cuán limitados pueden ser los sistemas codificados a mano. IBM había invertido años y millones de dólares en desarrollar una computadora para jugar al ajedrez. Pero no había otra manera.

“No condujo a los avances que hicieron esto posible [Deep Blue] La IA tendrá un gran impacto en el mundo”, dice Campbell. No han descubierto ningún principio real de inteligencia porque el mundo real no se parece al ajedrez. «Hay muy pocos problemas en los que, como el ajedrez, tienes toda la información que necesitas para tomar la decisión correcta», agrega Campbell. “La mayoría de las veces hay incógnitas. Hay aleatoriedad”.

Pero mientras Deep Blue limpiaba el piso con Kasparov, un puñado de advenedizos rudimentarios estaba jugando con una forma de IA más radicalmente prometedora: la red neuronal.

Con las redes neuronales, la idea no era, como los sistemas expertos, escribir reglas pacientemente para cada decisión que tomará una IA. En cambio, el entrenamiento y el refuerzo fortalecen las conexiones internas, imitando aproximadamente (dice la teoría) cómo aprende el cerebro humano.

1997: Después de que Garry Kasparov derrotara a Deep Blue en 1996, IBM le pidió al campeón mundial de ajedrez una revancha, que se llevó a cabo en la ciudad de Nueva York con una máquina mejorada.

AP FOTO / ADAM AGUJA

La idea ha existido desde la década de 1950. Pero entrenar una red neuronal útilmente grande requería computadoras ultrarrápidas, toneladas de memoria y muchos datos. Nada de esto estaba disponible en ese momento. Hasta la década de 1990, las redes neuronales se consideraban una pérdida de tiempo.

«En ese entonces, la mayoría de las personas en IA pensaban que las redes neuronales eran simplemente basura», dice Geoff Hinton, profesor emérito de ciencias de la computación en la Universidad de Toronto y pionero en el campo. «Me han llamado ‘verdadero creyente'», no es un cumplido.

Pero en la década de 2000, la industria informática evolucionó para hacer rentables las redes neuronales. La codicia de los videojugadores por gráficos cada vez mejores ha creado una gran industria para las unidades de procesamiento de gráficos ultrarrápidas que han demostrado ser perfectamente adecuadas para las matemáticas de redes neuronales. Mientras tanto, Internet explotó, produciendo una avalancha de imágenes y texto que podrían usarse para entrenar los sistemas.

A principios de la década de 2010, estos avances tecnológicos permitieron a Hinton y su equipo de verdaderos creyentes llevar las redes neuronales a nuevas alturas. Ahora podría crear redes con muchas capas de neuronas (lo que significa «profundo» en «aprendizaje profundo»). En 2012, su equipo ganó la competencia anual Imagenet, en la que las IA compiten para reconocer elementos en imágenes. Asombró al mundo de la informática: las máquinas de autoaprendizaje finalmente eran factibles.

Diez años después del inicio de la revolución del aprendizaje profundo, las redes neuronales y sus capacidades de reconocimiento de patrones han colonizado todos los rincones de la vida cotidiana. Ayudan a Gmail a completar automáticamente sus oraciones, ayudan a los bancos a detectar fraudes, permiten que las aplicaciones de fotos reconozcan rostros automáticamente y, en el caso de GPT-3 de OpenAI y Gopher de DeepMind, escriben ensayos largos que parecen humanos y resumen textos. Incluso están cambiando la forma en que se hace ciencia; En 2020, DeepMind presentó AlphaFold2, una IA que puede predecir cómo se plegarán las proteínas, una habilidad sobrehumana que puede ayudar a los investigadores a crear nuevos medicamentos y tratamientos.

Mientras tanto, Deep Blue desapareció, sin dejar inventos útiles. Al final resultó que, jugar al ajedrez no era una habilidad informática necesaria en la vida cotidiana. «Lo que Deep Blue terminó mostrando fueron las deficiencias de tratar de hacer todo a mano», dice el fundador de DeepMind, Hassabis.

IBM intentó remediar la situación con Watson, otro sistema especializado diseñado para abordar un problema más práctico: hacer que una máquina responda preguntas. Utilizó el análisis estadístico de grandes cantidades de texto para lograr una comprensión del idioma que era de vanguardia para su época. Era más que un simple sistema si-entonces. Pero Watson se enfrentó a un momento desafortunado: fue eclipsado solo unos años más tarde por la revolución del aprendizaje profundo, que generó una generación de modelos dañinos para el lenguaje mucho más matizados que las técnicas estadísticas de Watson.

El aprendizaje profundo trató sin piedad a la IA de la vieja escuela precisamente porque «el reconocimiento de patrones es increíblemente poderoso», dice Daphne Koller, exprofesora de Stanford que fundó y dirige Insitro, que utiliza redes neuronales y otras formas de aprendizaje automático para crear nuevos tratamientos farmacológicos para investigar. La flexibilidad de las redes neuronales, los muchos usos posibles del reconocimiento de patrones, es la razón por la que nunca ha habido un invierno de IA. «El aprendizaje automático en realidad ha brindado valor», dice, algo que las «olas anteriores de exuberancia» en IA nunca lograron.

El destino inverso de Deep Blue y las redes neuronales muestra lo mal que hemos estado juzgando lo que es difícil, y lo que es valioso, en la IA durante tanto tiempo.

Durante décadas se pensó que dominar el ajedrez era importante porque a las personas les resulta difícil jugar al ajedrez a un alto nivel. Pero resulta que el ajedrez es bastante fácil de dominar para las computadoras porque es muy lógico.

Lo que fue mucho más difícil de aprender para las computadoras fue el trabajo mental incidental e inconsciente que hacen los humanos, como tener una conversación animada, conducir un automóvil a través del tráfico o leer el estado emocional de un amigo. Hacemos estas cosas con tanta facilidad que rara vez nos damos cuenta de lo engañosas que son y de la cantidad de juicios difusos en escala de grises que requieren. El gran beneficio del aprendizaje profundo radica en la capacidad de capturar pequeños fragmentos de esta inteligencia humana sutil y desconocida.


Aún así, no hay una victoria definitiva en inteligencia artificial. El aprendizaje profundo puede ser muy popular en este momento, pero también está recibiendo duras críticas.

«¡Durante mucho tiempo ha habido este entusiasmo tecno-chovinista de que la IA resolverá cualquier problema!», dice Meredith Broussard, programadora convertida en profesora de periodismo en la Universidad de Nueva York y autora de falta de inteligencia artificial. Pero como ella y otros críticos han señalado, los sistemas de aprendizaje profundo a menudo se entrenan con datos sesgados y absorben ese sesgo. Los informáticos Joy Buolamwini y Timnit Gebru descubrieron que tres sistemas de IA visual disponibles en el mercado eran deficientes para analizar los rostros de las mujeres negras. Amazon entrenó una IA para revisar currículums, solo para descubrir que degradaba a las mujeres.

Aunque los científicos informáticos y muchos ingenieros de IA ahora son conscientes de estos problemas de sesgo, no siempre saben cómo lidiar con ellos. Además, las redes neuronales también son «cajas negras masivas», dice Daniela Rus, una veterana de IA que actualmente dirige el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT. Una vez que se entrena una red neuronal, sus mecanismos no son fáciles de comprender ni siquiera por su creador. No está claro cómo llegará a sus conclusiones, o cómo fallará.

«Ha habido este entusiasmo tecno-chovinista durante mucho tiempo de que está bien, ¡la IA resolverá cualquier problema!»

Rus postula que confiar en una caja negra para una tarea que no es «crítica para la seguridad» podría no ser un problema. Pero, ¿qué pasa con un trabajo de mayor valor como la conducción autónoma? «En realidad, es notable que pudiéramos depositar tanta confianza en ellos», dice ella.

Aquí es donde Deep Blue tenía una ventaja. El estilo antiguo de reglas hechas a mano podría haber sido frágil, pero era comprensible. La máquina era compleja, pero no un misterio.


Irónicamente, este viejo estilo de programación podría regresar a medida que los ingenieros y los científicos informáticos luchan con los límites de la coincidencia de patrones.

Los sintetizadores de voz como GPT-3 de OpenAI o Gopher de DeepMind pueden tomar algunas oraciones que haya escrito y seguir adelante, escribiendo página tras página de prosa que suena plausible. Pero a pesar de algunas imitaciones impresionantes, «la tuza todavía no entiende lo que dice», dice Hassabis. «No en el sentido real».

Del mismo modo, la IA visual puede cometer errores terribles cuando se encuentra con casos extremos. Los autos sin conductor se han estrellado contra los camiones de bomberos estacionados en las autopistas porque en todos los millones de horas de videos en los que han sido entrenados, nunca se han enfrentado a una situación así. Las redes neuronales tienen su propia versión del problema de la «fragilidad».

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí