El saber popular tiende a recordar titulares grandilocuentes, sin detenerse en los detalles. El titular en 1996 fue que Garry Kasparov, Campeón Mundial de Ajedrez, le ganó a la supercomputadora Deep Blue, aún tras haber arrancado perdiendo la primera partida.
En 1997, ante una versión Mejorada, Kasparov perdió ajustadamente la revancha. Tanto la primera como la segunda vuelta del encuentro dispararon enormes especulaciones sobre el alcance y evolución de la inteligencia artificial. Sin embargo, hay un par de salvedades que hacer.
En primer lugar, hay que diferenciar el proceso por el que ganó Deep Blue II de un proceso de IA hecho y derecho. Lo que hizo DBII fue analizar la posición de las piezas en el tablero, y buscar en su base de datos la posición que estadísticamente fuera catalogada como mejor posición siguiente. Y repitió el proceso una vez que Kasparov hizo su movida. Eso no es Inteligencia Artificial per se: es algo que se llama Fuerza Bruta. No había un plan, no hubo una estrategia: simplemente, buscar entre millones de posiciones la mejor respuesta a la foto que se le presentaba.
Hay otro juego en el que la estrategia de fuerza bruta no le sirve a una máquina, y por eso los humanos han ganado repetidos partidos de Go, el antiguo juego de estrategia Chino. Recién en 2016 AlphaGo, un desarrollo de DeepMind, una empresa Británica de Inteligencia Artificial comprada por Google en 2014. AlphaGo usa también fuerza bruta, pero además incorpora dos conceptos revolucionarios: redes neurales y aprendizaje de máquinas.
En el Go, hay más estrategia e intuición que en el ajedrez: es menos posible predefinir las aperturas, lo que hizo mucho más dificil replicar el proceso que usó Deep Blue. En cambio, DeepMind desarrolló estrategias de toma de decisiones para AlphaGo que replican la forma en als que un humano piensa. Ante esta evidencia, podemos pensar que finalmente, la Inteligencia Artificial real está mucho más cerca.
Esta semana, en el Salón de París, el Vice Presidente de Desarrollo de Producto de Boeing, Mike Sinnett, decidió coquetear con una idea revolucionaria: los aviones sin piloto. «La idea parece lejana, pero cuando uno ve que hay drones de vuelo automático por menos de 1000 dólares, entiende que los bloques básicos de construcción están disponibles», dijo Sinnett.
«Los aviones ya despegan, vuelan y aterrizan con sus computadoras de a bordo, y la cantidad de pilotos bajó de tres a dos en los últimos años», agregó. «La idea es probar la tecnología en simuladores durante este año y probar el año que viene en vuelo módulos de inteligencia artificial que emulen las decisiones del piloto». Las líneas aéreas parecen apoyar la idea, teniendo en cuenta que el crecimiento del tráfico aéreo proyecta una necesidad global de un millón y medio de pilotos para los próximos 20 años.
Bien, hasta acá, la parte de la idea de Sinnett que levantarán todos los medios. Las limitantes al delirio, por suerte no son desconocidas para él. «No tenemos idea de cómo hacerlo. Pero estamos estudiándolo ahora y desarrollando esos algoritmos.»
No es el único problema que se enfrentará un avión sin piloto: como planteábamos en el post de los autos voladores, certificar una tecnología nueva es un proceso largo, intrincado y oneroso; aún más cuando se trata de transportar pasajeros. La analogía del VP de Desarrollo de Boeing entre un drone de 1000 dólares y un avión de pasajeros es, por lo menos, desafortunada.
Y yendo a una cuestión más técnica, habrá que definir qué es emular la toma de decisiones de un piloto. Porque el estándar es un ser humano que está fuera del estándar. Chesley Sullenberger. Sinnett dijo «un avión sin piloto deberá poder repetir el Milagro en el Hudson. Si no puede lograrlo, no podemos implementarlo.»
He aquí la clave de la cuestión, y la clave de la diferencia principal entre la IA y el mejor modelado de Machine Learning disponible. Siempre que me tocó explicar Inteligencia Artificial, me encargué de repetirle doscientas veces una verdad a los alumnos: el hombre se reserva el derecho a evaluar mal una coyuntura y tomar decisiones estúpidas. O, en el caso de Sully, evaluar demasiado bien una coyuntura y tomar decisiones supremas. Cómo se hace para programarle intuición, o experiencia a un sistema? El esquema de aprendizaje de máquinas ha resuelto cuestiones simples, pero para evaluaciones complejas y resoluciones de múltiple salida recién está en pañales. Pasarán años antes que realmente pueda pensarse siquiera en implementar soluciones de inteligencia artificial que esté en condiciones de reemplazar decisiones humanas. Algunas tareas humanas han sido tomadas por sistemas de computación, estamos de acuerdo. Pero el trecho hasta la toma de una decisión de vida o muerte de pasajeros por parte de un sistema, es largo y de resultado muy incierto.
Un detalle: Deep Blue II ganó porque en el primer partido perdió por un error. Kasparov se confió y subestimó a DBII. Un error que ayuda. Pero hay errores que no.
En mi opinión, el VP de Boeing debería dedicar su tiempo a desarrollar aviones que cubran segmentos que han dejado descuidados durante años, permitiendo el avance de competidores que le están ganando ese mercado. Para los aviones sin piloto, hay tiempo. Mucho tiempo.
No sería conveniente que el estado mejore el INAC así se puede volar un poco más barato? Cuantos pilotos mas habría si las escuelas de vuelo no fueran tan elitistas con el precio?
Saludos.
Es cierto Andrés, el Estado debería ayudar a las escuelas y los futuros pilotos. Mientras dejemos la iniciativa únicamente en manos de los privados, los precios seguirán siendo los que son.
Abrazo!
Muy interesante el post.
Muchas Gracias Mariano!
Hola como estas? Yo siempre me pregunto porque ante una rutina como es la de aterrizar, cosa muy repetitiva y rutinaria, el que lo hace es el piloto. No seria mas facil que el piloto mire como aterriza el avion? Aca no hay cuestiones de IA ni toma de desiciones, simplemente que la maquina siga el ILS y con instrumentos aterrizar. Es mucho mas facil quela maquina nivele el avion por vientos cruzados y todo lo que sea, que el hombre. Siempre pongo como ejemplo el Segway, solo con instrumentos mantiene el vertice.. para el humano es complicado.
Muy buen Blog!
abrazo!
Hay muchas cosas que están automatizadas, pero sin embargo, el criterio humano para detectar una condición insegura repentina es irreemplazable. Mirá si a último momento hay una incursión en pista? No hay ILS que la vea…