Crecimiento Alpha Zeta

Idea uno. No es que Google tenga una máquina perfecta para jugar al Go, sino que la máquina perfecta aprendió por sí misma. Alpha Go Zero aprendió sola -a diferencia de sus versiones predecesoras-, y en 40 días batió a expertos y otras máquinas casi perfectas que tuvieron la desdicha de ser entrenadas por humanos. Sueñan las máquinas de Google con tableros de Go?

Hay muchos detalles interesantes en la notas de Google y Nature, pero el truco es que la propia red neuronal va adaptándose a la dificultad. El “reinforcement” hace posible el autoaprendizaje y la creación de nuevas estrategias y de jugadas “inhumanas”, en la opinión de los expertos. La reacción de la gente fue de temor: “Si aprende sola, se viene Skynet”. Respuesta: nada de eso. El AI está lejos de salirse del propio ámbito. El algoritmo es poderosísimo, pero solo sirve para jugar al Go. Una cosa es jugar al Go y otra encontrar a Sarah Connor. Aún así, y prescindiendo del fantasma de Skynet, sorprende la adaptabilidad del algoritmo, que en las primeras horas es voraz y al cabo de tres días diseña las estrategias más extrañas para derrotar con facilidad al oponente, virtual o real.

AlphaGo Zero 70 hs

Idea dos. La inteligencia artificial acaba de fracasar en una prueba clave de Watson (el producto de “inteligencia cognitiva” de IBM) en el diagnóstico por imágenes. Se entrena el algoritmo en una cantidad de imágenes (resonancias o RXs) con la esperanza de que coincida con el diagnóstico humano. Pero hay muchos falsos positivos, pues el algoritmo se engancha en detalles que no son enfermedades.

AI x rays ML

Qué ocurrió aquí, en la visión de Chris Anderson (ver excelente thread en Twitter):

  • El conjunto de datos ChestXRay14 no tiene “labels” bien puestos. O sea, no fue bien entrenado. Garbage in, garbage out: lo de siempre en pura ciencia o tecnología, si los datos no son buenos, no esperes nada bueno al final del proceso.
  • Faltó supervisión médica en el entrenamiento del modelo. No se enseñó bien que “esta mancha o variación de mancha puede significar tal o cual indicio de enfermedad”. Si bien las imágenes son correctas, el taggeo mal hecho lleva al modelo a conclusiones irrelevantes.
  • Mirar las imágenes y hacer el “sanity check” es muy básico. Sin esto ningún modelo puede funcionar.

Y algo más. El propio autor debe aclarar en su post que estos problemas ocurrieron para este data set, para Watson y para este testeo, pero que en otros ámbitos el Deep Learning anduvo mucho mejor, en particular cuando se controló mejor el “input” de los datos.

En conclusión, lo que pasa en #Health es lo mismo que en #Telco, #Banca, #Retail u #Oil&Gas: el algoritmo necesita la constante supervisión del experto -y no del científico de datos- cuando las interacciones y la casualidad es muy diversa. Jugar muy bien a un juego  (a pesar de su complejidad inherente al Go), es más sencillo que entender qué cliente se irá de una Telco o de un Banco, o cómo reconocer a una persona por su cara, o extrapolar qué pozo de petróleo será el más rentable con ciertos niveles de costos, producción e impuestos. Por eso en el aprendizaje del Go la pendiente de aprendizaje y éxito es abrupta. Los modelos bien entrenados en otras disciplinas rara vez superan el 90% de éxito.

En consecuencia, entender cada industria en cada uno de sus mecanismos de relojería clave sigue siendo vital. Por eso es que la demanda de profesionales a mitad de camino -que entiendan de datos y de “verticales”- y que puedan dialogar con sus pares expresándose con sencillez (el famoso storytelling) será cada vez mayor.  Esta clase de entendimiento será la “nueva inteligencia” de la próxima década.

Intelligence t-shirt