escuchando data

Las empresas se preguntan a menudo cómo preparar a su gente para afrontar la revolución que ocurre a partir de los Datos. Cómo entrenarlos en algo que vaya más allá de la lucha entre acrónimos (Big Data, Analytics, AI, Data Science…), que tenga que ver con el trabajo cotidiano, que les provoque curiosidad y les abra la cabeza. Aquí ofrezco una posible respuesta a esa pregunta, cuestionando a mi vez cinco variables fundamentales en el diseño de un curso.

1) Cuál es la audiencia? Los jóvenes profesionales necesitarán un “kit básico de supervivencia” en torno a datos (KPI, insight, calidad de datos), y una explicación breve de cada elemento.  Los jefes y gerentes querrán conocer metodologías como Agile para resolver rápido los problemas -y de paso que grupos diversos aprendan a convivir en torno a los datos-. El top mgmt, por su parte, deseará contar con ejemplos concretos de transformación digital en todo el mundo. Si no hay segmentación la clave está en apuntando al centro de esta gaussiana, y en hacer foco en la rentabilidad de los proyectos.

2) Qué cambio se desea lograr? Cuanto más profundo es ese cambio se requieren más instancias de aprendizaje. Tal vez no todavía, pero en dos o tres años muchas empresas de nuestro medio “empujarán” a sus empleados a que aprendan a programar. Ya no valdrá más la respuesta “lo hacemos con un Excel”. No hay mucho lugar para el management intermedio: el empleado del futuro se embarra con los datos, no le pide las cosas a BI o a Sistemas.

3) El training es un instante o un proceso? Valen ambas opciones. En el primer caso el training puede ser un evento dentro de una jornada outdoor que combine el mensaje corporativo con cuatro o cinco ideas claras sobre datos. El caso más común es el de un proceso, una serie de eventos donde se aprecie paulatinamente el sentido de toda la cadena de valor de los datos.

4) Qué tan interactivo debe ser el curso? Idealmente, no hay curso posible de datos sin interactividad. Simulando un Agile, evaluando el impacto económico del churn, o mostrando los rudimentos de un programa. El alumno se involucra cuando se anima a dar la respuesta. Como dice la gente de Google X: hay que aprender a fallar. Esta interactividad implica grupos chicos (no más de 20 personas) y ambientes adecuados donde los asistentes puedan cambiar de lugar y formar grupos.

5) Cómo deben ser los contenidos? Balanceados, con un hilo central guiado inevitablemente por un PowerPoint, pero con cambios cada diez minutos: casos de uso, anécdotas, “tips”, preguntando constantemente,  y animando a la audiencia a que corran el riesgo de la respuesta. Consideremos eso: preguntar es algo terrible en estos años de corrección política.

Hago un flashback  al final de mi tesis en Física. Hace 25 años yo estaba bombardeando muestras de geofísica con una fuente de neutrones, simulando un “perfilaje” o ensayo no destructivo que ahora es corriente en Oil&Gas. La muestra emite rayos gamma rebotados y eso permite identificar ciertos elementos que dan una idea (jerga de datos: son proxy) de qué tan interesante será el pozo de petróleo de donde proviene la muestra. Hasta ahí, todo es fácil. Pero la cosa no venía bien.

Requisitos? Tener una fuente radioactiva intensa (había cierto riesgo personal aquí), aproximar la fuente a la muestra (pero sin dañar el detector), tener nitrógeno líquido en abundancia (elemento caro y difícil de obtener, históricamente) y dejar midiendo mucho tiempo (cruzando los dedos para que no hubiera cortes de luz o alguien apagara algún switch). Adivinen qué: tenía poco conteo, los picos de energía eran chiquitos y no llegaba a nada. Terminé buscando un mejor equipamiento en el Balseiro, publiqué el paper y en un mes pude cerrar mi tesis. A la distancia pienso esto: los datos estuvieron siempre ahí,  hablando pero en voz baja; había que escucharlos con mucha atención. Algo en el entorno del set-up original perturbaba la medición.

Por qué el flashback? A la ciencia de datos le está faltando el rigor científico, que ineludiblemente debe figurar en estos aprendizajes. Los datos están ahí, en casi todos los ámbitos, pero hay que hacer silencio, tener la mente abierta, y prestar atención. No siempre el cambio necesario es la última tecnología, el más complejo algoritmo o la cuantiosa inversión en Deep Learning. Muchas veces alcanza con ser consistente con los datos, entender la industria (fundamental!), ser curioso, mantener cierta actitud objetiva o científica, y animarse a correr riesgos con las preguntas. Por eso en los entrenamientos incluyo estimar magnitudes, resolver problemas de Fermi, contar historias verdaderas de situaciones con clientes difíciles en varios verticales. Por eso también animo a la audiencia a responder preguntas rápidas.

Finalmente, qué esperar a largo plazo? Nada es mágico, pero si el curso fue efectivo, se advertirán con el tiempo las siguientes actitudes:

  1. Decenas de empresas se jactan de ser “data-driven” y no lo son. Contra esto, un buen comienzo es que el individuo aprenda a no mentir(se) con los datos. No duplicar fuentes de datos, por ejemplo.
  2. Una actitud de respecto hacia el compañero es chequear que la fuente  de datos que comparten sea consistente. De paso, respeto hacia el público que usa los servicios de una empresa es empezar a meterse en cuestiones de Data Ethics.
  3. Permitirse sospechar del error. Preguntar al custodio de la información o al interlocutor técnico si algo no esta bien en el diseño de la campaña, del producto, o del servicio. Si hay error, no mirar hacia otro lado! Compartir esta inquietud.
  4. Una vez chequeadas las hipótesis y ejecutada la acción, entrenar los sentidos para intuir qué cosas interesantes pueden aparecer después, siempre en contexto de negocios. “Qué pasa si correlaciono este dato con este otro? Hay causalidad?”
  5. Fortalecer el pensamiento crítico. Esto va bastante más allá de defender la opinión gerencial, es super importante. Diez años de redes sociales favorecieron en todo el mundo el pensamiento monolítico y de corto plazo, amparado solo en las opiniones que confirmaran nuestras creencias. Hay que deshacer eso y volver a los hechos.

Vuelvo a la pregunta inicial. Cómo saber si el curso salió bien? Por un lado, la necesaria evaluación del trainer. Y por otro lado, que quede flotando en la audiencia y en la corporación estas actitudes. Ese es el lado B, la cosa imprevista, el impacto no mensurable en el costo del training. Pero también es la mayor riqueza: es haber aprendido a escuchar los datos.