Últimas

Reflexões sobre a construção de uma capability habilitadora de dados

Por JM Benedetto

Qualquer atividade empresarial deve começar com o fim em mente. Isso inclui aquelas relacionadas aos dados. Dados são meio, não fim. São ferramentas para atingirmos os objetivos do negócio. Muitas vezes, esse princípio básico acaba esquecido ou atropelado pelo dia a dia frenético das empresas. Nossas equipes acabam tão focadas no que fazem que perdem de vista o motivo que as levou até a ação.

Muitos dos modelos conceituais que usamos para operacionalizar nossas ideias no mundo comprovativo também tendem a olhar atividades e fluxos do início ao fim. A cadeia de valor do dado é um exemplo, com pipelines começando no dado bruto e terminando no valor criado para o negócio. No entanto, ao montarmos um produto de dados, devemos seguir o caminho contrário, discutindo qual efeito queremos causar, qual comportamento humano precisamos mudar. Todo o resto é consequência dessa primeira análise.

Uma estratégia de dados deve combinar processos, conhecimento e ativos em uma capability habilitadora de dados capaz de criar valor nas diversas áreas de negócio da empresa. Ao menos três componentes são essenciais para uma estratégia de sucesso:

  • Aplicações: os problemas de negócio que estamos tentando resolver com dados (ex.: recomendação de produtos);
  • Tech & Data: a base tecnológica para suportar as aplicações. Aqui entram os dados, sua governança, os softwares e hardwares utilizados (ex.: data lake, data viz, data science, integração, ...);
  • Pessoas: cultura data influenced, data literacy, organização, perfil (ex.: treinamentos, mentorias, requisitos de cargo, avaliação de desempenho, cerimônias da liderança, incentivos).

O caminho para construção de uma capability de dados é tortuoso, com muitos percalços. Como ex-CDO (Chief Data Officer) de um grande varejista de material de construção, tive a oportunidade de aprender em primeira mão algumas lições sobre a introdução dos dados em uma organização centenária. Compartilho a seguir alguns desses aprendizados.

Democratização de dados

A democratização do dado pede mais governança, não menos. Não foi o carro quem transformou a mobilidade urbana; o ecossistema que construímos no entorno do carro, sim (Detran, habilitação, autoescola, estradas, legislação de trânsito, guardas de trânsito). Darmos acesso às bases de dados ao negócio esperando que as equipes criem valor é tão eficaz quanto acabar com a polícia e armar toda a população, esperando que as pessoas se defendam.

Se quisermos dar mais liberdade ao negócio, devemos estruturar, preparar, suportar, habilitar e controlar a plataforma de dados. Uma das principais missões das equipes de dados é construir quartos montessorianos para nossas equipes de negócio pensados para suportar autonomia e experimentação. Isso nada mais é do que uma aplicação dos preceitos de UX aos dados.

Ao mesmo tempo, não podemos cair no erro de tentar governar tudo. Governar é uma atividade de gestão de risco e tem um custo, seja em dinheiro, seja em velocidade. Governe o que é essencial. Não temos um guarda de trânsito em cada carro, e ainda assim temos níveis aceitáveis de riscos no trânsito.

Code para resolver o complicado, no-code/low-code para todo o resto

Estamos ainda jovens na jornada de dados nas empresas, e muita coisa está em construção. Quando a jornada começou o uso de código era a única opção. Nossas equipes técnicas trabalhavam como artesãos, construindo cada pipeline como um artista faz sua escultura. Com o tempo, o conhecimento acumulado e a fatia de custos associada aos dados abriram a porta para uma miríade de soluções técnicas, com foco na simplificação, robustez e automação do trabalho das equipes de dados.

Já está na hora, portanto, de sairmos do mindset de artesãos e abraçarmos a automação como novo paradigma de desenvolvimento. Claro que ainda teremos partes do pipeline em Python, mas apenas aquelas que não puderem ser resolvidas pelo caminho do no-code/low-code (ferramentas para construção de aplicações sem necessidade de escrever código). Essa mudança fará pelos produtos de dados o que a industrialização fez pelos produtos físicos: uma queda drástica do custo, levando a uma explosão de consumo.

Somos todos diferentes (ainda bem!)

Uma parte grande do desafio de uso dos dados em processos de negócio não está na tecnologia. Muitas vezes, uma simples regressão linear poderia mudar drasticamente a performance de um processo, se fosse utilizada. A barreira está na cultura da organização, embrenhada no que é considerado certo e justo, o que é reforçado pelos incentivos que damos para nossas equipes.

Não há pílula mágica para a transformação cultural. No entanto, sabemos que ela passa por empoderar as equipes com conhecimento, apoio e direção, além, é claro, de incentivar os comportamentos desejados. Aumentar o nível de data literacy das equipes se inclui na categoria empoderamento, e é crítico na transformação data-influenced.

Como dados tocam toda a empresa, por vezes pensamos em iniciativas corporativas e padronizadas. No entanto, pessoas diferentes precisam de níveis distintos de data literacy e, por vezes, de abordagens de aprendizado adaptadas. A necessidade de cada um está ligada ao papel que desempenha na organização, e também à sua personalidade. Assim, qualquer programa de data literacy deve começar por identificar as equipes responsáveis pelos casos de uso prioritários, agrupando as pessoas em populações com perfis e necessidades semelhantes. Só então podemos pensar em ações para aumentar o nível de data literacy de cada população.

As ferramentas de DataViz (visualização de dados) podem ser um grande aliado na introdução dos dados ao cotidiano das pessoas. Essas ferramentas são o primeiro contato das equipes com a aplicação de dados a problemas de negócio (depois do Excel!) e estão por toda parte nas empresas. Uma boa ferramenta de DataViz pode ser a garota propaganda do dado.

O DataViz, por definição, busca simplificar o insight e tornar intuitiva a interação com o dado. A evolução das ferramentas de DataViz são as plataformas de Analytics e, em especial, as que suportam Augmented Analytics. Essas ferramentas oferecem uma combinação de assistentes virtuais, linguagem natural e AutoML, entre outros facilitadores. Quando combinadas, essas funcionalidades reduzem drasticamente o nível de conhecimento necessário para o bom uso da ferramenta pelas equipes de negócio e permitem que leigos realizem análises complexas.

Conclusão

Nós, profissionais de dados, temos a missão de democratizar o acesso ao dado em nossas organizações. Como em qualquer transformação organizacional, esse processo exigirá muito esforço, e nem todos conseguirão terminar a jornada. Para aumentar a chance de sucesso, podemos aproveitar o conhecimento coletivo que estamos acumulando como comunidade. Alguns pontos importantes:

  • Dados são meio, não fim. O fim é o objetivo do negócio;
  • Sem governança, não há democratização de dados;
  • Automação é essencial para reduzir o custo das soluções de dados;
  • Simplicidade primeiro, data literacy sob medida depois.

A Qlik Cloud toca todos os pontos acima mencionados. Temos uma plataforma aberta que cobre da integração ao analytics. Do lado da gestão de dados, somos capazes de automatizar a construção de data lakes e data warehouses, bem como governar seu patrimônio de dados, independentemente dos seus fornecedores de storage, compute e analytics. Do lado do analytics, levamos suas equipes do insight à ação, lançando mão de automações e AutoML.

Nenhum comentário