ESTUDOS ANALÍTICOS DO BIG DATA Ganhe vantagem competitiva a partir da combinação de big data e lógica avançada Perspectiva da EMC ÍNDICE De volta ao futuro: o advento do big data 1 EXPLORANDO A OPORTUNIDADE DE NEGÓCIOS DOS “ESTUDOS ANALÍTICOS DO BIG DATA” 1 Ponto 1: PROGRAMA DE COMPUTAÇÃO ÁGIL 2 HABILITAR O DATA WAREHOUSING “ÁGIL” 2 DATA WAREHOUSING E ESTUDOS ANALÍTICOS INTEGRADOS 2 Ponto 2: CAPACIDADE DE EXPANSÃO LINEAR 3 TRANSFORMAR ETL EM APRIMORAMENTO DE DADOS 3 DAR SUPORTE A CONSULTAS VARIÁVEIS EXTREMAS E CARGAS DE TRABALHO DE ESTUDOS ANALÍTICOS 3 ANALISAR CONJUNTOS DE DADOS GRANULARES E EM GRANDE ESCALA (BIG DATA) 4 HABILITAR ACESSO A DADOS DE BAIXA LATÊNCIA E TOMADA DE DECISÕES 4 Ponto 3: EXPERIÊNCIA DE USUÁRIO COLABORATIVA, ONIPRESENTE E GENERALIZADA 5 HABILITAR UMA EXPERIÊNCIA DE USUÁRIO INTUITIVA E GENERALIZADA 5 EXPLORAR A NATUREZA COLABORATIVA 5 HABILITAR NOVOS APLICATIVOS DE NEGÓCIOS 5 APLICATIVOS BASEADOS EM ATRIBUIÇÕES 5 APLICATIVOS BASEADOS EM RECOMENDAÇÕES 6 APLICATIVOS PREDITIVOS/BASEADOS EM ESTIMATIVAS 6 APLICATIVOS BASEADOS EM PERCEPÇÃO 7 APLICATIVOS BASEADOS EM BENCHMARK 7 CONSIDERAÇÕES FINAIS 8 SOBRE O AUTOR 8 DE VOLTA AO FUTURO: O ADVENTO DO BIG DATA Ao longo dos anos 70 e no início dos anos 80, fabricantes e revendedores de CPG (Consumer Package Goods, bens de consumo embalados) administravam seus negócios usando relatórios de mercado bimestrais da AC Nielsen. Esses relatórios apresentavam dados da concorrência e do mercado (por exemplo, receita, unidades vendidas, preço médio e participação no mercado) que os fabricantes de CPG usavam para definir planos, estratégias de vendas, marketing, promoção e publicidade e gastos com seus parceiros (por exemplo, distribuidores, atacadistas e revendedores). Então, nos meados dos anos 80, a IRI (Information Resources Inc.) ofereceu-se para instalar scanners gratuitos de POS (Point-of-sale, ponto de venda – conhecido no Brasil como PDV), em locais de revenda em troca dos dados residuais do scanner. Os revendedores ficaram mais do que satisfeitos em fazer essa troca, já que a mão de obra era seu maior componente de custo e a compreensão do valor dos dados do scanner de POS era limitada. Esses dados do scanner de POS, considerados “big data” naquela época, causaram uma mudança estratégica e industrial no poder (entre os fabricantes e os revendedores) e na maneira de ambos conduzirem seus negócios. Os volumes de dados aumentaram de megabytes para terabytes, o que exigiu uma nova geração de plataformas de armazenamento e de servidores (por exemplo, Teradata, Red Brick, Sybase IQ, Sun e Sequent) e de ferramentas de lógica (por exemplo, Metaphor, Business Objects, Informatica e MicroStrategy). Novas categorias de aplicativos de negócios baseados em estudos analíticos: • Previsão baseada em demanda •Otimização da cadeia de fornecimento •Eficácia dos gastos no comércio •Análise das estatísticas do mercado •Gerenciamento e comercialização da categoria •Otimização de preços/rendimento •Gerenciamento de redução de comercialização • Programas de fidelidade de cliente Empresas líderes, como Wal-Mart, Procter & Gamble, Tesco e Frito Lay, exploraram esse novo “big data” e as novas plataformas e ferramentas de estudos analíticos para obter vantagem competitiva. Essas empresas estavam na vanguarda do desenvolvimento de novas categorias de aplicativos de negócios orientados por lógica e big data para lidar com problemas de negócios que não podiam ser resolvidos anteriormente de forma econômica (consulte o gráfico à esquerda). Trinta anos depois, surge mais um déjà vu. Há uma explosão de novas fontes de dados diversos, com baixa latência e alta granularidade (“big data”), que têm a possibilidade de mudar o funcionamento das organizações e dos setores. Essas novas fontes de dados são originadas de um grupo de dispositivos, de interações do cliente e de atividades de negócios que revelam novas percepções nas cadeias de valores organizacionais e do setor. O advento dessas novas fontes de dados mais detalhadas possibilitará que as organizações lidem com oportunidades de negócios que antes não eram possíveis e levará à criação de novas famílias de aplicativos de negócios. No entanto, para que isso aconteça, devem surgir novas plataformas (infraestrutura) e novas ferramentas (estudos analíticos). Este white paper descreverá a função que essas novas plataformas poderão desempenhar e discutirá os tipos de aplicativos de negócios orientados por lógica e de exploração de big data que poderão surgir. EXPLORANDO A OPORTUNIDADE DE NEGÓCIOS DOS “ESTUDOS ANALÍTICOS DO BIG DATA” O big data requer uma nova plataforma de estudos analíticos a partir da qual tanto os negócios quanto a tecnologia possam obter vantagem competitiva. Isso requer uma nova infraestrutura de tecnologia que (a) seja altamente dimensionável para petabytes de dados, (b) dê suporte a acesso aos dados com baixa latência e à tomada de decisões e (c) tenha lógica integrada para acelerar os processos de modelagem e operacionalização de lógica avançada. A possibilidade de apresentar novas escalas de capacidade de processamento para dar suporte a grandes conjuntos de dados permite a identificação contínua de percepções acionáveis inerentes ao big data e proporciona a integração perfeita dessas percepções acionáveis ao ambiente de trabalho do usuário, onde quer que ele esteja. Essa nova plataforma de estudos analíticos pode liberar as organizações das maneiras antigas de emitir relatórios retrospectivos fornecendo estudos analíticos modernos e preditivos para as massas e aprimorando o processo de tomada de decisões em todos os níveis da organização. 1 PONTO 1: PLATAFORMA DE COMPUTAÇÃO ÁGIL A agilidade é proporcionada por data warehousing altamente flexível e reconfigurável e por arquiteturas de estudos analíticos. Os recursos de estudos analíticos podem ser rapidamente reconfigurados e reimplementados para atender às demandas dinâmicas dos negócios, possibilitando novos níveis de flexibilidade e agilidade nos estudos analíticos. Habilitar o data warehousing “ágil” A nova plataforma de estudos analíticos proporciona o desenvolvimento de data warehouses sem as restrições encontradas nos ambientes de TI dos dias de hoje. Hoje, as organizações são obrigadas a usar técnicas de projeto artificiais e ferramentas rudimentares de emissão de relatórios para extrair percepções de enormes e crescentes fontes de dados usando tecnologias obsoletas de banco de dados. Conforme esses volumes de dados continuam crescendo e novas fontes de dados são disponibilizadas on-line, as organizações descobrem que as arquiteturas, ferramentas e soluções de hoje são muito caras, muito lentas e muito rígidas para dar suporte a suas iniciativas estratégicas de negócios. Considere o impacto das agregações de pré-criação. As agregações1 são normalmente usadas para superar a capacidade de processamento limitada dos tradicionais RDBMS (Relational Database Management Systems, sistemas de gerenciamento de bancos de dados relacionais) ao lidar com junções de várias tabelas e digitalizações de tabelas em grande escala. Um DBA (Database Administrator, administrador de banco de dados) calcula previamente as agregações mais comuns durante a preparação dos dados para acelerar o desempenho específico e de emissão de relatórios. O volume de dados armazenados nessas tabelas de agregação cresce muito mais do que os próprios dados brutos. Portanto, é necessário muito tempo para criar previamente as agregações contidas nos SLAs (Service-Level Agreements, contratos de nível de serviço). A exploração de “feeds de gotejamento” de dados para fornecer “relatórios operacionais em tempo real” é um sonho devido ao tempo necessário para recriar as tabelas de agregação sempre que novos dados “gotejam” no data warehouse. A eliminação dessas limitações proporciona um ambiente ágil de data warehouse que é tão flexível e responsivo quanto os negócios que ele atende explorando os seguintes recursos: •Agregação sob demanda: não há necessidade de criar previamente as agregações para fornecer tempo de resposta mais rápido a consultas e relatórios. Há a possibilidade de criar agregações em tempo real, eliminando a necessidade desgastante de recriar constantemente agregações toda vez que novos dados gotejam (são enviados) no data warehouse. •Independência de indexação: os DBAs podem eliminar a necessidade de uma indexação rígida. Os DBAs não precisarão saber com antecedência as perguntas dos usuários para poderem criar todos os índices de suporte. Os usuários podem fazer perguntas detalhadas de negócios do próximo nível sem a preocupação com problemas de desempenho. •Criação dinâmica do KPI (Key Performance Indicator, principal indicador de desempenho): os usuários corporativos podem definir, criar e testar novos KPIs derivados (e compostos) sem precisar envolver os DBAs para calculá-los previamente. •Estruturas flexíveis, específicas e hierárquicas: as hierarquias dimensionais não precisam ser predefinidas na criação do data warehouse. Por exemplo, durante uma análise de inteligência do mercado, as organizações poderiam ter flexibilidade para alterar as empresas com as quais estiverem sendo comparadas. DATA WAREHOUSE E ESTUDOS ANALÍTICOS INTEGRADOS Tradicionalmente, o data warehouse e os estudos analíticos residem em ambientes diferentes. A transferência de dados do data warehouse para o ambiente de estudos analíticos tem exigido um processo de ETL separado em que os dados são selecionados, filtrados, agregados, pré-processados, reformatados e, em seguida, transportados para o ambiente de estudos analíticos. No ambiente de estudos analíticos, os analistas de dados iniciam a criação, os testes e o refinamento dos modelos e dos algoritmos analíticos. Se, durante esse processo, os analistas de dados chegarem à conclusão de que precisam de mais dados granulares e/ou dados diferentes, eles precisarão repetir todo o processo de ETL do data warehouse. Isso pode acrescentar dias, talvez semanas, ao processo de estudos analíticos. 1 Agregações são resumos hierárquicos ou dimensionais pré-calculados dos fatos (medidas), geralmente definidas pela cláusula SQL “Group By”. Por exemplo, na dimensão geográfica, alguém pode criar agregações para todos os fatos (por exemplo, vendas, receita, dólares de margem, porcentagem de margem e retornos) por país, região, estado, cidade, município e código postal. 2 Um ambiente de data warehouse e estudos analíticos único e integrado (com estudos analíticos no banco de dados) significa que os analistas de dados não precisam sair do data warehouse para realizar os estudos analíticos. Conjuntos de dados em grande escala podem ser transferidos entre os ambientes de data warehouse e estudos analíticos a taxas de transferência muito velozes (de 5 TB a 10 TB/hora). Isso acelera consideravelmente o processo de análise e facilita a integração dos resultados dos estudos analíticos de volta ao ambiente de data warehouse e business intelligence. Por exemplo, um ambiente integrado de data warehouse e estudos analíticos dá suporte aos seguintes tipos de análise: •Subsegmentar e transferir conjuntos de dados em grande escala entre o ambiente de data warehouse e o ambiente de estudos analíticos para possibilitar a criação de “áreas de segurança de estudos analíticos” para exploração e detecção analíticas. •Examinar conjuntos de dados em grande escala no nível mais baixo de granularidade para indicar comportamentos, tendências e atividades fora do comum para criar percepções acionáveis com recomendações correspondentes. •Acelerar o desenvolvimento e os testes de diferentes cenários de negócios para facilitar análises do tipo “e se”, análises de sensibilidade e de risco. Esses tipos de benefícios seriam inestimáveis se integrados às tarefas diárias. Basta perguntar a um gerenciador de distribuição que deseja que o sistema indique possíveis problemas de desempenho do fornecedor em relação a serviços com menor qualidade, conforme medido por entregas pontuais e a porcentagem de entregas completas. PONTO 2: CAPACIDADE DE EXPANSÃO LINEAR O acesso a enormes volumes de capacidade de computação significa que os problemas dos negócios podem ser abordados de maneira totalmente diferente. Vejamos alguns exemplos em que o dimensionamento computacional em grande escala pode causar impacto nos negócios. TRANSFORMAR ETL EM APRIMORAMENTO DE DADOS O ETL concentra-se na correção de erros causados pelos sistemas de origem; extração, tradução, limpeza, definição de perfis, normalização e alinhamento de todos os dados para garantir que os usuários estejam fazendo comparações adequadas em suas análises. Com a capacidade de processamento disponível para ETL (além de aproveitar a disponibilidade de novas linguagens computacionais, como Hadoop), o processo de ETL tradicional pode ser transformado em um processo de aprimoramento de dados. Medidas novas e criteriosas podem ser criadas, inclusive: •Sequenciamento ou organização de atividades — identificação da sequência de atividades que ocorreram antes de um evento específico. Por exemplo, identificar que alguém normalmente liga duas vezes para o call center depois de buscar por opções de suporte no site antes de obter a resolução bem-sucedida do problema. •Contagens de frequência — contagem da frequência com que determinado evento ocorre durante um período especificado. Por exemplo, a identificação de produtos com x chamadas de serviço durante os primeiros 90 dias de uso. •N quantis — agrupamento de itens (por exemplo, produtos, eventos, clientes e parceiros) em buckets baseados em uma medida específica ou em um conjunto de medidas. Por exemplo, controlar o primeiro tercil (os principais 10%) dos clientes com base na receita ou em uma margem durante um período contínuo de três meses. •Grupo comportamental — criação de uma “cesta” de atividades, inclusive frequência e organização, que precede uma venda ou um evento de “conversão”, de forma a identificar as combinações mais eficazes e lucrativas dos tratamentos de mercado. Dar suporte a consultas variáveis extremas e cargas de trabalho de estudos analíticos É muito difícil saber com antecedência os tipos de consultas e estudos analíticos que a empresa pode querer executar com base no ambiente de negócios mais atual. Os preços ou as ações promocionais de um concorrente podem exigir uma análise repentina para melhor compreensão do impacto financeiro e dos negócios em sua empresa. Os estudos analíticos mais interessantes envolvem cargas de trabalho extremamente variáveis e, a princípio, difíceis de ser previstas. 3 Antes, as organizações tinham de contentar-se com uma análise superficial “pós-fato” e não tinham a capacidade de computação para “mergulhar” nas análises enquanto os eventos ocorriam ou para contemplar todas as variáveis e permutações diferentes que pudessem estar conduzindo os negócios. Com as novas plataformas, essas necessidades analíticas repentinas e de grande uso computacional podem ser favorecidas. Esse recurso manifesta-se das seguintes maneiras para os usuários corporativos: •Desempenho e dimensionamento — agilidade para “aprofundar-se” nos dados e fazer as perguntas de segundo e terceiro níveis necessárias para respaldar a tomada de decisões. Se os usuários corporativos quiserem observar todos os detalhes dos dados para saber quais variáveis estão conduzindo os negócios, eles não precisam preocupar-se em parar o sistema com a análise de dados demais. •Agilidade — suporte à rapidez no desenvolvimento, nos testes e no refinamento de modelos analíticos que ajudam a prever o desempenho dos negócios. Os analistas de dados estão livres para explorar as diferentes variáveis que podem estar conduzindo o desempenho dos negócios, aprender com os resultados e encaixar essas descobertas na próxima iteração do modelo. Eles também podem falhar rapidamente em sua análise sem se preocupar com as ramificações de desempenho do sistema de suas análises. ANALISAR CONJUNTOS DE DADOS GRANULARES E EM GRANDE ESCALA (BIG DATA) Uma das vantagens mais significativas da nuvem é o volume e o nível dos dados detalhados que podem ser colocados em uso em análises e modelagens de geradores de negócios. Além de oferecer a possibilidade de obter uma capacidade de processamento mais eficiente sob demanda, a nuvem fornece recursos mais eficientes e econômicos de armazenamento de dados. Em vez de forçar os negócios a se adaptarem aos dados, eles são livres para expandir suas análises aproveitando todos os aspectos dos dados, das seguintes maneiras: •A capacidade de executar o máximo possível de análises de múltiplas dimensões. Os negócios não ficam restritos a contemplar apenas três ou quatro dimensões, mas podem abranger centenas, ou milhares, de dimensões para ajustar e localizar o desempenho dos negócios. Com esse nível de análise de múltiplas dimensões, as empresas podem localizar os geradores de negócios de acordo com a região específica (por exemplo, cidade ou CEP), com o produto (por exemplo, unidade de produto ou nível de UPC), com o fabricante, a promoção, o preço, a hora do dia, o dia da semana etc. Com esse nível de granularidade, o desempenho dos negócios locais pode ser drasticamente aprimorado. •Encontre “pequenos” diamantes suficientes no volume de dados para fazer uma diferença substancial nos negócios. A plataforma lida com dois desafios importantes de lógica aplicada: o primeiro é encontrar os geradores de negócios no nível local ou específico e o segundo é localizar geradores de negócios suficientes que possam fazer uma diferença substancial nos negócios. HABILITAR ACESSO A DADOS DE BAIXA LATÊNCIA E TOMADA DE DECISÕES Como os dados não precisam passar por uma fase intensiva de preparação de dados (com relação à pré-criação de agregações e ao cálculo prévio de medidas derivadas), a latência entre o momento em que os dados são gerados e o momento em que ficam disponíveis para os negócios é significativamente reduzida. A capacidade de reduzir o tempo entre o evento de dados e a disponibilidade de dados significa que o conceito de lógica operacional é uma realidade das seguintes maneiras: •Exploração de feeds de dados contínuos (feeds de gotejamento) para fornecer lógica e relatórios operacional de baixa latência. O tempo entre um evento de negócios (como uma transação financeira) e a decisão de comprar ou vender é reduzido drasticamente. Podemos ver claramente o impacto dessa tomada de decisões de baixa latência no aumento do comércio algorítmico de Wall Street3. •O acesso a dados de baixa latência possibilita tomadas de decisões pontuais e em trânsito. Por exemplo, os gerenciadores de campanhas podem realocar orçamentos on-line da campanha entre locais de melhor desempenho e/ou melhor conversão e combinações de palavras-chave, enquanto a campanha está em trânsito. 4 PONTO 3: EXPERIÊNCIA DE USUÁRIO COLABORATIVA, ONIPRESENTE E GENERALIZADA Os usuários corporativos não querem mais dados, gráficos e opções de emissão de relatórios, independentemente da maneira sofisticada de serem apresentados. Eles querem uma solução que aproveite os estudos analíticos para identificar e oferecer percepções importantes e acionáveis sobre seus negócios. HABILITAR UMA EXPERIÊNCIA DE USUÁRIO INTUITIVA E GENERALIZADA O agrupamento de dados detalhados com capacidade analítica em grande escala oferece um benefício interessante: interfaces mais simples e intuitivas. Como isso é possível? Pense no relacionamento entre o iPod e o iTunes. A interface minimalista do iPod é uma das razões para o sucesso com os clientes (e a fatia dominante no mercado). A Apple transferiu grande parte da complexidade do usuário (por exemplo, gerenciamento de listas de reprodução, adição de novas músicas e geração de recomendações usando o recurso Genius) do iPod para o iTunes, onde ela pode ser mais bem gerenciada. Podemos aplicar esse mesmo conceito para aprimorar a experiência do usuário de estudos analíticos. •A experiência do usuário pode potencializar a lógica para realizar mais tarefas complexas de análise de dados em segundo plano. Em vez de apresentar uma complexidade cada vez mais crescente de relatórios, gráficos e planilhas, a interface pode tornar-se mais intuitiva e oferecer aos usuários as percepções de que precisam saber sobre os negócios. •Com base nas percepções apresentadas pelos dados, a experiência do usuário pode começar com ações específicas recomendadas (como o recurso Genius do iTunes). A complexidade de identificar recomendações relevantes e acionáveis torna-se responsabilidade dos estudos analíticos. Por exemplo, imagine a interface do gerenciador de uma campanha que reduza as diversas variáveis que causam impacto no desempenho da campanha a apenas aquelas que sejam importantes e acionáveis. Imagine que a interface do usuário não só apresente essas variáveis, como também recomendações para melhorar o desempenho da campanha em trânsito. Essa sim é uma experiência que a maioria dos usuários gostaria de ter. EXPLORAR A NATUREZA COLABORATIVA A colaboração faz parte, naturalmente, dos processos de análise e tomada de decisões. Pequenas comunidades de usuários afins podem ser formadas rapidamente para compartilhar aprendizados sobre áreas de assuntos específicos. Por exemplo, seria muito útil para todos os gerentes de marca em uma grande empresa de bens de consumo embalados criar uma comunidade em que os dados, as informações e as percepções sobre o gerenciamento de marca pudessem ser facilmente compartilhados e discutidos. As campanhas de marketing em vigor para uma marca podem ser copiadas e expandidas por outras marcas mais rapidamente por meio do compartilhamento de dados e análises resultantes. HABILITAR NOVOS APLICATIVOS DE NEGÓCIOS Uma maneira de avaliar o potencial dessa nova plataforma de “estudos analíticos” é perguntar: que tipos de problemas de negócios ela (com sua capacidade de processamento sob demanda, com conjuntos de dados de alta granularidade, acesso a dados de baixa latência e estreita integração entre lógica e data warehouse) permite que a empresa resolva o que não conseguiu resolver antes? Vejamos alguns aplicativos de negócios que os estudos analíticos podem habilitar nessas novas plataformas, principalmente quando em conjunto com o big data. 2 Nos mercados eletrônicos financeiros, comércio algorítmico é o uso de programas de computação para inserir pedidos de comercialização, em que o algoritmo do computador decide sobre os aspectos do pedido, como agendamento, preço ou quantidade do pedido ou, em muitos casos, dá início ao pedido sem intervenção humana. 5 APLICATIVOS BASEADOS EM ATRIBUIÇÕES Os aplicativos de atribuição tentam atribuir “crédito” de um evento específico a uma série de atividades ou transações em um processo complexo de várias fases. Esses aplicativos precisam recuperar, alinhar e analisar a série de atividades, levando em consideração fatores como frequência, sequenciamento, novidades, limites e diminuição de tempo entre as atividades, a fim de agregar valor para cada atividade. Entre os exemplos de aplicativos de atribuição estão: •Aplicativos com eficácia em marketing de vários canais, em que comerciantes tentam atribuir o crédito de uma venda em vários canais de marketing. Isso é especialmente pertinente para comerciantes on-line que tentam atribuir crédito para uma conversão em múltiplos anúncios, sites e pesquisas de palavra-chave. •Aplicativos de atribuição de parceiros em que as organizações de vendas tentam analisar as contribuições dos parceiros em transações de negócios complexas e de várias fases. •Aplicativos de atribuição de tratamento médico em que organizações de saúde tentam atribuir o impacto de tratamentos e medicações diferentes que apresentaram algum resultado. APLICATIVOS BASEADOS EM RECOMENDAÇÕES Os aplicativos de recomendação identificam e criam conjuntos de usuários ou produtos idênticos ou semelhantes baseados em comportamentos, faixa demográfica ou alguns outros atributos reconhecíveis. Os aplicativos analisam as transações desses conjuntos para criar tendências que analisem a força dos relacionamentos entre os usuários e seus comportamentos e suas preferências. A partir dessas tendências, os aplicativos podem fazer recomendações de produtos (por exemplo, Amazon e Netflix) ou pessoas (por exemplo, LinkedIn e Facebook). Entre os exemplos de aplicativos de recomendação estão: •Aplicativos de direcionamento de anúncios para clientes que recomendam segmentos de público-alvo idêntico ou semelhante baseados em comportamentos e no histórico de compras de produtos (por exemplo, campanhas bem-sucedidas destinadas a “Supermães” têm alta probabilidade de também obter êxito ao se direcionarem a “Novas vovós”). •Aplicativos de recomendação de produtos que recomendam produtos complementares com base no que usuários semelhantes compraram em determinado período (por exemplo, os clientes que compraram uma casa nova em determinados locais têm mais probabilidade de adquirir uma nova máquina de lavar roupas e uma secadora três meses após a compra do imóvel). APLICATIVOS PREDITIVOS/BASEADOS EM ESTIMATIVAS Os aplicativos preditivos e de estimativas usam uma ampla gama de variáveis, medidas e dimensões para facilitar a tomada de decisões em diferentes cenários de mercado. Esses aplicativos aproveitam técnicas de estatística e de data mining para refinar uma diversidade de variáveis a fim de identificar essas variáveis, bem como a combinação de variáveis, que são as melhores possíveis para prever o desempenho em determinadas situações. Considerando a linha do tempo de algumas dessas decisões (como a precificação), o acesso de baixa latência aos dados e o in-database analytics são fundamentais para o sucesso. Os aplicativos preditivos avançados criam avaliações de sensibilidade e risco para que o responsável pela tomada de decisões possa entender quais variáveis são mais importantes na tomada de decisões. Por exemplo, se determinada variável é considerada importante para uma tomada de decisões, então esforços extras podem ser feitos para garantir a precisão e a abrangência dessa variável. Entre os exemplos de aplicativos preditivos/de estimativa estão: •Aplicativos de rotatividade de clientes que preveem a probabilidade de redução de clientes com base em fatores tais como atividades de uso, solicitações de suporte, padrões de pagamento e impacto social de amigos. •Aplicativos de manutenção de produtos que preveem falhas de equipamento com base nas informações de uso do produto (principalmente informações que, agora, são especificadas por dispositivos de dados incorporados), registros de serviços de manutenção e histórico geral de desempenho do produto. •Aplicativos de desempenho do funcionário que preveem um possível desempenho do funcionário com base em fatores, tais como grau de instrução, posição socioeconômica, histórico de empregos anteriores, estado civil e determinadas respostas psicocomportamentais. 6 •Aplicativos de desempenho de estudos clínicos que apresentam diferentes resultados de medicamentos com base em estudos para que uma empresa possa entender a eficácia de determinados tratamentos e evitar problemas catastróficos quando medicamentos são usados em determinadas combinações. Isso passa a ser ainda mais importante ao tentar atribuir resultados em vários tratamentos e medicamentos (consulte os aplicativos de atribuição). •Aplicativos de gerenciamento de produção, de gerenciamento de redução da comercialização e de otimização de preços que criam modelos temporais para ajudar o responsável pela tomada de decisões a compreender quando e quanto aumentar ou reduzir os preços com base nas condições atuais de demanda e oferta. Esses tipos de aplicativos são mais comuns em produtos de consumo (por exemplo, produtos perecíveis, passagens de avião, quartos de hotel, roupas de marca e ingressos para eventos esportivos) com valor que chega a zero em determinado ponto no tempo. APLICATIVOS BASEADOS EM PERCEPÇÃO Os aplicativos de percepção usam técnicas de estatística e de data mining para identificar comportamentos ou situações incomuns. Aplicativos de percepção avançados têm a capacidade de executar análises complexas em centenas ou milhares de dimensões de negócios. Esses aplicativos estão se tornando mais importantes conforme o volume de detalhes dos dados aumenta com as fontes de dados, como cliques na Web, sensores RFID e dispositivos em rede. Entre os exemplos de aplicativos de percepção estão: •Aplicativos de distribuição e redução de produtos que monitoram constantemente os sensores e dados RFID para identificar discrepâncias entre o local em que o produto deve estar e onde ele realmente se encontra. •Aplicativos antifraude que monitoram transações financeiras constantemente para detectar comportamentos “incomuns” que possam indicar atividades fraudulentas. Esses tipos de aplicativos estão sendo aplicados em cartões de crédito, contas correntes e reivindicações de seguro, inclusive de tratamentos médicos. •Aplicativos de lavagem de dinheiro que monitoram constantemente o fluxo de dinheiro para identificar comportamentos “incomuns” que possam indicar lavagem de dinheiro, como um número estranhamente alto de transações sequenciais, pequenas e apenas em dinheiro. APLICATIVOS BASEADOS EM BENCHMARK Os aplicativos de benchmark aproveitam os estudos analíticos que comparam o desempenho de uma entidade com alguma linha de base. A linha de base de comparação pode ser um padrão do setor, um período ou evento anterior (por exemplo, uma campanha de marketing). Entre os exemplos de aplicativos de benchmark estão: •Aplicativos de participação no mercado que especificam informações de participação no mercado e cota do mercado. Por exemplo, grandes empresas de sites podem fornecer dados e análises de cota de mercado que ajudam os anunciantes e as agências a compreender seus gastos de marketing em comparação com os de seus concorrentes. •Aplicativos de benchmark da concorrência que comparam o desempenho de uma empresa com uma grupo de concorrentes ou uma média do setor. Isso fornece uma linha de base que as empresas podem usar para comparar seu desempenho financeiro ou de mercado. •Aplicativos de benchmark de campanhas que comparam o desempenho de uma campanha de marketing atual com uma campanha ou um evento de marketing anterior e/ou semelhante. Por exemplo, uma empresa pode querer comparar o desempenho de sua campanha atual do feriado de Independência com a maneira como a mesma campanha foi realizada no ano passado. Os usuários podem querer rastrear a porcentagem do total de vendas até o momento da campanha para cada dia da campanha e comparar diariamente os níveis máximo e mínimo de determinadas áreas geográficas e determinados produtos. 7 ESTUDO DE CASO: HAVAS DIGITAL O PODER DOS ESTUDOS ANALÍTICOS INTEGRADOS PARA IMPULSIONAR A MODELAGEM COMPLEXA DE ATRIBUIÇÕES CONSIDERAÇÕES FINAIS Essas plataformas novas e altamente dimensionáveis trazem recursos revolucionários para o mundo dos estudos analíticos. Quais as vantagens em relação às atuais plataformas de data warehouse e estudos analíticos? A Havas Digital e a Divisão de produtos de computação de dados da EMC estão trabalhando em conjunto para aprimorar o Artemis Analytics Lab — uma iniciativa de pesquisa e desenvolvimento que abrange estudos analíticos de big data em grande escala na nuvem privada. Essa iniciativa aumenta muito a compreensão dos clientes da Havas Digital sobre o comportamento do usuário e sua capacidade de otimizar as campanhas de marketing adequadamente. •A agilidade de provisionar e reatribuir recursos de computação em grande escala sob demanda, conforme impulsionado pelas prioridades dos negócios. •A capacidade de analisar conjuntos de dados de baixa latência mais granulares e mais diversificados (big data) e, ao mesmo tempo, preservar detalhes e relações nos dados que gerarão as percepções diferenciadas para possibilitar o desempenho otimizado dos negócios. •Colaboração de várias organizações nas principais iniciativas de negócios e na rápida disseminação de práticas recomendadas e descobertas organizacionais. •Superioridade de custos para aproveitar os componentes de processamento de produtos de consumo e analisar o big data para abordar e explorar oportunidades de negócios que não puderam ser abordadas com economia anteriormente (se é que foram abordadas). O Artemis Analytics Lab é uma iniciativa que reúne a expertise da Artemis em marketing orientado por dados e a base de computação de dados do EMC® Greenplum para oferecer mining de estudos analíticos de marketing digital e in-database analytics líderes do setor. A plataforma ideal para os estudos analíticos apresenta capacidade de processamento altamente dimensionável, capacidade de explorar conjuntos de dados de alta granularidade, acesso a dados de baixa latência e estreita integração entre data warehouse e estudos analíticos. Se compreendida e implementada corretamente, ela pode ser usada para resolver difíceis problemas de negócios que não puderam ser resolvidos antes e oferecer percepções importantes e acionáveis aos negócios. “Para muitos profissionais de marketing, informações demográficas simples sobre os usuários já não são suficientes”, diz Katrin Ribant, Vice-presidente sênior da Artemis. “Nossos clientes querem compreender os aspectos do comportamento dos usuários, que só podem ser conhecidos com o tempo, e chegar a conclusões que se escondem atrás de simples listas de transações. Usando os estudos analíticos avançados, o EMC Greenplum® oferece recursos de lógica integrados diretamente ao banco de dados executando-os em grandes conjuntos de dados, o que nos permite gerar percepções novas e avançadas sobre o comportamento dos usuários e ajuda os profissionais de marketing a prever como os usuários responderão a novas campanhas”. Sobre o autor Bill Schmarzo, líder em Competência global da EMC Consulting, tem mais de duas décadas de experiência em data warehousing, Business Intelligence e aplicativos analíticos. Bill é autor da metodologia Business Benefits Analysis (Análise de benefícios de negócios), que vincula as iniciativas estratégicas de negócios de uma organização a seus requisitos de estudos analíticos e de suporte a dados, além de ser coautor, com Ralph Kimball, de uma série de artigos sobre aplicativos de estudos analíticos. Bill trabalhou no The Data Warehouse Institute como responsável pelo currículo de aplicativos de estudos analíticos. Um importante fator de diferenciação do sistema Artemis é seu mecanismo único e moderno de atribuição, que calcula com maior precisão a influência relativa da publicidade em eventos de compra. Ao transferir a modelagem e outros cálculos para o banco de dados e usar o EMC Greenplum, a Havas Digital agora é capaz de oferecer aos clientes uma estrutura de lógica de atribuição algorítmica mais próxima do tempo real. EMC2, EMC, Greenplum e o logotipo da EMC são marcas registradas ou comerciais da EMC Corporation nos Estados Unidos e em outros países. Todas as outras marcas comerciais aqui utilizadas pertencem a seus respectivos proprietários. © Copyright 2011 EMC Corporation. Todos os direitos reservados. Publicado no Brasil. 5/11 Perspectiva da EMC H8668.1 EMC Brasil Rua Verbo Divino, 1488 - 04719-002 0800-553622 Na América do Norte 1-866-464-7381 www.EMC2.com.br