Gerenciamento de TI: Análise de dados

Os grandes volumes de dados estão ajustados para superar os recursos dos negócios modernos para analisar e gerenciar, mas há desafios e oportunidades.

Rob Sobers

O fenômeno dos grandes volumes de dados (big data) gerados pelo homem compreende os petabytes e os exabytes de dados estruturados e não estruturados gerados pelas empresas hoje em dia. A pergunta que permanece sobre o big data é a seguinte: Será esta mais uma corrida em busca de petróleo, com alguns ganhadores e muitos perdedores, ou será algo válido para todos?

O conteúdo gerado pelo home inclui todos os arquivos e e-mails que criamos todos os dias. São apresentações, documentos textuais, planilhas, arquivos de áudio e outros documentos que criamos de hora em hora. São os arquivos que consomem grande parte do espaço de armazenamento digital na maioria das organizações. É preciso guardá-los por determinado tempo, mas eles têm associados a si enormes quantidades de metadados.

Os conteúdos que as pessoas geram são inúmeros, e seus metadados associados são ainda mais volumosos. Metadados são as informações a respeito de um arquivo: autor e data de criação do arquivo, seu tipo, a pasta em que ele está armazenado, quem pode visualizá-lo e quem pode acessá-lo. Juntos, o conteúdo e os metadados formam o universo de dados gerados pelo home.

Avalanche de dados

O problema é que a maioria das grandes organizações não conta com as ferramentas suficientes para explorar esse volume imenso de dados. Uma pesquisa recente feita com mais de 1.000 especialistas em Internet e outros usuários da rede, publicada pelo Pew Research Center e o Imagining the Internet Center, na Universidade de Elon, constatou que o mundo pode não estar preparado para lidar adequadamente com o big data ou ao menos para entendê-lo.

Esses especialistas chegaram à conclusão de que a imensa quantidade de dados—a que eles se referem como “digital exhaust”—que será criada até 2020 seria capaz de tranquilamente melhorar a produtividade, aperfeiçoar a transparência organizacional e expandir as fronteiras do “futuro conhecível”. Ao mesmo tempo, eles se preocupam com as pessoas que terão acesso a tais informações e se o governo ou as entidades corporativas saberão usá-las adequadamente.

Segundo a pesquisa, “A análise do big data, da perspectiva do homem e da máquina, pode aprimorar a inteligência sociopolítica e econômica até 2020. A conscientização sobre o big data simplificará fatores como a previsão em tempo real de certos acontecimentos, o desenvolvimento de ‘softwares conclusivos’ que avaliem padrões de dados conforme os resultados de um projeto, além da criação de algoritmos para correlações avançadas que possibilitem um novo entendimento do mundo”.

Dos pesquisados, 39 por cento dos especialistas em Internet concordam com o contra-argumento sobre os benefícios do big data. Esse ponto de vista contrário alega que: “A análise do big data, da perspectiva do homem e da máquina, causará mais problemas do que de fato resolverá até 2020. A existência de enormes conjuntos de dados submetidos a análise conceberá a falsa confiança no nosso poder de previsão, levando muitos a cometer erros significativos e prejudiciais. Além disso, a análise de big data será mal interpretada por pessoas e instituições poderosas, com agendas egoístas, acostumadas a manipular descobertas de forma a moldar o caso como bem achar que deve”.

Um dos participantes do estudo foi o empresário Bryan Trogdon. “Big data é o novo petróleo”, sugere ele. “Empresas, instituições governamentais e organizações que conseguirem explorar esse recurso estarão muito à frente dos que não têm essa capacidade. Com rapidez, agilidade e inovação determinando ganhadores e perdedores, o big data nos permite passar da noção de ‘medir duas vezes, cortar uma’ para a de ‘fazer pequenas apostas mais rapidamente’”.

Outro participante da pesquisa, Jeff Jarvis, professor e blogueiro, afirma que: “A imprensa e o os órgãos reguladores estão demonizando o big data e sua suporta ameaça à privacidade. Esse pânico moral foi acometido em razão das mudanças tecnológicas. Mas a moral da história permanece: Há muito valor a ser descoberto nesses dados, ou seja, valor presente na nossa recém-descoberta capacidade de compartilhar.

“Os fundadores do Google imploraram aos órgãos reguladores oficiais para que eles não exigissem a rápida exclusão das buscas, pois, em seus métodos e irregularidades, eles haviam descoberto a capacidade de rastrear a propagação da gripe antes mesmo dos órgãos de saúde e acreditavam que, ao rastrear uma pandemia da mesma forma, milhares de vidas seriam salvas”, continua Jarvis. “Demonizar os dados, estejam eles em grande ou pequena quantidade, é demonizar o conhecimento, o que jamais se deve fazer”

Sean Mead é diretor de análises da Mead, Mead & Clark, Interbrand. “Conjuntos de dados enormes, publicamente disponíveis, ferramentas mais simples, ampla distribuição de competências de análise e softwares de inteligência artificial precoces acarretarão uma explosão das atividades econômicas e ao aumento da produtividade, comparando-se com as revoluções da Internet e dos PCs dos anos 90”, prenuncia Mead. “Terão início os movimentos sociais com a intenção de liberar acesso aos grandes repositórios de dados e restringir o desenvolvimento e o uso da inteligência artificial, depois liberá-la”.

Outras análises

São argumentos interessantes, que começam a ir direto ao ponto. Nossos conjuntos de dados superaram nossa capacidade de analisá-los e processá-los sem automação sofisticada. Precisamos contar com a tecnologia para analisar e controlar essa gigantesca onda de conteúdos e metadados.

Analisar grandes volumes de dados gerados pelo homem impõe um potencial incrível. Além disso, reforçar o poder dos metadados se tornou essencial para o gerenciamento e a proteção dos conteúdos gerados pelo homem. Compartilhamentos, e-mails e intranets facilitaram tanto a vida dos usuários empresariais na hora de salvar e compartilhar arquivos que a maioria das organizações hoje tem mais conteúdos do que realmente consegue gerenciar e proteger com o uso da ideia de small-data.

Muitas empresas estão passando por problemas de não conseguirem mais responder a perguntas sobre conjuntos de dados menores e estáticos que, há 15 anos, eram capazes de responder. Entre os tipos de perguntas, encontramos: Onde residem os dados de importância máxima? Quem tem acesso a eles? Quem precisa ter acesso a eles? Como consequência, a IDC, pesquisadora de mercado, estima que apenas metade desses dados que precisam de proteção esteja realmente em segurança.

O problema se dá pelo compartilhamento de arquivos em nuvem. Esses serviços ainda geram outro armazenamento crescente de conteúdos gerados pelo homem que requerem gerenciamento e proteção. O conteúdo na nuvem reside fora da infraestrutura corporativa, com diferentes controles e processos gerenciais, gerando ainda mais complexidade.

David Weinberger, do Berkman Center da Universidade de Harvard, diz o seguinte: “Estamos apenas começando a entender a série de problemas que o big data é capaz de resolver, embora isso signifique reconhecer que somos criaturas menos imprevisíveis, livres e levianas do que gostaríamos de ser. Se o fortalecimento do poder do grande volume de dados gerado pelo homem puder tornar a proteção e o gerenciamento dos dados menos imprevisíveis, livres e levianos, as organizações agradecerão”.

O conceito de big data gerado pelo homem certamente igualará os desafios e as oportunidades para as empresas nos próximos anos.

Rob Sobers

Rob Sobers* é designer, desenvolvedor Web e estrategista técnico da Varonis Systems. Ele escreve um famoso blog sobre desenvolvimento de softwares e segurança accidentalhacker.com e é coautor do e-book “Learn Ruby the Hard Way” (ruby.learncodethehardway.org, 2011). Há 12 anos atua na indústria de tecnologia e, antes de ingressar na Varonis, Sobers trabalhou com engenharia de software, design e serviços profissionais.*

Conteúdo relacionado