bigdataAutor: Cesar Taurion

Recentemente vivenciei uma experiência interessante. Em um evento sobre Big Data surgiu o inevitável questionamento sobre privacidade. Perguntei aos presentes se os desafios de privacidade em tempos de social media e Big Data era preocupação deles. A resposta foi unânime, sim 100% concordavam que era uma preocupação. Aí questionei se as suas empresas tinham alguma função como “Chief Privacy Officer” ou similar e se eles sabiam quanto investiam em privacidade por funcionário ou cliente. Não houve resposta positiva e alguns chegaram dizer que havia muita preocupação sim, mas que sabiam que o que estavam fazendo era insuficiente e nem mesmo tinham ações concretas como um assessment ou processos formais de auditoria para validar se alguma ação que envolvia Big Data ou uso de mídia social feriam aspectos de ética e/ou privacidade. Na verdade, a maioria disse que as suas ações eram intuitivas e pontuais. Alguns poucos realizavam de forma consistente algum treinamento sobre privacidade para os seus funcionários e muito poucos tinham uma política clara do que é privacidade e como responder de forma adequada a eventuais problemas neste assunto. Em resumo, vimos muita preocupação no ar, mas pouca ação concreta.

Indiscutivelmente que hoje geramos quintilhões de dados por dia e, queiramos ou não, estamos sob constante vigilância. Sabemos que nossas ações são monitoradas quando usamos nossos cartões de crédito, quando usamos nossos celulares e smartphones, quando fazemos buscas na Web ou quando acessamos um site. No Rio de Janeiro, por exemplo, estima-se que exista cerca de 700 mil câmeras instaladas nas ruas, prédios, condomínios, bancos, supermercados etc, que de alguma forma gravam nosso dia a dia. O Facebook armazena, em média, cerca de 111 MB de informações sobre seus usuários.

Big Data, social media e algoritmos preditivos abrem um novo campo de discussão sobre privacidade. Toda tecnologia é neutra por si, o uso que fazemos dela é que pode ser positiva ou negativa. Uma empresa pode usar a imensidão de dados que dispõe sobre seus clientes para uma promoção que melhora significativamente a experiência de seus clientes, como um governo com tendências ditatoriais pode usar os dados para controlar a vontade política de sua população.

Assim, nada mais natural que a questão da privacidade permeie muitas discussões sobre Big Data.

Mas, vamos analisar a questão de forma racional. Primeiro, sabemos que nem todos os dados gerados afetam a privacidade pessoal. Sensores que geram dados sobre pressão do óleo em oleodutos não carregam dados que nos afetam como pessoas. Mas, por outro lado, muitas empresas coletam dados sobre nós, mesmo quando não os cedemos voluntariamente. Por exemplo, as companhias telefônicas armazenam muitos dados sobre o uso dos dispositivos pelos seus assinantes e que podem revelar muita coisa. Vejam este video: http://www.ted.com/talks/malte_spitz_your_phone_company_is_watching.html.

Big Data, indiscutivelmente aumenta o risco de brechas na privacidade, mas a questão é se este risco é realmente preocupante ou não. Voltemos às câmeras de vídeo. Nós sabemos que elas estão por aí, mas nos acostumamos com elas. Nós colocamos voluntariamente nossos dados pessoais no Facebook ou expressamos nossa opinião no Twitter. Nós sabemos que o Google usa nossos argumentos de busca e vídeos que vemos no YouTube para nos mostrar uma propaganda que seus algoritmos achem mais adequado aos nossos interesses. Assim, o foco da discussão, no meu entender, é se os conceitos, leis, regras e soluções que governaram a questão da privacidade até hoje ainda valem. Pode ser que se o problema mudou, as soluções que usamos não façam mais sentido.

Os dados, por exemplo, que antes eram usados apenas para cumprir uma função específica, agora sabemos que podem ser usados de inúmeras outras maneiras. Um exemplo pratico: um registro de chamada telefônica era usado apenas para gerar faturamento e eventualmente refinar o posicionamento das estações radio base das operadoras. Agora podem ser usadas para prever mobilidade urbana ou para promoções especificas quando o assinante se aproxima de uma determinada loja conveniada, e assim por diante. É um novo contexto. O uso potencial das informações pessoais ultrapassa em muito o que podemos imaginar hoje. Novas utilizações para os dados coletados hoje deverão ser imaginados no futuro. Os processos atuais de “notice and consent” (aliás, alguém realmente lê os contratos de acesso a serviços da Internet como os ofertados pelas mídias sociais antes de clicar o “accept”?) não valem mais, pois o dado poderá ser usado para algo que nem sabemos que poderia ser usado. Nem as empresas que os coletam hoje.

Em tempos de Big Data temos que repensar certos paradigmas. Um exemplo interessante é o Google Street View. A opção de negar uso de imagem de uma residência obriga o Google a deixar nebulosa a imagem da casa, mas este fato indica a quem navega pelo sistema a suspeitar que ali tem algo importante, por isso está escondido. O efeito é inverso, pois atrai a curiosidade. Anonimização também não é 100% garantido. O paper abaixo mostra que devido à imensa variedade de dados públicos, é praticamente impossível conseguir-se anonimização. Leiam em http://strata.oreilly.com/2011/05/anonymize-data-limits.html.

Em tempos de Big Data nós somos a soma das nossas relações sociais (Facebook e outros) e das nossas interações e transações eletrônicas, por todos os dispositivos que fazem parte do nosso eu. Sim, um smartphone é quase que um órgão do nosso corpo. Algoritmos preditivos também podem causar impactos negativos se forem usados de forma inadequada, como por exemplo, uma empresa de seguro saúde não aceitando determinado cliente pela probabilidade dele desenvolver uma futura doença.

Big Data não é inerentemente mau ou bom. O nosso uso do imenso volume e variedade de dados é que torna a situação boa ou ruim. Algoritmos preditivos podem nos alertar de um princípio de epidemia e nos dar tempo de tomar medidas preventivas. Pode identificar uma pessoa unicamente em um grupo e assim impedir que estereótipos sejam usados para julgar determinada pessoa em um grupo étnico ou religioso. Nos ajuda a tomar decisões mais acertadas correlacionando dados que não imaginávamos que tivessem relacionamentos entre si e com isso pode mudar nossas opiniões, eliminando falsas crenças.

Por outro lado traz riscos de invasão à privacidade. E depender apenas de dados também embute riscos de ignorarmos fatores humanos, como intuição, que os algoritmos não alcançam. Não se pode quantificar e datificar tudo.

Provavelmente teremos que repensar como tratar dados e privacidade nos novos tempos do Big Data. O cientista Alex Pentland, do MIT, propõe o que ele chama de “New deal” de dados, que seriam garantias práticas de que os dados necessários dos produtos públicos estarão disponíveis, mas ao mesmo tempo não afetariam a privacidade. Para ele a chave é tratar os dados pessoais como um bem, onde as pessoas teriam seus direitos assegurados sobre seus próprios dados. Ou seja, independente de quem coletar os dados sobre você, eles lhe pertencerão e você poderá acessá-los quando quiser. Os captadores de dados agiriam como bancos, gerenciando os dados em nome de seus clientes, como os bancos fazem com seu dinheiro. É um ponto de vista bem instigante e creio que vale a pena ser estudado. A certeza que temos é que estamos vivenciando uma sociedade cada vez mais conduzida e gerenciada por dados e os conceitos de privacidade, fluídos com o tempo, começam a ser rediscutidos.

Fonte: CIO