Como o Big Data está mudando a vida diária na América?

Como o Big Data está mudando a vida diária na América?
Como o Big Data está mudando a vida diária na América?

Vídeo: Como as novas tecnologias mudaram o mundo em que vivemos? Origem da quarta revolução industrial 2024, Junho

Vídeo: Como as novas tecnologias mudaram o mundo em que vivemos? Origem da quarta revolução industrial 2024, Junho
Anonim

A idéia de 'big data' tornou-se onipresente, mas o que é e como está mudando a maneira como vivemos? Nos reunimos com a cientista de dados, PhD em Harvard e nomeada para o National Book Award Cathy O'Neil para descobrir.

CT: Vamos começar com o básico - o que exatamente é 'big data'?

CO: Big data é uma nova abordagem para prever coisas. Mais especificamente, 'big data' é o uso de dados coletados incidentalmente - como você pesquisa no seu navegador ou o que faz no Facebook - para inferir coisas sobre você, como o que você vai comprar ou quais são suas afiliações políticas. É uma maneira indireta de descobrir as pessoas. Por exemplo, uma câmera que está nos vigiando não pergunta 'O que você está fazendo?' - basta ver o que estamos fazendo.

CT: E o que é um algoritmo?

CO: Algoritmos são cálculos que [interpretam] os dados coletados sobre você para criar uma previsão. Pense nisso como uma equação matemática que tenta responder a uma pergunta enquadrada como previsão, como: 'Essa pessoa está prestes a comprar alguma coisa?' ou "Essa pessoa está prestes a votar em alguém?"

CT: Por que estou ouvindo muito sobre isso agora?

CO: Antes do 'big data', os estatísticos faziam coisas caras, como pesquisar pessoas para descobrir o futuro. Por exemplo, fazendo perguntas diretas às pessoas como: "Em quem você vai votar?" Agora, confiamos cada vez mais no 'exaustão de dados', que é o que chamo de dados coletados constantemente sobre você, para inferir coisas a seu respeito.

Antes do 'big data', as empresas tinham apenas palpites malucos a fazer. Agora, temos melhores palpites do que loucos. O que é surpreendente é que a maioria dos algoritmos de big data é extremamente imprecisa e não há razão para pensar que eles estão certos. Mas eles são melhores do que suposições malucas. E é por isso que o big data decolou como aconteceu.

CT: Se eles são imprecisos, o que estão refletindo?

CO: Os conjuntos de dados defeituosos que os alimentamos. Os algoritmos não sabem nada além do que dizemos a eles. Então, quando tivermos dados desiguais e forjarmos isso para o algoritmo, ou dados tendenciosos, isso parecerá realidade.

Image

Ailsa Johnson / © Viagem de Cultura

CT: Qual é o exemplo do mundo real disso?

CO: Um exemplo pode ser que, nos Estados Unidos, os negros têm cinco vezes mais chances de serem presos por fumar maconha do que os brancos. Isso não ocorre porque os negros fumam maconha com mais frequência - ambos os grupos fumam maconha na mesma proporção. Os negros são muito mais propensos a serem presos por isso. Se você entregar isso a um algoritmo, o que fazemos, inferiremos corretamente que as pessoas negras têm muito mais probabilidade de serem presas no futuro por serem maconhas. E então dará às pessoas negras pontuações de risco mais altas para criminalidade, o que afeta as sentenças criminais.

Outro exemplo é um experimento mental. Vou usar a Fox News, porque a Fox News teve erupções recentemente relacionadas a uma cultura interna de sexismo. O experimento é 'O que aconteceria se a Fox News tentasse usar seus próprios dados para criar um algoritmo de aprendizado de máquina para contratar pessoas no futuro?'

Digamos que estamos procurando pessoas que obtiveram sucesso na Fox News, por exemplo. Depende de como você definiria o sucesso, mas geralmente você olha para as pessoas que recebem aumentos, promoções ou ficam por um longo tempo. Por qualquer uma dessas medidas, os dados refletiriam que as mulheres não têm sucesso na Fox News. Se usado como algoritmos de contratação, propagaria esse problema. Olharia para um grupo de candidatos e diria 'Não quero contratar nenhuma mulher, porque elas não são bem-sucedidas aqui. Eles não são bons contratados. E não precisa ser apenas a Fox News - toda cultura corporativa tem preconceito. Quando você alimenta os dados de um algoritmo, o viés do algoritmo os propaga. Continua a reforçar os preconceitos que já existem na sociedade.

CT: Os vieses são intencionais?

CO: Não acho que os cientistas de dados estejam tentando criar algoritmos sexistas ou racistas. Mas os algoritmos de aprendizado de máquina são excepcionalmente bons em captar padrões relativamente diferenciados e depois propagá-los. Não é algo que os cientistas de dados estejam fazendo intencionalmente, mas é um viés.

CT: Que papel os algoritmos imprecisos desempenham em nossas vidas diárias?

CO: Eles estão sendo usados ​​em todos os tipos de decisões para a vida das pessoas - desde admissões na faculdade até conseguir um emprego.

Existem algoritmos que decidem como a polícia policiará os bairros, bem como algoritmos que decidem como os juízes condenarão os réus. Existem algoritmos que decidem quanto você pagará pelo seguro ou que tipo de TAEG [taxa de juros] você recebe no seu cartão de crédito. Existem algoritmos que decidem como você está no seu trabalho, que são usados ​​para determinar aumentos salariais. Existem algoritmos em todas as etapas, desde o nascimento até a morte.

CT: Então, onde isso nos deixa?

CO: Entramos na era do big data e lançamos algoritmos em todos os problemas que temos, assumindo que esses algoritmos devem ser mais justos que os humanos - mas, na verdade, são tão injustos quanto os humanos. Nós temos que fazer melhor.

Clique aqui para ler a segunda parte de nossa entrevista com o Dr. O'Neil. Seu livro, As armas da destruição matemática: como o grande volume de dados aumenta a desigualdade e ameaça a democracia está disponível agora.

Popular por 24 horas