Em uma série de tweets, Daniel Harvey da rede The Dots analisa a cegueira da indústria tecnológica. O palestrante argumenta que o futuro de alguns é a distopia de outros, mas que essa distopia não é feita de robôs assassinos, mas sim de inteligências artificiais enviesadas com preconceitos humanos.

Na semana passada, Daniel Harvey publicou uma longa, mas precisa e necessária, sequência de tweets em seu perfil. Sendo ele head de design de produtos e marca na The Dots, uma rede de criativos freelancers, suas palestras e conteúdos giram em torno da responsabilidade por trás dessas pessoas e sua relação com a tecnologia. Ao participar do evento UX Crunch, Harvey trouxe o tema das distopias como um dos assuntos centrais de sua reflexão acerca da maneira como pensamos (e construímos) o futuro, levando em conta nosso potencial criativo e humano aliado às tecnologias.

O que Harvey discute, no entanto, é especialmente importante para aqueles que trabalham com inovação e futurologia. Dentre esses profissionais, muitos estão associados não apenas a áreas relacionadas ao desenvolvimento tecnológico, mas também comunicação e, em especial, a publicidade. Em um contexto como esse, são frases de efeito e citações inspiracionais que dominam uma lógica de constante estímulo. Para isso, nada melhor do que a frase dita pelo escritor de ficção científica William Gibson, em 2003, durante uma entrevista para o The Economist: “O futuro já está aqui, só não está igualmente distribuído.”

Como levantado por Harley, essa frase normalmente antecede uma apresentação cheia de “fetichismo por tendências”, ignorando totalmente o aspecto subversivo e político da segunda parte da sentença. O que muitos não percebem (ou preferem ignorar para não desmontar seu raciocínio) é que essa frase fala justamente, como aponta Harvey, que o futuro de um é a distopia do outro e, graças à internet, temos a capacidade de alastrar essa distopia para muito mais além — ao ponto de que, quando percebermos, já será tarde demais.

E por que não conseguimos ver isso acontecendo? Porque, como defende Harvey, somos constantemente influenciados (e distraídos) por esse olhar em que o conceito de distopia se transformar em um sinônimo de um futuro em que as máquinas se tornam superinteligentes e, claro, voltam-se contra nós ao melhor estilo Exterminador do Futuro. O que acontece é que esse tipo de narrativa vende no cinema hollywoodiano e, nessa mesma lógica, também aparece no discurso de grandes nomes da tecnologia como Elon Musk. O problema é que esse olhar falacioso atinge imediatamente nossos impulsos mais primitivos de sobrevivência e, por conta disso, acabamos por reverberar e reforçar essas ideias de forma semelhante às fake news.

Cena do filme Exterminador do Futuro

Harvey acredita que essas visões de futuro e argumentos são ridículos. Para explicar sua opinião, ele cita uma frase de Pedro Domingos, professor da Universidade de Washington especialista em machine learning: “As pessoas se preocupam demais se os computadores ficarão muito inteligentes e se poderão dominar o mundo, mas o verdadeiro problema é que eles são muito estúpidos e eles já dominaram o mundo.”

Em outras palavras, o que Harvey levanta com essa citação é que já temos um mundo permeado por computadores, os quais são dotados de uma inteligência artificial que não é verdadeiramente inteligente e que funciona aliada a uma mentalidade de inovação tecnológica cheia de falhas. E esse é o maior perigo que já vivemos hoje. Conforme também reforça Michelle Alexander, advogada pelos direitos civis, “é tentador acreditar que computadores serão neutros e objetivos, mas algoritmos não são nada mais do que opiniões sustentadas por matemática.”

E a questão dos vieses no desenvolvimento de algoritmos foi o que fez com que a Apple não incluísse no seu app de saúde informações sobre saúde feminina relacionadas à menstruação, ou então quando softwares de previsão de crimes acabam reproduzindo preconceitos. O mais aterrorizante, porém, não é pensar que temos uma superinteligência artificial sendo desenvolvida para exterminar a humanidade, mas que nossos cliques em anúncios publicitários na internet têm sido usados para capturar dados que serão usados para construir uma sociedade de vigilância e controle como revela a socióloga Zeynep Tufekci, em uma outra citação trazida por Harvey.

O que essas três citações nos levam a entender é que, sim, já vivemos uma distopia, mas essa não é povoada por robôs que usam o corpo humano como bateria para sobreviver. Na realidade, estamos diante de uma inteligência artificial bastante falha e danosa, porque ela própria já carrega muitos vieses e tem sido usada apenas para gerar lucro para empresas com finalidades e moral duvidosas (senão puramente orientadas pelo lucro).

Para ilustrar isso, Harvey traz o caso de Bobbi Duncan. O exemplo em questão trata como, apesar de Duncan ter customizado suas preferências de privacidade no Facebook, a plataforma deixou escapar que ela havia começado a participar de um grupo de coral queer de sua faculdade. Foi assim que seus pais descobriram sua orientação sexual e, como resposta a isso, Duncan foi deserdada e chegou até mesmo a tentar suicídio. Tudo porque as configurações do grupo no Facebook se sobrepuseram à própria preferência da usuária.

Em 2016, lembra Harvey, também o Facebook se tornou a principal fonte de notícias no Myanmar. A consequência disso foi que, entre agosto e setembro de 2017, o discurso de ódio na plataforma atingiu níveis críticos e, ao mesmo tempo, mais de 6.700 muçulmanos foram assassinados por cidadãos budistas e militares. Tal desdobramento é curioso especialmente se levamos em consideração nosso contexto local: segundo pesquisa realizada pelo Instituto Reuters, o Brasil ainda tem o Facebook como principal fonte de notícias (66%), seguido dos aplicativos de troca de mensagem como Whatsapp, Facebook Messenger, Telegram e Skype, sendo que quase metade dos entrevistados (48%) afirmou usar o Whatsapp para acessar conteúdo jornalístico. Nossa consequência? Os resultados das últimas eleições e as ondas de violência motivadas por questões políticas.

Fora isso, ainda temos diferentes exemplos de metodologias de coleta de dados e vigilância ainda mais obscuras. Harvey cita como a China está usando drones com formato de pomba para vigiar seus cidadãos, enquanto que a Austrália tem a The Capability, uma base de dados que reúne dados biométricos apesar de sistemas semelhantes já terem demonstrando que 92% dos cruzamentos feitos estavam errados. Baltimore também serve como exemplo no tweet de Harvey conforme uma empresa local chamada Persistent Surveillance Systems usa drones para alimentar um sistema de policiamento preditivo.

Protestos contra o assassinato de muçulmanos no Myanmar

São casos como esses que geram o conceito de Stochastic terrorism descrito por Clayton Delery em seu livro Out for Queer Blood. Trata-se do “uso de meios de comunicação em massa e comunicação pública, normalmente contra um indivíduo em particular ou um grupo, o qual incita ou inspira atos de terrorismo que são estatisticamente prováveis, mas acontecem de forma aparentemente aleatória.” Com recursos como o deep fake ficando cada vez mais populares e realistas, o stochastic terrorism fica ainda mais em evidência conforme tais usos tecnológicos podem ir desde a falsificação de um discurso feito por um político ou então o uso indevido da imagem de outras pessoas em sobreposições de conteúdos difamatórios.

Nesse sentido, o próprio autor de ficção científica Aldous Huxley já havia previsto “o desenvolvimento de uma vasta indústria de comunicação em massa, principalmente preocupada nem com o que é verdadeiro ou o que é falso, mas o que é irreal, e mais ou menos totalmente irrelevante. Em uma palavra, eles falharam em levar em conta o apetite quase infinito do homem por distrações.” A citação trazida por Harvey, tão antiga (já que sua morte se deu em 1963), ainda assim se mostra não apenas atual como uma revelação do passado que define aquilo que pouco conseguimos entender no nosso presente permeado pelas fake news e pela pós-verdade.

Mas o que podemos fazer diante disso, seja como consumidores, criadores ou como sociedade? Para Harvey, precisamos consertar isso e não podemos simplesmente nos desconectar e fugir: “Fugir não ajuda a resolver os problemas daqueles que foram deixados para trás e isso negligencia nossa própria responsabilidade nessa bagunça.” Então, como indivíduos, o que podemos fazer é mudar nossa relação com a tecnologia, assim como defendido por movimentos como o Time Well Spent, que sugere táticas como:

1. Autorizar notificações apenas partindo de outras pessoas;
2. Usar o celular em preto e branco para evitar o vício;
3. Ter uma tela inicial apenas com ferramentas;
4. Abrir outros aplicativos digitando seu nome;
5. Comprar um despertador;
6. Cessar de vez o seu hábito ou vício, não gradualmente;

Por outro lado, como trabalhadores, a ação coletiva que poderíamos tomar, segundo Harvey, é se engajar cada vez mais em ativismos. Como exemplo, ele traz a possibilidade de se opor ao sistema de busca que o Google está criando para a China, os contratos militares do Google, ou ainda apoiar decisões como as pessoas que deixaram a Google por conta de abusos sexuais cometidos em ambiente de trabalho, bem como estudantes de Stanford que se posicionaram contra a Salesforce por conta de suas decisões referentes à imigração e controle de fronteiras.

Como eleitores, o que podemos fazer é apoiar leis e regulamentações que dão suporte ao direito humano de privacidade acima de premissas de complexos vigilantes criados por corporações. Alguns exemplos disso são o Regulamento Geral sobre a Proteção de Dados, as ordens anti-vigilância de Oakland e a proposta de um Ato de Proteção de Dados do Consumidor feita pelo senador Ron Wyden.

Como designers e tecnólogos, devemos reforçar ainda mais os termos de serviço de forma mais igualitária e justa, não colocando ninguém acima da lei e ninguém acima desses termos. Além disso, a criação de melhores definições para grupos protegidos e algoritmos mais precisos na detecção de discursos de ódio são algumas das ferramentas para reduzir esse tipo de conteúdo sendo veiculado online. Também os designers e tecnólogos podem melhorar ferramentas de direitos autorais não apenas para gerar receita pelo entretenimento, mas sim para combater deep fakes que colocam em risco a democracia e demais conteúdos danosos a audiências tão susceptíveis como são as crianças.

Deep fakes são algoritmos de inteligência artificial que conseguem substituir o rosto de pessoas em vídeos ou mesmo de criar uma imagem em vídeo possível de ser manipulada para geração de novos conteúdos.

Com esse novo olhar sobre as coisas, Harvey propõe que também pensemos como a publicidade não é a resposta para todas as coisas, mas sim que existem outras maneiras de se remunerar e gerar receita que não dependam de anúncios. Algumas possibilidades são serviços de assinatura ou mesmo comércio feito diretamente com o consumidor, sem intermediários, por exemplo a partir de sites de e-commerce. Como complemento, o blockchain aplicado a marketplaces também vem sendo pensado como uma forma de eliminar intermediários e facilitar esses processos, por exemplo, por meio da tokenização.

Mas, acima de tudo, Harvey termina sua declaração dizendo que nós, meros mortais não pertencentes ao Vale do Silício (mas, muitas vezes, parte do Vale do Silêncio), não vamos resolver os problemas causados por esses empresários do setor tecnológico americano justamente porque eles resolveram faltar com diversidade em seus projetos e empresas. O que nós precisamos, afirma Harvey, é de “uma diversidade e inclusão reais na tecnologia, caso formos consertar qualquer coisa.”

E é exatamente sobre isso que tratamos no evento Roadsec 2017, quando levamos para debate se o futuro é feminino quando, na realidade, estávamos falando de um futuro construído e pensado de forma mais inclusiva e diversa. Afinal, futurólogos ou futuristas não são capazes de prever o futuro, mas sim de ajudar na construção de cenários futuros mais positivos. E para que estes sejam positivos de verdade, é preciso pensar o futuro como um substantivo plural e um conceito complexo: não porque seja difícil, como diria o Bruno Macedo, mas sim porque é cheio de nuances. Se ele não é singular e não está igualmente distribuído, então por que o pensamento e a construção do futuro deveria estar?

compartilhe

leia também

voltar