Seu rosto agora é uma arma de guerra
A Ucrânia está usando a tecnologia de reconhecimento facial da Clearview AI para identificar russos, mortos e vivos, com base em um banco de dados de bilhões de imagens de rostos que raspou da internet sem o consentimento de ninguém.
Quem é o dono do seu rosto? Você pode pensar que sim, mas considere que a Clearview AI, uma empresa americana que vende tecnologia de reconhecimento facial, acumulou um banco de dados de dez bilhões de imagens desde 2020. Até o final do ano, planeja extrair 100 bilhões de imagens faciais de a Internet. É difícil avaliar as alegações da empresa, mas se considerarmos a Clearview AI pelo valor nominal, ela terá dados suficientes para identificar quase todos na Terra e acabar com a privacidade e o anonimato em todos os lugares.
Ao ler essas palavras, seu rosto está ganhando dinheiro para pessoas que você nunca conheceu e que nunca pediram seu consentimento quando tiraram sua impressão facial de seus perfis de mídia social e álbuns de fotos online. Hoje, a tecnologia da Clearview AI é usada por mais de 3.100 agências policiais dos EUA, bem como pelo Serviço Postal dos EUA. Na Ucrânia, está sendo usado como arma de guerra. A empresa ofereceu suas ferramentas gratuitamente ao governo ucraniano, que as está usando para identificar soldados russos mortos e vivos e depois entrar em contato com suas mães.
Seria fácil ignorar isso. Afinal, entregamos voluntariamente nossa privacidade no momento em que começamos a compartilhar fotos online, e milhões de nós continuam a usar sites e aplicativos que não protegem nossos dados, apesar dos avisos de ativistas de privacidade e serviços de segurança ocidentais. Como muitos de nós simpatizamos com a Ucrânia e estamos horrorizados com a brutalidade da Rússia , é tentador ignorar o fato de que a Ucrânia não está usando Clearview AI para identificar ucranianos mortos, o que sugere que estamos testemunhando o uso de tecnologia de reconhecimento facial para guerra psicológica. não identificação. Algumas pessoas ficarão bem com as implicações disso: se as mães russas tiverem que receber fotos perturbadoras de seus filhos mortos, que assim seja.
Para entender por que podemos querer repensar o uso da tecnologia de reconhecimento facial em conflito, considere os seguintes experimentos mentais. Primeiro, imagine que foi a Rússia que arrancou dados biométricos ucranianos da internet para construir uma ferramenta de tecnologia de reconhecimento facial que estava usando para identificar ucranianos mortos e entrar em contato com suas mães. As democracias liberais provavelmente condenariam essas ações e as adicionariam à sua crescente lista de ações bárbaras da Rússia. Segundo, imagine um conflito no qual os Estados Unidos estivessem lutando contra um oponente que havia tirado impressões faciais americanas para treinar sua tecnologia de reconhecimento facial e a estava usando para identificar soldados americanos mortos e entrar em contato com suas mães. Isso quase certamente causaria uivos de protesto nos Estados Unidos.
Não precisamos esperar que esses cenários ocorram; O Congresso poderia agir agora para proteger os dados biométricos dos americanos. Se inspirar-se no Regulamento Geral de Proteção de Dados (GDPR) da União Europeia (UE) parece um passo longe demais, o Congresso só precisa olhar para Illinois, cuja Lei de Privacidade de Informações Biométricas (BIPA) exige que as empresas obtenham o consentimento das pessoas antes de capturar imagens faciais e outros dados biométricos. Clearview AI está lutando atualmentevários processos em tribunais federais e estaduais em Illinois por não obter o consentimento dos usuários. Esses processos destacam um aspecto preocupante da tecnologia de reconhecimento facial nos Estados Unidos: a privacidade, as liberdades civis e os direitos dos americanos sobre seus dados biométricos variam de estado para estado, e até mesmo dentro dos estados, e não são protegidos por lei federal.
Para remediar esse problema, o Congresso também poderia recorrer a vários aliados dos EUA, incluindo três de seus parceiros de compartilhamento de inteligência da Five Eyes . Em 2021, o comissário de privacidade do Canadá identificou a Clearview AI como uma ferramenta de vigilância em massa e a declarou ilegal, enquanto os reguladores de dados britânicos e australianos multaram a Clearview AI e ordenaram que ela excluísse os dados de seus cidadãos. Na UE, a Itália multou recentementeClearview € 20 milhões, ordenou que excluísse todos os dados que havia coletado de cidadãos italianos e proibiu a Clearview AI de coletar mais dados. No ano passado, a Suécia multou as autoridades policiais por usar a tecnologia da Clearview AI para identificar pessoas, e vários grupos de privacidade, liberdades civis e direitos humanos apresentaram queixas contra a empresa junto a reguladores de dados na França, Áustria e Grécia. Sem surpresa, em maio de 2021, a Clearview AI disse que não tinha clientes baseados na UE.
Apesar de todas as muitas falhas da Clearview AI, o desafio que as sociedades livres enfrentam é mais do que as ações de uma empresa. Muitas empresas e governos estão usando meios semelhantes para criar as mesmas ferramentas, como PimEyes, FindClone e TrueFace. As democracias liberais podem regulá-los, mas atualmente não há nada que impeça os adversários de capturar nossos rostos e outros dados biométricos. Deixar de agir pode colocar em risco os soldados, o pessoal de segurança e os agentes da lei, bem como as populações civis. É hora de enfrentar esse desafio de frente.
Stephanie Hare é pesquisadora e radialista independente. Ela é autora de Technology Is Not Neutral: A short guide to technology ethics . Seu trabalho apareceu no Financial Times , no Washington Post, no Guardian e no BBC World Service. Siga-a no Twitter em @hare_brain .
Imagem: Reuters.
Sem comentários:
Enviar um comentário