A IA pode ser tendenciosa.
A tecnologia de reconhecimento emocional está se tornando rapidamente uma indústria multibilionária. Pesquisadores investigam as limitações da nova tecnologia de IA, e alguns dos vieses dentro dos algoritmos, quando se trata de identificar as emoções humanas de forma eficiente.
Imagine que você está em uma entrevista de emprego. Ao responder às perguntas do recrutador, um sistema de inteligência artificial (IA) escaneia seu rosto,marcando-o por nervosismo, empatia e confiabilidade. Pode parecer ficção científica, mas esses sistemas são cada vez mais usados, muitas vezes sem o conhecimento ou consentimento das pessoas.
A tecnologia de reconhecimento de emoções (ERT) é de fato uma indústria multibilionária em expansão que visa usar a IA para detectar emoções a partir de expressões faciais. No entanto, a ciência por trás dos sistemas de reconhecimento de emoções é controversa: hávieses incorporados nos sistemas.
Muitas empresas usam o ERT para testar as reações dos clientes aos seus produtos, do cereal aos videogames. Mas também pode ser usado em situações com apostas muito maiores, como na contratação, pela segurança do aeroporto para sinalizar rostos como revelação de engano ou medo, no controle de fronteiras,no policiamento para identificar "pessoas perigosas" ou na educação para monitorar o engajamento dos alunos com a lição de casa.
Terreno científico instável
Felizmente, a tecnologia de reconhecimento facial está recebendo atenção do público. O premiado filme Coded Bias, lançado recentemente na Netflix, documenta a descoberta de que muitas tecnologias de reconhecimento facial não detectam com precisão rostos de pele escura. E a equipe de pesquisa que gerencia o ImageNet, um dos maiores e mais importantes conjuntos de dados usados para treinar o reconhecimento facial, foi recentemente forçada a desfocar 1,5 milhão de imagens em resposta a preocupações com privacidade.
Revelações sobre viés algorítmico e conjuntos de dados discriminatórios em tecnologia de reconhecimento facial levaram grandes empresas de tecnologia, incluindo Microsoft, Amazon e IBM, a interromper as vendas. E a tecnologia enfrenta desafios legais em relação ao seu uso no policiamento no Reino Unido. Na UE, uma coalizão de mais de 40 organizações da sociedade civil pediu a proibição total da tecnologia de reconhecimento facial.
Como outras formas de reconhecimento facial, o ERT levanta questões sobre preconceito, privacidade e vigilância em massa. Mas o ERT levanta outra preocupação: a ciência da emoção por trás dela é controversa. A maioria do ERT baseia-se na teoria das "emoções básicas" que sustenta que as emoções são biologicamente ligadas e expressas da mesma forma por pessoas em todos os lugares.
No entanto, isso está sendo cada vez mais desafiado. Pesquisas em antropologia mostram que as emoções são expressas de forma diferente entre culturas e sociedades. Em 2019, a Associação de Ciência Psicológica realizou uma revisão das evidências, concluindo que não há apoio científico para a suposição comum de que o estado emocional de uma pessoa pode ser prontamente inferido a partir de seus movimentos faciais. Em suma, o ERT é construído em terreno científico instável.
Além disso, como outras formas de tecnologia de reconhecimento facial, o ERT é codificado com viés racial. Um estudo mostrou que os sistemas lêem consistentemente os rostos dos negros como mais irritados do que os rostos das pessoas brancas, independentemente da expressão da pessoa. Embora o estudo do viés racial no ERT seja pequeno, o viés racial em outras formas de reconhecimento facial é bem documentado.
Há duas maneiras de que essa tecnologia possa prejudicar as pessoas, diz a pesquisadora de IA Deborah Raji em entrevista ao MIT Technology Review:"Uma maneira é não funcionar: em virtude de ter taxas de erro mais altas para pessoas de cor, ela as coloca em maior risco. A segunda situação é quando funciona — onde você tem o sistema perfeito de reconhecimento facial, mas é facilmente armada contra as comunidades para assedia-las."
Portanto, mesmo que a tecnologia de reconhecimento facial possa ser des viés e precisa para todas as pessoas, ainda pode não ser justo ou justo. Vemos esses efeitos díspares quando a tecnologia de reconhecimento facial é usada no policiamento e sistemas judiciais que já são discriminatórios e prejudiciais às pessoas de cor. As tecnologias podem ser perigosas quando não funcionam como deveriam. E eles também podem ser perigosos quando trabalham perfeitamente em um mundo imperfeito.
Os desafios levantados pelas tecnologias de reconhecimento facial – incluindo o ERT – não têm respostas fáceis ou claras. Resolver os problemas apresentados pelo ERT requer a mudança da ética da IA centrada em princípios abstratos para a ética da IA centrada na prática e nos efeitos na vida das pessoas.
Quando se trata de ERT, precisamos examinar coletivamente a controversa ciência da emoção incorporada a esses sistemas e analisar seu potencial de preconceito racial. E precisamos nos perguntar: mesmo que o ERT possa ser projetado para ler com precisão os sentimentos internos de todos, queremos uma vigilância tão íntima em nossas vidas? São perguntas que requerem a deliberação, a entrada e a ação de todos.
Projeto de Ciência Cidadã
O ERT tem potencial para afetar a vida de milhões de pessoas, mas houve pouca deliberação pública sobre como – e se – deve ser usado. É por isso que desenvolvemos um projeto de ciência cidadã.
Em nosso site interativo (que funciona melhor em um laptop, não em um telefone) você pode experimentar um ERT privado e seguro para si mesmo, para ver como ele escaneia seu rosto e interpreta suas emoções. Você também pode jogar jogos comparando habilidades humanas versus IA no reconhecimento de emoções e aprender sobre a controversa ciência da emoção por trás do ERT.
O mais importante é que você pode contribuir com suas perspectivas e ideias para gerar novos conhecimentos sobre os potenciais impactos do ERT. Como diz a cientista da computação e ativista digital Joy Buolamwini:"Se você tem um rosto, você tem um lugar na conversa".
financiamento:
Alexa Hagerty recebeu financiamento de uma bolsa de Inteligência Coletiva para esta pesquisa. Ela é membro da rede Just AI mencionada no artigo e co-fundadora do Dovetail Labs, uma colaboração de pesquisa e design de benefícios públicos.
Alexandra Albert recebeu financiamento de uma bolsa de Inteligência Coletiva para esta pesquisa. Ela é membro do Dovetail Labs, uma colaborativa de pesquisa e design de benefícios públicos Ela também é membro do grupo de pesquisa Extreme Citizen Science da University College London.
The Conversation
Alexandra Albert and Alexa Hagerty – The Conversation
Comments