Essa é a sugestão de um artigo escrito por Margaret Roberts, professora de ciências políticas na UC San Diego, e Eddie Yang, um estudante de PhD na mesma universidade.
A censura pode influenciar a inteligência artificial?
Os pesquisadores examinaram dois algoritmos de NLP (Natural Language Processing ou processamento de linguagem natural) treinados com fontes diferentes.
O objetivo da pesquisa foi avaliar se a censura de algumas palavras ou frases poderia influenciar na aprendizagem do algoritmo de inteligência artificial. Isso poderia influenciar aplicações construídas com esses algoritmos, como a resposta de chatbots ou assistentes de voz, programas de tradução e até ferramentas de autocompletar palavras.
O primeiro algoritmo foi treinado a partir de dados da versão chinesa da Wikipedia, que é bloqueada na China. Enquanto a segunda inteligência artificial teve como fonte de dados o Baidu Baike, um dos principais mecanismos de busca no país, sujeito a censura do governo.
O algoritmo usado para avaliar se a censura pode influenciar a inteligência artificial aprende através da análise de quais palavras acompanham outras no texto. Cada palavra é interpretada como um nó, e cada nó está conectado com outros em um espaço físico. Ou seja, quanto mais próximas as palavras estão, mais seus significados são semelhantes.
Esse processo pode ser utilizado no caso de tradutores. Quando uma palavra é desconhecida, o significado pode ser inferido através das relações entre palavras.
Quer saber o que mais a inteligência artificial pode fazer? Confira:
O Resultado
A pesquisa detectou diferenças no resultado dos algoritmos, que parecem refletir as informações censuradas na China, ou seja, a censura poderia influenciar a inteligência artificial.
Por exemplo, a IA treinada na Wikipedia chinesa mostrou a palavra “democracia” mais perto de palavras positivas, como “estabilidade“, enquanto o algoritmo treinado no Baike Baidu representou a mesma palavra mais próxima de “caos“.
Roberts e Yang usaram os algoritmos para construir dois produtos de avaliação o sentimento (sentiment analysis) de manchetes de notícias. Eles descobriram que a IA treinada na Wikipedia chinesa atribuiu pontuações mais positivas às manchetes que mencionavam termos como “eleição”, “liberdade” e “democracia”, enquanto o outro algoritmo atribuiu pontuações mais positivas às manchetes com “vigilância”, “controle social” e“ CCP ” – Chinese Communist Party.
Importância
Os pesquisadores ressaltam que os resultados não devem ser exclusivamente devido à censura do governo. Diferenças culturais entre os usuários que escrevem na Wikipedia e a “auto-censura” também devem ter influenciado o treinamento das IA.
De toda forma, o estudo é importante para reconhecer que políticas governamentais podem criar vieses nos algoritmos e é um ponto de partida para entender como dados de treinamento de bases de dados construídas pelo governo e a censura pode influenciar na inteligência artificial.
Esta temática é de relevância, uma vez que algoritmos de inteligência artificial começam a ser presentes em decisões públicas e, como indica o estudo, podem ser influenciados a reforçar censuras e determinadas crenças.
O que outros pesquisadores dizem sobre se censura pode influenciar a inteligência artificial
Graeme Hirst, professor da Universidade de Toronto especializado em NLP, faz alguns questionamentos em relação ao estudo. Ele destaca que é preciso avaliar com cuidado os conteúdos em cada uma das fontes de dados. Por exemplo, pode ser que a Wikipedia chinesa tenha conteúdos contra o partido comunista chinês e ou defendendo abertamente a democracia. Em relação à análise de sentimentos, Hirst também explica que é preciso analisar com atenção, pois vieses podem ser introduzidos.
O estudo também chamou a atenção de Suresh Venkatasubramaninan, professor na Universidade de Utah, focado em ética na IA. O professor diz que também devemos prestar atenção nos algoritmos treinados com conteúdo ocidental, que pode conter vieses em relação aos países orientais. Ainda, ele acrescenta que é muito importante mostrar onde esses vieses acontecem, de modo a ser um ponto de partida para descobrir porque acontecem, como impactam o treinamento e como podem ser medidos e controlados.
O estudo será apresentado na 2021 Conference on Fairness Accountability and Transparency (FAccT) em março.