Avançar para o conteúdo

O polêmico algoritmo do AirBnb

Quem não gosta de tirar férias? Uma casa a alguns passos do mar, um apartamento bem localizado para explorar uma cidade nova, um chalé no campo… E você encontrou a casa ideal para alugar por alguns dias no AirBnb. O preço é ótimo, as fotos lindas e os comentários de hóspedes anteriores confirmam que o local é um sonho.

Você envia sua solicitação para o anfitrião. Mas… sua proposta foi rejeitada porque uma inteligência artificial calculou o quão confiável você é como hóspede e sua nota foi baixa.

Sim, esse algoritmo do AirBnb existe.

Como surgiu a ideia do algoritmo do AirBnb?

Tudo começou em Londres. Em janeiro de 2019, Elizabeth Sterling alugou sua casa através do AirBnb para a realização de um chá de bebê e jantar.

A casa de Sterling vale 2,5 milhões de libras, além de abrigar diversas obras de artes, antiguidades de prata, cristais e tapetes de luxo.

Como de costume, quando a casa estava alugada, Sterling ocupava um pequeno chalé que havia nos fundos do terreno. Até aí, tudo bem.

Logo após meia noite, Sterling ainda ouvia música alta vindo de seu apartamento. Ao sair do pequeno chalé, viu que havia muitas pessoas fumando maconha em seu jardim e os dois andares da casa estavam cheios de pessoas. A dona da casa foi conversar com a hóspede, que apenas repondeu que algumas pessoas haviam aparecido de surpresa.

Após se sentir ameaçada pela hóspede e seus convidados, Sterling foi à casa de seu vizinho e chamou a polícia. A festa só terminou quando a polícia conseguiu uma ordem judicial para acabar com a festa.

Sterling voltou à sua casa e encontrou o chão arranhado e queimaduras no carpete. Felizmente, os “hóspedes” haviam guardado sua coleção de obras de arte e seu tapete persa.

O que faz o algoritmo do Airbnb?

A ideia do algoritmo do AirBnb é basicamente realizar uma checagem do seu comportamento online e, a partir daí, avaliar sua personalidade e o nível de compatibilidade ente anfitrião e hóspedes.

Em outras palavras, o algoritmo da inteligência artificial do AirBnb vai dar uma nota ao hóspede de acordo com sua “confiabilidade” e avaliar seu comportamento, tentando prever a probabilidade do hóspede utilizar a locação de forma inapropriada.

Como o algoritmo do Airbnb dá notas?

Essa tecnologia de “verificação de antecedentes” foi revelada em uma patente publicada pelo Escritório de Patentes Europeu após ser concedida nos Estados Unidos.

De acordo com a patente, o Airbnb poderia implementar seu software para buscar características como traços de “neuroticismo e envolvimento em crimes” e “narcisismo, maquiavelismo ou psicopatia”, pois essas características são “percebidas como hóspedes indignos de confiança”.

Além disso, o algoritmo do Airbnb pode selecionar pessoas “associadas” a perfis de redes sociais falsos ou que forneceram informações falsas.

A patente também sugere que os usuários recebem pontuação baixa se palavras-chave, imagens ou vídeos associados a eles estiverem envolvidos com drogas ou álcool, sites ou organizações de ódio ou trabalho sexual.

Pessoas “envolvidas em pornografia” ou que tenham “autoria de conteúdo online com linguagem negativa” também serão sinalizadas.

Tem mais: o algoritmo do AirBnb verifica notícias que podem ser sobre a pessoa, como um artigo relacionado a um crime, e pode “pesar” a gravidade dos crimes.

Postagens em blogs e sites de notícias também são levados em consideração para formar um “gráfico pessoal”, diz a patente.

Finalmente, ainda há o cruzamento com dados de “conexões sociais”, emprego e histórico educacional.

Quer saber o que mais a inteligência artificial pode fazer? Confira:

No site do AirBnb

A plataforma é clara ao dizer que avalia o risco de todas as reservas feitas através de aprendizagem de máquina e análise preditiva.

Se por um lado é realmente importante que haja algum controle para evitar fraudes e prejuízos tanto ao hóspede quanto ao anfitrião, até que ponto esse tipo de plataforma deveria poder entrar na nossa privacidade e usar nossos dados para nos avaliar e dar nota?

Até que ponto uma máquina (ou até um ser humano) pode decidir o que é “linguagem negativa” ou “informação falsa”?

Até que ponto o local onde você trabalha ou estuda pode representar seu caráter?

Até que ponto as fotos que postamos nas redes sociais podem dizer se somos confiáveis ou não?

Até que ponto você pode ser julgado por um processo na justiça ou notícia de jornal incompleta sem que a máquina tenha conhecimentos jurídicos?

Até que ponto a nossa “vida online” representa nossa “vida offline”?

E se for outra pessoa a reservar a hospedagem no seu lugar para burlar a inteligência?

Qual é o cálculo que o algoritmo do Airbnb pode fazer para usar todas essas informações e gerar uma nota de forma justa? A caixa preta da inteligência artificial é extremamente complexa.

Sem saber como a nota foi gerada, não podemos nem recorrer e fazer uma defesa!

Trooly

A plataforma AirBnb não comenta muito sobre o assunto e diz que a patente faz parte dos trabalhos da start-up Trooly, adquirida pelo grupo. A Trooly tem como sua atividade principal a checagem de fatos e históricos.

A plataforma também diz que, apesar de ter registrado a patente, isso não significa que o sistema realmente será implantado.

Referências:

https://www.standard.co.uk/tech/airbnb-software-scan-online-life-suitable-guest-a4325551.html

https://www.businessinsider.fr/us/airbnb-software-predicts-if-guests-are-psychopaths-patent-2020-1

https://www.standard.co.uk/news/london/womans-horror-after-drugfuelled-partygoers-descend-on-her-kensington-flat-rented-on-airbnb-a4049776.html

Podcast Dadocracia

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *