Lensa AI: “Toda vez nós alertamos sobre os riscos dessas aplicações”, diz Carla Vieira, pesquisadora de Inteligência Artificial
Ainda temos um longo trabalho de data literacy e conscientização sobre privacidade pela frente
Por Mariane Santana
Nos últimos dias, o feed do Instagram está repleto de usuários postando fotos de seus avatares criados por uma Inteligência Artificial do aplicativo Lensa AI Avatar, Photo Editor. Este aplicativo, entre muitos outros que utilizam IA, precisa obviamente, coletar nossos dados (imagens) para poder criar avatares, entre outras funcionalidades como edição de fotos.
Não é o primeiro aplicativo a lançar essa “trend”, o FaceApp bombou há alguns anos com o “filtro da velhice” e o filtro do “bebê/criança”. O mesmo aplicativo, que o FBI investigou e declarou-o como uma ameaça. O Lensa possui a mesma tecnologia de reconhecimento facial que o FaceApp, mas para obter os avatares, é necessário escolher entre 10 a 20 fotos com seu rosto, com várias expressões, de perfil, cabelo solto, para que ele replique o Avatar o mais parecido possível com seu rosto real.
Outra curiosidade, é que você deve pagar para obter os avatares e assina um termo de consentimento que reforça que os dados serão apagados em 24h da nuvem, mas no mesmo termo eles dizem que estamos cedendo licença perpétua, irrevogável, não exclusiva, isenta de royalties, mundial, totalmente paga, transferível, sublicenciável para usar, reproduzir, modificar, adaptar, traduzir, criar trabalhos derivados e transferir seu Conteúdo de Usuário, etc.
Nas redes, vários ativistas políticos se manifestaram alertando sobre o perigo de darmos consentimento aos nossos dados sem ler e ainda pagar por isso. Estima-se que o mercado de reconhecimento facial irá lucrar cerca de 7 bilhões de dólares em 2024, e com a pandemia, o número cresceu bastante. Estamos quase chegando em 2023, e não é de hoje que vários ativistas e pesquisadores têm nos alertado sobre o problema com os vieses envolvendo essa tecnologia da inteligência artificial, que está sendo usada não só em apps e redes sociais, mas em sistemas governamentais sem o nosso consentimento, pois empresas que têm esses dados, acabam vendendo eles, gerando muitos casos de racismo, capacitismo, etc.
“Cada vez que surge um aplicativo divertido com base em algoritmos de Inteligência Artificial, toda vez, nós alertamos sobre os riscos dessas aplicações”, manifestou Carla Vieira, pesquisadora de Inteligência Artificial pela USP.
Carla, como pesquisadora de IA, como você sente a privacidade das pessoas vendo novamente um aplicativo desse tipo bombando nas redes sociais, mesmo depois de vários documentários terem causado tantas polêmicas envolvendo o uso de nossos dados, como o caso do Facebook vs Cambridge Analytics, por exemplo. Você acha que ainda falta muita conscientização sobre o assunto para que os usuários se atentem mais?
Ainda temos um longo trabalho de data literacy e conscientização sobre privacidade pela frente. Não é fácil combater o discurso pronto que naturaliza e individualiza os danos gerados pela invasão de privacidade. Eu tenho observado que os argumentos para não se preocupar com diversidade são sempre em torno de: “não tenho nada a esconder” e “nossos dados já estão na internet mesmo”. Precisamos conscientizar sobre a importância da redução de danos e participação nas discussões públicas para que esse engajamento civil torne-se pressão pública que culmine em regulamentação como a LGPD. Assim como, lembrar que privacidade não é apenas sobre dados individuais, mas também danos coletivos e políticos que podem mudar os rumos da história de um país.
Sobre o compartilhamento em massa no Instagram e Twitter, você acha que se torna mais problemático ainda, pois além da empresa Prisma, ao estar postado “publicamente” nas redes sociais, a empresa Facebook, que já está envolvida em escândalos envolvendo nossos dados, pode se tornar dona dessas imagens feitas pela IA?
Acredito que devemos considerar que essas redes já possuem muitas de nossas fotos – então, eu não consideraria um agravante. O agravante aqui é pagar para ceder seus dados a uma empresa que terá todos os direitos sobre eles e irá utilizá-los para aplicações que você desconhece.
Um ponto interessante para discussão é os direitos autorais sobre as imagens usadas como base de treinamento da Inteligência Artificial e também das imagens geradas a partir disso.
Com termo “se você não paga pelo produto, o produto é você” tendo se popularizado nas redes. Você acha que deixar a função dos Avatares Mágicos pagos é uma estratégia de marketing para dar a sensação de segurança para os usuários em relação aos dados?
Pode ser sim uma estratégia considerando que grande parte dos usuários não fazem a leitura dos termos de uso antes de utilizar uma plataforma. Nesse caso, acredito que o apelo maior foi oferecer um serviço exclusivo de geração de avatares que se popularizou rapidamente – gerando um efeito FOMO (Fear of Missing Out) estimulando mais pessoas a seguirem a trend.
Eu sei que é difícil falarmos sobre uma solução única que resolva esse problema, mas o que você acha sobre a regulamentação e leis de proteção de dados atuais no Brasil? Devemos regulamentar as redes sociais? No Brasil se fala nisso, mas não tanto como nos outros países onde há várias discussões no planalto e mídia sobre as leis de redes sociais. Você acredita que existe um propósito político nisso?
A LGPD representou um grande avanço por garantir maior transparência para que os dados coletados sejam utilizados para a finalidade consentida pelo proprietário dos dados, sem prejuízos (material e/ou moral). Algumas redes sociais (ex. Instagram e Facebook), atualizaram seus termos de serviço e políticas de privacidade para estarem em conformidade com a LGPD.
Contribui para a democracia das eleições agora vou contribuir junto a uma galera massa para dar continuidade a transparência.
— Nina da Hora – tweets are my own (@ninadhora) December 1, 2022
A discussão sobre regulamentação das redes sociais é necessária dada sua complexidade e o limiar entre garantir privacidade e ferir direitos de liberdade de expressão. Com certeza, há um propósito político nisso dentro do crescimento de movimento de extrema direita, movimentos racistas e neonazistas nas plataformas. Quem será responsável por regular isso? As próprias big techs sem intervenção governamental ou devemos ter uma legislação a ser seguida?
Há tanto que ser debatido e discutido sobre o assunto, felizmente, uma das maiores hackers anti-racistas do país, Nina da Hora, irá participar do gabinete de comunicação do governo Lula, ela postou em seu twitter @ninadhora que terão debates importantes de regulação na internet, fake news e muito mais. Esse será um grande passo, precisamos de mais mulheres pretas na área de comunicação especialistas no assunto de tecnologia para divulgar informações sobre a Inteligência Artificial e tech no geral.