Aceleração no avanço de sistemas de IA representa um risco potencial para a humanidade, diz carta

Foto: Montagem sobre fotos Wikimedia Commons

Recentemente, Elon Musk e um grupo de especialistas em inteligência artificial emitiram uma carta aberta pedindo uma pausa de seis meses no desenvolvimento de sistemas ainda mais avançados que o GPT-4 da OpenAI.

Segundo a carta, a aceleração no avanço de sistemas de IA representa um risco potencial para a humanidade. A ideia é que se espere pelos protocolos de segurança para que mais projetos sejam desenvolvidos, implementados e auditados por especialistas.

A preocupação dos especialistas vem logo após a Europol, Agência de Inteligência da União Europeia, alertar para o uso criminoso da inteligência artificial, em especial a aplicada aos chatbots, em áreas como golpes de phishing, desinformação e crimes cibernéticos. O governo do Reino Unido também apresentou propostas para uma estrutura regulatória “adaptável” em torno da IA.

A carta, emitida pelo Instituto Future of Life, alertou para os riscos de competitividade humana com interrupções econômicas e políticas, e convocou os desenvolvedores a trabalhar com governos e autoridades reguladoras.

A carta também detalhou riscos de competitividade humana com interrupções econômicas e políticas, destacando a necessidade de que poderosos sistemas de IA sejam desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis.

Foto: Naresh111

Apesar disso, Sam Altman, executivo-chefe da OpenAI, não assinou o documento, embora tenha tido conhecimento da carta. Altman e Musk são velhos conhecidos, já que o bilionário cofundou a OpenAI com o atual CEO, mas deixou a empresa em 2018 após conflitos de interesses.

O Future of Life Institute ( FLI ) é uma organização sem fins lucrativos que trabalha para reduzir os riscos catastróficos e existenciais globais enfrentados pela humanidade, particularmente o risco existencial da inteligência artificial (IA) avançada

Carta de Musk ignora problemas reais causados pela IA

Timnit Gebru, fundadora e diretora executiva do Distributed Artificial Intelligence Research Institute (DAIR), e outras três pesquisadoras, Emily M. Bender, Angelina McMillan-Major e Margaret Mitchell afirma que embora haja uma série de recomendações na carta com as quais é possível concordar como “sistemas de proveniência e marca d’água para ajudar a distinguir a mídia real da sintética”, essas são ofuscados pelo medo e pelo hype da IA , que direciona o discurso para os riscos de imaginadas “mentes digitais poderosas” com “inteligência humana competitiva”.

As pesquisadoras autoras do famoso artigo conhecido informalmente como ‘Stochastic Parrots, (Os perigos dos papagaios estocásticos: os modelos de linguagem podem ser grandes demais?), acreditam que esses riscos hipotéticos, como os listados por Musk, são o foco de uma ideologia perigosa nomeadas de longo prazo , que ignora os danos reais resultantes da implantação de sistemas de IA hoje.

Longo prazo: uma visão do futuro em que nos tornamos pós-humanos radicalmente aprimorados, colonizamos o espaço e criamos trilhões de pessoas digitais, de acordo com as cientistas de inteligência artificial.

“1) a carta não aborda nenhum dos danos contínuos desses sistemas, criar produtos que lucrem com um punhado de entidades, 2) a explosão das mídias sintéticas no mundo, que tanto reproduzem sistemas de opressão quanto põem em risco nosso ecossistema de informação, e 3) a concentração de poder nas mãos de poucas pessoas que revela desigualdades”, afirmam.

As pesquisadoras afirmam que, embora não tenham se  surpreendido ao ver esse tipo de carta de uma organização de longo prazo como o Future of Life Institute,  “estamos consternados ao ver o número de profissionais de computação que assinaram esta carta e a cobertura positiva da mídia que ela recebeu”.

Elas afirmam que “é perigoso nos distrairmos com uma utopia ou apocalipse fantasiado por IA, que promete um futuro “florescente” ou “potencialmente catastrófico”.

Em sua visão, essa linguagem adotada por alguns, que infla as capacidades dos sistemas automatizados e os antropomorfiza,  engana as pessoas fazendo-as pensar que existe um ser por trás da mídia sintética. “Isso não apenas atrai as pessoas a confiar acriticamente nas saídas de sistemas como o ChatGPT, mas também atribui erroneamente a agência. A responsabilidade propriamente dita não cabe aos artefatos, mas a seus construtores”, afirmam.

Regulamentação que construa transparência

Em sua carta pública, as pesquisadoras defendem que a AI seja regulamentada de maneira que possa ser transparente.

“As organizações que constroem esses sistemas também devem ser obrigadas a documentar e divulgar os dados de treinamento e arquiteturas de modelo. O ônus de criar ferramentas que sejam seguras de usar deve recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas devem ser responsabilizados pelos resultados produzidos por seus produtos”, defendem.

O hacker Uirá Porã, juntamente com sua equipe de inteligência artificial, composta pelo ChatGPT, iniciou uma nova coluna na Mídia NINJA, que discute as implicações políticas e sociais do avanço tecnológico. Confira tudo aqui.

Diante do avanço da IA, hackers brasileiros elaboraram uma convocação à reflexão que aponta a urgência desse tema ser debatido com seriedade.

Precisamos conversar sobre Inteligência Artificial, Internet e outras questões TecnoPolíticas

Caros cientistas, ativistas e governantes brasileiros,

Recentemente, uma carta aberta intitulada “Pause Giant AI Experiments” foi publicada, pedindo uma pausa no desenvolvimento de sistemas de Inteligência Artificial (IA) mais poderosos que o GPT-4 por pelo menos 6 meses.

Esta carta levanta preocupações importantes sobre os impactos potenciais da IA na sociedade, na economia e na democracia.

Convidamos a todos vocês a lerem e refletirem sobre essa carta, e a se engajarem no debate sobre o papel da IA e das tecnologias em geral no Brasil. É fundamental que, como nação, construamos uma agenda TecnoPolítica abrangente que considere não apenas a IA, mas também o impacto das tecnologias na democracia e na vida das pessoas.

As esferas governamentais têm um papel crucial a desempenhar na formulação e implementação de políticas que garantam o desenvolvimento responsável e seguro da IA e outras tecnologias emergentes. Devemos trabalhar juntos para criar um ambiente no qual a sociedade possa se beneficiar dessas inovações sem comprometer nossa segurança, privacidade e valores democráticos.

A agenda TecnoPolítica deve incluir ações como:

  • Investimento em pesquisa e desenvolvimento de IA e tecnologias emergentes com foco em segurança, ética e impactos sociais.
  • Estabelecimento de órgãos reguladores e de supervisão específicos para IA e tecnologias digitais.
  • Fomento à educação e conscientização da população sobre os desafios e oportunidades trazidos pela IA e outras tecnologias.
  • Promoção de cooperação entre setores público e privado, academia e sociedade civil para garantir uma abordagem inclusiva e democrática na definição de políticas e diretrizes para o uso de tecnologias emergentes.

Neste momento crítico, é essencial que nos unamos e enfrentemos os desafios e as oportunidades apresentados pela IA e outras tecnologias, garantindo que seu desenvolvimento seja ético, seguro e beneficie a todos.
Atenciosamente,