Elon Musk assinou carta pedindo pausa em experimentos com inteligência artificial
Reprodução/Instagram - 05.10.2022
Elon Musk assinou carta pedindo pausa em experimentos com inteligência artificial

"Desinformação estratégica". É assim que o pesquisador Tarcízio Silva, mestre em Comunicação e Cultura Contemporâneas pela UFBA e pesquisador na Fundação Mozilla, define a  carta assinada por Elon Musk e por diversos empresários e acadêmicos estadunidenses na última semana. O texto critica o avanço da inteligência artificial (IA) mas, na visão de pesquisadores brasileiros, não pelo motivo correto.

É o que acredita Fernanda Rodrigues, mestre em Direitos da Sociedade em Rede pela UFSM e coordenadora de pesquisa no Instituto de Referência em Internet e Sociedade (IRIS). "É sempre importante ressaltar os perigos que o desenvolvimento irresponsável de IA pode representar, porém a carta não endereçou isso da forma mais embasada", avalia a pesquisadora.

Na carta, Musk, empresários e acadêmicos pedem uma pausa em experimentos relacionados à inteligência artificial, citando riscos que Fernanda considera futuristas. "Devemos arriscar perder o controle de nossa civilização?", questiona o texto.

"O texto fala muito sobre os riscos de uma IA futurística, que pode se sobrepor à vontade humana e gerar um perigo à própria existência desta, mas mesmo mencionando um exemplo nas referências, deixa de lado toda a produção científica que aponta os problemas já enfrentados hoje com o uso dessa tecnologia, como vieses discriminatórios, desinformação e discurso de ódio. Portanto, isso gera questionamentos a respeito da efetiva preocupação que esse texto apresenta", analisa Fernanda.

A carta ainda menciona diretamente o GPT-4 , versão mais atualizada da inteligência artificial que deu origem ao famoso ChatGPT . A OpenAI, empresa criadora das tecnologias, teve Elon Musk como um de seus fundadores e, atualmente, o bilionário critica os rumos que a companhia tomou, sobretudo por receber forte financiamento da Microsoft. De acordo com reportagem do site Semafor,  Musk tentou assumir o controle da OpenAI antes de deixá-la, mas teve a recusa de outros fundadores.

Além do bilionário, outros empresários também assinam a carta. Para Tarcízio, um dos principais objetivos do texto é "chacoalhar as inclinações do capital financeiro na circulação de recursos". O pesquisador cita outro grande objetivo da carta, que seria o de "promover uma noção de que o principal problema da inteligência artificial é uma suposta possibilidade futura de superação das capacidades dos humanos, que perderiam o controle", assim como acredita Fernanda.

"A carta soterra atores acadêmicos, políticos e ativistas que estão propondo soluções multisetoriais de controle da tecnologia que poderiam beneficiar todas as pessoas", afirma Tarcízio.

Os reais riscos da inteligência artificial

Apesar de ter forte viés econômico, a carta divulgada na última semana trouxe à tona um debate bastante conhecido entre pesquisadores e ativistas: os riscos da inteligência artificial.

O problema, porém, não gira em torno de consequências futuras, que parecem vir de filmes de ficção científica, mas sim de questões que já estão presentes no nosso cotidiano.

"Nós temos hoje diferentes estudos que falam sobre os riscos associados ao desenvolvimento de IA. Dentre eles, destaco a disseminação de notícias falsas, não só por meio de texto, mas também por geração de imagens e deepfake. Da mesma forma, tem sido igualmente preocupante a reprodução de vieses discriminatórios por sistemas de IA, seja por viés de gênero, raça, classe social ou outro", comenta Fernanda.

Algoritmos de inteligência artificial que usamos cotidianamente, como os presentes nas redes sociais, são capazes de trazerem consequências graves. A  disseminação de desinformação e discurso de ódio são algumas delas, assim como o racismo algorítmico.

O conceito revela que os sistemas de inteligência artificial carregam consigo preconceitos e viéses, trazendo resultados discriminatórios. Alguns exemplos famosos são o uso de reconhecimento facial na segurança pública, que acaba reforçando o racismo estrutural, ou o  caso de 2020 em que o algoritmo do Twitter retirava pessoas negras das fotos ao fazer o corte automático das imagens, sempre privilegiando rostos brancos.

Além de viéses de raça, sistemas de IA também podem carregar viéses de classe social ou gênero. Um exemplo é  esta reportagem de 2021 do portal iG , que revela que o sistema do Google utiliza um algoritmo tendencioso para definir o gênero de seus usuários.

"Quando sistemas gigantescos possuem falhas contra grupos específicos, os impactos vão muito além dos danos individuais. As históricas desigualdades sociais podem ser aprofundadas se a mediação de recursos sociais é concentrada em poucas empresas através de plataformas", analisa Tarcízio, que pesquisa sobre racismo algorítmico.

Empresas sem controle

Atualmente, a sociedade civil e pesquisadores discutem parâmetros que as empresas devem adotar para desenvolver inteligências artificiais éticas e responsáveis socialmente. Esse tipo de cuidado, porém, não é colocado em prática.

Sistemas poderosos de IA, como o ChatGPT e o Bard , do Google, foram disponibilizados aos usuários ainda em fase de testes, quando podem ter problemas que não foram previstos nem corrigidos pelas empresas. A preocupação dentre as empresas de tecnologia ainda é tão pequena que, recentemente, a  Microsoft, que vem investindo fortemente em IA, demitiu toda a sua equipe de ética no setor, segundo o site especializado Platformer.

No mundo, existem poucas regulações a respeito do desenvolvimento de inteligências artificiais. O principal exemplo é o AI Act, da União Europeia, que define algumas regras que devem ser adotadas pelas empresas.

No Brasil, existe o Projeto de Lei 21/2020, conhecido como Marco Legal da Inteligência Artificial, que foi aprovado no plenário da Câmara dos Deputados em 2021, mas não chegou a ser votado no Senado. No ano passado, uma comissão de juristas do Senado elaborou um substitutivo a partir deste PL da Câmara e de outros dois apresentados no Senado.

"A gente ainda está aguardando para que esse novo texto, mais aprofundado, seja colocado em pauta para que possa ser melhor discutido com todos os setores da sociedade", afirma Fernanda.

    Mais Recentes

      Comentários

      Clique aqui e deixe seu comentário!