5 cenários de pesadelo que podem acontecer com a IA da geração atual

A ascensão da IA aconteceu tão rapidamente que pode ter ocorrido da noite para o dia. Há um ano, os geradores de imagens de IA eram meras curiosidades, enquanto os chatbots de IA lutavam para produzir frases coerentes. Hoje, artigos inteiros podem ser escritos por IA. A Microsoft já incorporou uma versão do GPT-4 da OpenAI no Bing, enquanto o Google está lançando um concorrente chamado Bard.

Essas novas tecnologias têm o incrível potencial de revolucionar nossas vidas de uma forma que a ficção científica apenas sonhou. A IA certamente parece concordar. Em nossa experiência, se você perguntar ao ChatGPT sobre o futuro da tecnologia, ele dirá que a IA dará grandes saltos em direção a uma tecno-utopia.

Como acontece com qualquer tecnologia disruptiva, existem perigos ocultos, alguns dos quais provavelmente ainda não entendemos ou imaginamos. Mas grande parte da discussão em torno da IA se concentra no desenvolvimento futuro da tecnologia, no que ela pode fazer se progredir em direção à inteligência senciente real. É importante considerar isso, mas mesmo que toda empresa de tecnologia pare de tentar aprimorar suas tecnologias de IA, essas tecnologias já podem causar muitos problemas horríveis em sua forma atual.

De deepfakes a manipulação do mercado de ações e guerras internacionais a estados de vigilância distópicos, aqui estão dez cenários de pesadelo que a IA da geração atual poderia trazer.

Todo o conteúdo do SlashGear é 100% original e escrito e editado por humanos reais e vivos. Não usamos ferramentas de bate-papo de IA para gerar, idealizar ou redigir nosso conteúdo.

Deepfakes podem levar a desinformação política

Os modelos de IA atualmente disponíveis podem gerar realisticamente qualquer imagem ou voz e são cada vez mais capazes de gerar videoclipes inteiros. Realisticamente, é apenas uma questão de tempo até que um malfeitor use esses recursos para levantar uma falsa acusação contra um inimigo político. Imagine o dilúvio de desinformação política gerada pela IA que teremos que filtrar nas próximas eleições presidenciais.

Nas últimas semanas, depois que a imagem generativa AI Midjourney divulgou uma atualização significativa, fotos circularam amplamente, entre outras coisas, do Papa vestindo uma jaqueta fofa digna da realeza do rap e Donald Trump sendo abordado e preso pela polícia. Ambos foram criados como piadas e nunca foram feitos para enganar ninguém. No entanto, muitos usuários as repassaram de forma crédula nas mídias sociais, sem o benefício dos contextos originais das imagens.

Preocupantemente, a IA já é tão propensa a erros que a desinformação que ela gera não precisa ser intencional para confundir as pessoas. O ChatGPT já foi processado por difamação na Austrália, onde o chatbot acusou falsamente um político de Melbourne de corrupção.

O perigo mais significativo aqui não é apenas que as imagens fabricadas se difundam amplamente entre o público, o que já seria prejudicial por si só, mas sim que entraremos em um estranho mundo novo no qual nenhuma fotografia, vídeo ou gravação de áudio pode ser acreditada. . Políticos e outras autoridades podem condenar qualquer evidência de irregularidade como deepfake, enquanto jornalistas que não são particularmente conhecedores de tecnologia lutam para separar a realidade da invenção.

Deepfakes podem levar a um conflito internacional

Internamente, o impacto da IA na política pode ser ruim o suficiente. Mas imagine se uma nação desonesta como a Rússia criasse um vídeo falso do presidente ucraniano Volodymyr Zelenskyy no qual ele instrui seu povo a se render. Se isso soa como algo que não poderia acontecer, aqui estão algumas más notícias: já aconteceu (via NPR). Felizmente, o deepfake foi identificado rapidamente e causou poucos danos, mas isso nem sempre será verdade.

Um relatório da Brookings Institution sobre deepfakes e conflitos internacionais adverte: “Deepfakes podem ser aproveitados para uma ampla gama de propósitos, incluindo falsificar ordens de líderes militares, semear confusão entre o público e as forças armadas e dar legitimidade a guerras e revoltas”. Embora o relatório observe que a maioria desses esforços provavelmente falhará, mesmo um único sucesso pode ser devastador para a estabilidade da ordem internacional. Podemos não estar muito longe do primeiro golpe ou guerra inspirado pela IA.

A aplicação da lei pode usar IA para criar um estado de vigilância distópico

No filme “Minority Report”, um departamento de polícia prende pessoas antes que um crime seja cometido, contando com seres que podem ver o futuro. Parece evidente que tal cenário seria eticamente horrível e levaria a muitas prisões injustas. E, no entanto, algumas unidades de aplicação da lei estão salivando com a ideia.

Hoje, se você for acusado de um crime, seu destino será decidido por computador em muitas jurisdições nos Estados Unidos. Conforme observado pelo MIT Technology Review, se há policiais por perto para fazer uma prisão em primeiro lugar é determinado por um programa chamado PredPol, que tenta prever onde um crime é mais provável de acontecer com base em prisões anteriores. Depois que um suspeito é indiciado, os tribunais usam uma ferramenta chamada COMPAS para determinar a liberdade provisória e a sentença. A polícia também está usando o reconhecimento facial em um ritmo crescente, descobriu o The Marshall Project.

Essas ferramentas já existentes podem facilmente levar ao excesso de policiamento em bairros pobres ou não brancos, taxas mais altas de detenção pré-julgamento e sentenças mais severas, aumentando ainda mais as disparidades raciais e de gênero em nosso sistema de justiça (via NPR). Mas agora, sem legislação para impedir seu uso, a IA ameaça desempenhar um papel cada vez maior na aplicação da lei. E essa legislação pode ser crucial para evitar abusos de poder cada vez mais autoritários.

O viés nos modelos de IA pode levar a mais desigualdade

Em 2014, a Amazon criou uma ferramenta de IA para ajudar na contratação. O programa tinha uma tarefa simples: revisar os pedidos de emprego e selecionar os melhores candidatos. Mas em 2015, a gigante do comércio eletrônico percebeu que o programa era tendencioso para candidatos do sexo masculino. Rebaixou currículos que continham a palavra “mulheres”, juntamente com quaisquer escolas que são historicamente faculdades femininas. O problema era que a Amazon, como grande parte da indústria de tecnologia, já tinha uma maioria de funcionários do sexo masculino. Quando a IA se treinou no conjunto de funcionários existente, aprendeu a preferir candidatos do sexo masculino. A Amazon encerrou o programa em 2018 (via Reuters).

A IA de contratação fracassada exemplifica os vieses existentes de carne e osso que influenciam a inteligência artificial por meio de seu conjunto de dados de treinamento. A discriminação é um dos maiores e mais conhecidos perigos da IA atual e é notoriamente difícil de evitar. Empresas como a OpenAI tentaram remediar o problema equipando o ChatGPT com diretrizes de autocensura. No entanto, ainda é possível fazer o chatbot vomitar invectivas raciais sem muita solicitação (via The Intercept).

À medida que essa tecnologia chega a vários outros produtos, não há como dizer como seus vieses arraigados afetarão sua operação. Por exemplo, as forças policiais, muitas já atormentadas pelo racismo sistêmico, estão ansiosas para usar a IA para fins de aplicação da lei. O fiasco de contratação da Amazon pode ser um aviso de que o pior está por vir.

Alucinações em respostas de pesquisa podem fazer com que as pessoas se machuquem

Um dos problemas mais significativos com os modelos de linguagem atuais é sua propensão ao que foi chamado de “alucinações”, quando a IA cospe informações falsas. Às vezes, as alucinações são meramente peculiares, como quando o ChatGPT insiste que um determinado modelo de telefone possui recursos que ele não possui. Mas alguns são menos benignos e, se um usuário aceitar o conselho da IA pelo valor de face, isso pode levar a danos reais.

Imagine o Bing respondendo erroneamente quando questionado sobre quanto tempo o frango pode ser deixado no balcão, afirmando que permanecerá fresco por até uma semana. O resultado pode ser um usuário se expondo a intoxicação alimentar ou salmonela. Ou, ainda mais horrível, imagine a falha do ChatGPT quando alguém pergunta como lidar com ideias suicidas, influenciando-o a tirar a própria vida. Esse simples erro pode levar ao mais trágico dos resultados.

Embora seja fácil presumir que ninguém confiaria cegamente em uma IA, não está claro se o público em geral entende como os modelos de IA atuais são propensos a erros. Dados demográficos específicos, como idosos ou indivíduos com deficiências cognitivas, podem ser particularmente suscetíveis a aceitar seus resultados pelo valor de face. Com toda a probabilidade, é apenas uma questão de tempo até que algo lamentável aconteça com base em um mal-entendido sobre a confiabilidade de uma IA.

Se você ou alguém que você conhece está tendo pensamentos suicidas, ligue para a National Suicide Prevention Lifeline discando 988 ou ligando para 1-800-273-TALK (8255).