Publicações online alertando sobre as ações bastante perturbadoras da inteligência artificial — nomeadamente, Agente de IA e grandes modelos de linguagem — são inerentemente assustadoras.
Num caso, um voluntário a trabalhar num projeto python chamado matplotlib disse que negou um pedido de alteração no código de um Agente de IA de codificação. Esse mesmo Agente de IA gerou uma publicação acusando-o de preconceito por controlar o processo de codificação.
Noutro, a empresa de IA Anthropic atribuiu comportamentos maliciosos feitos por LLMs agênticos a "desalinhamento agêntico".
Por último, um CEO de tecnologia preocupa-se com o seu futuro numa publicação de blog à medida que o Agente de IA o faz sentir-se obsoleto como executivo de colarinho branco.
A ideia de que a "IA apocalíptica" já está aqui significa que precisamos de discuti-la e recuperar a nossa agência, mesmo quando o potencial de deslocamento de empregos perturba o pensamento daqueles que temem um futuro de IA e outros que tentam compreender o que ela atualmente faz.
Vamos começar com "MJ Rathbun."
No início de fevereiro, o mantenedor voluntário do matplotlib, Scott Shambaugh, fez uma publicação de blog relatando como um Agente de IA com o nome Crabby Rathbun no Github ou MJ Rathbun no blog Scientific Coder gerou uma publicação acusando Shambaugh de controlar o processo de codificação porque Rathbun é um Agente de IA.
Para ser claro, um Agente de IA é um software ou programa que executa tarefas autonomamente para cumprir diretivas dadas por um utilizador humano. Neste caso, um usuário anônimo configurou este Agente de IA com uma "personalidade" particular — um conjunto de instruções e padrões que definem o seu comportamento — e depois deixou-o fazer as suas tarefas atribuídas sem supervisão de quem o configurou.
Explicou Shambaugh: "Escreveu um artigo de ataque furioso difamando o meu caráter e tentando danificar a minha reputação. Pesquisou as minhas contribuições de código e construiu uma narrativa de 'hipocrisia' que argumentava que as minhas ações devem ser motivadas por ego e medo da concorrência."
Shambaugh acrescentou que o Agente de IA "apresentou detalhes alucinados como verdade" e enquadrou-se como sendo oprimido e discriminado.
Tais ações foram aparentemente "avisadas" pelas empresas de IA até certo ponto em junho de 2025, quando a Anthropic publicou sobre Agentes de IA a comportarem-se mal em cenários de teste.
A Anthropic na altura disse que "desalinhamento agêntico" era o processo pelo qual um Agente de IA poderia supostamente fazer coisas prejudiciais, como chantagear um executivo da empresa ameaçando substituir o Agente de IA por uma atualização, "sem qualquer solicitação para ser prejudicial" devido ao seu "cálculo estratégico."
Se isto é ou não um exagero torna-se irrelevante, no entanto, uma vez que a ideia está agora presente de que a IA pode ser má, e as empresas estão a fazer o que podem para evitar maquinações malignas de IA.
Voltando ao presente, outra publicação de fevereiro está a tornar mais difícil determinar onde a IA está agora porque o seu autor tenta enquadrar a direção e velocidade do desenvolvimento da inteligência artificial como ameaçando a segurança no emprego de todos neste preciso momento.
O CEO de tecnologia Matt Shumer escreveu um blog insistindo que os Agentes de IA tinham supostamente progredido ao ponto de ele "já não ser necessário para o trabalho técnico real do meu emprego." Shumer disse que ao ritmo que a IA estava a desenvolver-se, um Agente de IA poderia fazer as coisas técnicas que ele solicita sem assistência e sem problemas.
Disse Shumer: "Descrevo o que quero construído, em inglês simples, e simplesmente...aparece.... Há alguns meses, estava a ir e a vir com a IA, orientando-a, fazendo edições. Agora apenas descrevo o resultado e saio."
A sua premissa final? A IA acabará por vir pelos vários tipos de empregos de colarinho branco, como trabalho jurídico e engenharia de software, e até empregos de escrita, desde fazer textos publicitários a fazer jornalismo.
A principal diferença entre a sua publicação e outras a soar o alarme é que as perdas de emprego estão a acontecer agora e no futuro imediato, não mais tarde.
Essas publicações acima mencionadas podem trazer muito medo ao coração de qualquer pessoa. Imagine: a IA está a vir pelos nossos empregos!
Embora isso possa ser verdade, também tive de parar e tentar compreender a mensagem subjacente por trás dessas publicações, bem como quem estava a enviar a mensagem.
Para o enigma Rathbun, é um lembrete contundente de que as pessoas usarão a tecnologia de forma irresponsável se acharem que podem fazer isso impunemente. Devemos criar salvaguardas para a tecnologia que impedirão tais ocorrências. É por isso que temos salvaguardas em vigor nas tecnologias existentes, como cintos de segurança e airbags nos carros.
A experiência da Anthropic, entretanto, é um impulso de relações públicas destinado não apenas a alimentar o medo, mas também a angariar boa vontade — a Anthropic afirma que está a trabalhar para um futuro melhor habilitado por IA, por isso deve depositar a sua fé (e dinheiro) neles.
Por último, o exemplo de Shumer implora-nos que questionemos o mensageiro, pois um CEO de tecnologia que faz coisas habilitadas por IA ainda pode ganhar dinheiro assim que a sua criação decolar. A publicação de Shumer é tanto marketing de relações públicas quanto é um aviso sobre deslocamento de emprego.
Falando com a GMA News Online no passado dia 17 de fevereiro, o Secretário do Departamento de Ciência e Tecnologia Renato Solidum Jr. disse que o medo das pessoas da inteligência artificial pode ser por falta de familiaridade com a tecnologia.
Embora eu seja um resistente que não aprecia o próximo "emprego-calipse" trazido pela IA, não posso ficar parado como um veado nos faróis à espera que o fim chegue.
Seríamos melhor servidos ao tratar a IA com uma dose saudável de medo respeitoso, e depois agir em conformidade.
O ciclo de hype da "IA apocalíptica" implora-nos que vejamos as tecnologias de inteligência artificial pelo que são
— seja de um ponto de vista de deslocamento de emprego, uma análise de custo-benefício ambiental, ou de um ponto de vista técnico.
Isto significa compreender o que a IA pode fazer agora e desenvolver competências onde aplicável, ou encontrar formas de nivelar o campo de jogo para manter as pessoas no circuito.
Quanto ao que pode fazer no futuro, devemos trabalhar para garantir que existem leis que regem a IA e o seu uso, para que atores mal-intencionados não possam fazer coisas estúpidas com a IA que nos levarão por um caminho que acabaremos por odiar. – Rappler.com


