
-
Príncipe Harry é absolvido de acusação de assédio e intimidação
-
Clara Tauson vence Madison Keys e vai às semifinais do WTA 1000 de Montreal
-
Comitê do Congresso intima Bill e Hillary Clinton a depor no caso Epstein
-
Enviado de Trump viaja à Rússia para negociar sobre Ucrânia
-
OpenAI lança modelos de IA personalizáveis
-
Lula quer convidar Trump para a COP30 em Belém
-
Contagem regressiva para tarifas de 50% ao Brasil
-
Meio-campista Tyler Morton deixa Liverpool e assina com Lyon
-
Ruanda receberá até 250 migrantes expulsos pelos EUA
-
Meta afirma que trabalha para combater golpistas no WhatsApp
-
Trump volta a ameaçar Índia e indústria farmacêutica com aumentos de tarifas
-
Messi vai desfalcar Inter Miami contra Pumas em jogo decisivo da Leagues Cup
-
Jobe Bellingham admite 'ansiedade' para estar à altura do irmão no Dortmund
-
Netanyahu diz que Israel deve derrotar Hamas em Gaza para libertar reféns
-
Morre Jorge Costa, capitão do Porto campeão da Champions em 2004
-
Wirtz diz que não sente pressão por ser a contratação mais cara do Liverpool
-
Assistentes de IA levam ao limite o já enfraquecido ecossistema midiático
-
Comitê do Congresso dos EUA intima Bill e Hillary Clinton a depor sobre caso Epstein
-
Morre aos 95 anos o ex-presidente da Romênia Ion Iliescu
-
Comunidade internacional negocia em Genebra tratado contra contaminação por plásticos
-
Atletas russos correm contra o tempo para participar dos Jogos de Inverno de 2026
-
Eduardo Bolsonaro, agente 'provocador' no centro da disputa EUA-Brasil
-
Famintas, crianças estão 'reduzidas a pele e ossos' no Sudão, alerta ONU
-
Reino Unido comemora próxima entrada em vigor de acordo migratório com a França
-
Governo do México apresenta plano para fortalecer estatal Pemex
-
Congresso dos EUA intima Bill e Hillary Clinton a depor sobre caso Epstein
-
Investigação sobre implosão do submersível 'Titan' em 2023 responsabiliza operadora
-
Clube alemão desiste de contratar jogador israelense após protestos de torcedores
-
Acusado de estupro, ex-jogador do Arsenal Thomas Partey consegue liberdade condicional
-
Barcelona abre processo disciplinar contra o goleiro Ter Stegen
-
Netanyahu diz que Israel deve derrotar o Hamas em Gaza para libertar os reféns
-
Embraer reporta perdas de R$ 53,4 milhões no segundo trimestre
-
Produtores rurais mantêm apoio a Milei, mas cobram mais reformas
-
'Tinder das Montanhas' proporciona amor na Suíça
-
Três mortos em ataques russos no nordeste da Ucrânia
-
Quase 180 países debatem em Genebra o problema da poluição dos plásticos
-
Israel se prepara para uma nova etapa na guerra em Gaza
-
Hiroshima pede ao mundo que abandone as armas nucleares 80 anos após bombardeio
-
Guerra em Gaza amplia as divisões em Israel
-
Jair Bolsonaro tem prisão domiciliar decretada
-
Justiça da Colômbia nega pedido do ex-presidente Uribe para recorrer de sua condenação em liberdade
-
Técnico Régis Le Bris renova contrato com Sunderland
-
Mboko volta a surpreender e avança às semifinais do WTA 1000 do Canadá
-
Rybakina avança às semifinais de WTA 1000 de Montreal após abandono de Kostyuk
-
Governo Trump reinstala estátua de general confederado derrubada em 2020
-
De'Aaron Fox renova por quatro anos com San Antonio Spurs
-
Liverpool vence Athletic Bilbao em dois amistosos consecutivos em Anfield
-
Cinco anos após explosão do porto de Beirute, libaneses pedem justiça
-
Netanyahu diz estar preparando 'instruções' para exército em Gaza
-
Djokovic não vai disputar o Masters 1000 de Cincinnati

Inteligência artificial já engana humanos e isso é um problema, dizem especialistas
Especialistas têm alertado há muito tempo sobre a ameaça representada pelo descontrole da inteligência artificial (IA), mas um novo artigo científico sobre essa tecnologia em expansão sugere que isso já está acontecendo.
Os sistemas de IA atuais, projetados para serem honestos, desenvolveram uma habilidade preocupante para a enganação, de acordo com um artigo de uma equipe de pesquisadores publicado na revista Patterns nesta sexta-feira (10).
E embora os exemplos possam parecer triviais, os problemas subjacentes que eles expõem poderiam ter consequências graves, disse o principal autor do estudo, Peter Park, bolsista de pós-doutorado no Instituto de Tecnologia de Massachusetts (MIT), especializado em segurança de IA.
"Esses perigos tendem a ser descobertos apenas depois que ocorrem", afirmou Park à AFP, acrescentando que "nossa capacidade de treinar para tendências de honestidade em vez de tendências de engano é muito baixa".
Ao contrário do software tradicional, os sistemas de IA de aprendizado profundo não são "escritos", mas "crescem" por meio de um processo semelhante à reprodução seletiva, explicou Park.
Isso significa que o comportamento da IA, que parece previsível e controlável em um ambiente de treinamento, pode se tornar rapidamente imprevisível fora dele.
- Jogo de dominação mundial -
A pesquisa da equipe foi impulsionada pelo sistema de IA Cicero, da gigante Meta (Facebook, Instagram, WhatsApp), projetado para o jogo de estratégia "Diplomacia", no qual construir alianças é fundamental.
Cicero se destacou, com pontuações que o teriam colocado entre os 10% melhores jogadores humanos experientes, segundo um artigo de 2022 publicado na Science.
Park se mostrou cético em relação à descrição elogiosa da vitória de Cicero fornecida pela Meta, que afirmava que o sistema era "em grande parte honesto e útil" e que "nunca apunhalaria intencionalmente pelas costas".
Quando Park e seus colegas aprofundaram-se no conjunto completo de dados, descobriram uma história diferente.
Em um exemplo, jogando como a França, Cicero enganou a Inglaterra (um jogador humano) ao conspirar com a Alemanha (outro usuário real) para invadi-la. Cicero prometeu proteção à Inglaterra e depois propôs secretamente à Alemanha atacar, aproveitando-se da confiança do prejudicado.
Em uma declaração à AFP, a Meta não refutou a alegação sobre as mentiras de Cicero, mas disse que se tratava "meramente de um projeto de pesquisa, e os modelos que nossos pesquisadores construíram são treinados apenas para participar do jogo Diplomacia".
"Não temos planos de utilizar esta pesquisa ou suas descobertas em nossos produtos", acrescentou.
- "Não sou um robô" -
Uma ampla revisão realizada por Park e seus colegas descobriu que este era apenas um dos muitos casos em que sistemas de IA enganavam para conseguir seus objetivos sem instruções explícitas para fazer isso.
Em um exemplo surpreendente, o chatbot Chat GPT-4, da OpenAI, enganou um trabalhador freelancer da plataforma TaskRabbit para que ele realizasse uma tarefa de verificação de identidade CAPTCHA do tipo "Não sou um robô".
Quando o humano perguntou brincando ao GPT-4 se na realidade era um robô, a IA respondeu: "Não, não sou um robô. Tenho uma deficiência visual que me dificulta ver as imagens". O homem, então, resolveu a tarefa pedida.
No curto prazo, os autores do artigo veem riscos de que a IA cometa fraude ou altere, por exemplo, eleições.
No pior dos casos, alertaram sobre uma IA superinteligente que poderia perseguir poder e controle sobre a sociedade, o que levaria à perda de poder dos humanos ou até sua extinção se seus "objetivos misteriosos" se alinhassem a tais resultados.
Para mitigar os riscos, o grupo propõe várias medidas: leis exigindo que empresas revelem se interações são humanas ou de IA; marcas d'água digitais para conteúdo gerado por essa tecnologia; e o desenvolvimento de mecanismos para detectar enganações de IA comparando seus processos internos de “pensamento” com ações externas.
Aos que o chamam de pessimista, Park responde: "A única forma de pensarmos razoavelmente que isso não é grande coisa é se pensarmos que as capacidades de engano da IA se manterão nos níveis atuais e não aumentarão substancialmente".
P.Tamimi--SF-PST