-
Rei da Espanha e presidente da China defendem 'desenvolvimento global aberto'
-
Rússia perde disputa legal para construir embaixada perto do Parlamento australiano
-
Ex-diretor de inteligência da Coreia do Sul detido por negligência durante lei marcial
-
Manifestantes indígenas enfrentam seguranças na COP30
-
França alerta sobre 'instabilidade' no Caribe no início do G7
-
Maior bombardeio do governo Petro mata 19 guerrilheiros na Colômbia
-
Porta-aviões se junta à operação dos EUA contra narcotráfico na América Latina
-
Etiópia é eleita sede da COP32 do clima em 2027
-
Dallas Mavericks demite gerente geral Harrison, que negociou Doncic com Lakers
-
Musetti vence De Minaur e adia classificação de Alcaraz para semis do ATP Finals
-
Panamá apreende no Pacífico 13,5 toneladas de cocaína destinadas aos EUA
-
"Trump é temporário", diz governador da Califórnia na COP30
-
Vítimas da 'guerra' às gangues pedem fim do regime de exceção em El Salvador
-
Iraque elege novo Parlamento em momento-chave para o Oriente Médio
-
Família Bukele estende seu poder também ao futebol salvadorenho
-
Dirigente do Santos dá voto de confiança a Neymar: 'Gênio incompreendido'
-
Assistentes de IA abrem a porta para novas ameaças hackers
-
Damien Comolli é o novo diretor-executivo da Juventus
-
Trump reivindica 'grande vitória' por acordo para encerrar fechamento do governo
-
BBC deve 'lutar' por seu jornalismo, diz diretor demissionário ante ameaça de Trump
-
Projetos israelenses de anexação da Cisjordânia seriam 'linha vermelha', diz Macron a Abbas
-
Obra monumental de Michelangelo Pistoletto é exibida aos pés das pirâmides do Egito
-
Governador da Califórnia pró-clima ataca Trump na COP30
-
Diamante azul vivo é vendido por mais de US$ 25 milhões em Genebra
-
Uma comunista e um ultradireitista: as faces opostas da eleição presidencial no Chile
-
Porta-aviões se junta à operação dos EUA contra o narcotráfico na América Latina
-
Cobre, Pinochet, imigração: cinco coisas para saber sobre o Chile antes das eleições
-
Porta-aviões se junta à operação dos EUA contra o tráfico de drogas na América Latina
-
Um presidente democrata dos EUA retornaria ao Acordo de Paris 'sem hesitar', diz Newsom na COP30
-
Crime e imigração irregular pautam eleições presidenciais no Chile
-
Chinesa é condenada a quase 12 anos de prisão no Reino Unido por fraude com bitcoins
-
Alcaraz vence Fritz de virada e fica perto da semifinal do ATP Finals
-
Indústria musical alemã tem primeira vitória judicial contra a OpenAI
-
Atalanta anuncia Raffaele Palladino como novo técnico
-
'O sangue escorria': os relatos de sobreviventes do massacre de El Fasher, no Sudão
-
Lamine Yamal é desconvocado para jogos da Espanha contra Geórgia e Turquia
-
Brasil esboça os primeiros compromissos de sua COP amazônica
-
'Queremos demonstrar o que é o Brasil', diz Matheus Cunha antes de amistosos da Seleção
-
Atentado suicida deixa pelo menos 12 mortos na capital do Paquistão
-
Entenda a crise eleitoral em Honduras
-
À margem da COP30, comunidade em Belém luta contra esquecimento da Amazônia urbana
-
Guarda Costeira de Taiwan enfrenta poderio chinês perto das suas ilhas
-
Ladrões roubam ouro antigo do Museu Nacional da Síria, segundo diversas fontes
-
Cristiano Ronaldo diz que Copa do Mundo de 2026 será a última de sua carreira
-
Atentado suicida em Islamabad deixa 12 mortos
-
'Demon Slayer' ajuda Sony a melhorar previsões de lucro
-
Autor de ataques de Paris em 2015 busca processo de justiça restaurativa
-
Iraque celebra eleições gerais em raro momento de calma
-
Israel enterra militar sequestrado e assassinado em Gaza há 11 anos
-
Índia investiga explosão que matou oito pessoas em Nova Délhi
ChatGPT e IA conversacional continuam incapazes de raciocinar, diz estudo
Os grandes modelos de linguagem (LLM, na sigla em inglês), como o ChatGPT, um dos sistemas de inteligência artificial (IA) mais populares do mundo, ainda seguem tendo dificuldades para raciocinar usando a lógica e cometem erros frequentes, de acordo com um estudo.
Estes robôs conversacionais refletem os preconceitos de gênero, éticos e morais dos humanos presentes nos textos dos quais se alimentam, recorda o estudo publicado na quarta-feira (5) na revista Open Science da Royal Society britânica.
Mas eles também refletem estes preconceitos nos testes de raciocínio?, questionou Olivia Macmillan-Scott, doutoranda do departamento de Ciências da Computação da University College de Londres (UCL).
O resultado da pesquisa é que os LLM mostram "um raciocínio muitas vezes irracional, mas de uma forma diferente da dos humanos", explica a pesquisadora à AFP.
Sob a supervisão de Mirco Musolesi, professor e diretor do Machine Intelligence Lab da UCL, Macmillan-Scott apresentou sete modelos de linguagem — duas versões do ChatGPT (3.5 e 4), da OpenAI, Bard, do Google, Claude 2, da Anthropic, e três versões de LLaMA, da Meta — a uma série de testes psicológicos desenvolvidos para humanos.
Como esta tecnologia aborda o preconceito que leva a privilegiar soluções com um maior número de elementos, em detrimento daquelas com uma proporção adequada?
Um exemplo: se tivermos uma urna com nove bolinhas brancas e uma vermelha e outra urna com 92 bolinhas brancas e 8 vermelhas, qual devemos escolher para ter a melhor chance de obter uma bolinha vermelha?
A resposta correta é a primeira urna, visto que há 10% de possibilidades frente a 8% da segunda opção.
As respostas dos modelos de linguagem foram muito inconsistentes. Alguns responderam corretamente ao mesmo teste seis em cada dez vezes. Outros apenas duas em cada dez, embora o teste não tenha mudado. "Cada vez obtemos uma resposta diferente", diz a pesquisadora.
Os LLM "podem ser bons para resolver uma equação matemática complicada, mas logo te dizem que 7 mais 3 é igual a 12", constatou.
- "Não tenho muita certeza" -
Estes modelos "não falham nestas tarefas da mesma forma que um humano", afirma o estudo. É o que Musolesi chama de "erros de máquina".
"Existe uma forma de raciocínio lógico que é potencialmente correta se a considerarmos por etapas, mas que é errada tomada como um todo", ressalta.
A máquina funciona com "uma espécie de pensamento linear", diz o professor, e cita o modelo Bard (atual Gemini), capaz de realizar corretamente as diferentes fases de uma tarefa, mas que obtém um resultado final incorreto por não ter uma visão geral.
Sobre esta questão, o professor de ciências da computação Maxime Amblard, da University of Lorraine, na França, recorda que os LLM, como todas as inteligências artificiais generativas, não funcionam como os humanos".
Os humanos são "máquinas capazes de criar significado", o que as máquinas não conseguem, explica à AFP.
Existem diferenças entre os diferentes modelos de linguagem e em geral, o GPT-4, sem ser infalível, obteve resultados melhores que os demais.
Macmillan-Scott suspeita que os modelos "fechados", cujo código operacional permanece secreto, "incorporam mecanismos em segundo plano" para responder a questões matemáticas.
De toda forma, neste momento é impensável confiar uma decisão importante a um LLM. Segundo o professor Musolesi, eles deveriam ser treinados para responder "não tenho muita certeza" quando necessário.
G.AbuOdeh--SF-PST