-
Cina apre a ripresa export di 'alcuni' chip Nexperia
-
Tennis: Parigi; Medvedev ko, Zverev in semifinale contro Sinner
-
Sinner, "Non penso al numero 1, si va giorno per giorno"
-
Tennis: Sinner batte Shelton e va in semifinale a Parigi
-
La Space Economy italiana cresce, 400 aziende e 13mila addetti
-
Il petrolio chiude in rialzo a New York a 60,86 dollari
-
Trump, 'nessuna esenzione a Orban sul petrolio russo'
-
Calcio:Juve; Spalletti senza Yildiz e Kelly, out per Cremona
-
Masters Parigi, Bublik batte de Minaur e vola in semifinale
-
Boom di passeggeri nei mesi estivi negli aeroporti italiani
-
Il gas chiude chiude in ribasso sulla piazza Ttf di Amsterdam
-
Borsa: lieve ribasso a Milano (+0,06%), vendite su Tim e Intesa
-
Lo spread tra Btp e Bund tedeschi chiude in calo a 75 punti
-
Tennis: rincorsa a Finals, Musetti si iscrive a torneo di Atene
-
Borsa: Europa debole in chiusura, Parigi e Londra -0,44%
-
Bcc Banca Iccrea, superati ampiamente requisti Srep della Bce
-
È a rischio lo status di giganti ghiacciati per Urano e Nettuno
-
Pagamenti elettronici, da gennaio casse collegate ai Pos
-
Borsa: Milano chiude in lieve ribasso, -0,06%
-
Moto3: Dettwiler ha lasciato la terapia intensiva
-
Trump, faremo test nucleari se pure altri Paesi li faranno
-
Borsa: l'Europa frena nel finale con Wall Street, Milano -0,35%
-
Florence+The Machine, fuori il nuovo disco Everybody Scream
-
Onu, 'inaccettabili i raid Usa nel Mar dei Caraibi
-
Mumford & Sons annunciano il loro 6/o album Prizefighter
-
MotoGP: a Bulega la Ducati di Marquez in Portogallo e a Valencia
-
Antartide, inizia la 41/ma spedizione italiana
-
Borsa: Milano debole (-0,25%), frena Intesa, balzo di Interpump
-
Serie A, due squalificati per un turno
-
Al Maggio la Lucrezia Borgia inedita che vive nel '900
-
Pisa a Torino col turnover per continuare a fare punti
-
A Parigi Vacherot fermato nei quarti da Auger-Aliassime
-
Media 'Il prossimo film di Woody Allen sarà girato a Madrid'
-
Cinema, arte, tecnologia: dal 7 novembre il Matera film festival
-
ProSceniUm, riflettori sui nuovi talenti della canzone d'autore
-
Borsa: Europa debole, Wall Street positiva, Milano -0,1%
-
Lo Space Shuttle Discovery rischia di essere fatto a pezzi
-
Morte Lorenzi: legale Weiss,video messo a disposizione da subito
-
'Traffic', film scritto da Mungiu in corsa all'Oscar per Romania
-
She, il documentario indipendente che sbaraglia ai festival
-
A Samarcanda la Conferenza generale dell'Unesco
-
Milano-Cortina:Brignone 'sfida difficile, ma continuo a sognare'
-
Fbi, 'sventato attentato di Halloween in Michigan'
-
Piperno, Trevi, Stancanelli, De Silva, scrittori in cattedra
-
Argento celebra Rambaldi, standing ovation a Hollywood
-
Ecografia 4D mostra il flusso sanguigno di organi interi
-
Zangrillo, avviato iter per rinnovi contrattuali Pa 2025-27
-
Cremonese-Juventus, Chiffi arbitra la prima di Spalletti
-
Icop, infondata richiesta revisione prezzo Opa su Palingeo
-
San Raffaele, al neurologo Rossini il Premio Energie per Roma
La capacità di giudizio dell'IA è solo apparenza
Grandi rischi nel delegare scelte e giudizi agli Llm
La capacità di giudizio dei modelli linguistici come ChatGpt o Gemini è solo apparenza: a dimostrarlo è lo studio guidato da Walter Quattrociocchi, dell'Università Sapienza di Roma, e pubblicato sulla rivista dell'Accademia Nazionale degli Stati Uniti Pnas. Un lavoro che sottolinea i rischi concreti di affidare a questi modelli di Intelligenza Artificiale la delega di fare scelte o prendere decisioni. "Cosa avviene realmente quando chiediamo a un'IA di eseguire una scelta, ad esempio determinare se una notizia del web sia credibile o è piuttosto una fake news?", ha detto Quattrociocchi all'ANSA per raccontare il nuovo studio che ha eseguito una serie di test a gran parte dei più importanti modelli linguisti Llm in circolazione, come ChatGpt, Gemini, Llama, Deepseek e Mistral. Un lungo lavoro che ha messo a confronto umani e IA per capire le differenze di 'ragionamento' dei due. "Quello che abbiamo messo qui molto bene in evidenza è che nonostante i risultati, le IA riconosco infatti molto bene le fake news, il meccanismo che utilizzano non si basa però su riscontri reali ma su una mera capacità di simulare i giudizi. In altre parole, i giudizi formulati dagli Llm sono plausibili ma disancorati dalla realtà fattuale". Una sostituzione della verità con la plausibilità che in un futuro non molto lontano, sottolineano gli autori, potrebbe portare a problemi gravi quando gradualmente daremo sempre più autorevolezza alle capacità degli Llm di gestire azioni o prendere scelte per noi, in totale delega. "Ma questi sistemi sembrano valutare come noi solo perché simulano le tracce del pensiero, non il pensiero stesso", ha aggiunto il ricercatore italiano. "Questo studio - ha concluso - dimostra che ciò che stiamo automatizzando non è il giudizio, ma la sua apparenza".
N.Awad--SF-PST