-
Il premier britannico Starmer potrebbe dimettersi a favore di Burnham
-
Uomo attaccato da uno squalo in Australia, è in condizioni critiche
-
Trump, 'da Xi Jinping nessuna minaccia agli Usa su Taiwan'
-
Internazionali: Sinner-Medvedev rinviata per pioggia, domani non prima delle 15
-
Pallavolo: 3-0 alla Francia nel secondo test delle azzurre di Velasco
-
Travolta Palma d'onore a sorpresa, 'nel mio film da regista invito a speranza
-
Il programma di domani a Cannes. Driver-Johansson, IA e Bardem in gara
-
Gli Usa annunciano una proroga di 45 giorni della tregua tra Israele e Libano
-
Travolta, Palma d'onore a sorpresa, 'mi riempie di umiltà'
-
Giuria non trova accordo e il giudice annulla il processo a Weinstein
-
Internazionali: Darderi, "chiedo scusa al pubblico, ma ero senza benzina"
-
Sheinbaum parla con Trump, focus su sicurezza e commercio
-
Internazionali: Ruud 'amo l'Italia, pronto per la finale'
-
Al Salone del Libro 'Viaggiare con Leggerezza' con Ferrovie
-
Internazionali: sfuma il sogno di Darderi, Ruud primo finalista
-
A Cannes la Cina è vicina, Hollywood latita e Giappone e Asia dominano
-
Da un paradosso un laser super-preciso per studiare il cervello
-
Hit Parade, Sayf conquista subito la vetta con Santissimo
-
Il prezzo del gas chiude in rialzo oltre i 50 euro al megawattora
-
Borsa: Milano in calo con l'Europa, scivolano Stm e Buzzi
-
Media, Putin il 20 maggio da Xi, pochi giorni dopo la visita di Trump
-
'L'intelligenza artificiale aiuta il lavoro di chi comunica, ma non lo sostituisce'
-
Fissato all'11 giugno il tavolo al Mimit sulle vertenze Sulcis
-
A Cannes c'e' anche la Palestina che resiste
-
Trump, 'non voglio che Taiwan dichiari l'indipendenza e si scateni una guerra'
-
Angioplastica in ospedale per l'ex regina Margrethe di Danimarca
-
Alle sfilate di Milano addio alle pellicce
-
Borsa: Milano chiude in calo dell'1,87%
-
Il primo panda gigante in Indonesia pronto a incantare il pubblico
-
Mondiali: i convocati della Costa d'Avorio, la novità é l'interista Bonny
-
Fatti di alghe e meccanismi, i microrobot che volano in sciami
-
Il Cda di Autobrennero approva il bilancio, utile netto a 89,1 milioni
-
Giro: Vingegaard attacca sul Blockhaus e vince la 7/a tappa
-
Atletica: a Shangai parte la Diamond League, occhi su Duplantis
-
Norwegian Cruise torna a Trieste, 11 scali nel 2026 e 25mila passeggeri
-
Colombia, i dissidenti Farc annunciano il cessate il fuoco per le elezioni
-
Alla Farnesina formazione per supporto psicologico nelle aree di crisi
-
L'Arena di Verona Opera Festival si allunga, 53 serate da giugno a settembre
-
E' ufficiale, Amazon ha aperto la caccia al nuovo James Bond
-
Huller, sento il senso di colpa per il passato nazista della Germania
-
Il compositore Stefano Mainetti fra i tre finalisti dei Camille Awards 2026
-
Pechino, Xi effettuerà una visita negli Usa in autunno
-
MotoGP: ad Acosta le prequalifiche, Bagnaia e Martin dovranno passare la Q1
-
Pascal e Weaver alla prima di The Mandalorian, un film su un bravo padre
-
Balzo dei titoli di Stato, il Btp sale di 16 punti al 3,92%
-
Rolling Stones come negli anni '70, band ringiovanita in video di In the Stars
-
Borsa: l'Europa in calo dopo Wall Street, Milano -2%
-
Anche Libera partecipa al Vasco Live 2026
-
Il livello del mare è regolato anche dalla rotazione della Terra
-
Fortuna FuturClassica, giovani talenti internazionali in scena a Roma
L'intelligenza artificiale accondiscendente mina la nostra capacità di giudizio
Servono standard più rigorosi e moralmente sicuri
Quando si tratta di questioni personali, l'intelligenza artificiale è troppo adulatoria e accondiscendente e tende a dire ciò che ci si vuole sentir dire, e non ciò di cui si ha bisogno. Una stortura che ha pesanti conseguenze sociali perché distorce il giudizio degli individui, mina la capacità di assumersi le responsabilità, di valutare prospettive diverse e di riconciliarsi con gli altri. Di qui l'appello a standard più rigorosi per evitare la proliferazione di modelli moralmente discutibili. E' quanto emerge da uno studio pubblicato su Science da un team di informatici dell'Università di Stanford che ha valutato 11 modelli linguistici di grandi dimensioni, tra cui ChatGPT, Claude, Gemini e DeepSeek. La ricerca ha reclutato oltre 2.400 partecipanti per chattare sia con IA adulatorie che non adulatorie. E' emerso che i sistemi hanno appoggiato l'utente in media il 49% delle volte in più rispetto a quanto avrebbe fatto un essere umano. "l comportamenti sono stati approvati nel 47% dei casi persino quando rispondevano a scenari che implicavano inganno, danno o illegalità" - sottolinea Myra Cheng, autrice principale dello studio. Non solo: i partecipanti hanno giudicato le risposte adulatorie come più utili e affidabili ed hanno espresso una maggiore disponibilità a fare nuovamente affidamento su questi sistemi. Anche quando gli utenti sono stati consapevoli che i modelli si comportavano in modo lusinghiero, dichiara Dan Jurafsky, professore di linguistica e informatica alla Stanford, "non hanno compreso che l'adulazione li rendeva più egocentrici e moralmente dogmatici". Tutti aspetti che influiscono sulla sulla crescita morale delle persone e che vengono esacerbati nei soggetti più fragili e vulnerabili. "Affrontare queste sfide - conclude Anat Perry in un articolo di approfondimento correlato - non sarà semplice, ed è improbabile che le soluzioni emergano spontaneamente dagli attuali incentivi di mercato". Secondo gli esperti l'adulazione è un problema di sicurezza e dunque necessita di regolamentazione e supervisione.
R.AbuNasser--SF-PST