-
Orsini, 'Piano di Rilancio Italia, ne parleremo con Giorgetti'
-
Milano Music Week 2025, Tananai guida la "Nuova generazione"
-
Una voce ritrovata, al cinema la storia di Tommaso da Celano
-
Mondiali 2026: 27 azzurri per Moldova e Norvegia, novità Caprile
-
Baroni, 'sentimento e coraggio, nel derby i valori del Torino'
-
Urso, 'Costituzione non consente nazionalizzazione Ilva'
-
Borsa: Milano peggiora con l'Europa, in luce Mps e Tim
-
Doppio impegno per l'U21, Baldini chiama Vavassori e Calvani
-
Israele chiude i valichi di Kerem Shalom e Al-Awja
-
Gb revoca le sanzioni al presidente della Siria
-
Stellantis, Napolitano lascia Lancia e commerciale Europa
-
Calcio: Allegri '100 vittorie con il Milan? Contano i 3 punti'
-
Airbag Citroen, accordo associazioni consumatori con Psa Italia
-
Milan: Allegri 'Pulisic c'è, Rabiot e Gimenez dopo la sosta'
-
Milan: Allegri, 'a Parma è fondamentale fare risultato'
-
Al Meyer 80 bimbi ustionati trattati sostanza estratta da ananas
-
Urso, 'Costituzione non consente la nazionalizzazione Ilva'
-
Bankitalia, imprese ancora indietro su gestione rischi clima
-
È Max Pezzali la star del Capodanno in piazza a Sassari
-
Finals: Sinner-Alcaraz in campo, primo allenamento a Torino
-
Katy Perry, arriva il suo nuovo singolo Bandaids
-
Dieci concerti in Italia per il 'Vai tour' di Gianni Fiorellino
-
Premier Giappone,crisi a Taiwan crea allarme sicurezza per Tokyo
-
Lo shutdown si abbatte su Italia, stato di agitazione sindacati
-
L'oro torna sopra i 4.000 dollari l'oncia
-
Parte la fabbrica della microcar Mole Urbana
-
Di rene i primi organoidi ibridi, facili da coltivare
-
Lesione crociato, ma Tabanelli non si opera per puntare i Giochi
-
Karen Gomyo al violino debutta con la Filarmonica di Modena
-
Oksana Lyniv, ultimo concerto con Orchestra Comunale Bologna
-
Vanoli al Viola Park,parte avventura alla guida della Fiorentina
-
A Paolo Virzì il Premio Guglielmi al Dorico Film Fest
-
Pierdavide Carone, un nuovo album per mostrare chi sono
-
Tanto stile in 40 delle 99 variazioni di Queneau a Trieste
-
A Singapore primo computer quantistico a scopi commerciali
-
Borsa: Milano prosegue in rialzo, corrono Mps e Moncler
-
Cina a Trump, ingiusto chiederci colloqui su armi nucleari
-
Cinema di frontiera, tutto pronto per FrontDoc 2025
-
Da un fungo la prima memoria vivente di un computer
-
Nba: esordio super per Green, e Phoenix batte i Clippers
-
Da Fondazione Cariplo oltre 215 milioni per attività 2026
-
Non si fermano aumenti, gasolio servito autostrada 2,022euro
-
Borsa: l'Europa apre positiva, si guarda alle trimestrali
-
Mimit, esaurite le risorse di Transizione 5.0
-
Gli utili Mps a 1,37 miliardi, piano con Mediobanca nel 2026
-
Intesa Sanpaolo cresce in Ue nella gestione dei patrimoni
-
Il petrolio è in rialzo, wti +0,81% a 59,91 dollari
-
Presidente Tunisia Saied, semplificare lavoro agli agricoltori
-
L'oro è in lieve calo a 3.996 dollari
-
Unipol, l'utile dei 9 mesi balza a 1,23 miliardi (+48%)
Il paradosso dei chatbot, più crescono più sbagliano
Dà risposte errate piuttosto che ammettere l'ignoranza
Più crescono e fanno esperienza, maggiore è il rischio che rispondano in modo errato piuttosto che ammettere di non saper rispondere: è uno dei grandi problemi dei grandi modelli linguistici che alimentano i chatbot, come ChatGpt e Llama. A dirlo è lo studio pubblicato sulla rivista Nature da José Hernández-Orallo, dell'Istituto di ricerca per l'Intelligenza Artificiale di Valencia in Spagna, che sottolinea inoltre come questi errori sfuggano facilmente agli umani. Una delle importanti caratteristiche dei grandi modelli linguistici, o Llm, è la capacità di evolvere nel tempo integrando al loro interno nuove informazioni derivanti dalle interazioni con gli utenti o con gli sviluppatori, così da diventare teoricamente sempre più affidabili. Ma analizzando questo percorso in tre degli Llm più polari, in particolare ChatGpt di OpenAi, Llama di Meta e il modello aperto Bloom, i ricercatori spagnoli hanno osservato un cambiamento del loro comportamento. Secondo gli autori della ricerca i tre modelli inizialmente erano più propensi di oggi nell'ammettere di non poter rispondere a domande su questioni su cui non si sentivano certi di dare risposte accurate. Una prudenza che è andata gradualmente svanendo: "i modelli 'ingranditi' e modellati tendono a dare una risposta apparentemente sensata, ma sbagliata, molto più spesso rispetto al passato", affermano i ricercatori nell'articolo. I chatbot "stanno diventando più bravi a fingere di essere informati", ha commentato Hernández-Orallo. Un problema che si aggiunge inoltre all'incapacità da parte degli umani di riuscire a notare questi errori, spesso perché ci si fida automaticamente della macchina. Un problema che potrebbe essere parzialmente risolto impostando negli Llm una sorta di soglia di affidabilità più alta, al di sotto della quale l'IA non rilascia una risposta. Scelta possibile per i chatbot ideati per lavorare in settori specifici, ad esempio in campo medico, ma più difficile immaginare, sottolineano i ricercatori, possa essere introdotta da quelle aziende che sviluppano chatbot 'generalisti' che puntano proprio sulla capacità di risposta in settori molto ampi.
M.AlAhmad--SF-PST