-
MotoGp: Alex Marquez vince la Sprint a Portimao
-
Morto a Roma il maestro Beppe Vessicchio
-
Sondaggio, si risparmia per paura, si spende per piacere
-
Lando Norris vince la Sprint in Brasile, secondo Antonelli
-
Il Settimo Presidente, doc su Pertini al Festival dei Popoli
-
Predator: Badlands, quando ti identifichi con un mostro cattivo
-
In vendita la casa natale dei fratelli Taviani nel Pisano
-
Finals: Bolelli-Vavassori, vanno giocate con regole normali
-
Opera Roma, Mariotti e Michieletto al debutto con Wagner
-
Branduardi ricoverato per accertamenti clinici, lieve malore
-
Atalanta: Juric "siamo in ritardo, bisogna vincere"
-
Finals: Bolelli-Vavassori, Torino era tra obiettivi principali
-
Atalanta: Juric, Lookman è un ragazzo particolare
-
Finals: Bolelli 'futuro? Mi sento ancora al 100% giocatore'
-
Tax gap sale a 98-102 miliardi. Economia sommersa 9,1% Pil
-
Le famiglie spendono 384 euro per l'acqua, +40% in 10 anni
-
Paolo Fresu e Yuja Wang nel tempio della sinfonica di Cagliari
-
Lazio: Sarri 'Inter più forte, serve coltello tra i denti'
-
Rinviato a Roma il concerto di Branduardi, problemi di salute
-
Siccità in Iran, il governo razionerà l'acqua a Teheran
-
Francia,indagine su complotto legato a terrorista attentati 2015
-
MotoGp: Bezzecchi "contento per la pole. Ora la Sprint"
-
Apre la nuova 'Stazione dell'arte' di Monte Sant'Angelo a Napoli
-
MotoGp: Bezzecchi conquista la pole a Portimao
-
MotoGp: Portimao, Aldeguer il più veloce nelle seconde libere
-
Il Sole 24 Ore: un francobollo celebra il quotidiano
-
Italiano muore in incidente aereo in Groenlandia
-
Usa, video mostra uomo svenire durante l'arresto,polemica su Ice
-
Pechino contro l'Ue, 'accolta al Pe dirigente di Taiwan'
-
S&P rivede al rialzo l'outlook su Israele da negativo a stabile
-
Pugilato: Pamela Noutcho campionessa mondiale pesi leggeri
-
Nel Sud più pensioni che operai, impiegati e autonomi
-
Dall'Italia 3 milioni al Pam per i rifugiati sudanesi in Libia
-
Nba: Antetokounmpo trascina i Bucks nella vittoria sui Bulls
-
Morto a 75 anni il regista neozelandese Lee Tamahori
-
Finals: lunedì sera esordio Sinner, forse derby con Musetti
-
Tourè regala la prima vittoria al Pisa, Cremonese ko
-
Taekwondo: al via a Messina i campionati italiani senior
-
Wta Finals: la finale sarà Sabalenka-Rybakina
-
Basket: Eurolega; Anadolu Efes-EA7 Milano 93-97 (2ot)
-
Tennis: Atene; Musetti domani giocherò per il titolo e le Finals
-
E' morto James Watson,premio Nobel per la scoperta del Dna
-
Il petrolio chiude in rialzo a New York a 59,75 dollari
-
Tennis: Musetti batte Korda e vola in finale ad Atene
-
F1: in Brasile, Norris in pole per la Sprint
-
Alcaraz, 'gente pensa che dobbiamo odiarci ma non è vero'
-
Louvre annuncia misure d'emergenza per potenziare sicurezza
-
Grammy, candidati anche Spielberg e il Dalai Lama
-
Vertiginose acrobazie rendono i pettirossi preda dei pipistrelli
-
Finals: Alcaraz "darò massimo per finire 2025 da numero 1"
Minerva 7B, nuova versione della risposta italiana a ChatGpt
Ha 7 miliardi di parametri, più del doppio di quella precedente
Minerva, la risposta italiana all'Intelligenza Artificiale come ChatGpt, cresce e diventa più sicura: si chiama Minerva7B, dove 7B sta per 7 miliardi di parametri, più del doppio di quella precedente. L'ultima versione dell'Intelligenza Artificiale interamente addestrata da zero in italiano, sotto la guida di Roberto Navigli del Natural Language Processing dell'Università Sapienza di Roma, è stata presentata oggi nella stessa università. Accessibile per tutti all'indirizzo https://minerva-llm.org , Minerva7B è un progetto sviluppato dal gruppo di ricerca Sapienza Nlp all'interno del Future Artificial Intelligence Research, il progetto che realizza la strategia nazionale sull'intelligenza artificiale grazie ai fondi Pnrr, e in collaborazione con Cineca che ha reso disponibile il supercomputer Leonardo. "Oggi presentiamo il primo modello pre-addestrato in lingua italiana stile ChatGpt, quindi un modello linguistico, che si chiama Minerva 7B", ha detto Navigli. "E' un modello che è addestrato anche per rispondere a domande e istruzioni, comandi ed è particolarmente interessante perché abbiamo fatto un lavoro importante sulla sicurezza del modello, la cosiddetta safety, cioè la capacità del modello di evitare e rispondere a domande che potrebbe portare alla generazione di contenuti indesiderati o malevoli". Evoluzione e miglioramento del precedente modello che contava 3 miliardi di parametri, Minerva 7B ha una maggior capacità di memorizzazione e rielaborazione dei testi, sempre basata su fonti aperte di dati che spaziano da Wikipedia e grandi archivi aperti di libri come il progetto Gutemberg. "A differenza di ChatGpt o Gemini, che sono modelli chiusi così come anche Mistral o Llama3 che sono scaricabili, Minerva appartiene a quella ristretta famiglia di modelli aperti, ossia che è possibile analizzare liberamente", ha aggiunto Navigli. .
M.AbuKhalil--SF-PST