-
Opera Roma, Mariotti e Michieletto al debutto con Wagner
-
Branduardi ricoverato per accertamenti clinici, lieve malore
-
Atalanta: Juric "siamo in ritardo, bisogna vincere"
-
Finals: Bolelli-Vavassori, Torino era tra obiettivi principali
-
Atalanta: Juric, Lookman è un ragazzo particolare
-
Finals: Bolelli 'futuro? Mi sento ancora al 100% giocatore'
-
Tax gap sale a 98-102 miliardi. Economia sommersa 9,1% Pil
-
Le famiglie spendono 384 euro per l'acqua, +40% in 10 anni
-
Paolo Fresu e Yuja Wang nel tempio della sinfonica di Cagliari
-
Lazio: Sarri 'Inter più forte, serve coltello tra i denti'
-
Rinviato a Roma il concerto di Branduardi, problemi di salute
-
Siccità in Iran, il governo razionerà l'acqua a Teheran
-
Francia,indagine su complotto legato a terrorista attentati 2015
-
MotoGp: Bezzecchi "contento per la pole. Ora la Sprint"
-
Apre la nuova 'Stazione dell'arte' di Monte Sant'Angelo a Napoli
-
MotoGp: Bezzecchi conquista la pole a Portimao
-
MotoGp: Portimao, Aldeguer il più veloce nelle seconde libere
-
Il Sole 24 Ore: un francobollo celebra il quotidiano
-
Italiano muore in incidente aereo in Groenlandia
-
Usa, video mostra uomo svenire durante l'arresto,polemica su Ice
-
Pechino contro l'Ue, 'accolta al Pe dirigente di Taiwan'
-
S&P rivede al rialzo l'outlook su Israele da negativo a stabile
-
Pugilato: Pamela Noutcho campionessa mondiale pesi leggeri
-
Nel Sud più pensioni che operai, impiegati e autonomi
-
Dall'Italia 3 milioni al Pam per i rifugiati sudanesi in Libia
-
Nba: Antetokounmpo trascina i Bucks nella vittoria sui Bulls
-
Morto a 75 anni il regista neozelandese Lee Tamahori
-
Finals: lunedì sera esordio Sinner, forse derby con Musetti
-
Tourè regala la prima vittoria al Pisa, Cremonese ko
-
Taekwondo: al via a Messina i campionati italiani senior
-
Wta Finals: la finale sarà Sabalenka-Rybakina
-
Basket: Eurolega; Anadolu Efes-EA7 Milano 93-97 (2ot)
-
Tennis: Atene; Musetti domani giocherò per il titolo e le Finals
-
E' morto James Watson,premio Nobel per la scoperta del Dna
-
Il petrolio chiude in rialzo a New York a 59,75 dollari
-
Tennis: Musetti batte Korda e vola in finale ad Atene
-
F1: in Brasile, Norris in pole per la Sprint
-
Alcaraz, 'gente pensa che dobbiamo odiarci ma non è vero'
-
Louvre annuncia misure d'emergenza per potenziare sicurezza
-
Grammy, candidati anche Spielberg e il Dalai Lama
-
Vertiginose acrobazie rendono i pettirossi preda dei pipistrelli
-
Finals: Alcaraz "darò massimo per finire 2025 da numero 1"
-
Sinner, 'penso sempre di essere numero 2 per motivarmi"
-
Amb.russa, Abdrazakov applaudito da vertici Italia a Scala
-
Finals: Sinner, "vorrei provare di nuovo emozioni scorso anno"
-
Fotogrammi di Moda Italiana in mostra a Riad
-
Wta Finals: Rybakina batte Pegula e va in finale
-
Fiorentina; Vanoli, Sfida rischiosa ma le sfide mi piacciono
-
Trump, 'incontro con Putin? C'è sempre una possibilità'
-
Fratture vertebrali svelano l'impeto passionale dei dinosauri
Uno studio esplora come rendere l'IA meno energivora
Pubblicazione su Jstat indaga efficacia del curriculum learning
Più biglietti della lotteria compri, maggiori sono le probabilità di vincere, ma spendere più di quanto guadagni non è una strategia saggia: qualcosa di simile accade nell'IA basata sul deep learning: più grande è una rete neurale, meglio può apprendere il compito assegnato. Purtroppo però rendere una rete infinitamente grande durante l'addestramento è impossibile e inefficiente. I cervelli biologici apprendono attraverso un processo parco nell'uso delle risorse che si è provato a imitare fornendo alle macchine un addestramento graduale, che parte da esempi semplici e progredisce verso quelli complessi (curriculum learning): una strategia sensata ma irrilevante per le reti molto grandi. Lo studio pubblicato sul Journal of Statistical Mechanics: Theory and Experiment (Jstat), uno dei giornali della Sissa/Iop, ha cercato di capire il perché di questo fallimento, suggerendo che queste reti sovraparametrizzate sono talmente ricche da sfruttare spontaneamente un percorso di apprendimento basato più sulla quantità di risorse che sulla loro qualità. Questa osservazione suggerisce che, regolando la dimensione iniziale della rete, il curriculum learning potrebbe rivelarsi una strategia valida, da sfruttare per creare reti neurali meno energeticamente dispendiose. "Ciò che abbiamo osservato è che una rete neurale sopra parametrizzata non ha bisogno di un percorso di apprendimento, perché, invece di essere guidata dagli esempi, è guidata dal fatto che dispone già di tante risorse—parametri che per caso si trovano già vicini a una soluzione, che vengono imboccati spontaneamente", osserva Luca Saglietti, fisico dell'Università Bocconi di Milano, che ha coordinato lo studio. Questo non significa che le reti non possano beneficiare del curriculum learning, ma che, data l'alta quantità di parametri iniziali, sono spinte in una direzione diversa. In teoria quindi si potrebbe trovare un modo per iniziare con reti più piccole e adottare il curriculum learning. "Questa è una parte dell'ipotesi esplorata nel nostro studio", rileva Saglietti. "Almeno negli esperimenti che abbiamo condotto, abbiamo osservato che, iniziando con reti più piccole, l'effetto del curriculum inizia a migliorare le prestazioni rispetto a quando l'input viene fornito casualmente. Questo miglioramento è maggiore rispetto a quando si continua ad aumentare i parametri fino al punto in cui l'ordine degli input non importa più".
I.Saadi--SF-PST