-
Fabregas 'Como poteva vincere,ma al Maradona fatto passi avanti'
-
Conte,bene il Como e noi in ripresa, match di stampo europeo
-
Spalletti all'esordio Juve 'lavoriamo per far nascere empatia'
-
Serie A: Napoli-Como 0-0
-
Divieto 'generazionale' di fumo alle Maldive, il primo al mondo
-
Ancelotti'sogno far vincere al Brasile la sesta Coppa del mondo'
-
Fiorentina: out Gosens, lesione di primo grado a coscia sinistra
-
Sinner 'Zverev non stava bene, non piace mai vincere così'
-
Auto: la 63ª Alghero Scala Piccada promette scintille
-
Sinner batte Zverev e vola in finale al Masters di Parigi
-
Juric 'non salvo nessuno, cancelliamo subito la sconfitta'
-
Al Nextgen di Tokyo il modello AI di ultima generazione
-
Serie A: Udinese-Atalanta 1-0
-
I 90 anni di Lino Patruno, concerto al Parco della Musica
-
Usb, 'no alla manovra di guerra verso lo sciopero generale'
-
Masters Parigi: Aliassime in finale, sorpassa Musetti per Finals
-
'Qualcosa di lilla', I danni della bulimia
-
Pappano pianista a Roma per l'Istituzione Universitaria Concerti
-
Jesse Eisenberg, donerò un rene a un estraneo
-
Wta Finals al via, Errani-Paolini subito vincenti nel doppio
-
Cgil, assemblea a Firenze con Landini sulla manovra
-
Pisa: Gilardino, priorità è dare continuità a nostre prestazioni
-
Caravaggio, Mapplethorpe e Pasolini danzano a Capodimonte
-
Lecce: Di Francesco, andiamo a Firenze carichi al massimo
-
Le scorte di gas continuano a crescere, Italia quasi al 95%
-
Gasperini 'i 5 cambi non mi piacciono ma li uso, sembra basket'
-
Serbia, 16 minuti di silenzio per le 16 vittime di Novi Sad
-
Gasperini, vorrei che Dybala facesse stagione importante
-
Mit, avanti con il bacino idrico di Livigno per le Olimpiadi
-
Prima a Reggio Emilia del quartetto Cantieri di solitudine
-
Milan: Allegri, 'Roma prima con merito, c'è impronta Gasp'
-
Wp, in arrivo nei Caraibi la portaerei Usa Gerald Ford
-
Milan: Allegri, Leao sta bene ma abbiamo perso dei giocatori
-
Fiorentina: Daniele Pradè non è più il direttore sportivo
-
La pianista Victoria Nava suona Beethoven in birreria
-
L'IA non potrà sostituire il lavoro umano nel terziario
-
Cgia, rispetto al pre-Covid la Sicilia guida la crescita
-
Il Genoa ufficializza, Vieira non è più l'allenatore
-
Pichetto al G7, 'serve tutela ambiente e competitività'
-
Genoa: Viera ci ripensa e se ne va
-
Orsa, verso nuovi scioperi Trenord, contratto scaduto da 10 anni
-
L'indice Pmi manifatturiero in Russia giù a 48 punti in ottobre
-
Nba: prima sconfitta per i Sixers, Bulls imbattuti
-
Nfl: World Series, va a gara-7 la sfida tra Dodgers e Blue Jays
-
Carney, 'incontro con Xi è stata una svolta' dopo tensione dazi
-
Media, 'i 3 corpi consegnati non sono di ostaggi israeliani'
-
Cina apre a ripresa export di 'alcuni' chip Nexperia
-
Tennis: Parigi; Medvedev ko, Zverev in semifinale contro Sinner
-
Sinner, "Non penso al numero 1, si va giorno per giorno"
-
Tennis: Sinner batte Shelton e va in semifinale a Parigi
Scienziati sollecitano i Paesi Onu, 'limiti a usi pericolosi IA'
'Agire entro 2026 o difficile controllo umano significativo'
Oltre 200 personalità di spicco tra cui premi Nobel e ricercatori che lavorano presso giganti dell'Intelligenza artificiale come Anthropic, Google, Microsoft e OpenAI, hanno firmato il documento 'Global Call for AI Red Lines' rivolto ai Paesi presenti all'Assemblea Generale delle Nazioni Unite in cui invitano a stabilire rapidamente, entro il 2026, 'linee rosse' da non oltrepassare per l'IA e gli usi pericolosi. "L'Intelligenza artificiale ha un immenso potenziale per migliorare il benessere umano, ma la sua attuale traiettoria presenta pericoli senza precedenti - si legge nel documento che tra i firmati vede Geoffrey Hinton e Yoshua Bengio, considerati tra i padri dell'IA -. I governi devono agire con decisione prima che si chiuda la finestra per un intervento significativo". Secondo gli autori della lettera, le 'linee rosse' per l'IA sarebbero divieti concordati a livello internazionale su usi considerati troppo rischiosi tra cui l'affidamento all'intelligenza artificiale del comando di arsenali nucleari o di qualsiasi tipo di sistema d'arma autonomo letale. Oppure l'uso dell'IA per la sorveglianza di massa, gli attacchi informatici e i deepfake. I firmatari del messaggio hanno esortato i governi a stabilire limiti all'IA entro la fine del prossimo anno dato il ritmo a cui avanza la tecnologia. "L'Intelligenza artificiale potrebbe presto superare di gran lunga le capacità umane e aumentare rischi come pandemie ingegnerizzate, disinformazione diffusa, manipolazione su larga scala di individui, compresi i bambini, problemi di sicurezza nazionale e internazionale, disoccupazione di massa e sistematiche violazioni dei diritti umani", si legge nella lettera. "Se non si interviene, molti esperti compresi quelli in prima linea nello sviluppo, avvertono che diventerà sempre più difficile esercitare un controllo umano significativo nei prossimi anni".
K.AbuTaha--SF-PST