Seleziona una pagina
I 10 record e primati della scienza nel 2023

I 10 record e primati della scienza nel 2023



Da Wired.it :

Oltre che di festicciole, la fine dell’anno è anche il momento dei consuntivi. Per riflettere su quello che è accaduto, godere dei successi, prendere delle contromisure, pianificare il futuro. E quindi, tra temperature (troppo) sopra la media, computer super-potenti, animali longevi, nuovi farmaci (e altro), vi proponiamo la nostra selezione di record e primati della scienza del 2023. Se non dovesse bastarvi, qui trovate quella dell’anno precedente, e qui e qui altre succose classifiche dell’anno che sta per terminare.



[Fonte Wired.it]

Intelligenza artificiale, cosa ne pensa il fondatore di Wikipedia

Intelligenza artificiale, cosa ne pensa il fondatore di Wikipedia



Da Wired.it :

Jimmy “Jimbo” Wales è il fondatore della Fondazione Wikimedia e co-creatore di Wikipedia, l’enciclopedia libera e gratuita lanciata nel gennaio del 2001 che ha cambiato il nostro modo di cercare informazioni online. Oggi il suo sito web è un punto di riferimento centrale nel panorama web: così tanto visitato da essere tra i siti meglio indicizzati su Google e, più di recente, grazie alla sua sconfinata mole di informazioni ad accesso libero è diventato la banca dati più importante su cui è stata addestrata l’intelligenza artificiale di ChatGPT. Jimmy Wales, grazie alla sua vasta esperienza e al suo status di pioniere nel mondo di internet, rappresenta una delle voci più ascoltate e autorevoli per quanto riguarda gli sviluppi del web e delle tecnologie del digitale. Recentemente le sue posizioni sul futuro dell’intelligenza artificiale e su come regolamentarla hanno suscitato un ampio dibattito. Pertanto, approfittando della sua partecipazione al Web summit 2023 di Lisbona, Wired gli ha rivolto alcune domande per provare a inquadrare rischi e opportunità intorno a questa tecnologia in piena ascesa.

Pensa che l’AI generativa possa rappresentare una risorsa per Wikipedia e per l’ecosistema dei contenuti generati dagli utenti?
“È un’innovazione tecnologica molto eccitante e avrà un impatto sociale importante, ma è piuttosto difettosa sotto molti aspetti, come tutti sanno. La cosa più ovvia è che al momento non è in grado di gestire la struttura ad albero di Wikipedia: non ci si avvicina nemmeno. Inventa cose, persino le fonti. È abbastanza terribile. Ma pensiamo che in futuro possa essere utilizzata per esaminare la struttura ad albero delle diverse voci, per esaminare le fonti e cercare contraddizioni o informazioni mancanti. O, ancora, per dare suggerimenti alla comunità. Il nostro team di apprendimento automatico sta lavorando su molte idee diverse”.

L’ultima versione di GPT è connessa direttamente al web e ne estrae i dati in tempo reale. Potrebbe bypassare Wikipedia e allo stesso tempo fornire risultati che non sono corretti. Quali potrebbero essere le conseguenze di questo fenomeno?
“Nessuno apprezza ottenere risposte scorrette. Per questo motivo a Wikipedia non stiamo pensando di usare l’AI generativa in modo massiccio. Ma se fossimo in grado di prendere un modello linguistico di grandi dimensioni e addestrarlo sul nostro sito per migliorare la ricerca interna, potrebbe essere davvero interessante. Le persone non dovrebbero più andare su Bing o su Google e forse potrebbero venire direttamente da noi quando hanno una domanda. Non so se riusciremo a farlo, ci sono molte sfide tecniche a causa della natura dei modelli linguistici di grandi dimensioni. È estremamente complesso impedire a questa tecnologia di generare cose che sembrano plausibili ma che in realtà sono false, poiché questi algoritmi agiscono come generatori di parole basati sulla probabilità. Penso comunque che ci siano delle opportunità sull’accessibilità alle informazioni. Invece di andare a leggere un articolo e basta sarà possibile avere un dialogo con Wikipedia. Credo che questo sia interessante”.

Secondo alcuni, l’AI generativa potrebbe democratizzare la conoscenza, ma allo stesso tempo rappresenta un rischio per le democrazie. Qual è la sua opinione sull’impatto di queste tecnologie sulla società e sull’affidabilità delle informazioni?
“Nella misura in cui circolano disinformazione e fake news, questo è un male. In realtà credo sia un problema non causato dall’AI, ma dai modelli di business tossici dei social media che ci accompagnano da molto tempo. L’AI ha migliorato la capacità di alcuni attori di generare rapidamente informazioni false e plausibili, ma è un problema più complicato. Credo che dovremmo concentrarci su come lavorare per fornire informazioni di qualità alle persone. Penso che il pubblico si stia evolvendo in questo senso. Le persone stanno iniziando a capire che le foto sono facili da falsificare, più di quanto non lo fossero un tempo quando lo si faceva con Photoshop e per farlo in maniera credibile bisognava essere piuttosto bravi ad utilizzare i software. Ora, chiunque può creare una foto falsa e modificare un audio e così via – questo è un cambiamento fondamentale”.

In una recente intervista alla Bbc lei ha definito “pensiero magico” l’idea che l’AI possa essere controllata, affermando l’illegittimità da parte degli organi sovranazionali come l’Onu di legiferare in questo ambito. Qual è la sua posizione sulla regolamentazione dell’AI?
“Innanzitutto l’Onu non ha alcuna autorità su ciò che uno sviluppatore fa a casa propria. Potrebbe influenzare le legislazioni nazionali, ma anche in questo caso, i governi non possono certo regolamentare ciò che gli sviluppatori di software fanno a casa loro usando Photoshop o qualsiasi altro programma. Non è nemmeno lontanamente plausibile. Le persone hanno in mente un modello secondo il quale l’AI può essere realizzata solo da cinque o dieci grandi aziende, e quindi basta regolamentare quelle, ma non è questa la situazione in cui ci troviamo. I modelli linguistici di grandi dimensioni disponibili open source sono ancora un passo indietro rispetto a quelli dei grandi produttori, ma sono già abbastanza avanzati per procurare grossi danni, e non c’è modo di tornare indietro. Quindi penso che se le persone credono davvero che sia necessario che il governo faccia qualcosa, beh, non succederà mai. Cerchiamo di essere realisti. Non è affatto la risposta”.



[Fonte Wired.it]

Animali a rischio di estinzione, i primi 10

Animali a rischio di estinzione, i primi 10



Da Wired.it :

La perdita di biodiversità e di specie animali è una delle conseguenze del consumo di suolo, dell’antropizzazione, dell’agricoltura intensiva e in definitiva anche del cambiamento climatico, che si prevede avrà un impatto sempre maggiore sul problema nei prossimi anni. Ma secondo gli esperti i pericoli arrivano anche da fenomeni meno noti, come l’introduzione di specie invasive, la diffusione di malattie e, naturalmente, dal bracconaggio.

Un lungo elenco delle specie animali da salvare è del Wwf. “Sono tantissime – dice a Wired Marco Antonelli, naturalista dell’organizzazione –. Basta guardare il Living planet report che pubblichiamo ogni due anni per comprendere la gravità della situazione”. L’ultima edizione, la quattordicesima, risale al 2022. Dall’analisi che prende in considerazione un vasto campione di popolazioni di oltre 5.000 specie, si evidenzia un calo medio del 69% dell’abbondanza delle popolazioni di vertebrati (mammiferi, uccelli, anfibi, rettili e pesci), in meno di una generazione umana. In pratica, “tre specie su quattro sono in sofferenza”, nonostante le azioni intraprese per contrastare questo fenomeno abbiamo mostrato, in diversi casi, una certa efficacia. Il problema è che lo sviluppo e il consumo di risorse hanno accelerato come non mai; e le iniziative non bastano a bilanciarne gli effetti negativi sui territori.

I peggiori risultati si riscontrano in America Latina e la zona dei Caraibi, con un calo medio del 94% delle popolazioni dal 1970: un dato inquietante. In Africa, la riduzione nello stesso periodo è stata del 66%, in Asia del 55%. In Nord America ci si è fermati al 20%, mentre in Europa e Asia Centrale al 18%. Tra i gruppi di animali analizzati sono le specie d’acqua dolce a mostrare il calo più marcato, con un declino medio dell’83%. Secondo gli studiosi, a oggi, una percentuale compresa tra l’1 e il 2,5% delle specie di uccelli, mammiferi, anfibi, rettili e pesci si è già estinto.

Tuttavia, i tentativi di conservazione, nei casi in cui sono state applicati, hanno mostrato una certa efficacia. Concetti chiave utilizzati in questo contesto sono, per esempio, “specie chiave” e “specie bandiera”. Cosa si intende con questi termini? “Una specie chiave ha una funzione ecologica: la sua conservazione ha ricadute sulla conservazione delle altre – sintetizza Antonelli -. Per esempio, preservando il leopardo delle nevi, indirettamente, conserviamo anche l’enorme areale che occupa”. Quello di specie bandiera, invece, è un concetto legato alla comunicazione. Sono tutte quelle specie che “attirano l’attenzione del grande pubblico sulle campagne che portiamo avanti, e di conseguenza anche i fondi necessari”.

Ecco in rassegna dieci tra i generi e le specie più a rischio secondo il Wwf.



[Fonte Wired.it]

I migliori visori per la realtà virtuale, cinque modelli per ogni esigenza

I migliori visori per la realtà virtuale, cinque modelli per ogni esigenza



Da Wired.it :

I primi visori erano tutti dotati di cavo, ma ultimamente sono nati molti modelli utilizzabili anche wireless. La differenza sostanziale tra un modello con cavo e uno senza è legata a quanta comodità di movimento volete durante le vostre sessioni di gioco e di lavoro, al costo però di performance minori. I cavi infatti possono essere fastidiosi da avere intorno mentre ci si muove nella realtà virtuale, almeno fino a quando non si fa l’abitudine. In compenso però un visore con cavo ha una banda di trasmissione maggiore dell’immagine permettendo di avere una risoluzione e una qualità visiva più alta, senza contare che con un cavo non si rischia che la batteria finisca improvvisamente. Molti degli ultimi modelli supportano sia l’utilizzo con cavo che wireless, risolvendo il problema, ovviamente con un prezzo più alto.

Prima dell’acquisto, considerate sempre anche la comodità di un visore, specialmente se lo si userà per molte ore di fila. I primi modelli di visore erano molto grandi e pesanti, e spesso provocavano un senso di calore fastidioso, oltre che di pesantezza alla testa, se indossati per lungo tempo. Fortunatamente gli ultimi modelli sono più compatti, migliorando la qualità del tempo in cui li si utilizza.

Un ultimo ma estremamente importante consiglio è quello di provare a utilizzarne uno per capire se si soffre di motion sickness. Ad esempio, ci sono delle sale lan in diverse città che permettono di utilizzarli, così da poter sperimentare prima di un eventuale acquisto. La motion sickness è quel senso di nausea che in alcuni individui si manifesta per via della situazione in cui il cervello avverte del movimento anche se il corpo rimane immobile, generando confusione e l’effetto mal di mare. Purtroppo non si può capire se si soffre di motion sickness senza prima provare un visore: ci sono individui che soffrono di mal d’auto e mal di mare, ma magari non hanno nessun problema giocando con un visore, mentre altri, che non hanno mai avuto problemi di questo tipo, potrebbero invece soffrirne parecchio.

Fortunatamente con l’evoluzione tecnologica dei visori sono nate soluzioni che limitano la motion sickness, ad esempio utilizzando dei sistemi di movimento nei videogiochi che limitano le azioni che solitamente provocano questo senso di malessere. Ad ogni modo ,consigliamo sempre di non esagerare con i tempi d’utilizzo dei visori per la realtà virtuale per ridurre al minimo i rischi di motion sickness.

Le caratteristiche tecniche da tenere a mente

Ogni visore per la realtà virtuale è un vero gioiello per quanto riguarda le tecnologie al suo interno, e anche per questo che i visori hanno generalmente prezzi molto alti, almeno quando si parla dei modelli più seri e validi. Ci sono infatti molti visori a basso costo che non sono altro che degli schermi da attaccarsi alla faccia. Il livello d’immersione che può fornire un visore di fasci alta è un altro discorso rispetto a questi altri modelli, grazie a diverse tecnologie che riescono a far dimenticare all’utente di essere semplicemente in piedi in una stanza.



[Fonte Wired.it]

Transizione green, perché richiede un approccio di neutralità tecnologica

Transizione green, perché richiede un approccio di neutralità tecnologica



Da Wired.it :

Come si possono raggiunge davvero gli ambiziosi obiettivi globali di decarbonizzazione che ci siamo posti come comunità internazionale (se non globale)? Di sicuro non concentrando la ricerca, lo sviluppo e gli investimenti su una singola tecnologia, il cui fallimento comprometterebbe l’intera transizione. Al contrario, il raggiungimento dell’obiettivo finale non può che essere frutto di un progresso trasversale che coinvolge tutti i settori. Per esempio la promozione delle rinnovabili, così come l’elettrificazione e la riduzione dei consumi, giocano un ruolo decisivo in questa partita, ma non esiste tra loro una gerarchia né sono gli unici aspetti che contano.

Per progredire il più velocemente possibile, infatti, conviene disporre di un mix di tecnologie applicabili a vari settori ed esigenze, dallo sviluppo delle agro-energie ai vettori decarbonizzanti, passando per le bio-energie e i combustibili alternativi come l’idrogeno. Questo approccio, come vedremo più in dettaglio nel seguito, va sotto il nome di neutralità tecnologica, in cui uno degli elementi chiave è il procedere parallelamente su vari settori, ciascuno dei quali potrà avere un ruolo significativo verso il Net Zero.

Prospettive di transizione energetica

Secondo lo scenario delineato dalla Agenzia internazionale dell’energia (Iea), il raggiungimento della neutralità climatica sarà il risultato del contributo di numerose tecnologie concomitanti. Infatti, soltanto il 25% della trasformazione deriva dall’eolico e dal solare, mentre un 20% è ascrivibile all’elettrificazione e il restante 55% è suddiviso tra variazione dei consumi, efficienza energetica, combustibili alternativi, sistemi di stoccaggio, bioenergie e idrogeno. Tra qualche anno questi numeri, che già di per sé raccontano un’importante eterogeneità, potrebbero essere molto diversi: il mercato delle rinnovabili e lo sviluppo dei nuovi settori energetici sono ancora incerti, con alcune tecnologie già mature, altre in fase di sviluppo e altre ancora bloccate per questioni burocratiche o formali. È possibile dunque che le previsioni di sviluppo di un settore non siano rispettate e sia necessario ricercare altre soluzioni: è in questo scenario caratterizzato dall’incertezza che la diversificazione può essere la chiave per tenere aperte più strade e adattarsi in maniera rapida ed efficace alle inevitabili evoluzioni del mercato.

Del resto, l’obiettivo di giungere all’azzeramento delle emissioni nette di anidride carbonica è ancora lontano in termini temporali, e le variabili in gioco sono davvero numerose. A oggi, occorre considerare anche i settori che più impattano sulle emissioni climalteranti: come emerge dal report fornito dall’Agenzia europea dell’ambiente (Eea), oltre un 10% deriva dall’agricoltura e più del 9% dai processi industriali, a cui seguono la gestione dei rifiuti e la mobilità.



[Fonte Wired.it]

Il Dc Extended Universe è ufficialmente finito dopo dieci anni

Il Dc Extended Universe è ufficialmente finito dopo dieci anni



Da Wired.it :

Con l’arrivo in questi giorni nelle sale di Aquaman e il regno perduto si è finalmente concluso il DC Extended Universe. Il DCEU è stato inaugurato nel 2013 con Man of Steel di Zack Snyder, come risposta al Marvel Cinematic Universe e per circa un decennio ha appunto cercato di eguagliare la complessità narrativa e soprattutto i risultati al box office della rivale. I risultati, però, sono stati decisamente più altalenanti dell’MCU, il quale paradossalmente proprio con l’esaurimento dell’universo DC sta invece negli ultimi tempi, e per la prima volta nella sua storia, affrontando i suoi primi contraccolpi.

Dopo alcuni progetti abortiti nei primi anni Duemila, come un Batman vs. Superman di Wolfgang Petersen e un Justice League di George Miller (in cui Superman sarebbe stato nientemeno che Nicolas Cage), finalmente appunto l’universo coordinato pensato da Warner Bros. e Dc parte con Man of Steel di Zack Snyder. Proprio Snyder doveva essere la mente preposta a supervisionare tutta la saga, e infatti nel 2016 arriva anche Batman vs. Superman, sempre da lui diretto. Nel frattempo sempre nel 2016 Suicide Squad di David Ayer, che però viene stroncato da pubblico e critica e rappresenta la prima vera battuta d’arresto. Arrivano poi Wonder Woman nel 2017 e Aquaman nel 2018 – finito poi per essere il film più visto della saga – a rinsaldare il quartetto d’attori (Henry Cavill, Ben Affleck, Gal Gadot e Jason Momoa) che interpretano i principali supereroi Dc.

Il punto di non ritorno

In mezzo, però, avviene quel pasticciaccio brutto di Justice League: il film del 2017 doveva essere il primo Avengers del DCEU ma il regista Snyder si allontana dal progetto sia per problemi personali sia per dissidi con la Warner; il film esce completato e sostanzialmente stravolto da Joss Whedon, andando incontro a un’accoglienza disastrosa. Per molti il DCEU è morto proprio lì, e bisognerà aspettare 2021, e solo dopo una controversa campagna online, per vedere il tanto agognato Snyder’s Cut di Justice League. Nel mentre la serie filmica si perde in mille rivoli, tra novità che sono un po’ delle scommesse perché incentrati su supereroi meno noti (Shazam!, Black Adam, Blue Beetle), sequel scricchiolanti (Birds of Prey, Wonder Woman 1984) e multiversi circondati di polemiche (The Flash). Un’ulteriore svolta arriva però nel 2021 quando a James Gunn, proveniente dall’MCU coi suoi Guardians of the Galaxy, viene chiesto di dirigere il reboot The Suicide Squad.

L’intervento di Gunn segna una specie di spartiacque e Warner decide di ripartire da lì: nel 2022 istituisce i Dc Studios, accentrando tutte le divisioni che si occupavano di produzioni supereroistiche (e smantellando al contempo l’universo televisivo, noto anche come Arrowverse, per molti altro motivo di debolezza della controparte cinematografica: non sempre duplicare gli sforzi è positivo); al contempo nomina Gunn e il produttore Peter Safran co-ceo della nuova realtà, affidando a loro il compito di rifondare un nuovo DC Universe, coerente tra piccolo e grande schermo. Il primo capitolo, Superman Legacy, uscirà nel 2025 facendo ripartire questo universo. Nel frattempo, con un Aquaman e il regno perduto accolto tiepidamente al botteghino, cala definitivamente il sipario sul DC Extended Universe: nonostante alla fine sia il nono franchise con più incassi nella storia (6,7 miliardi di dollari guadagnati in totale), non è mai riuscito a decollare, né a scaldare il cuore del pubblico. Ora Batman & co., però, sono pronti a tornare a nuova vita.



[Fonte Wired.it]