Seleziona una pagina
Amazon, i robot che usa nei suoi magazzini
| Wired Italia

Amazon, i robot che usa nei suoi magazzini | Wired Italia



Da Wired.it :

È lo scaffale che viene da te, non viceversa. Succede al centro di distribuzione Amazon Mxp6 di Novara che, come è consuetudine, prende il nome dall’aeroporto più vicino, Malpensa. Il simbolo del centro è un cavallo d’oro, ispirato a una statuetta realizzata da Leonardo da Vinci su commissione di Ludovico il Moro, che , secondo la leggenda, sarebbe custodita nelle mura del castello della città, residenza estiva degli Sforza, anche se non è mai stata trovata.

Il centro sorge nella frazione di Agognate ed è entrato in funzione nel 2021. Con un obiettivo di 900 assunzioni a tempo indeterminato entro il 2024, ha raggiunto gli 850 contratti in soli due anni. Mxp6 è uno dei fulfillment center di Amazon, ovvero i centri di distribuzione in cui si trova l’inventario. Nel caso dell’impianto di Agognate, i prodotti conservati sono di piccole dimensioni, possono cioè essere contenuti in una delle ceste nere, unità di misura standard di Amazon. Se non si considerano i prodotti per i quali la legge lo prevede, la merce che si trova nell’impianto non viene suddivisa per categorie. Dai centri di distribuzione – sono in tutto 10 in Italia -, la merce viene inviata in un pacco chiuso in un centro di smistamento (middle mile). L’ultimo passaggio è quello che prevede l’arrivo dei prodotti nelle delivery station (last mile), che provvedono poi alla consegna ai clienti.

Negli ultimi anni i centri di distribuzione di Amazon sono interessati da uno sviluppo tecnologico volto a minimizzare le operazioni ripetitive e pericolose per la sicurezza dei dipendenti. Vediamo insieme quali sono le principali tecnologie del centro di Novara.

Il sollevatore a vuoto

Nell’area dedicata all’Inbound del magazzino avviene la ricezione dei prodotti che arrivano tramite le baie di scarico. La merce è di due tipi: quella venduta e spedita da Amazon e quella di terze parti ma spedita da Amazon. È trasportata da camion, che possono essere riempiti con colli da cielo a terra, o con i pallet.

I prodotti vengono poi inseriti nelle ceste: il limite di peso tra il contenuto e il contenitore deve essere al massimo di 15 chilogrammi. Una volta che la cesta è stata riempita, viene convogliata su un nastro smistatore, che la trasporta verso un determinato piano, in base al carico di lavoro, a quante persone lavorano sui vari piani e che tipo di materiale contiene. Lo stoccaggio è casuale.



[Fonte Wired.it]

I talent stanno creando più di un problema nel mondo del doppiaggio
| Wired Italia

I talent stanno creando più di un problema nel mondo del doppiaggio | Wired Italia



Da Wired.it :

Nel mondo del cinema esistono da molto tempo, ma negli ultimi tempi il problema sta diventando sempre più spinoso. Stiamo parlando dei “talent” nel mondo del doppiaggio, in particolare dei film di animazione. Chi non ricorda Fabrizio Frizzi dare vita a Woody in Toy Story? Voci che sono entrate nella memoria dell’infanzia di molti di noi, ma che erano essenzialmente lontane dalla grande tradizione del doppiaggio italiano. Una scuola, quella dei doppiatori italiani, che probabilmente non ha eguali nel resto del mondo ma con il passare degli anni ha visto sempre più invadente l’introduzione di “voci vip” nei film, in particolare in quelli di animazione. Tuttavia quest’inserimento costante dei talent nel doppiaggio, oltre a creare più di un danno al sistema, non ha dato nemmeno gli esiti sperati in fatto di pubblico. Anzi, in più di una circostanza il pubblico ha creato queste decisioni esprimendo la propria preferenza per un ritorno alla lingua originale.

La situazione nel mondo del doppiaggio

Una situazione che nello scorso febbraio è stata tra le motivazioni dello sciopero indetto dall’ANAD, l’Associazione Nazionale Attori Doppiatori. La protesta legata ai talent è legata al fatto che questi ultimi, rispetto al passato, hanno molta meno formazione e dedicano all’attività di interpretazione del personaggio per cui sono stati chiamati un tempo decisamente inferiore a quello dei loro predecessori illustri. A questo poi si aggiunge la delicata questione dei diritti d’autore: sembra, infatti, che i doppiatori debbano firmare a lavorazione finita contratti in cui cedono i diritti all’uso della propria voce, ad aziende che lavorano con l’intelligenza artificiale, permettendo a queste modificarla, tagliarla e utilizzarla a proprio piacimento. Le Ai grazie al machine learning sono in grado di riprodurre in modo sempre più veritero le voci delle persone portando a farle dire quello che vogliono. Tutto questo avviene in un contesto in cui si continua a trattare per il rinnovo del Contratto Collettivo Nazionale di Lavoro del Settore Doppiaggio, che comprende anche direttori, assistenti, dialoghisti, adattatori), fermo a retribuzioni di 15 anni fa.

Le nuove polemiche: dalla Sirenetta a Elemental

La polemica è tornata ad accendersi con gli ultimi film Disney: per la Sirenetta è stata molto criticata la scelta di affidare al cantante Mahmood la voce di Sebastian, il granchio che accompagna Ariel nelle sue avventure e che è un personaggio centrale nel cartone originale. Nel live action, però, il due volte vincitore di Sanremo non ha convinto il pubblico, ancor di più nell’esecuzione della colonna sonora “In fondo al mar”.



[Fonte Wired.it]

Stephen King , se siete fan del Re non potete perdervi King on Screen
| Wired Italia

Stephen King , se siete fan del Re non potete perdervi King on Screen | Wired Italia



Da Wired.it :

Stephen King è probabilmente lo scrittore le cui opere sono state più adattate sullo schermo: proprio di questo parla il documentario King on Screen, una celebrazione ma anche un’analisi del successo che i romanzi kinghiani hanno avuto al cinema o in televisione. Il trailer diffuso nelle ultime ore non solo ripercorre le immagini più memorabili di film come Carrie,Shining e Misery non deve morire o It, ma contempla anche numerose interviste a coloro che hanno realizzato questi adattamenti, da Mick Garris (L’ombra dello scorpione) a Frank Darabont (Il Miglio verde), passando per l’immancabile Mike Flanagan, ormai regista affezionato ai titoli del Maestro del brivido, dato che dopo Doctor Sleep e Il gioco di Gerald porterà prossimamente sullo schermo anche La Torre Nera, in una nuova versione seriale, e il racconto La vita di Chuck.

Come si racconta nel documentario, tutto parte da Carrie: Lo sguardo di Satana: il primissimo romanzo di King, pubblicato nel 1974, fu trasformato in un film inquietante, avvincente e rivoluzionario solo due anni dopo a opera del regista Brian De Palma, con Sissy Spacek nei panni della protagonista. Da lì non ci è più fermati: sul grande schermo sono arrivate, però, non solo le sue grandi storie horror e del mistero, ma anche capolavori più emotivi e introspettivi come Stand By Me e Il Miglio verde. L’ultima versione filmica in ordine di tempo, invece, è The Boogeyman, nelle sale da giugno e tratta dal suo racconto Il baubau.

Ma qual è il segreto di questo successo dell’immaginario di Stephen King sullo schermo? Secondo i registi e creativi interpellati da King on Screen sono molteplici: innanzitutto perché questo scrittore mette a punto sempre personaggi completi e umanissimi, che solo dopo vengono inseriti in contesti fantasmagorici; inoltre le ambientazioni in città minori, sperdute o periferiche fa sì che il ribaltamento della normalità sia ancora più impressionante e allo stesso tempo qualcosa in cui riconoscersi; infine, sono i suoi messaggi profondi, che riguardano soprattutto i rapporti umani e come ci si tratta l’un l’altro. Insomma, questo documentario sembra proprio una chiave di lettura molto stratificata interessante non solo per i film e le serie tv ma anche per i tanti romanzi e racconti che il Maestro ci ha regalato in decenni e decenni di attività.



[Fonte Wired.it]

R2B, l’edizione 2023 di Research To Business mette al centro i talenti e le competenze
| Wired Italia

R2B, l’edizione 2023 di Research To Business mette al centro i talenti e le competenze | Wired Italia



Da Wired.it :

Nell’anno che l’Europa dedica al mondo delle competenze, giovedì 8 e venerdì 9 giugno si tiene la 18esima edizione del salone internazionale della ricerca e delle competenze per l’innovazione R2B – Research To Business, dedicato in questa occasione al tema Skills And Talents. Insieme a speaker e ospiti italiani e internazionali, al centro della discussione ci sono le strategie per attirare e valorizzare giovani che posseggono (o possono maturare) quelle capacità e conoscenze che sono essenziali per la crescita delle imprese e della società.

L’evento, che si tiene presso BolognaFiere e organizzato da Art-ER n collaborazione con Wired, si inserisce nel solco della programmazione strategica regionale, così come di quella europea. L’investimento nella formazione e nello sviluppo delle competenze, infatti, non è solo al centro delle strategie della Commissione Europea, ma anche oggetto della prima legge regionale per l’attrazione e la valorizzazione del talento in Emilia-Romagna.

Il programma di R2B mira a mettere in evidenza da un lato le migliori opportunità delle università, delle imprese e del sistema dell’innovazione, da offrire ai giovani che restano o arrivano nella regione. E dall’altro punta a individuare i profili professionali più ricercati nel mondo del lavoro di oggi e del prossimo futuro, ossia quelli che dovranno essere in grado di guidare i cambiamenti in corso in tutti gli ambiti della società e dell’economia.

L’Emilia-Romagna come culla dei giovani talenti

Puntare su ragazze e ragazzi di talento per costruire un presente e un futuro di qualità è un obiettivo largamente condiviso, che la Regione Emilia-Romagna ha provato a concretizzare con un approccio ad hoc. Una nuova legge, approvata il 15 febbraio di quest’anno, mira in particolare trattenere giovani talenti per ridurre il fenomeno dei cervelli in fuga, e anzi per stimolare il flusso dei cervelli di ritorno e di quelli in ingresso. Tra i punti fondamentali della legge, che peraltro è la prima di questo genere nel nostro panorama nazionale, spiccano le agevolazioni alle imprese che assumono giovani e i percorsi formativi personalizzati e di specializzazione in collaborazione con diverse istituzioni scolastiche.

L’Emilia-Romagna, comunque, già da anni punta a valorizzare e ad attrarre i giovani lavoratori con risultati soddisfacenti, come dimostra anche il recente studio di Art-ER che evidenza il saldo positivo dei movimenti migratori in Regione, sia rispetto alle altre Regioni italiane sia rispetto all’estero.

Il programma di R2B

Tra workshop, convegni e laboratori – visibili sul sito rdueb.it, con un foltissimo programma – l’edizione di quest’anno si rivolge anzitutto a ricercatori, enti di alta formazione, dottorandi, imprese, enti formativi e di orientamento e agenzie per il lavoro, oltre che più in generale a chi lavora sulle risorse e sulla valorizzazione del capitale umano. Sul main stage, in particolare, la due giorni di R2B è organizzata in quattro appuntamenti principali, uno per ciascuna mezza giornata.



[Fonte Wired.it]

ecco come ha cambiato le nostre vite
| Wired Italia

ecco come ha cambiato le nostre vite | Wired Italia



Da Wired.it :

Il 6 giugno del 2013, dieci anni fa, il quotidiano britannico The Guardian pubblicava il primo articolo di una lunga serie dedicata alla sorveglianza di massa da parte della National Security Agency (NSA) degli Stati Uniti. Quel primo articolo si riferiva a come l’intelligence Usa potesse raccogliere i dati telefonici di milioni di clienti statunitensi di Verizon, uno dei maggiori fornitori di servizi di telecomunicazione, in base a un’ordinanza top secret. L’articolo era basato proprio sul testo di quell’ordinanza, ottenuto dal quotidiano di Londra da una fonte interna alla NSA cui era stato garantito l’anonimato. L’articolo conteneva la prima delle rivelazioni di Edward Snowden, ex membro dell’intelligence Usa e uno dei maggiori whistleblower della sua generazione. A quell’articolo ne sono seguiti decine di altri che, nel complesso, hanno costruito uno dei maggiori casi giornalistici di questa epoca, la cui eco si fa ancora sentire a un decennio di distanza.

Al caso Snowden si devono infatti molte cose e in primis una mai così dettagliata ricostruzione di come funzionino le operazioni di sorveglianza in questa epoca e quanto diffuse esse siano anche da parte di governi saldamente democratici. Per quanto il focus delle rivelazioni di Snowden fosse principalmente sugli Stati Uniti e i paesi ad essi più strettamente alleati, i materiali forniti dal whsitleblower hanno mostrato, prove alla mano, le varie possibilità a disposizione dei governi per raccogliere e analizzare dati prodotti dalla digitalizzazione e come questa raccolta sia, in molti casi, in pieno contrasto con i diritti fondamentali. In secondo luogo, Snowden ha mostrato come, spesso, i mondi delle aziende tech della Silicon Valley e quello dell’intelligence fossero vicini, spesso in modo quasi simbiotico, come nel caso del programma “Prism”, forse il più noto (ma anche il più frainteso) tra quelli analizzati dai giornalisti coinvolti nelle indagini dei materiali forniti da Snowden.

Temi caldi: privacy e data justice

Andando però oltre i dettagli tecnici della sorveglianza della NSA, si può affermare come al caso Snowden si debbano molti dei dibattiti pubblici ancora in corso attorno a temi fondamentali come privacy e data justice che da allora si sono susseguiti e che oggi tornano in modo ancora più evidente nel contesto dell’intelligenza artificiale. Se il tema della riservatezza e dei diritti digitali è oggi al centro di buona parte delle questioni tecnologiche lo si deve in buona parte al bing bang iniziato con il caso Snowden dieci anni fa. Consequenze indirette del caso Snowden sono anche molte scelte normative avvenute negli ultimi anni, a cominciare dal GDPR in Europa fino alla recente multa record inflitta a Meta per come i dati degli utenti europei sono trattati negli Stati Uniti. La lista potrebbe però essere però molto più lunga, proprio perché l’esplosione del caso Snowden, come pochi altri casi simili in tempi recenti, ha letteralmente tracciato una riga che divide la storia di internet tra un prima e un dopo. Tutt’ora, insomma, è impossibile tracciare tutte le conseguenze di quello che è stato definito come “Snowden Effect”.

Dieci anni, nei termini di internet, sono un’eternità, letteralmente un’era geologica. Eppure, i documenti forniti da Snowden ai giornalisti nel 2013 sono tutt’ora di estrema attualità perché, come ha scritto la ricercatrice Kate Crawford, offrono uno spaccato senza precedenti del periodo storico che ha segnato l’ascesa delle tecniche che è possibile inserire sotto il generico cappello di “big data” e che oggi, per esempio, sono al centro di come funzionano strumenti come ChatGPT e i large language model (LLM). I documenti di Snowden, insomma, raccontavano di come si potessero intercettare a scopi di sorveglianza i cavi sottomarini che fanno funzionare internet ma, in nuce, includevano già le prime avvisaglie dell’assetto tecnologico-politico oggi dominante e votato alla quantificazione e alla datafication di ogni attività umana. Questo non significa, certamente, che prima di Snowden questi temi non esistessero: nell’accademia si parla di surveillance studies almeno dagli anni ’70 e il mondo dell’attivismo digitale e dell’hacking ne discute a sua volta da diversi decenni. Snowden, però, ha fatto di queste questioni un tema in tutto e per tutto politico, consentendo a queste questioni critiche di entrare direttamente nelle agende più importanti e più coinvolte, compresa quel settore tecnologico, da allora estremamente più attento – almeno sulla carta – alle questioni di privacy e sicurezza.

Un velo di ipocrisia

Per quanto questi temi ora esistano e siano dibattuti più che mai, altrettanto non si può dire del successo di molte delle battaglie insite nei file di Snowden. Dirlo solleva non poca amarezza, ma si tratta di battaglie in buona parte perdute: viviamo, infatti, in un mondo ancora più sorvegliato – sia da governi che da entità private -e dove gli occhi e i sensori in grado di monitorarci si sono, se possibile, ulteriormente moltiplicati nel business come nella politica. La sorveglianza biometrica, per esempio – quella svolta tramite riconoscimento facciale, tra gli altri – è più in voga che mai in un campo che è ancora poco o nulla normato, mentre l’industria della sorveglianza ha trovato negli spyware – ancora non così sviluppati nel 2013 come sono invece oggi – una nuova direzione di espansione e un ricco settore di business, anche in Italia.



[Fonte Wired.it]

le differenze tra i visori del momento
| Wired Italia

le differenze tra i visori del momento | Wired Italia



Da Wired.it :

A livello di hardware, Vision Pro monta due display da 1,41″ micro-oled 4k con altissima luminosità e densità di pixel per pollice quadrato (4000 ppi), mentre Quest 3 punta su un singolo schermo lcd da 4128×2208 pixel. I processori che muovono il visore Apple sono il potente M2 assieme al nuovo e dedicato R1 per gestire tutte le fotocamere (12), microfoni e altri sensori disseminati all’interno ed esterno e deputati al tracciamento di occhi e mani; Quest 3 monta uno Snapdragon Xr2 gen 2 accompagnato da 12 GB di ram, un dato che per il momento (e come tradizione) non è stato diffuso da Apple.

Per quanto riguarda il software, Vision Pro è governato dal nuovo VisionOs basato su framework iOs con un ambiente dinamico, personalizzabile e in chiaro stile Apple, sfruttando anche la fotocamera 3d per creare contenuti tridimensionali oppure funzioni come Persona, che crea un avatar per FaceTime, e l’accesso a Apple Tv. Quest 3 è basato su Android e permette di accedere al metaverso così come a una libreria di oltre 500 giochi, che risultano ben fruibili grazie ai controller fisici (Vision Pro può collegare controller fisici esterni, nel caso). Entrambi consentono il pass-through ovvero la capacità di osservare cosa succede all’esterno, ma solo Vision Pro compie anche il passaggio inverso mostrando a chi circonda l’utente gli occhi di chi indossa il visore.

Apple Vision Pro contro Meta Quest 3 – il prezzo

Il video di presentazione di Quest 3

Considerando le differenze è dunque significativa la differenza di prezzi tra i visori, dato che Quest 3 uscirà in autunno a 569,99 euro proponendosi come il più allettante per il pubblico consumer, mentre Vision Pro si farà vedere nei primi mesi del 2024, per il momento solo negli Usa, a 3499 dollari ovvero circa 3265 euro al cambio attuale, rivolgendosi non solo a chi ha molto più budget, ma anche a un uso più professionale in quanto presentato come spatial computer.



[Fonte Wired.it]