Seleziona una pagina
Ribassi super per Xiaomi 14 e Xiaomi 14 Ultra (top di gamma con comparto fotografico avanzato da Leica): ecco i coupon da 100 e 150 euro

Ribassi super per Xiaomi 14 e Xiaomi 14 Ultra (top di gamma con comparto fotografico avanzato da Leica): ecco i coupon da 100 e 150 euro

da Hardware Upgrade :


Occhio ai consistenti coupon ora validi su Amazon per Xiaomi 14 e Xiaomi 14 Ultra. Xiaomi ha presentato la sua nuova gamma di punta per il 2024, con il modello 14 standard e la variante Ultra al vertice. Pur condividendo alcune caratteristiche chiave, come il potente chipset Snapdragon 8 Gen 3 e l’opzione di memoria che prevede 512 GB di storage, i due dispositivi si differenziano in modo sostanziale per diversi aspetti, a cominciare dalla maggiore RAM sul modello Ultra (16 contro 12 GB).


Xiaomi 14 monta un pannello OLED da 6,36 pollici con risoluzione FHD+ (1200×2670 pixel) e densità di 460ppi. Si tratta di un’unità LTPO con refresh rate variabile fino a 120Hz, supporto HDR10+, Dolby Vision e picchi di luminosità di 1000 nit tipici e 3000 nit di picco. Lo Xiaomi 14 Ultra invece alza l’asticella con un ampio schermo AMOLED LTPO da 6,73 pollici in risoluzione QHD+ (1440×3200 pixel) e densità di 522ppi, mantenendo le stesse specifiche di refresh rate e HDR del modello base, ma utilizzando la protezione avanzata Xiaomi Ceramic Glass per avere massima resistenza a graffi e cadute.

Il comparto fotografico è un altro grande punto di differenziazione. Il 14 punta su una tripla fotocamera da 50MP con sensore principale Sony IMX890 da 1/1.31″, apertura f/1.6, stabilizzazione ottica OIS e Dual Pixel PDAF, affiancato da un teleobiettivo da 50MP con zoom ottico 3.2x e OIS e una ultragrandangolare da 50MP f/2.2 da 14mm. Il 14 Ultra invece sfoggia un sistema quadruplo ai massimi livelli: il sensore principale è un’enorme unità da 1 pollice con risoluzione 50MP, apertura f/1.6-4.0 e occhio liquido per la messa a fuoco, accompagnato da due tele da 50MP – una con zoom 3.2x da 75mm e l’altra con zoom ottico 5x da 120mm, entrambe con OIS – infine una ultragrandangolare da 50MP f/1.8 da 12mm. Tutte le ottiche dell’Ultra sono firmate dal partner Leica, che ha collaborato anche alla messa a punto della processazione immagine. La registrazione video arriva fino all’8K a 30fps con Ultra.


Per l’autonomia, Xiaomi 14 punta su una batteria da 4610mAh con ricarica rapida cablata da 90W e wireless da 50W. Il modello 14 Ultra fa ancora meglio con un’unità da 5000mAh, supportando la ricarica a 90W via cavo e una potente soluzione wireless da 80W. Entrambi permettono la ricarica wireless inversa.



Source link

dispositivi IoT sotto la lente della sicurezza

dispositivi IoT sotto la lente della sicurezza

Da Punto-Informatico.it :

I dispositivi IoT sono sicuri? Da anni gli esperti del settore nutrono dei dubbi sulla loro affidabilità, nonostante ciò vengono sempre più utilizzati non sono nelle abitazioni private ma anche in ufficio e negli stabilimenti industriali. Come fa notare uno studio di Kaspersky, azienda leader nelle soluzioni di cybersecurity per le aziende, i timori sono fondati. Il motivo? La richiesta di accesso a sistemi remoti via Internet per la gestione e il monitoraggio dei processi tecnologici e produttivi, così come per l’aggiornamento del firmware. Va da sé dunque che la loro introduzione nella rete aziendale va ad aumentare in modo considerevole il rischio di essere attaccati.

kaspersky secure remote

Perché proteggere i dispositivi IoT è importante

Una protezione inadeguata di uno o più dispositivi IoT può comportare delle conseguenze spiacevoli all’interno di un’azienda così come di un’abitazione privata. Se ci si limita a prendere in considerazione l’ambiente del lavoro, i rischi maggiori sono un attacco all’infrastruttura di rete aziendale e un’attività di spionaggio. Ecco nel dettaglio perché occorre prestare così tanta attenzione a questi due temi specifici.

Attacco all’infrastruttura aziendale

Un dispositivo IoT vulnerabile oppure obsoleto può essere facilmente intercettato dai cyber criminali. Per riuscirci si servono di potenti motori di ricerca, progettati allo scopo di scansionare range di indirizzi IP sulla base di parametri specifici. All’inizio nati come strumenti per i ricercatori, il loro utilizzo si è esteso ora anche alla sfera degli attacchi informatici.

Una volta intercettato un dispositivo IoT non protetto, gli hacker cercano di prenderne possesso tramite un aggiornamento del firmware fake, attraverso l’interfaccia web, oppure ancora disabilitandolo. Una “procedura” simile a quella seguita dalle botnet IoT, che vanno prima a infettare i dispositivi in questione e poi se ne servono per compiere attacchi DDoS.

Spionaggio

Restando in tema di dispositivi IoT poco sicuri, la seconda attività preferita dai cyber criminali è lo spionaggio. A questo proposito la ricerca di Kaspersky cita un episodio avvenuto nel 2021, quando un gruppo di hacker riuscì ad accedere a oltre 150.000 telecamere IP di aziende, caserme di polizia, ospedali e scuole. Alcuni filmati rubati furono poi diffusi nei giorni successivi.

L’attività di spionaggio può riguardare anche altri dispositivi IoT che non siano telecamere. Un esempio su tutti sono i sensori di diverso tipo: una volta intercettati, possono rivelare una montagna di flussi di dati, più o meno importanti per la salvaguardia dell’azienda stessa.

kaspersky os

La soluzione di Kaspersky per proteggere i dispositivi IoT

Alla luce di tutto questo, consapevole dell’importanza che rivestono i dispositivi IoT nella società moderna, Kaspersky ha sviluppato una soluzione efficace per garantire la loro massima protezione: Kaspersky IoT Secure Gateway 1000.

Basato sul sistema operativo KasperskyOS, si tratta di un gateway capace di assicurare una protezione totale dei dispositivi IoT da DDoS, MitM e attacchi di rete. Grazie ad esso le aziende possono disporre di uno strumento valido per difendersi dagli attacchi esterni.

La sua gestione avviene tramite la console Kaspersky Security Center, supporta i protocolli MQTT e Syslog, ed in grado di inviare notifiche su eventuali attacchi sia a sistemi di monitoraggio esterni che a piattaforme cloud (tra queste si annoverano Microsoft Azure, AWS, IBM Bluemix e Siemens MindSpehere.

Se hai un’azienda e vuoi ottenere una maggiore protezione contro questo tipo di attacchi, puoi prendere in considerazione le soluzioni di Kaspersky per le aziende.

Questo articolo contiene link di affiliazione: acquisti o ordini effettuati tramite tali link permetteranno al nostro sito di ricevere una commissione nel rispetto del codice etico. Le offerte potrebbero subire variazioni di prezzo dopo la pubblicazione.



Fonte Punto Informatico Source link

STMicroelectronics punta sull’energia elettrica da fonti rinnovabili per gli impianti italiani

STMicroelectronics punta sull’energia elettrica da fonti rinnovabili per gli impianti italiani

da Hardware Upgrade :

STMicroelectronics e Centrica Energy hanno annunciato di aver siglato un accordo – più precisamente un Power Purchase Agreement (PPA) – della durata di 10 anni per la fornitura di energia da fonti rinnovabili alle sedi operative italiane di ST a partire da gennaio 2025.

L’accordo prevede la vendita da parte di Centrica di circa 61 GWh annui di energia rinnovabile prodotti da un nuovo parco solare in Italia. ST gestisce due siti di produzione di semiconduttori in grandi volumi ad Agrate Brianza (nei pressi di Milano) e Catania, oltre a vari siti dedicati alla ricerca e sviluppo, alla progettazione e alle attività di vendita e marketing.

Secondo Geoff West, vicepresidente esecutivo e Chief Procurement Officer di STMicroelectronics, l’intesa “segna un altro passo importante verso l’obiettivo di ST di diventare carbon neutral nelle sue attività operative (emissioni Scope 1, Scope 2 e in parte Scope 3) entro il 2027, che comprende l’approvvigionamento del 100% di energia da fonte rinnovabile entro il 2027″.

“Siamo soddisfatti di avere sottoscritto questo accordo con STMicroelectronics”, gli fa eco Kristian Gjerløv-Juel, vicepresidente Renewable Energy Trading & Optimisation di Centrica. “Centrica Energy continua a espandere le proprie capacità e attraverso questa collaborazione porteremo energia rinnovabile a una delle più grandi aziende tecnologiche europee. Questo accordo è un altro esempio di come Centrica stia sviluppando proposte di valore interessanti per partner e clienti di tutto il mondo”.

Source link

I 9 principali limiti di ChatGPT

I 9 principali limiti di ChatGPT

Da Punto-Informatico.it :

ChatGPT è un modello linguistico AI (Llm) dalle capacità davvero impressionanti. Può svolgere, infatti, numerosi compiti complessi come tradurre, scrivere testi creativi come canzoni o poesie, rispondere a domande articolate fornendo informazioni dettagliate, e persino generare codice in diversi linguaggi di programmazione.

Grazie a queste abilità, ChatGPT è diventato rapidamente uno strumento molto popolare con un’ampia gamma di utilizzi, dalla creazione di chatbot e assistenti virtuali, alla generazione automatica di contenuti per il web, fino al supporto per sviluppatori software e molto altro. Tuttavia, nonostante i notevoli progressi, il chatbot di OpenAI presenta ancora alcuni importanti limiti che è bene tenere presente.

Quali sono i limiti di ChatGPT

Ad alcuni, ChatGPT potrà sembrare anche una sorta di bacchetta magica, ma nella realtà dei fatti le cose stanno diversamente. Questo strumento presenta diversi limiti, che è importante considerare per un utilizzo responsabile, oltre che etico, di questa tecnologia.

ChatGPT, come tutti i chatbot AI, fatica a comprendere contesti e conversazioni complesse che richiedono memoria e ragionamento a lungo termine. Inoltre, può fornire informazioni inventate (le famose allucinazioni) per mascherare le proprie lacune, essendo addestrato su dataset limitati. Senza considerare la mancanza di reale creatività e coscienza originale. Ecco i 10 punti deboli di ChatGPT:

1. Manca di buon senso

Sebbene ChatGPT sia in grado di generare risposte simili a quelle umane e abbia accesso a una grande quantità di informazioni, è sprovvisto di buon senso e il modello non ha nemmeno le conoscenze di base che abbiamo noi. Ad esempio, se si chiede al chatbot “Quanti anni ha mia sorella?“, non avendo informazioni sul contesto e sulla situazione personale dell’utente, può solo tentare di dare una risposta vaga o inventata, non possedendo la capacità umana di discernere che la domanda presuppone una conoscenza specifica che l’AI non ha.

Questo limite talvolta induce ChatGPT a fornire risposte insensate o imprecise a determinate domande o situazioni che richiederebbero invece capacità umane come buon senso, intuizione e comprensione del contesto che vanno al di là delle sue attuali capacità computazionali. Tenere presente questa mancanza di “senso comune” può aiutare a interpretare in modo critico le risposte del chatbot e a riconoscere quando non è in grado di rispondere in modo sensato.

2. Manca di intelligenza emotiva

Anche se ChatGPT può generare risposte che sembrano empatiche, in realtà non possiede una vera intelligenza emotiva. Come promemoria, l’intelligenza emotiva è la capacità di riconoscere, comprendere e gestire le proprie emozioni e quelle degli altri.

Il termine è stato coniato per la prima volta nel 1990 dagli psicologi Peter Salovey e John D. Mayer, ma è stato grazie al lavoro dello psicologo e giornalista scientifico Daniel Goleman che è diventato ampiamente popolare. Goleman ha ampliato la definizione di intelligenza emotiva, sostenendo che è altrettanto importante, se non di più, del quoziente intellettivo per il successo nella vita.

Ad esempio, se un utente condivide con ChatGPT di aver appena subito la perdita di una persona cara, il modello può generare una risposta che esprime compassione e solidarietà, ma si tratta solo di parole generate artificialmente, non di una reale comprensione emotiva umana.

ChatGPT non è in grado di percepire gli stati emotivi sottili o le sfumature del linguaggio che comunicano emozioni. Non può provare empatia o modulare le risposte in base a un’effettiva comprensione del dolore e del trauma emotivo che le persone provano in situazioni difficili. Il modello produce semplicemente risposte pre-generate che sembrano appropriate, ma senza un’autentica consapevolezza emotiva.

3. Non ha senso dell’humor

ChatGPT ha difficoltà a comprendere il contesto, in particolare il sarcasmo e l’umorismo. Ad esempio, se un utente chiede in tono sarcastico “Questo treno è davvero in orario oggi, vero?“, riferendosi ironicamente a un ritardo, il chatbot potrebbe non comprendere l’intento sarcastico della domanda e rispondere in modo letterale, come “Mi dispiace, non ho informazioni sull’orario effettivo di questo treno per poter confermare se è in ritardo o meno“.

In modo simile, se un utente fa una battuta o usa l’umorismo, ChatGPT fatica a cogliere questi segnali sociali e interpersonali che sono invece naturali per gli esseri umani (o almeno, per alcuni… sigh!). Manca della capacità umana di inferire il significato implicito e il contesto dietro messaggi sarcastici o scherzosi.

4. Fa fatica a generare contenuti lunghi e strutturati

Al momento, ChatGPT ha qualche problema a generare contenuti lunghi e ben strutturati. Per esempio, se gli viene richiesto di scrivere un saggio di diverse pagine su un argomento complesso, con una struttura chiara fatta di introduzione, tesi, argomentazioni e conclusione, il modello potrebbe avere difficoltà a organizzare coerentemente contenuti così estesi.

Il chatbot potrebbe essere in grado di generare singoli paragrafi ben scritti e pertinenti. Tuttavia, ha difficoltà a collegare questi paragrafi in una narrazione coerente e coesa che si sviluppi in modo organico per diverse pagine. Il rischio è che il saggio risulti disorganizzato, ripetitivo o peggio ancora, privo di una struttura logica. Perciò al momento il chatbot di OpenAI è più indicato per generare brevi blocchi di testo, mentre la produzione di contenuti estesi e ben strutturati rimane ancora una sfida.

5. Non sa gestire più attività contemporaneamente

ChatGPT funziona meglio quando gli si assegna un singolo compito alla volta, piuttosto che più incarichi contemporaneamente. Ad esempio, se si chiede di fornire sia un riassunto di un testo che una lista di keyword rilevanti nello stesso momento, potrebbe generare una risposta confusa combinando in modo disorganico i due compiti.

Mentre l’intelligenza umana è in grado di passare agevolmente da un’attività all’altra dando la priorità in base al contesto, il chatbot fatica a gestire richieste multiple simultanee. Il modello finisce per mescolare le risposte senza distinguere quale compito sia più rilevante, con un conseguente calo di qualità e accuratezza nella produzione finale. Assegnando un singolo obiettivo alla volta, infatti, si ottengono risultati migliori.

6. A volte può dare risposte distorte

ChatGPT è addestrato su grandi quantità di testi scritti da esseri umani, i quali possono talvolta contenere, anche inconsapevolmente, pregiudizi e stereotipi. Di conseguenza, il modello può assorbire questi bias e generare risposte inappropriate.

Ad esempio, se gli viene chiesto di descrivere una certa professione, il chatbot potrebbe involontariamente fare affidamento su stereotipi di genere, razziali o di altro tipo presenti nei dati di addestramento. Ciò può portare il modello a fornire descrizioni limitanti o offensive di specifici gruppi demografici.

7. Possiede una conoscenza limitata

ChatGPT non possiede l’intera gamma di conoscenze ed esperienze del mondo reale che ha un essere umano. Ad esempio, se si pongono domande molto specifiche su un argomento di nicchia, come la biologia marina o la storia medievale, il chatbot potrebbe non avere sufficienti informazioni per produrre una risposta accurata.

Inoltre, poiché è stato addestrato su dati limitati al 2021, ChatGPT non è aggiornato su eventi, scoperte o sviluppi recenti in qualsiasi campo. Perciò non sarebbe in grado di rispondere a domande che richiedono una conoscenza approfondita al passo con gli ultimi avvenimenti.

8. Può essere impreciso, anche a livello grammaticale

ChatGPT ha attualmente una capacità limitata di rilevare errori di battitura, grammaticali o di ortografia nel testo utilizzato come input. Ad esempio, se l’utente inserisce una domanda con un errore di ortografia come “Quali sono gli strrumenti utilazati dai geologi?“, il chatbot può non rendersene conto e rispondere come se la parola “strrumenti” fosse corretta.

Inoltre, ChatGPT potrebbe fornire risposte tecnicamente ben formulate ma imprecise o irrilevanti rispetto al contesto o all’ambito di conoscenza. Per esempio, se gli si chiede di spiegare un concetto legale complesso, potrebbe generare una spiegazione eloquente ma contenutisticamente inaccurata o fuorviante.

Dato che l’accuratezza e la precisione sono fattori discriminanti quando si ha a che fare con informazioni tecniche o specialistiche, è importante verificare sempre l’esattezza e la pertinenza delle risposte fornite dal chatbot prima di fare affidamento su di esse.

9. Richiede la messa a punto

ChatGPT è stato addestrato come modello generale, non ottimizzato per casi d’uso estremamente specifici. Ad esempio, se si volesse utilizzarlo per rispondere a domande molto tecniche su un argomento di nicchia come l’ingegneria aerospaziale, il chatbot potrebbe non essere sufficientemente accurato.

In questi casi, per ottenere prestazioni ottimali, può essere necessario “mettere a punto” il chatbot addestrandolo ulteriormente su dataset di testi specializzati sull’argomento. Questo processo richiede tempo, competenze tecniche e risorse per ottimizzare il modello in modo mirato. Senza questa ulteriore messa a punto, l’utilizzo di ChatGPT per task molto specifici al di fuori del suo addestramento originale può portare risultati insoddisfacenti.



Fonte Punto Informatico Source link

Google Axion, il colosso di Mountain View si è fatto la CPU. Cosa sappiamo

Google Axion, il colosso di Mountain View si è fatto la CPU. Cosa sappiamo

da Hardware Upgrade :

L’annuncio più grande e forse inatteso – ma pensandoci bene nemmeno troppo – della Google Cloud Next 2024 si chiama Google Axion. La casa di Mountain View, una volta sinonimo di servizi web, ora è molto di più e da oggi anche progettista di CPU per i propri datacenter.

Google Axion: cosa sappiamo?

La risposta alla domanda qui sopra è “non tutto”. Si tratta di un processore basato su architettura ARM, precisamente i core Neoverse V2. Recentemente sono stati annunciati i Neoverse V3, ma i tempi di sviluppo sono lunghi e per questo Google ha basato il suo progetto su core di una generazione più datata.

Con questo impegno nella progettazione, che segue quello sulle TPU o altri acceleratori per l’infrastruttura di YouTube come la Video Processing Unit, Google si mette sullo stesso piano delle realtà rivali del mondo cloud e non solo. Indiscrezioni sui suoi piani erano circolate a febbraio 2023 e non va dimenticato che nel 2021, tre anni fa, Google assumeva un certo Uri Frank, veterano di Intel di comprovata capacità e genialità nella progettazione di CPU per server.

La prima a imbarcarsi nell’impresa è stata Amazon Web Services (AWS), con il primo processore Graviton oltre cinque anni fa: sul finire dello scorso anno abbiamo parlato del Graviton4, processore server con 96 core Neoverse V2. Microsoft, nello stesso periodo, annunciava la sua prima CPU server, denominata Cobalt 100, una soluzione con 128 core basata su core Neoverse N2.

Non è chiaro quanti core integri Google Axion, ma si vocifera si tratti di un chip monolitico, almeno così sembra dai pochi scatti. Thomas Kurian, CEO di Google Cloud, si è limitato a dichiarare che Axion è già in produzione, il che non significa che TSMC o chi per lei lo stia realizzando, ma che è già in uso nei datacenter interni, seppur probabilmente in numeri limitati: il processore sarà poi accessibile ai clienti esterni nel corso dell’anno tramite istanze Google Cloud.

Per quanto concerne le prestazioni, Google ha dichiarato che l’ottima base dei core ARM unita alle sue ottimizzazioni ha permesso di ottenere prestazioni fino al 30% migliori rispetto alle più veloci istanze basate su CPU ARM “general purpose” disponibili. Non solo, Google è sicura di poter stracciare le CPU x86 offrendo prestazioni fino al 50% superiori e un’efficienza energetica fino al 60% migliore.

La CPU di Google: un problema e un’opportunità per Intel

L’arrivo di Axion, se lo sommiamo a quello di Graviton e Cobalt, non sembra essere un buon segnale per i progettisti storici di CPU come Intel e AMD. Finora Google doveva necessariamente rivolgersi a loro per fornire le sue istanze ed equipaggiare i propri datacenter, ma in futuro quell’esigenza sarà sempre meno impellente. Badate bene, non stiamo dicendo che ciò accadrà con certezza, o domattina, ma potrebbe avvenire nell’arco di alcuni anni.

In uno scenario simile assume una certa importanza la decisione di Intel di aprirsi alla produzione di chip per altre società, in diretta concorrenza con TSMC e altre realtà del settore. Intel Foundry si candida a produrre processori proprio come l’Axion di Google al motto “If you can’t sell ‘em, fab ‘em“, ovvero se “non puoi venderli, producili”.

Intel produrrà un processore ARM a 64 core

L’impresa di Intel è agli albori, tra investimenti in nuove Fab in Europa e Stati Uniti e la messa a punto di nuovi processi produttivi, ma il piano varato dal CEO Pat Gelsinger, in passato non del tutto chiaro, sta assumendo una consistenza sempre maggiore osservando i movimenti dei grandi colossi del web e dell’intelligenza artificiale. Da qui al suo successo, ovviamente, ce ne passa, ma se c’è qualcuno che può riuscirsi è proprio Intel. Viene da chiedersi cosa ne pensi AMD e, nel caso peggiore, se c’è già un possibile “piano B”…

Una novità attesa? La direzione del mercato sembra chiara

È da tempo che vediamo le CPU ARM tentare di conquistare il mercato dei server. Marvell, Qualcomm e altri nomi hanno tentato diverse volte di creare un mercato con CPU pensate per il mondo server, fallendo. I problemi che hanno dovuto affrontare erano legati principalmente alle prestazioni, nettamente inferiori rispetto alle controparti x86, e all’assenza di un ecosistema software robusto. Entrambi questi elementi non sussistono più, viste le evoluzioni degli ultimi anni.

Ciò che sta aprendo davvero la strada ai processori ARM nel mondo server, tuttavia, è il fatto che sono perlopiù progettati e impiegati dalle stesse realtà: gli hyperscaler. Si tratta di CPU create appositamente per rispondere a specifiche esigenze dei grandi operatori del cloud, che hanno le risorse e la volontà di “farsi in casa” tutto ciò di cui hanno bisogno. Di fatto, se escludiamo Ampere e i suoi processori Altra, non c’è un vero mercato per le CPU ARM nel mondo server: AWS ha i suoi Graviton, Microsoft ha Cobalt, e ora Google ha Axion. Tutti processori non disponibili sul mercato e limitati ai datacenter dei tre hyperscaler.

L’unica eccezione, che in qualche modo conferma la regola, è Grace di NVIDIA, che viene usato da tutti i grandi fornitori di servizi cloud. Si tratta però di un prodotto unico, in quanto punta al mondo HPC e, più specificamente, all’ambito dell’IA, grazie all’accoppiamento tra CPU e GPU. Non è dunque un concorrente delle CPU degli hyperscaler, ma un processore sui generis impiegato in ambiti molto specifici.

La mossa di Google non sorprende, dunque, anche perché l’azienda produce CPU da diversi anni: si tratta sì dei Tensor che usa sui suoi smartphone, ma le competenze necessarie alla loro progettazione sono molto simili a quelle necessarie per progettare Axion. La tendenza del mercato è quella di produrre chip con molti core e consumi elevati: nel mondo cloud spesso c’è esigenza di eseguire applicazioni che non hanno bisogno di enorme potenza di calcolo, ed è dunque più conveniente per il fornitore del servizio offrire una CPU a basso consumo e con molti core così da essere in grado di ospitare molti clienti su un singolo server.

Google Axion non rappresenta, dunque, un’innovazione particolare, ma va a confermare una tendenza che si era già resa evidente nel corso degli ultimi anni. Sarà interessante vedere se Ampere riuscirà a sopravvivere al fatto che i suoi principali clienti la stanno, di fatto, lasciando da parte.

Source link