Informatica

Apple lascia Intel per Arm
Informatica, Tecnologia

Apple dice addio a Intel e lancerà i primi Mac con processore Arm

Con un annuncio che ha già segnato la storia dell’informatica, durante lo scorso WWDC 2020 Apple ha promesso l’abbandono di Intel in favore di processori ARM su Mac.

Le ragioni di questa strategia sono profonde e avranno un impatto enorme su utenti e sviluppatori.

Progettando internamente i propri processori, infatti, Apple e i suoi utenti godranno di innumerevoli vantaggi, tra cui:

  • Controllo: Addio alle attese e alle roadmap disattese. Apple non sarà più costretta a sottostare ai cicli di rilascio di Intel; potrà decidere quando lanciare nuovi modelli di processore, e soprattutto decidere quali funzionalità debbano integrare.
  • Scalabilità: Impiegando la medesima tecnologia di processori su iPhone, iPad e Mac, si risparmia, si rende più coesa la piattaforma e al contempo si spinge all’integrazione di tecnologie sempre più all’avanguardia, mutuando dal mondo PC quel che serve al mondo mobile, e viceversa.
  • Universalità: Quando l’hardware sarà pressoché identico, lo stesso software che gira su Mac potrà girare anche su iPhone e iPad, e viceversa. Ciò significa che non dovremo più acquistare versioni differenti del software. Un’app per sistemi Apple funzionerà semplicemente su tutti i vostri dispositivi e computer.
  • Autonomia: Un processore nato per il mondo mobile consuma molto meno dei suoi omologhi nati per il mondo PC, e questo si traduce in portatili più sottili, che scaldano meno e dotato d’una durata più estesa della batteria.

Ovviamente, tra tanti pro, non mancheranno i contro; la transizione, per quanto coadiuvata da Apple, sarà pur sempre una seccatura; inoltre il software virtualizzato (cioè fatto girare su una piattaforma non nativa) non è performante come quello nativo, ma d’altro canto i vantaggi del passaggio ad ARM sono tali che vale la pena sopportare un po’.

PERCHÈ ARM?

I processori ARM sono già in uso -e da tanto tempo- su iPhone, iPad, Apple Watch e Apple TV; in più vengono utilizzati per gestire la sicurezza nei Mac di ultima generazione. Basandosi sulle specifiche di questa piattaforma, gli ingegneri di Cupertino possono creare le CPU di cui hanno bisogno, potenti quanto necessario e dotate delle funzionalità hardware che servono al software.

In virtù di questa novità, Apple può slegarsi dai cicli di sviluppo di Intel e decidere da sé quando rilasciare nuovi processori (e dunque nuovi Mac). Inoltre, ogni avanzamento tecnologico su macOS potrebbe portare benefìci anche ad iOS, e viceversa. Si tratta di una scelta coraggiosa ma molto lungimirante.

QUANTO SONO POTENTI?

I processori che Apple infilerà sui Mac saranno specificatamente progettati per questo scopo, e dunque -a fronte di consumi contenuti- di sicuro consentiranno di raggiungere prestazioni per lo meno paragonabili a quelle di Intel.

Ovviamente, è presto per lanciarsi in previsioni azzardate, ma qualcosa possiamo già anticiparla. Sappiamo infatti che il chip A12Z degli attuali iPad Pro è già paragonabile ai Mac di fascia bassa e media in determinati compiti come i rendering video e la conversione audio. Lo rivelano i test di velocità.

E non è un caso che questo sia il chip prescelto da Apple per i Developer Transition Kit (DTK), cioè i Mac mini ARM dedicati agli sviluppatori; macchine che servono a testare il software che girerà sui Mac del futuro.

SARANNO MIGLIORI?

Si e no, ma occorre fare alcune considerazioni. È evidente che con questo salto tecnologico Apple, voglia spianare la strada ai futuri Mac: dunque, alla luce del buon senso, si rema quantomeno in quella direzione. Ma non è così scontato che le prime macchine saranno così tanto performanti, soprattutto se paragonate alle CPU di fascia alta e altissima di Intel.

Inoltre, non è detto che l’ultima novità rappresenti necessariamente la cosa migliore per tutte le tipologie di utenti. Per una serie di importanti ragioni:

  1. Scarsità di Software: Sebbene gli sviluppatori abbiano qualche mese per iniziare a lavorare sul software nativo per Mac ARM, ci vorrà parecchio tempo per completare la transizione. Neppure Apple si sogna di dire addio a Intel dall’oggi al domani: sarà un processo lungo, che durerà un paio d’anni; lasso di tempo in cui continueranno ad essere rilasciati Mac Intel come al solito. Fino a quando la situazione non si sarà normalizzata, è praticamente certo che molto software resterà vincolato a Intel (ma questo non significa che non potrete usarlo, vedi punto successivo).
  2. Rosetta 2: Poiché è impensabile portare l’attuale parco software da Intel ad ARM in pochi mesi, Apple ha escogitato una tecnologia di emulazione chiamata Rosetta che consente di avviare app Intel su processori ARM; la contropartita è che le prestazioni saranno degradate. Dunque, che senso ha acquistare l’ultimo modello di Mac, se poi le app che vi servono girano più lente che sul vecchio computer? E questo è un fenomeno che andrà avanti per diversi annetti.
  3. Boot Camp: Col passaggio ad ARM, dite addio a Windows su Mac. O per meglio dire, dimenticate la fluidità e la semplicità con cui poteva essere installato e avviato sulla nostra piattaforma. In presenza di hardware non x86, Boot Camp verrà eliminato da macOS, e occorrerà sostituirlo con software più pesanti e complessi (a pagamento), con prestazioni molto inferiori rispetto a quelle cui eravamo abituati. In altre parole, se Windows vi serve per lavoro, restate coi Mac Intel fino a quando possibile.

QUANDO ARRIVANO?

A dire di Apple, il primo Mac con processore ARM sarà introdotto entro la fine del 2020, e altri seguiranno nel corso dei due anni successivi, fino al completamento della transizione. Stando alle indiscrezioni dei soliti ben informati, sembra che il lancio avverrà a novembre 2020 subito dopo i nuovi iPad Air e iPhone 12.

Non è stata fatta esplicita menzione del modello apripista, ma è praticamente certo che si tratti di un un portatile; facile ipotizzare che il prescelto sarà il MacBook Air o il MacBook Pro. L’ultimo a fare il grande salto, invece, sarà con ogni probabilità il Mac Pro. Per quest’ultimo, infatti, serve molta potenza, e dunque un’ottimizzazione certosina del processore.

Fonte: Ipermela.com

web check-in
Alberghi, Informatica, Offerte, Sicurezza, Tecnologia

Web check-in

L’accoglienza diventa digitale grazie alla tecnologia con il WEB CHECK IN

Procedura online che consente al cliente di registrare autonomamente i propri dati personali, comunicandoli così alla struttura.

VANTAGGI DEL WEB CHECK-IN

  • Riduzione contatto con il cliente al momento del check in hotel (distanziamento sociale);
  • risparmio del tempo grazie al trasferimento dei dati direttamente nel PMS (nel caso di gestionale Sys Hotel Genius);
  • acquisizione dei dati del cliente (es. mail effettiva);
  • possibilità di fornire al cliente un’area riservata dove poter trovare offerte e promozioni dedicate.

FASI DEL WEB CHECK-IN

  • Comunicazione al cliente;
  • registrazione alla web area;
  • compilazione dati;
  • trasferimento dati al PMS;
  • invio dati a Questura ed Istat.
Chiedici maggiori informazioni
Siamo a tua disposizione
Automazione, Informatica, Tecnologia

Ericsson e gli smart robot

Da poco Ericsson ha festeggiato i suoi 100 anni di storia in Italia. E nell’evento milanese sono state presentate demo del 5G: questa nuova tecnologia di tramissione applicata alla robotica, alla musica connessa, al VRGaming e all’automazione industriale.

Ericsson Smart System per smart robot
La demo è il risultato di un progetto in collaborazione con IIT, un’iniziativa che ha lo scopo di comprendere i benefici che la robotica trarrà dalla rete 5G. Il robot iCub cammina e interagisce con alcuni oggetti controllato in remoto da un operatore umano dotato di Oculus e relativi controller. L’operatore vede tramite gli occhi del robot e il robot imita tutti i suoi movimenti in tempo reale. Le performance del robot sono rese possibili grazie all’infrastruttura di rete 5G che IIT ed Ericsson stanno sperimentando per l’assistenza sanitaria remota per mezzo di dispositivi robotici come robot chirurgici e sistemi diagnostici e terapeutici robotici.

Musica Connessa
Grazie al 5G, musicisti localizzati in luoghi diversi avranno la possibilità di suonare in tempo reale. Durante la demo i componenti della band, situati su due piani diversi, hanno dimostrato in modo pratico e reale come sia davvero possibile, grazie alla bassa latenza del 5G, sincronizzare una cosa cosi complessa come la musica. Il progetto si chiama Music Connect.

Realtà virtuale
La rete 5G è stata usata per una dimostrazione riguardante il futuro della realtà virtuale. Le applicazioni di realtà virtuale sono già oggi capaci di portare innovazione in molti settori tra cui il turismo, la sanità e il gaming. Il 5G grazie alla velocità di trasmissione dei dati, alla bassa latenza e al risparmio energetico, consentirà lo sviluppo di queste applicazioni offrendo un’esperienza immersiva mai vista prima.

Automazione Industriale
La tecnologia 5G consente di ottimizzare il processo produttivo, di rilevare tempestivamente i problemi di qualità per prevenire i difetti e di apportare miglioramenti continui, mentre si svolgono attività di manutenzione predittiva e preventiva. La collaborazione tra Ericsson e Comau ha dimostrato come un sistema robotico intelligente sia in grado di svolgere varie attività, tra cui assemblaggio, gestione e confezionamento, utilizzando la tecnologia 5G per la connettività e il coordinamento tra robot/sensore e il remote controller nel cloud.

Fonte: Repubblica/Tecnologia

Informatica, Tecnologia

Il futuro del tv secondo Samsung

Prendete il telecomando del televisore e mettetelo da parte. Tra qualche anno potrebbe essere un cimelio dal valore inestimabile. Nel corso della Samsung Developer Conference di inizio novembre, nel corso della quale è stato presentato lo smartphone pieghevole Samsung e fornito qualche dettaglio sul prossimo Galaxy S10, la casa sudcoreana ha dato un assaggio di come sarà il TV del futuro.

Come abbiamo accennato, diremo addio al telecomando e avremo la possibilità di controllare il televisore tramite la telepatia. Per passare da un canale a un altro, per abbassare o alzare il volume e, ovviamente, per accendere o spegnere il TV sarà sufficiente pensarlo e, nel giro di una frazione di secondo, il dispositivo risponderà al comando inviato tramite il nostro pensiero. La tecnologia è stata inizialmente pensata e sviluppata per le persone con problemi di mobilità, come chi è affetto da quadriplegia e altre forme di paralisi ma potrebbe rappresentare una rivoluzione per l’intero settore degli elettrodomestici. Se dovesse funzionare, potremmo usare e controllare lavastoviglie, forno e lavatrice (tanto per fare tre esempi) a distanza e senza bisogno di interfacce video.

Come funziona il TV che si controlla con il pensiero

Per far funzionare il software per controllare TV ed elettrodomestici con la telepatia ha collaborato con il Center of Neuroprosthetics dell’Ecole Polytechnique Fédérale de Lausanne (EPFL) per tre mesi raccogliendo dati e informazioni su come funzioni il cervello quando ha bisogno di qualcosa e vorrebbe compiere un’azione. Una volta che si hanno dati a sufficienza su come funzionano le onde cerebrali e la loro corrispondenza con le varie azioni che si compiono (o si vorrebbero compiere) è possibile creare un modello di lavoro. A questo, poi, si uniscono vari algoritmi di machine learning che permettono di trasformare gli impulsi cerebrali in azioni concrete che, nel caso specifico, si traducono nel cambiamento dei canali o nell’aumento del volume del TV.

 

Fonte: Tecnologia.Libero

Informatica, Sicurezza

Un nuovo strumento di sorveglianza per la Cina

DOPO i passi da gigante nel riconoscimento facciale, in grado di individuare un latitante nel bel mezzo di un concerto con migliaia di persone, in Cina i sistemi di sorveglianza continuano a farsi sempre più raffinati. Adesso sembra che le autorità stiano lavorando a un meccanismo in grado di riconoscere una persona in base al modo in cui cammina o al profilo del corpo. Il sistema è già in fase di sperimentazione a Pechino e Shanghai, anche in virtù dell’elevatissimo numero di videocamere di sorveglianza distribuite per le strade.

Inutile dire, ovviamente, che si tratta di un nuovo strumento che solleva altre preoccupazioni sui sistemi di controllo e repressione del dissenso nella Repubblica popolare, ormai in grado di seguire i cittadini in gran parte delle loro esistenze, specialmente quelli nelle sterminate aree metropolitane. A mettere a punto il riconoscimento “camminante” la società Watrix, guidata da Huang Yongzhen che ha spiegato come sia in grado di identificare una persona da circa 50 metri, anche se è di spalle o se il volto è coperto. Insomma, la faccia non serve più: adesso in Cina ti scovano con la silhouette.
In pratica lo strumento riempie i vuoti degli attuali sistemi di sorveglianza che continuano ad avere bisogno di immagini piuttosto ravvicinate e in alta risoluzione. E soprattutto, del volto. All’invenzione di Watrix, al contrario, basta un’immagine chiara della persona mentre cammina, anche se presa di lato o, come detto, da dietro. “Non serve il contributo delle persone per riconoscerle – ha spiegato Huang all’Ap illustrando questa sorta di sistema alla Person of Interest – l’analisi dell’andatura e dei passi non può essere compromessa e camuffata zoppicando, camminando coi piedi larghi o ingobbendosi visto che analizziamo tutte le caratteristiche del corpo”.

A quanto pare il gruppo ha già raccolto 14,5 milioni di dollari per finanziare la sua ricerca ed è al momento testato nel contrasto alla microcriminalità, per esempio per identificare i fuggitivi nella folla. Dovrebbe essere integrato al sistema nazionale cinese di sorveglianza.

Fonte: Repubblica/Tecnologia

DNSSEC
Informatica

Al via nuovo protocollo per sicurezza in rete dei domini.it

PISA – Registro.it dà il via ufficiale al nuovo protocollo di sicurezza per i server Dns (sistema dei nomi a dominio), denominato Dnssec (Domain name system security extensions). Il nuovo protocollo passa dal Cnr di Pisa, ed è stato implementato attraverso l’impiego di firme digitali e di tecniche di crittografia a chiave pubblica per l’autenticazione delle risposte alle interrogazioni inviate dagli utenti. Dnssec sarà in grado di garantire più elevati standard di sicurezza e ridurre drasticamente la vulnerabilità in rete a determinati tipi di attacchi internet come il phishing e poisoning.

“Il Dnssec è frutto di un lungo percorso avviato nel 2014 con una collaborazione con il Registro svedese, primo in Europa ad adottare questo protocollo, per consolidare le conoscenze tecnologiche e infrastrutturali già in parte presenti nel Registro.it – ha commentato Domenico Laforenza, direttore Iit-Cnr e responsabile di Registro.it -. Il progetto è poi proseguito nel 2016 con la costituzione di un gruppo di lavoro misto con i Registrar, società che forniscono servizi in internet,  accreditate presso di noi, al fine di realizzare un sistema che tenesse conto delle loro necessità specifiche e delle loro esigenze operative”. “Non vediamo l’ora di poter applicare questa tecnologia agli oltre 190mila server Dns italiani – commenta il primo tecnologo dello Iit-Cnt Maurizio Martinelli – ancor più per il fatto che l’abbiamo sviluppata internamente con i nostri tecnici: un grande traguardo che rende più sicura la rete”.

 

Fonte: Repubblica/Tecnologia

GDPR
Grafica, Informatica

Gli effetti del Gdpr

ROMA – I siti di informazione in Europa hanno ridotto in modo sostanziale il numero di cookie utilizzati senza il consenso degli utenti dopo che a maggio è divenuto pienamente effettivo il nuovo Regolamento europeo sulla privacy (Gdpr). Lo rivela uno studio del Reuters Institute for the Study of Journalismdell’università di Oxford, che ha analizzato oltre 200 siti di notizie europei ad aprile (prima del Gdpr) e poi a luglio (dopo il Gdpr). Nel complesso, il numero di cookie di terze parti presenti sui siti di informazione è sceso del 22%, con un calo significativo per i cookie pubblicitari e di marketing (meno 14%) e dei social media (meno 9%). E’ anche calato il numero di siti che ospitano contenuti di social media, come i bottoni di condivisione di Facebook e Twitter (meno 7%).

Secondo i ricercatori dell’istituto, ciò significa che alcuni media stanno rispondendo al Gdpr ottenendo il consenso degli utenti per il tracciamento condotto da soggetti terzi attraverso i loro siti oppure stanno tagliando il numero dei cookie. Sui siti italiani di informazione il numero di cookie di terze parti è diminuito del 32%, più della media. Il calo non colpisce tanto i maggiori fornitori di servizi di tracciamento degli utenti, come Google, Facebook e Amazon. Infatti la maggior parte dei siti europei ha smesso di usare cookie di servizi meno noti. I cookie sono file depositati nei computer dai siti e possono servire per il funzionamento degli stessi ma anche per tracciare la navigazione degli utenti in modo da inviare loro messaggi pubblicitari mirati.

 

Fonte: Repubblica/Tecnologia

Informatica, Tecnologia

Realizzato il micro-computer

Il computer più piccolo del mondo, che con i suoi 0,3 millimetri di lunghezza è perfino più piccolo di un chicco di riso, molto più piccolo: è stato realizzato dall’Università del Michigan, che si è riappropriata del primato dopo che l’Ibm aveva annunciato la costruzione di un dispositivo simile a marzo 2018. Tuttavia è proprio l’Ibm a sollevare il dubbio che si possa parlare di veri e propri “computer”, dal momento che perdono tutti i dati ogni volta che restano senza corrente. Lo studio è stato presentato al Simposio su tecnologie e circuiti integrati a Honolulu. “Non siamo sicuri che si possano chiamare o meno computer”, commenta David Blaauw, che ha guidato la ricerca insieme a Dennis Sylvester e Jamie Phillips. “Il fatto che abbiano o meno le funzionalità minime richieste è un fatto opinabile”.
I mini-computer sono stati progettati come sensori di precisione per la temperatura, in grado di rilevarla anche in un insieme di cellule con un errore di circa 0,1 gradi, ma potrebbero essere adattati per una grande varietà di applicazioni. “Quando abbiamo realizzato il nostro sistema non sapevamo con esattezza tutte le cose per le quali poteva essere utile – aggiunge Blaauw – ma una volta pubblicato abbiamo ricevuto dozzine e dozzine di richieste”.
I nuovi dispositivi sono troppo piccoli per avere tradizionali antenne radio, perciò ricevono e trasmettono dati grazie alla luce visibile: “Abbiamo dovuto inventare nuovi approcci per progettare circuiti che consumano poco e tollerano la luce”, dice Blaauw. Inoltre i ricercatori hanno anche dovuto superare un altro ostacolo: ottenere un’efficienza elevata pur consumando poca energia, cosa che di solito aumenta la perturbazione e il disturbo dei segnali elettrici.
Informatica, Tecnologia

Il primo server sottomarino firmato Microsoft

Le aziende sono alla continua ricerca di soluzioni per lo storage dei dati affidabili e dalle prestazioni elevate. Allo stesso tempo, c’è la necessità che tali soluzioni siano sostenibili dal punto di vista ambientale. È questo che ha spinto Microsoft a sviluppare Project Natick, il primo data center sottomarino che contiene 864 server completamente alimentati da energia rinnovabile.

Un server sul fondo dell’oceano

A inizio mese, Microsoft ha collocato il suo primo data center sottomarino e autosufficiente, sul fondale oceanico vicino alle Isole Orkney in Scozia.Pressappoco delle dimensioni di un container, il data center tubolare contiene 864 server ed è collegato a un grande peso triangolare che lo fissa al fondo marino a oltre 30 metri al di sotto della superficie dell’oceano.

Secondo Microsoft, l’acqua oceanica, in media più fredda dell’aria ambientale, potrebbe abbattere i costi degli impianti di aria condizionata. La vicinanza degli oceani alle città dove risiede la maggior parte degli utilizzatori dei servizi cloud potrebbe inoltre comportare un aumento della velocità di fruizione di tali servizi.

Le isole Orkney sono state una scelta strategica per il primo data center poiché di interesse anche per altri progetti sperimentali di energia rinnovabile. Le isole ospitano il Centro europeo per l’energia marina, che sfrutta l’acqua naturalmente turbolenta per raccogliere l’energia delle maree, oltre a una notevole quantità di energia eolica generata sulla terra per creare il 100% di energia rinnovabile per l’isola. L’EMEC genera più che sufficiente energia per i 10.000 abitanti delle isole e un cavo collegato alla rete di Orkney Island alimenta il centro dati subacqueo di Microsoft.

Project Natick – 1 anno di test

Il team di ricercatori ne monitorerà il funzionamento per un anno, considerando anche la sostenibilità dal punto di vista economico, ambientale e logistico. Il progetto nasce in un orizzonte in cui il Cloud Computing è sempre più utilizzato e rappresenta un volano per la crescita economica, rendendo sempre più centrale il ruolo dei data center. Il posizionamento nell’oceano, inoltre, permette una maggiore contiguità rispetto agli utenti finali, dato che oltre la metà della popolazione vive entro 200 km dalla costa, riducendo così il tempo di latenza (ovvero il tempo necessario ai dati per viaggiare dalla fonte alla destinazione) e offrendo di conseguenza prestazioni migliori.

Secondo i primi test condotti da Microsoft, le capsule genererebbero solo un “quantitativo estremamente piccolo” di calore, poiché l’energia che utilizzano è quella delle correnti marine e non ci sarebbe alcuna dispersione di calore, a parte quella legata alla conversione dell’energia. I ricercatori dell’azienda hanno anche registrato con sensori acustici che il ticchettio delle testine dei dischi e il fruscio delle ventole è sovrastato dal rumore di un singolo gamberetto che nuota vicino la capsula.

 

Fonte: The Next Tech

Google 1
Informatica, Tecnologia

Google 1, più cloud storage per tutti

Sempre più file, sempre più foto, video: spesso anche in risoluzione 4K. Le abitudini degli utenti stanno cambiando, e deve cambiare anche il cloud storage di Google: per questo da Mountain View hanno annunciato un nuovo marchio che si aggiunge alla galassia di quelli già disponibili, che servirà a differenziare il servizio gratuito di Drive da quello a pagamento. Google 1 cambia prezzi e spazi disponibili per i clienti, e sarà lanciato nei prossimi giorni negli Stati Uniti e in seguito anche nel resto del mondo.

Google Drive non cambia

Chi registra un account Gmail, o più in generale su una property Google, ottiene accesso anche a Drive: si tratta dell’offerta base di cloud storage, di archivio remoto, offerta da Google e comprende 15 gigabyte di spazio che possono essere utilizzati per stivare file, immagini e altri tipi di file. 15GB costituiscono anche il limite superiore di spazio disponibile nella propria casella di posta, da condividere con Drive: se, come accade spesso, si raggiunge questo limite si è costretti a cancellare qualcosa o a sottoscrivere un piano a pagamento per aumentare lo spazio.

Qui entra in gioco il nuovo Google 1. In pratica ora a Mountain View hanno deciso di attribuire un’etichetta diversa allo storage a pagamento, anche per far meglio comprendere che fa qualcosa di più che semplicemente ospitare posta, foto e i file di Google Docs. Google 1 è un archivio remoto a tutti gli effetti, che si pone in diretta concorrenza ai servizi Dropbox e Onedrive, e ora amplia la propria offerta con nuovi prezzi e nuovi tagli a disposizione dei clienti.

Il nuovo listino

Attualmente, quando si raggiunge il limite di 15GB si può optare per un upgrade a scelta tra 100GB a 19,99 euro l’anno (o 1,99 euro al mese), 1 terabyte a 9,99 euro al mese (99,99 euro l’anno) o salire addirittura fino a 10 tera sborsando quasi 100 euro al mese. Chi non può proprio fare a meno di accumulare file può arrivare anche ai tagli da 20 e 30 terabyte.

Nella nuova versione del listino targata Google 1 ci sono nuove tagli di spazio disponibile: resta invariata l’offerta da 100GB, c’è una nuova offerta da 200GB da 2,99 dollari (che probabilmente diventeranno 2,99 euro da noi), sparisce l’offerta da 1 tera sostituita da quella da 2 terabyte allo stesso prezzo (9,99 al mese). Inalterato il prezzo dei tagli superiori: 10 terabyte a 99,99 euro, 20TB a 199,99 euro, 30 tera a 299,99 euro al mese.

In più, i clienti paganti (anche quelli da 100GB) riceveranno un supporto diretto scritto per risolvere eventuali problemi riscontrati nell’uso del servizio. Infine, Google 1 comprende l’opzione famiglia per dividere lo spazio con fino a 5 utenti ciascuno dotato di una quota fissa e spazio separato distinto da quello degli altri.

Non è finita?

Il nome Google 1 lascerebbe pensare a un abbonamento unico che riunisca assieme tutti i servizi di Mountain View, dalla musica ai video, fino allo storage. Non è cosìGoogle 1 è solo l’offerta per espandere lo spazio storage a disposizione dei diversi servizi di BigG (in particolare Drive e Photo).

Fonte: The Next Tech