IDC ha pubblicato un rapporto affermando che il continuo aggiornamento della tecnologia e dei servizi big data porterà il mercato globale dello storage a raggiungere un tasso di crescita annuo composto del 53% tra il 2011 e il 2016. Nel prossimo futuro, i dati generati, processati e memorizzati dalla maggior parte delle organizzazioni continueranno a crescere rapidamente. La spesa per lo storage nel campo dei big data e dell'analisi passerà da 379,9 milioni di dollari nel 2011 a 6 miliardi nel 2016.
Il mondo si sta avvicinando all'era dei "big data". Il rapido tasso di crescita del 50% dei dati ogni anno mette davanti al mercato il grande problema dell'"elaborazione massiccia dei dati". Di conseguenza, in questa era di cambiamento dei "big data", chiunque riesca a risolvere il problema dell'elaborazione massiccia dei dati probabilmente diventerà un leader nell'era dei dati
DAS: Questa soluzione utilizza schede HBA per collegare direttamente server applicativi e array in fibra ottica, e non offre funzionalità di condivisione dati. Se più applicazioni devono condividere gli stessi dati, spesso ci vuole molto tempo per migrare i dati, risultando in più copie degli stessi dati nell'ambiente, e la sincronizzazione tra più copie dei dati è difficile, sprecando molta forza lavoro e risorse materiali. SAN: Questa soluzione utilizza una rete di accumulo in fibra ottica per collegare server applicativi e array in fibra, rendendola più flessibile e scalabile rispetto a DAS. Tuttavia, SAN non ha ancora la possibilità di condividere dati e l'alto costo dei sistemi SAN e la compatibilità dei dispositivi tra diversi fornitori sono problematici. NAS: I sistemi NAS che forniscono accesso ai protocolli NFS o CIFS possono fornire un'immagine di file system unificata ai server applicativi per soddisfare le esigenze di condivisione dati tra più server applicativi. Tuttavia, poiché i NAS tradizionali spesso offrono spazio di archiviazione a livello di file sotto forma di un singolo server, la sua limitata larghezza di banda IO e scalabilità non possono soddisfare il gran numero di esigenze di lettura e scrittura simultanea nell'era dei big data. Inoltre, il NAS supporta scarsamente i blocchi del file system e più client non possono leggere e scrivere lo stesso file contemporaneamente, il che impedisce ai client di lavorare bene insieme. SAN NAS: Questa soluzione ha la scalabilità di SAN e la capacità di condivisione dati di NAS in una certa misura, ma ci sono ancora evidenti carenze. Tutti i dati I/O devono essere effettuati tramite un singolo server NAS, rendendo la larghezza di banda I/O dell'intero sistema limitata dalla larghezza di banda del server NAS, che è ancora difficile da soddisfare nelle esigenze dell'era dei big data. Lo storage cluster si riferisce all'aggregazione dello spazio di archiviazione in più dispositivi di archiviazione in un pool di archiviazione che può fornire un'interfaccia di accesso unificata e un'interfaccia di gestione per i server applicativo, attraverso la quale le applicazioni possono accedere e utilizzare trasparentmente i dischi su tutti i dispositivi di archiviazione, e possono sfruttare appieno le prestazioni e l'utilizzo del disco dei dispositivi di archiviazione. I dati verranno memorizzati e letti da più dispositivi di archiviazione secondo determinate regole per ottenere prestazioni di accesso concorrente più elevate. Con l'avvento dell'era dei big data, l'architettura tradizionale di archiviazione IT non può più soddisfare pienamente le esigenze dell'era dei big data, e resta da vedere se questo nuovo metodo di archiviazione potrà guidare la tendenza e diventare il vero re dell'era dei big data per l'intero settore dello storage e per l'era dei big data. |