Hochleistungsspeicher für Big Data und Analysen
Aktivieren Sie den Unternehmensmaßstab für Ihre Analyse-Workloads.
Big Data Storage ist für viele Unternehmen ein wachsendes Problem
Die Fähigkeit, fundierte Entscheidungen aus großen Datenbeständen zu treffen, ist für heutige Unternehmen von entscheidender Bedeutung. Die Erkenntnisse, die Unternehmen aus der Datenanalyse ziehen, stärken ihr Wachstum und ihre Wettbewerbsfähigkeit.
Beispielsweise verwenden Online-Werbetreibende Datenanalysen, um die Anzeigenrendite zu optimieren und das Käuferverhalten vorherzusagen. Social-Media-Plattformen nutzen es, um zu erfahren, was für ihre Nutzer wichtig ist. Logistikunternehmen analysieren riesige Datenmengen von Sensoren und Geräten (IoT), um Kosten zu senken und die Lieferung zu beschleunigen. Die Datenanalyse ist von zentraler Bedeutung für die Entwicklung autonomer Fahrzeugtechnologien.
Datenquellen für die Analyse sind Mobiltelefone, Sensoren und tragbare Geräte sowie Anwendungen und Infrastruktur im Rechenzentrum und in der Cloud.
Angemessene Speicherung ist ein dringendes Problem für Datenanalysen aller Art.
- Wie sollte Speicher an die Rechenressourcen angehängt werden, um eine hohe Verfügbarkeit von Daten mit geringer Latenz und horizontaler Skalierbarkeit zu gewährleisten?
- Was sind die Anforderungen für ein Dateispeichersystem, um diese anspruchsvollen Workloads zu bedienen?
- Was sind die besten Strategien, um den Speicher im Zeitverlauf zu skalieren?
Speicheranforderungen der Datenanalyse
Datenanalysen können Erkenntnisse aus umfangreichen Datensätzen oder Datenströmen mit einer Vielzahl von Workflows generieren. Zwei dieser Workflows sind Batch-Analysen (Big Data) und Streaming-Analysen.
Egal ob Batch oder Streaming, die Datenanalyse erfordert eine hohe Leistung des Dateispeichersystems. Eine Lösung bestand darin, die Rechenressourcen direkt an die Speicherressourcen anzuhängen. Direct Attached Storage erzeugt Datensilos und ist schwer zu verwalten und effizient zu skalieren, aber die Idee, dass die Nähe die Leistung sicherstellen würde, hat seine Popularität gefördert. Direct-Attached-Storage für die Datenanalyse beruht auf der Annahme, dass die Bandbreiten der Festplatten die Netzwerkbandbreite überschreiten und dass die Festplatten-E / A einen erheblichen Teil der Lebensdauer einer Task ausmachen.
Mit erhöhten Netzwerkgeschwindigkeiten und mehr rechenintensiven Analysetechniken sind diese Annahmen nicht länger gültig. Hoch skalierbarer NAS-Speicher kann jetzt Direct-Attached-Speicher übertreffen. Speicher, auf den über ein Netzwerk zugegriffen wird, ist zudem kostengünstig und erzeugt keine Datensilos. Heutzutage ist es eine effektivere Strategie für Datenanalyse-Workflows, z. B. für Apache Spark oder Spark Streaming, Computing und Storage separat mit leistungsstarkem Network Attached Storage zu skalieren.
Video-Fallstudie
Erfahren Sie, wie Forscher am Institut für Wissenschaftliches Rechnen und Bildgebung (SCI) An der University of Utah verwenden Sie Qumulo, um die Bearbeitungszeit von Monaten auf Tage zu reduzieren.
Qumulo für Big Data Storage und Analytics
Die Software von Qumulo ist ein modernes Dateispeichersystem, das über die Leistung, Skalierbarkeit und Unternehmensfunktionen verfügt, die für Datenanalyse-Workloads erforderlich sind. Qumulo läuft auf Standardhardware vor Ort und als EC2-Instanzen unter AWS.
Erhalten Sie Ihre Ergebnisse schneller
Qumulo hat einen besseren dauerhaften Lesedurchsatz als Direct Attached Storage für analytische Workloads. Der Leistungsvorsprung von Qumulo beruht auf der Hybrid-SSD / HDD-Architektur und der fortschrittlichen Technologie für verteilte Dateisysteme.
Kaufen Sie nur den Speicher, den Sie benötigen
Mit Qumulo haben Kunden die Kontrolle darüber, wie viel Speicher sie kaufen, und sie können eine Überversorgung vermeiden. Mit Qumulo sparen Sie Geld, indem Sie nur den Speicher kaufen, den Sie benötigen, unabhängig davon, wie Ihr Rechencluster wächst.
Eliminieren Sie Datensilos
Lösen Sie Speicherprobleme in Echtzeit
Mit Qumulo können Administratoren Probleme in Echtzeit finden und lösen. Sie können Ihre Projekte und Benutzer leicht verwalten, wenn Sie wissen, wie der Speicher verwendet wird.
Lauf in der Cloud und auf dem Gelände
Durch die fortlaufende Replikation können Sie problemlos Daten von Ihrem lokalen Qumulo-Cluster in Ihren Qumulo-Cluster in AWS übertragen, deren Berechnungen durchführen und die Ergebnisse anschließend wieder in den lokalen Speicher übertragen.
Datenanalyse-Workflow
Hier ist ein Beispiel eines Streaming-Datenanalyse-Workflows, in dem Qumulo als zentraler Speicher für den gesamten Prozess dargestellt wird, von der Aufnahme der Daten bis hin zur Anzeige und Bearbeitung der Daten.
Eingaben können von Geräten wie Mobiltelefonen, wissenschaftlichen Instrumenten, autonomen Fahrzeugen und seriellen Geräten kommen. Es kann auch von Anwendungen stammen, die ihre Daten normalerweise im Dateisystem von Qumulo speichern und dann einen Link an die Softwarepakete für den Ereignisdatenfluss senden. Die Rechenressourcen verarbeiten die Daten und speichern und rufen Dateien von Qumulo ab. Schließlich werden die Ergebnisse übermittelt und entweder als Informationen in einem Dashboard angezeigt oder zum Auslösen einer bestimmten Aktion, z. B. einer Sicherheitswarnung, verwendet.
„Das Verwalten von Daten mit Qumulo ist so einfach, dass die Auswirkungen schwer zu beschreiben sind. Dies hat uns einen enormen ROI in Bezug auf Zeitersparnis und Beseitigung von Problemen gebracht. Durch die zuverlässige Speicherung, auf die wir uns letztendlich verlassen können, sind wir bestrebt, sie im gesamten Unternehmen breiter zu nutzen. “
John Beck - IT-Manager Hyundai MOBIS