Recap zur AWS re:Invent 2020: Vier Storage-Innovationen

Recap zur AWS re:Invent 2020: Vier Storage-Innovationen
Lesedauer: 7 Minuten.

Auf der AWS re:Invent kündigte AWS vier Speicherinnovationen an, die Kunden zusätzliche Speicherleistung, Ausfallsicherheit und Mehrwert bieten:

EBS io2 Block Express Volumes liefern das erste SAN, das für die Cloud gebaut wurde.

Kunden entscheiden sich für io2-Volumes (die neueste Generation von IOPS-Volumes), um ihre kritischen, leistungsintensiven Anwendungen wie SAP HANA, Microsoft SQL Server, IBM DB2, MySQL, PostgresSQL und Oracle-Datenbanken auszuführen, weil es eine 99,999%ige (fünf 9s) Haltbarkeit und 4x mehr IOPS als allgemeine EBS-Volumes bietet. Einige Anwendungen erfordern mehr IOPS, Durchsatz oder Kapazität als ein einzelnes io2-Volume bietet. Um die benötigte Leistung zu erreichen, strippen Kunden oft mehrere io2-Volumes zusammen. Die anspruchsvollsten Anwendungen erfordern jedoch, dass mehr io2-Volumes zusammen gestrippt werden, als die Kunden verwalten wollen. Für diese sehr anspruchsvollen Anwendungen haben viele Kunden in der Vergangenheit SANs vor Ort verwendet (eine Gruppe von Festplatten, auf die über das lokale Netzwerk zugegriffen wird). SANs haben jedoch zahlreiche Nachteile. Sie sind teuer aufgrund hoher Anschaffungskosten, erfordern komplexe Prognosen, um ausreichende Kapazitäten zu gewährleisten, sind kompliziert und schwer zu verwalten und verbrauchen wertvollen Platz im Rechenzentrum und Netzwerkkapazität. Wenn ein Kunde die Kapazität eines SANs überschreitet, muss er ein weiteres komplettes SAN kaufen, was teuer ist und den Kunden zwingt, für ungenutzte Kapazitäten zu zahlen. Kunden haben uns gesagt, dass sie die Leistung eines SANs haben wollen, aber in der Cloud, die es bisher nicht gab – bis jetzt.

EBS Block Express ist eine völlig neue Speicherarchitektur, die Kunden das erste SAN bietet, das für die Cloud gebaut wurde. EBS Block Express wurde für die größten und I/O-intensivsten geschäftskritischen Implementierungen von Oracle, SAP HANA, Microsoft SQL Server und SAS Analytics entwickelt, die von hochvolumigen IOPS, hohem Durchsatz, hoher Haltbarkeit, hoher Speicherkapazität und niedriger Latenz profitieren. Mit io2-Volumes, die auf Block Express laufen, kann ein einzelnes io2-Volume jetzt mit bis zu 256.000 IOPS provisioniert werden, einen Durchsatz von bis zu 4.000 MB/Sekunde erreichen und 64 TB Kapazität bieten – eine vierfache Steigerung gegenüber bestehenden io2-Volumes über alle Parameter hinweg. Darüber hinaus können Kunden mit io2 Block Express Volumes eine konsistente Latenzzeit von unter einer Millisekunde für ihre latenzsensitiven Anwendungen erreichen. Kunden können auch mehrere io2 Block Express Volumes zusammenschalten, um eine noch bessere Leistung zu erzielen, als ein einzelnes Volume bieten kann. Block Express verhilft io2-Volumes zu dieser Leistung, indem es die zugrundeliegende EBS-Hardware, -Software und -Netzwerkstacks komplett neu erfindet. Durch die Entkopplung von Compute und Storage auf der Hardware-Ebene und das Umschreiben der Software, um die Vorteile dieser Entkopplung zu nutzen, ermöglicht EBS Block Express neue Leistungsniveaus und reduziert die Zeit bis zur Innovation. Durch das Umschreiben des Netzwerkstacks, um die Vorteile des hochleistungsfähigen Scalable Reliable Datagrams (SRD) Netzwerkprotokolls zu nutzen, reduziert Block Express die Latenzzeit drastisch. Diese Verbesserungen stehen Kunden ohne Vorabverpflichtung zur Nutzung von io2 Block Express Volumes zur Verfügung, und Kunden können Kapazitäten ohne die Vorabkosten eines SANs bereitstellen und skalieren.

In den kommenden Monaten werden weitere SAN-Funktionen zu den Block Express Volumes hinzugefügt. Dazu gehören Multi-Attach mit I/O Fencing, um Kunden die Möglichkeit zu geben, mehrere Instanzen sicher und gleichzeitig an ein einziges Volume anzuhängen, Fast Snapshot Restore und Elastic Volumes, um die Größe, den Typ und die Leistung von EBS Volumes zu erhöhen. Um mehr über io2-Volumes powered by Block Express zu erfahren, besuchen Sie: https://aws.amazon.com/ebs

EBS Gp3-Volumes entkoppeln IOPS von der Speicherkapazität, liefern mehr Leistung und sind preislich 20 % niedriger als Volumes der vorherigen Generation.

Kunden nutzen EBS-Volumes zur Unterstützung einer breiten Palette von Workloads, wie relationale und nicht-relationale Datenbanken (z. B. Microsoft SQL Server und Oracle), Unternehmensanwendungen, containerisierte Anwendungen, Big-Data-Analytics-Engines, verteilte Dateisysteme, virtuelle Desktops, Entwicklungs-/Testumgebungen und Medien-Workflows. Gp2-Volumes haben es Kunden leicht und kostengünstig gemacht, ihre IOPS- und Durchsatzanforderungen für viele dieser Workloads zu erfüllen, aber einige Anwendungen benötigen mehr IOPS als ein einzelnes Gp2-Volume liefern kann. Bei Gp2-Volumes skaliert die Leistung mit der Speicherkapazität, so dass Kunden durch die Bereitstellung eines größeren Speichervolumes höhere IOPS und einen höheren Durchsatz für ihre Anwendungen erzielen können. Einige Anwendungen erfordern jedoch eine höhere Leistung, aber keine höhere Speicherkapazität (z. B. Datenbanken wie MySQL und Cassandra). Diese Kunden können am Ende für mehr Speicher bezahlen, als sie benötigen, um die erforderliche IOPS-Leistung zu erhalten. Kunden, die diese Workloads ausführen, wollen ihre Leistungsanforderungen erfüllen, ohne ein größeres Speichervolumen bereitstellen und bezahlen zu müssen.

Gp3-Volumes der nächsten Generation bieten Kunden die Möglichkeit, IOPS und Durchsatz unabhängig von der Speicherkapazität bereitzustellen. Für Workloads, bei denen die Anwendung mehr Leistung benötigt, können Kunden die Gp3-Volumes so modifizieren, dass sie die benötigten IOPS und den Durchsatz bereitstellen, ohne dass sie mehr Speicherkapazität hinzufügen müssen. Gp3-Volumes liefern eine dauerhafte Basisleistung von 3.000 IOPS und 125 MB/Sekunde mit der Möglichkeit, bis zu 16.000 IOPS und 1.000 MB/Sekunde Spitzendurchsatz bereitzustellen (eine vierfache Steigerung gegenüber Gp2-Volumes). Kunden sparen nicht nur Geld, indem sie die IOPS unabhängig vom Speicher skalieren können, sondern Gp3-Volumes sind auch 20 % günstiger pro GB als bestehende Gp2-Volumes. Kunden können Gp2-Volumes einfach auf Gp3-Volumes migrieren, indem sie Elastic Volumes verwenden, eine bestehende Funktion von EBS, die es Kunden ermöglicht, den Volume-Typ, die IOPS, die Speicherkapazität und den Durchsatz ihrer bestehenden EBS-Volumes zu ändern, ohne ihre Amazon Elastic Compute Cloud (EC2)-Instanzen zu unterbrechen. Kunden können auch einfach neue Gp3-Volumes erstellen und die Leistung über die AWS Management Console, die AWS-Befehlszeilenschnittstelle (CLI) oder das AWS SDK skalieren. Um mit Gp3-Volumes zu beginnen, besuchen Sie: https://aws.amazon.com/ebs/

Amazon S3 Intelligent-Tiering fügt zwei neue Archivierungsebenen hinzu, die Einsparungen bei den Speicherkosten von bis zu 95 % ermöglichen.

Die Speicherklasse S3 Intelligent-Tiering optimiert automatisch die Speicherkosten der Kunden für Daten mit unbekannten oder wechselnden Zugriffsmustern. Es ist die erste und einzige Cloud-Speicherlösung, die automatisch eine dynamische Preisgestaltung basierend auf den sich ändernden Zugriffsmustern der einzelnen Objekte im Speicher bietet. S3 Intelligent-Tiering wird in großem Umfang von Kunden mit Datensätzen mit wechselnden Zugriffsmustern (z. B. Data Lakes) oder unbekannten Speicherzugriffsmustern (z. B. neu gestartete Anwendungen) eingesetzt. S3 Intelligent-Tiering berechnet den Speicher in zwei Preisstufen: eine Stufe für häufigen Zugriff (für Echtzeit-Datenabfragen) und eine kostenoptimierte Stufe für seltenen Zugriff (für Batch-Abfragen). Viele AWS-Kunden verfügen jedoch über Speicher, auf den sie nur sehr selten zugreifen, und nutzen S3 Glacier oder S3 Glacier Deep Archive, um ihre Speicherkosten für diese archivierten Daten zu senken. Früher mussten Kunden manuell ihre eigenen Anwendungen erstellen, um den Zugriff auf einzelne Objekte zu überwachen und aufzuzeichnen, um festzustellen, auf welche Objekte nur selten zugegriffen wird und die ins Archiv verschoben werden müssen. Dann mussten sie diese manuell verschieben.

Mit der Erweiterung von S3 Intelligent-Tiering um die Tiers Archive Access und Deep Archive Access wird die erste und einzige Speicherklasse in der Cloud, die dynamisches Tiering und Preisgestaltung bietet, weiter verbessert. S3 Intelligent-Tiering bietet nun automatisches Tiering und dynamische Preisgestaltung über vier verschiedene Zugriffsebenen (Frequent, Infrequent, Archive und Deep Archive). Kunden, die S3 Intelligent-Tiering nutzen, können bis zu 95 % bei Speicherplatz einsparen, der automatisch von Frequent Access nach Deep Archive verschoben wird, wenn dieser 180 Tage oder länger verfügbar ist. Sobald ein Kunde eine oder beide Archivzugriffsebenen aktiviert hat, verschiebt S3 Intelligent-Tiering Objekte, auf die 90 Tage lang nicht zugegriffen wurde, automatisch auf die Archivzugriffsebene und nach 180 Tagen auf die Deep Archive-Zugriffsebene. S3 Intelligent-Tiering unterstützt Funktionen wie S3 Inventory, um über die Zugriffsebene von Objekten zu berichten, und S3 Replication, um Daten in eine beliebige AWS-Region zu replizieren. Bei der Verwendung von S3 Intelligent-Tiering fallen keine Abrufgebühren und keine zusätzlichen Tiering-Gebühren an, wenn Objekte zwischen Zugriffsebenen verschoben werden. S3 Intelligent-Tiering mit den neuen Archivzugriffsebenen ist ab heute in allen AWS-Regionen verfügbar. Um mit Amazon S3 Intelligent-Tiering zu beginnen, besuchen Sie: https://aws.amazon.com/s3/storage-classes/

Amazon S3 Replication erweitert die Möglichkeit, Daten an mehrere Ziele innerhalb der gleichen AWS-Region oder über verschiedene AWS-Regionen hinweg zu replizieren

Kunden verwenden S3 Replication heute, um eine Replikatkopie ihrer Daten innerhalb derselben AWS-Region oder über verschiedene AWS-Regionen hinweg zu erstellen, um Compliance-Anforderungen zu erfüllen, eine niedrige Latenzleistung zu erzielen oder Daten über Konten hinweg zu teilen. Einige Kunden müssen auch die tatsächlichen Daten an mehrere Ziele replizieren (S3-Buckets in derselben AWS-Region oder S3-Buckets in mehreren Regionen), um Anforderungen an die Datenhoheit zu erfüllen, die Zusammenarbeit zwischen geografisch verteilten Teams zu unterstützen oder dieselben Datensätze in mehreren AWS-Regionen zu pflegen, um die Ausfallsicherheit zu gewährleisten. Um dies zu erreichen, müssen Kunden heute ihren eigenen Multidestinations-Replikationsservice aufbauen, indem sie S3-Ereignisse überwachen, um alle neu erstellten Objekte zu identifizieren. Dann verteilen sie diese Ereignisse auf mehrere Warteschlangen, rufen AWS Lambda-Funktionen auf, um Objekte in jeden Ziel-S3-Bucket zu kopieren, verfolgen den Status jedes API-Aufrufs und aggregieren die Ergebnisse. Kunden müssen diese Systeme auch überwachen und warten, was zusätzliche Kosten und betrieblichen Aufwand verursacht.

Mit S3 Replication (Multi-Destination) müssen Kunden nicht mehr ihre eigenen Lösungen für die Duplizierung von Daten über mehrere AWS-Regionen entwickeln. Kunden können jetzt S3 Replication verwenden, um Daten auf mehrere Buckets innerhalb derselben AWS-Region, über mehrere AWS-Regionen hinweg oder eine Kombination aus beidem zu replizieren, indem sie dieselbe richtlinienbasierte, verwaltete Lösung mit Ereignissen und Metriken zur Überwachung ihrer Datenreplikation verwenden. Zum Beispiel kann ein Kunde jetzt ganz einfach Daten in mehrere S3-Buckets in verschiedenen AWS-Regionen replizieren – einen für die Primärspeicherung, einen für die Archivierung und einen für die Notfallwiederherstellung. Kunden können außerdem Datensätze und Aktualisierungen an alle AWS-Regionen verteilen, um eine niedrige Latenz zu erreichen. Mit S3 Replication (Multi-Destination) können Kunden auch verschiedene Speicherklassen für verschiedene Ziele festlegen, um Speicherkosten zu sparen und die Compliance-Anforderungen für Daten zu erfüllen (z. B. können Kunden die Speicherklasse S3 Intelligent-Tiering für Daten in zwei AWS-Regionen verwenden und eine weitere Kopie in S3 Glacier Deep Archive für eine kostengünstige Replikation haben). S3 Replication (Multi-Destination) unterstützt in vollem Umfang bestehende S3 Replication-Funktionen wie Replication Time Control, um eine vorhersehbare Replikationszeit zu bieten, die durch ein Service Level Agreement abgesichert ist, um ihre Compliance- oder Geschäftsanforderungen zu erfüllen. Kunden können außerdem den Status ihrer Replikation mit Amazon CloudWatch-Metriken, Ereignissen und dem Replikationsstatusfeld auf Objektebene überwachen. S3 Replication (Multi-Destination) kann über die S3-Verwaltungskonsole, AWS CloudFormation oder über die AWS CLI oder AWS SDK konfiguriert werden. Für die ersten Schritte mit S3 Replication (Multi-Destination) besuchen Sie: https://aws.amazon.com/s3/features/replication/

Möchten Sie mehr über unseren Technologiepartner AWS erfahren? Wir beraten Sie umfassend und mit jahrelanger Erfahrung! Kontaktieren Sie uns jederzeit mit ihrem Anliegen!

 

Dieser Artikel beruht in Teilen auf einer Meldung unseres Technologiepartners AWS: https://press.aboutamazon.com/news-releases/news-release-details/aws-announces-four-storage-innovations

Ihr Ansprechpartner bei VINTIN

Christoph Waschkau

Mitglied der VINTIN Geschäftsführung

+49 (0)9721 67594 10

kontakt@vintin.de

Abonnieren Sie die Beiträge unseres VINTIN IT-Journals! In Zukunft werden Sie bei neuen Inhalten per Email kurz und bündig informiert.

Zur Datenschutzerklärung

Abonnieren Sie die Beiträge unseres VINTIN IT-Journals! In Zukunft werden Sie bei neuen Inhalten per Email kurz und bündig informiert.

Zur Datenschutzerklärung

Veranstaltungen
  • Keine Veranstaltungen