Kublr bringt Rolling-Updates für Kubernetes

Managed Security für AWS-Umgebungen

CLOUD KUBERNETES

Das neu veröffentlichte Kublr 1.16, ein Tool, das den Einsatz von Kubernetes-Clustern in Unternehmensqualität erleichtert, ist die erste Multi-Cloud- und Multi-Plattform-Kubernetes-Plattform, die rolling Updates für die Open-Source-Container-Orchestrierungs-Engine bietet, so das Unternehmen, das hinter der Technologie steht.

“This functionality is essential whether you want to ensure your infrastructure, applications, or production components are upgraded in a timely manner, or apply security fixes and patches as soon as they become available to avoid exploits,” so Oleg Chunikhin, chief technology officer bei Kublr.

Der typische Prozess vor der rolling Update-Fähigkeit bestand darin, dass IT-Experten einen anderen Cluster einsetzen und die Anwendung replizieren mussten, um den Service konsistent zu liefern und gleichzeitig den ursprünglichen Cluster zu aktualisieren. Diese neue Funktion spart jedoch sowohl Zeit als auch Ressourcen, da es nicht notwendig ist, parallele Cluster zu betreiben.

“In a Kubernetes and cloud native world, this ability is more critical than ever,” sagte Oleg Chunikhin. “The ecosystem is evolving quickly and components are changing fast. Just think of Kubernetes’ quarterly updates. And then there are all the other components, each of which has its own release schedule. This is a far cry from the traditional hardware/VM infrastructure where updates were released at a far slower pace. Your ops and DevOps teams will want to leverage new functionalities right away and shutting clusters down each time to do so, is not feasible.”

“While cloud providers have been offering rolling updates for some time,” so Chunikhin, “this isn’t the case for providers that allow you to deploy clusters in your own infrastructures. Kublr being able to upgrade clusters in-place with no downtime and uniformly in all supported environments (whether cloud or on-prem) enables IT operations teams to scale without sacrificing flexibility and operational agility.”

 

Wie funktioniert das neue Feature?

Kublr hat auf seiner Website einen Blog veröffentlicht, der einige Einblicke in das gibt, was IT-Teams erwarten können, wenn sie sich für die Nutzung der rolling Updates entscheiden.

Während eines Upgrades verschiebt Kublr automatisch die laufenden Anwendungen von den Nodes, die mit den zu aktualisierenden Nodes verbunden sind. Dieser Ansatz bedeutet, dass die Benutzer die Gesamtzahl der laufenden Instanzen entsprechend den von ihnen festgelegten Spezifikationen minimieren. Anschließend bedient die Applikation den Server-Clients, ohne Ausfallzeiten zu verursachen.

Unabhängig davon, ob Unternehmen in On-Premise-Umgebungen arbeiten oder von Amazon Web Services (AWS), der Google Cloud Platform (GCP) oder Microsoft Azure abhängig sind, Version 1.16 unterstützt sie. Kublr bietet auch Kompatibilität für Bare-Metal- und Air-Gap-Umgebungen. Die Nutzer sollten erwarten, dass die Cluster- und Infrastruktur-Upgrades in allen Umgebungen gleich gut funktionieren.

Auch wenn andere Kubernetes-Produkte die Durchführung von Updates ermöglichen, steht Kublr mit seinem Angebot dieser rolling Updates allein da, da es die erste unabhängige Kubernetes-Engine ist, die diese Updates anbietet. Personen, die noch keine Kublr-Kunden sind, können das Tool kostenlos einsetzen, um zu sehen, wie es für sie funktioniert, und diese neue Option ausprobieren.

 

Rolling Updates können mit der Role-Based Access Control (RBAC) integriert werden

Die Unterstützung für die Role-Based Access Control (RBAC) ist eine weitere aktuelle Entwicklung, die von Kublr angeboten wird und erstmals in der Version 1.15 verfügbar ist. Beim Zugriff auf die Kublr-Benutzeroberfläche kann man entweder die RBAC des Unternehmens oder die mit Kubernetes verbundene RBAC wählen. Die RBAC von Kublr ermöglicht es Systemadministratoren, den Grad des Cluster-Zugriffs für verschiedene Benutzergruppen festzulegen. Mit dem RBAC kann bestimmt werden, ob eine Person die Infrastruktur eines Clusters oder die mit diesem Cluster verbundene Kubernetes-Version erstellen oder aktualisieren kann.

Dann ermöglicht die RBAC, die Kubernetes anbietet, die Konfiguration von Berechtigungen für das, was Personen, die verschiedenen Benutzergruppen zugeordnet sind, innerhalb der Cluster tun können. Beispielsweise können Personen mit den entsprechenden Berechtigungen innerhalb des Systems die Ressourcen eines Clusters, einschließlich seiner Ressourcen und Objekte, bearbeiten und verwalten.

Die Kublr-Benutzeroberfläche vereinfacht die RBAC-Bedenken. Unabhängig davon, ob ein Cluster RBAC aus Kublr oder Kubernetes verwendet, kann ein Benutzer auf alle an einem Ort zugreifen, was die Verwirrung verringert. Darüber hinaus erhöht diese Einrichtung die Sicherheit, da ein autorisierter Kublr-Benutzer überprüfen kann, ob die richtigen Berechtigungen für jeden Cluster gelten. Darüber hinaus gibt es eine zentralisierte RBAC-Funktion, die alle RBAC-Berechtigungen auf die von den Clustern gesammelten Protokolle ausweitet.

Bei der Ankündigung der Funktion für fortlaufende Aktualisierungen gab Kublr bekannt, dass die RBAC-Funktionen für Personen, die Version 1.16 verwenden, weiterhin zur Verfügung stehen.

 

Kubernetes Nutzung nimmt zu

Es sollte für IT-Teams leicht verständlich sein, warum die rolling Upgrades und RBAC-Fähigkeiten, die mit Kublr verbunden sind, die Art und Weise, wie ihre Unternehmen Kubernetes nutzen, rationalisieren könnten. Die Eliminierung unnötiger Schritte im Zusammenhang mit der Bereitstellung und dem Management von Clustern ist von wesentlicher Bedeutung, insbesondere angesichts der wachsenden Zahl von Unternehmen aller Größenordnungen, die mit Kubernetes-Clustern arbeiten.

Laut einer Umfrage der Cloud Native Computing Foundation aus dem Jahr 2019 gaben 78% der Befragten an, Kubernetes in der Produktion einzusetzen. Dieser Prozentsatz stellt einen Anstieg von 20% gegenüber den Ergebnissen des Vorjahres dar. Auch die Zahl der Personen in der Evaluierungsphase ging um fast die Hälfte (48%) zurück, da viele der ehemaligen Evaluatoren in die Produktionsphase übergingen.

Die meisten der Befragten, die Kubernetes verwendeten, gaben an, dass sie 2-5 Cluster in der Produktionsphase hatten, wobei 43% diesen Betrag wählten. In diesem Zusammenhang gaben 10 % der Parteien an, dass sie 2-10 Cluster in der Produktionsphase hätten.

Diese Statistiken legen zusammengenommen und nachdrücklich nahe, dass mehr IT-Entscheidungsträger zu dem Schluss kommen, dass Kubernetes für sie eine kluge Wahl ist. Da die Akzeptanz des Kubernetes weiter zunimmt, könnten Funktionen wie die von Kublr zunehmend relevanter und geschätzter werden.

 

Unkomplizierteres Cluster-Management

“Our ultimate goal is to become a true meta-cloud, so Chunikhin. “A new type of infrastructure with flexible, cloud native, enterprise-grade modules including storage, networking, data management, and BCDR, and deployable across different public cloud, private cloud, and on-prem infrastructure. That is pretty ambitious — we know that. It’s also reflected in our extensive roadmap, with each iteration we are getting a little closer and that’s pretty exciting.”

“We’ll expand the IT ops team’s ability to deliver Kubernetes across their organization in a reliable and well-governed manner,” sagte Chunikhin.  Geplante Funktionen umfassen:

  • Beibehaltung der Versionsparität von Kubernetes und anderen Komponenten

 

  • Kublr ist eine der wenigen Kubernetes-Lösungen für Unternehmen, die die neueste Version von Kubernetes unterstützen.

 

  • Unterstützung für extern bereitgestellte Cluster (z.B. Cloud-verwaltete Kubernetes und andere Kubernetes-Bereitstellungs- und Management-Tools). Diese Funktion wird die Betriebsfunktionen von Kublr, wie z.B. die zentralisierte Logsammlung, Überwachung, Sicherheit und RBAC, auf nicht von Kublr bereitgestellte Cluster ausweiten.

 

  • Umfassende Governance-Richtlinien, die es dem IT-Betrieb ermöglichen, Governance-Regeln und Grenzen zu definieren, innerhalb derer Software-Entwicklungsteams Kubernetes-Cluster verwenden und betreiben können, einschließlich Netzwerk, Zugriffskontrolle, Ressourcenkontingente usw.

 

  • Erweiterte Funktionen im Zusammenhang mit der Bereitstellung von Kubernetes an mehreren Standorten (Multi-Cloud, Multi-Region, Hybrid), einschließlich Netzwerkkonnektivität, Föderation, Datenreplikation, Orchestrierung an mehreren Standorten und DR.

 

  • Eine Vielzahl von Anwendungspaketen und Partner-Integrationen wie CI/CD (Spinnaker, Jenkins), Service-Meshes (Istio, Linkerd), FaaS (OpenFaaS), Sicherheit (NeuVector), Speicherung (Ceph/Rook, Portworx, Yugabyte, HDFS), Datenwissenschaft (Spark).

 

Weitere Beiträge

Bei Interesse an einer Partnerschaft, kontaktiere uns gern!

5 Möglichkeiten, wie die IT-Automatisierung Ihrem Unternehmen helfen kann, den Coronavirus zu überstehen

5 Möglichkeiten, wie die IT-Automatisierung Ihrem Unternehmen helfen kann, den Coronavirus zu überstehen

CLOUD Prozessautomatisierung

Angesichts der weltweit 500.000 Menschen, welche mit dem Coronavirus (COVID-19) infiziert sind, und der stetig steigenden Zahl der Todesopfer steht es außer Frage, dass wir es mit einer Pandemie zu tun haben. Aufgrund von Angst und Unsicherheit schränken immer mehr Unternehmen ihre Geschäftsreisen ein und greifen auf Fernarbeitsvereinbarungen zurück, um die Auswirkungen zu minimieren und mögliche Geschäftsunterbrechungen zu verhindern. Die Bedeutung der Vorbereitung auf das, was sich schnell zu einer schweren Weltgesundheitskrise entwickelt hat, darf keinesfalls unterschätzt werden. Mit der Krise gehen plötzliche und substanziellen Veränderungen einher, u.a am Arbeitsplatz, die alle Unternehmen vor zusätzliche Herausforderungen stellen. Um diese Herausforderungen zu bewältigen, müssen mehr VPNs bereitgestellt werden, Mitarbeitern ein Fernzugriff auf Dateien ermöglicht werden und neue Kanäle für die gemeinsame Kommunikation eingerichtet werden. Diese ganzen, neuen Aufgaben sind für die IT-Teams mit viel Arbeit verbunden und lenken von effektiven, täglichen Aufgaben ab.

 

Die schnelle Lösung dieser ernsten und schwerwiegenden Probleme sollte für die Führungskräfte aller Branchen höchste Priorität haben. Die gute Nachricht ist, dass es mit der richtigen Technologie möglich ist, die bevorstehende Arbeit zu minimieren. Aus diesem Grund haben wir die fünf wichtigsten und möglichen Anwendungsfälle zusammengestellt, die eine Automatisierung der Unternehmensprozesse nahtlos ermöglichen.

VPN-Zugriff

Durch die vielen Mitarbeiter, die jetzt grünes Licht für das Arbeiten im Homeoffice bekommen haben, steigt die Nachfrage nach VPNs erheblich. In der Folge nehmen auch die Probleme des VPN-Zugangs sowohl für Mitarbeiter als auch für Auftragnehmer zu, wie z.B. das Zurücksetzen, Öffnen und Schließen, VPN-Zertifikatsaktualisierungen usw. Dies stellt eine zusätzliche Belastung für das IT-Personal dar, welches bereits durch andere wichtige Vorgänge ausgelastet ist und auch durch fehlendes geeignetes Personal und/oder Ressourcen können bevorstehende Aufgaben nur eingeschränkt realisiert werden. Durch eine Automatisierung dieser Arbeitsabläufe können Remote-Mitarbeiter schnell einsatzbereit sein, ohne den bereits überlasteten Zeitplan des IT-Teams weiter zu beanspruchen.

Berechtigungen und kennwortbezogene Problemstellungen

Auch die Anfragen nach Systemberechtigungen und Rücksetzungen von Passwörtern häufen sich, wenn Mitarbeiter von zuhause arbeiten. Im Umkehrschluss bedeutet das mehr Arbeitsaufwände für das IT-Team. Jeder IT-Techniker weiß nur allzu gut, dass Anfragen wie diese leider zeitaufwändig sind und die Fachkräfte von wichtigen Aufgaben ablenken und an deren Abschluss hindern. Auch hier kann die Automatisierung einen enormen Einfluss haben, indem sie den Anwendern Selbstbedienungsoptionen bietet und dadurch die IT entlastet.

Ressourcen erweitern

Eine der größten IT-Herausforderungen, wenn die Mitarbeiter im Homeoffice arbeiten, ist das Ressourcenmanagement. Eine manuelle Überwachung und Zuweisung von Ressourcen entspricht keiner optimalen Zeit- und Ressourcenauslastung des IT-Teams. Im Rahmen der Prozessautomatisierung können Anfragen zur Ressourcenbereitstellung, in automatisierte Arbeitsabläufe umgewandelt werden, die von den Endbenutzern mit wenigen einfachen Mausklicks selbst ausgelöst werden können. Dies führt zu einer verbesserten User Experience für den Endbenutzer und zur Entlastung des IT-Teams.

Tägliche Server- und App-Wartung

Leere Büroräume müssen nicht gleich einen Stillstand der IT bedeuten.  Wichtige Vorgänge wie der Neustart der Applikationen, die Rotation des App-Pools, die Bereinigung von Protokollen, des Festplattenspeicherplatzes sowie die Speicher- und CPU-Auslastung müssen berücksichtigt werden, um Geschäftsunterbrechungen zu minimieren. Auch diese Prozesse lassen sich mit Workflows automatisieren und können entweder nach Zeitplan oder automatisch durch ein oder mehrere Ereignisse ausgelöst werden. Der Vorteil daran ist, dass die IT-Fachkräfte die Möglichkeit haben die Systeme dezentral zu administrieren.

On-boarding / Off-boarding

Die Ausbreitung des Coronavirus erfolgt besonders für neue als auch für ausscheidende Mitarbeiter zu einem ungünstigen Zeitpunkt. Dennoch muss der Arbeitsalltag fortgesetzt werden, unabhängig davon, ob diese Teammitglieder im Büro oder von zu Hause ihre Aufgaben erledigen. Das On- und Off-boarding der Mitarbeiter ist jedoch ein zeitaufwendiger Prozess. Glücklicherweise kann der gesamte Onboarding- und/oder Offboarding-Workflow automatisch eingeleitet und schnell abgeschlossen werden, wodurch Verzögerungen vermieden werden und eine optimierte Ressourcenzuweisung gewährleistet wird.

Zusätzliche Tipps zur Pandemievorsorge für IT-Teams:

  • Bewertung der IT-Lieferkette zur Bestimmung der Vorbereitung
  • Implementierung von Lösungen zur Verwaltung von dezentralen Rechenzentren
  • Überprüfung und/oder Implementierung von Richtlinien für die Fernarbeit, insbesondere Fragen bezüglich BYOD, vom Unternehmen ausgegebene IT-Equipment, priorisierte Zugänge und Internet-Bandbreitenkapazität
  • Nutzen der Cloud, um mögliche Risiken zu mildern
  • Untersuchung und Nutzung alternativer Kommunikationskanäle (Sprache, Chat usw.)
  • Webbasierte Videokonferenzen nutzen
  • Entscheiden, welche Geschäftsvorgänge, die einen hohen Ressourcenverbrauch erfordern, fortgesetzt werden müssen und welche verschoben werden können
  • Verzögerung/Verschiebung nicht wesentlicher IT-Operationen
  • Staffelung der Betriebszeiten und der Personalzuweisung zur Erleichterung der Bandbreitennachfrage
  • IT-Budget und Projekte entsprechend neu ausrichten

Diese jüngste katastrophale Gesundheitskrise erinnert uns daran, wie anfällig Unternehmen für äußere Umstände sein können. Durch den Einsatz neuester Technologien, wie z.B. intelligenter IT-Prozessautomatisierung, können Unternehmen ihre Mitarbeiter schützen und mögliche Auswirkungen minimieren. Da sich gezeigt hat, dass die Ermöglichung von Fernarbeit die Produktivität verbessert, die Mitarbeiterfluktuation verringert und die Betriebskosten senkt, könnten Unternehmen, die diese Richtlinien umsetzen, am Ende der Krise stärker daraus hervorgehen als zuvor.

Weitere Beiträge

Bei Interesse an einer Partnerschaft, kontaktiere uns gern!

Home Office wegen Covid-19? So kann AWS helfen

Home Office wegen Covid-19? So kann AWS helfen

CLOUD AWS

In dem vergangenen Monat hat sich vieles verändert. Alte Lebens-, Arbeits-, Begegnungs-, Begrüßungs- und Kommunikationsweisen sind für eine Weile verschwunden. Weder ein freundlicher Händedruck noch warme Umarmungen sind im Moment sozial akzeptabel.

Nun müssen schleunigst Maßnahmen zur Unterstützung unserer Kunden und Mitarbeiter ergriffen werden, um ihnen bei der Anpassung und dem Umgang mit der Situation zu helfen.

Home-Office

Da die Menschen in vielen Städten und Ländern nun aufgefordert werden, von zu Hause aus zu arbeiten oder zu lernen, glauben wir, dass einige AWS Dienstleistungen dazu beitragen können, den Übergang vom Büro nach Hause ein wenig zu erleichtern. Hier ist ein Überblick über die AWS Lösungen:

Mit Amazon WorkSpaces können Sie virtuelle Windows- und Linux-Desktops starten, auf die überall und von jedem Gerät aus zugegriffen werden kann. Diese Desktops können für Fernarbeit, Fernschulungen und mehr verwendet werden.

Amazon WorkDocs macht es Ihnen leicht, mit anderen zusammenzuarbeiten, auch von überall und auf jedem Gerät. Sie können Inhalte erstellen, bearbeiten, freigeben und überprüfen, die alle zentral auf AWS gespeichert sind.

Amazon Chime unterstützt Online-Meetings mit bis zu 100 Teilnehmern (später in diesem Monat werden es 250 sein), einschließlich Chats und Videoanrufe, alles über eine einzige Anwendung.

Mit Amazon Connect können Sie ein Call- oder Kontaktzentrum in der Cloud einrichten und eingehende Anrufe und Nachrichten an Zehntausende von Mitarbeitern weiterleiten. Sie können die Applikation nutzen, um Notfallinformationen oder einen personalisierten Kundendienst bereitzustellen, während ihre Mitarbeiter von zu Hause arbeiten.

Mit Amazon AppStream können Sie Desktop-Anwendungen auf jedem beliebigen Computer bereitstellen. Sie können Anwendungen für Unternehmen, Bildungseinrichtungen oder Telemedizin maßstabsgetreu bereitstellen, einschließlich solcher, die GPUs für Berechnungen oder 3D-Rendering verwenden.

Mit dem AWS-Client-VPN können Sie von überall aus sichere Verbindungen zu Ihren AWS- und firmeninternen Netzwerken einrichten. Sie können Ihren Mitarbeitern die Möglichkeit geben, sich in Ihr bestehendes Netzwerk einzuloggen.

Mit dem AWS Chatbot können Sie Ihre AWS-Ressourcen in Slack-Kanälen und Chime-Chaträumen überwachen und mit ihnen interagieren.

Weitere Beiträge

Bei Interesse an einer Partnerschaft, kontaktiere uns gern!

Managed Security für AWS-Umgebungen

Managed Security für AWS-Umgebungen

CLOUD AWS

In diesem Beitrag werden sechs Punkte aufgezeigt, welche man unbedingt beachten sollte, um die IT-Sicherheit von auf AWS laufenden Systemen zu gewährleisten.

Die Anzahl der Unternehmen, die den Vorteilen einer AWS-Cloud-Infrastruktur vertrauen, wächst rasant an. Unternehmen jeder Größe sind jedoch im Rahmen der gemeinsamen Verantwortung für einen Teil der IT-Sicherheit ihrer Cloud-laufenden Systeme verantwortlich. Die folgenden sechs Punkte müssen beachtet werden:

  1. Identity & Access Management (IAM)

Wer kann auf welche Informationen in der Cloud zugreifen? Wer kann welche Änderungen oder Maßnahmen vornehmen? Vor allem die komplexesten Unternehmensstrukturen mit vielen Mitarbeitern und Verantwortungsbereichen erfordern IAM.

  1. Protokollierung und Überwachung

Überblick behalten – Dies funktioniert nur bei ordnungsgemäßer Protokollierung und Überwachung. Detaillierte Metrikwarnungen helfen bei der Bewertung potenzieller Bedrohungen und der Auswahl der geeigneten Maßnahmen. Hierfür sind die richtigen Tools sehr nützlich, beispielsweise Services wie AWS CloudTrail und AWS GuardDuty. Fügen Sie bei Bedarf Lösungen von Drittanbietern hinzu.

  1. Infrastruktursicherheit mit einem Playbook

Welche Netzwerkzugriffe sollten in die AWS-Infrastruktur integriert werden und wie können sie überwacht werden? Für die Sicherheit der Infrastruktur ist ein Sicherheitsspielbuch erforderlich. Grundlegende Sicherheitsregeln sollten als “Infrastruktur als Code” erstellt werden, damit Best Practices automatisiert und integriert werden.

  1. Daten – zugänglich und sicher

Natürlich spielt der Datenschutz auch eine wichtige Rolle bei der Cloud-Sicherheit. Bei der Migration in die Cloud sollte der Verschlüsselung sowohl aktiver als auch inaktiver Daten eine hohe Priorität eingeräumt werden. Um alle Daten sicher abzusichern, aber auch zugänglich zu sein, muss ein Unternehmen verstehen, wie AWS Key Management Service (KMS) verwaltet wird.

  1. Incident Management

Selbst die besten prophylaktischen Maßnahmen stoßen an Grenzen. Ein Cloud-spezifisches Playbook zur Reaktion auf Vorfälle, das im Notfall reagiert, wie z. B. Sicherheitsregeln für die Infrastruktur auf Codeebene, kann den Unterschied zwischen einem verwaltbaren und einem existenziellen Sicherheitsvorfall ausmachen.

  1. Verwaltung und Kontrolle der Kosten

Eines ist klar: IT-Sicherheit muss erschwinglich sein. Die Einrichtung einer Kostenstelle und der Zusammenschluss aller beteiligten Konten sowie die Budgetverwaltung von Anfang an ermöglichen ein transparentes Finanzmanagement (Stichwort: FinOps) und eine rationale Entscheidungsgrundlage für Änderungen. im Verlauf des Cloud-Transformationsprozesses.

Fazit

Unternehmen sollten Cyber-Bedrohungen nicht missachten. Potenzielle Cyber-Angriffe sind jedoch kein Grund, auf eine Migration in die Cloud zu verzichten. Um angemessene Sicherheitsstandards zu implementieren, kann es sich lohnen, sich auf spezialisierte Dienstleister mit einschlägiger Erfahrung zu verlassen, auch wenn Experten intern fehlen. Diese lösen Sicherheitsprobleme schnell und berücksichtigen unternehmensspezifische Prozesse und langfristige Herausforderungen. Mit kompetentem Support und den richtigen Tools kann die IT-Sicherheit für Systeme, die unter AWS ausgeführt werden, einfacher gewährleistet werden, als es zunächst erscheint.

Weitere Beiträge

Bei Interesse an einer Partnerschaft, kontaktiere uns gern!

Neue AWS-Funktionen für Speicher- und Dateisysteme

Neue Funktionen für Speicher- und Dateisysteme

CLOUD AWS

Vor, während und nach AWS re: Invent 2019 kündigte Amazon Web Services (AWS) zahlreiche Innovationen bei seinen Speicherdiensten an. Bei Innovationen geht es um Sicherheit, Compliance, Effizienz und Support. Derzeit profitieren auch Amazon FSx für Windows und Lustre von zahlreichen Erweiterungen.

Der S3 RTC-Dienst (Amazon S3 Replication Time Control) ist eine neue Funktion in S3 Replication, die eine vorhersehbare Replikationsdauer basierend auf einem Service Level Agreement (SLA) bietet. S3 RTC unterstützt Kunden bei der Erfüllung von Geschäfts- oder Compliance-Anforderungen für die Datenreplikation und ermöglicht eine transparente Replikation mit neuen Amazon CloudWatch-Metriken. „Das ist wichtig unter anderem für die Einhaltung von Recovery Point Objectives [RPO], wenn ein Failover auf eine andere Region erfolgen soll oder Daten wiederhergestellt werden müssen“, erläutert Michael Hanisch, Technologieexperte bei AWS Deutschland.

Laut AWS verwenden Kunden den S3-Replikationsdienst, um Milliarden von Objekten aus Repositorys in derselben oder einer anderen Region zu kopieren. “Mit der S3-Replikationszeitsteuerung können 99,9 Prozent der Objekte innerhalb von 15 Minuten nach dem Laden kopiert werden, und die meisten neuen Objekte werden in Sekunden repliziert”, fügt Hanisch hinzu. S3 RTC bietet auch S3-Replikationsmetriken (über CloudWatch), mit denen Kunden die Zeit bis zur Replikation sowie die Gesamtzahl und Größe der zu replizierenden Objekte verfolgen können. „Wir haben übrigens auch die Preise für die Synchronisation mit AWS DataSync um 68 Prozent gesenkt“, so Hanisch. AWS DataSync kann auch zum Replizieren von Daten zwischen Gebietsschemas und AWS verwendet werden. AWS Access Analyzer für S3 ist eine neue Funktion, die Zugriffsrichtlinien überwacht und sicherstellt, dass nur der beabsichtigte Zugriff auf S3-Ressourcen möglich ist. Auf diese Weise können Buckets mit möglicherweise unbeabsichtigtem Zugriff identifiziert und Sicherheitsrichtlinien korrigiert werden.

Access Analyzer für S3 ist in der S3 Management Console ohne zusätzliche Kosten verfügbar„Der Analyzer ist wichtig für Security und Governance, für einen Audit-Trail und für Bucket Policies“, erläutert AWS-Experte Hanisch. „Er ergänzt den IAM Access Analyzer und AWS Macie.“ Kunden können „Amazon Macie“ verwenden, um ihre in Amazon S3 gespeicherten vertraulichen Daten zu ermitteln, zu klassifizieren und zu schützen. Durch maschinelles Lernen erkennt Amazon Macie persönliche Informationen oder geistiges Eigentum und stellt Dashboards und Warnungen bereit, die zeigen, wie auf diese Daten zugegriffen wird oder wie sie sich bewegen. Amazon Macie überwacht auch Datenzugriffsmuster auf Anomalien und warnt, wenn durch nicht autorisierte Zugriffe oder versehentliche Datenlecks ein Risiko erkannt wird.

Zeitbasierte Aufbewahrungsrichtlinien für DLM

Seit Ende November 2019 können Benutzer in “Data Lifecycle Manager” (DLM) zeitbasierte Aufbewahrungsrichtlinien festlegen. Mit diesem Start können Sie die Aufbewahrungsdauer für Snapshots in den folgenden Intervalleinheiten im DLM definieren: Tage, Wochen, Monate und Jahre. Zeitbasierte Aufbewahrungsrichtlinien erleichtern die Erfüllung von Compliance-Anforderungen, bei denen Benutzer Backups (EBS-Volume-Snapshots) für einen bestimmten Zeitraum behalten müssen. „Dies ist im Hinblick auf die DSGVO und andere Vorschriften zur Datenhaltung von Bedeutung“, sagt Hanisch.

 

Elasticsearch Service wird „UltraWarm“

AWS bietet jetzt hierarchisches Speichermanagement für den “Amazon Elasticsearch Service” an. Dieser Service wurde kürzlich um die Speicherleistungsstufe “UltraWarm” erweitert. „Mit UltraWarm können Nutzer ihre Daten mit Elasticsearch und Kibana speichern und interaktiv analysieren sowie gleichzeitig ihre Kosten pro GB um bis zu 90 Prozent gegenüber den vorhandenen ‚heißen‘ Speicherungsoptionen von Amazon Elasticsearch Service senken“, erläutert Hanisch. „Mit UltraWarm unterstützt Amazon Elasticsearch Service jetzt heiß-warme Domänenkonfigurationen.“Hot Storage wird für die Indizierung und den schnelleren Zugriff auf Daten verwendet. UltraWarm ergänzt Hot Storage durch billigeren, länger anhaltenden Speicher für ältere Daten, auf den Benutzer weniger häufig zugreifen, während das interaktive Analyseerlebnis beibehalten wird. Die UltraWarm-Vorschau ist derzeit in Elasticsearch Version 6.8 in drei US-Regionen verfügbar.

Amazon FSx für den Windows File Server & Lustre

Die Unterstützung von Amazon FSx (File Services) für Windows File Server wurde erheblich erweitert. “FSx für Windows ist ein verwalteter Dienst, der über mehrere Verfügbarkeitszonen hinweg funktioniert”, erklärt Hanisch und fügt hinzu: “FSx ermöglicht jetzt auch die clientseitige Datendeduplizierung und -komprimierung von Windows-Dateien sowie die Verschlüsselung durch AWS. und die Definition, mit welchen Schlüsseln der Algorithmus verwendet wird [AES et cetera]. “Aber einer nach dem anderen. Durch die Deduplizierung werden die Speicherkosten für die allgemeine Dateifreigabe voraussichtlich um beachtliche 50 bis 60 Prozent gesenkt.

Der Vorteil: Speicheradministratoren können Speicherkosten in Amazon FSx-Dateisystemen sparen, indem sie die Datendeduplizierung mit einem Befehl ermöglichen. Die Einsparungen betragen in der Regel 50 bis 60 Prozent für die allgemeine Dateifreigabe, 30 bis 50 Prozent für Benutzerdokumente und 70 bis 80 Prozent für Datensätze in der Softwareentwicklung. Die Unterstützung für die Datendeduplizierung ist jetzt für alle neuen Dateisysteme in allen Regionen, in denen Amazon FSx angeboten wird, kostenlos verfügbar. Amazon FSx für Windows File Server unterstützt jetzt Benutzerspeicherkontingente, sodass Administratoren die Speichernutzung der Benutzer in ihren Dateisystemen steuern und begrenzen können. Die Unterstützung für Benutzerspeicherkontingente ist jetzt für alle neuen Dateisysteme in allen Regionen, in denen Amazon FSx verfügbar ist, kostenlos verfügbar.

Mit demselben Dienst konnten Speicheradministratoren kürzlich die Verschlüsselung von Daten erzwingen, wenn diese auf Dateisysteme übertragen werden.

Dies ist die Datenverschlüsselung während der Übertragung mit SMB Version 3. Der Dienst ermöglicht unverschlüsselte Verbindungen von Compute-Instanzen, die SMB 3 nicht unterstützen. Benutzer können den Zugriff jetzt nur dann zur Verschlüsselung erzwingen, wenn ihre Compliance-Anforderungen dies erfordern. “Amazon FSx für Windows-Dateiserver” konnte kürzlich die Dateifreigabe über PowerShell verwalten. Auf diese Weise können Speicheradministratoren die Migration, Synchronisierung und fortlaufende Verwaltung freigegebener Dateien auf Amazon FSx-Dateisystemen automatisieren. Amazon FSx bietet zahlreiche Verbesserungen für die AWS Management Console, darunter die Möglichkeit, Amazon FSx CloudWatch-Metriken anzuzeigen und Tags direkt über die Amazon FSx-Konsole hinzuzufügen und zu aktualisieren.

Amazon FSx ist nicht nur für Windows verfügbar, sondern auch für Lustre, ein leistungsstarkes Dateisystem für anspruchsvolle Workloads wie HPC (High Performance Computing) und maschinelles Lernen. Amazon FSx for Lustre wurden Funktionen zur Erleichterung der Synchronisierung von Daten- und Dateiberechtigungen zwischen Amazon FSx und Amazon S3 zugewiesen. Außerdem hat Amazon FSx die Geschwindigkeit beim Starten von FSx-Dateisystemen, die mit S3-Buckets verknüpft sind, vervierfacht. Um den Container-Service Elastic Kubernetes Service (EKS) besser zu unterstützen, hat Amazon kürzlich eine Beta-Version seines FSx für den Lustre CSI-Treiber angekündigt. FSx for Lustre wird voraussichtlich auch ein AWS-Repository für Lustre-Clients verwalten.

Elastic File System (EFS)

Amazon EFS-Zugriffspunkte (Amazon Elastic File System) sind eine neue EFS-Funktion, die es Benutzern erleichtert, Anwendungen den Zugriff auf gemeinsam genutzte Datensätze in einem EFS-Dateisystem zu ermöglichen. Amazon EFS ist ein robustes, skalierbares, vollständig verwaltetes und benutzerfreundliches NFS-Dateisystem. EFS-Zugriffspunkte arbeiten mit AWS IAM zusammen und wenden einen Betriebssystembenutzer und eine Betriebssystemgruppe sowie ein Verzeichnis für jede Dateisystemanforderung an, die über den Zugriffspunkt gesendet wird. EFS Access Points sind jetzt in allen Regionen verfügbar, in denen Amazon EFS ohne zusätzliche Kosten verfügbar ist. AWS Backup bietet jetzt optimierte Funktionen für die Wiederherstellung auf Elementebene in Amazon EFS. Ziel ist es, Benutzern die granulare Wiederherstellung einzelner Dateien oder Ordner aus Amazon EFS-Sicherungen mithilfe einer zentralen Konsole zu ermöglichen, um eine vereinfachte und schnelle Wiederherstellung zu ermöglichen und die strengsten Anforderungen für das Ziel der Wiederherstellungszeit (RTO) zu erfüllen.

Elastic Block Storage (EBS)

Für Elastic Block Storage (EBS) bietet AWS jetzt APIs, die den direkten Lesezugriff auf einzelne Blöcke in EBS-Snapshots ermöglichen. Auf diese Weise können Sicherungssoftware oder Dienstanbieter schnellere Sicherungen von EBS-Volumes zu geringeren Kosten durchführen. Backup-Anbieter sollten nun in der Lage sein, Änderungen an EBS-Volumes mithilfe von EBS-Snapshots einfach zu verfolgen und ihre Workflows zu optimieren, um die Backup-Zeiten um bis zu 70 Prozent zu reduzieren. Dies sollte es ihnen ermöglichen, AWS-Kunden detailliertere Recovery Point Objectives (RPO) zu geringeren Kosten anzubieten. Für EBS optimierte Instanzen erhalten eine Leistungssteigerung durch die Verwendung von Instanzen, die auf dem Amazon EC2-Nitrosystem basieren. Das AWS Nitro-System ist die Basisplattform für die neueste Generation von EC2-Instanzen. Dadurch kann AWS Innovationen schneller vorantreiben, die Kosten für Kunden weiter senken und zusätzliche Vorteile wie erhöhte Sicherheit und neue Instanztypen bieten.

Mit den neuesten Verbesserungen des Nitro-Systems unterstützen alle neuen Instanzen C5 / C5d / C5n, M5 / M5d / M5n / M5dn / M5dn, R5 / R5d / R5n / R5dn und P3dn jetzt 36% EBS-optimierte Instanzbandbreite Höchste bis zu 19 Gbit / s, die ausschließlich für den Zugriff auf EBS-Einheiten bereitgestellt werden. 6, 9 und 12 TB Amazon EC2-Instanzen mit hohem Speicher können jetzt auch eine für EBS optimierte Instanzbandbreite von 19 Gbit / s unterstützen, was einer Steigerung von 36 Prozent gegenüber den vorherigen 14 Gbit / s entspricht.Der Vorteil: „Diese Leistungssteigerung ermöglicht es Nutzern, Teile ihrer Workflows in Abhängigkeit von der EBS-optimierten Instanzleistung zu beschleunigen. Für Workloads mit vielen gleichzeitigen Laufwerkszugriffen haben sie die Möglichkeit, kleinere Instanzgrößen zu verwenden und dennoch höhere Bandbreiten für die Zugriffe auf EBS-Laufwerke zu nutzen und so Kosten zu sparen“, erläutert Hanisch.  Mit dieser Leistungssteigerung können Benutzer ungeplante Leistungsspitzen beim Zugriff auf EBS-Laufwerke bewältigen, ohne die Größe der Instanzen für ihre Anwendung zu erhöhen.

Weitere Beiträge

Bei Interesse an einer Partnerschaft, kontaktiere uns gern!