Crossplane – composing cloud infrastructure in a more effective way

Crossplane - composing cloud infrastructure in a more effective way

Cloud Infrastructure with Crossplane

Contributor: Rodion Slepnev

Crossplane is an open-source software operating as an add-on on top of Kubernetes letting to provision infrastructure of any complexity and configuration using most prominent cloud providers such as Google Cloud Platform (GCP), Microsoft Azure and Amazon Web Services (AWS) as well as other like Equinix, Alibaba Cloud and Red Hat Cloud Suite and operates across Mac, Linux and Windows operating systems. Being an extension of Kubernetes it runs on Google Kubernetes Engine (GKE), Azure Kubernetes Service (AKS), Alibaba Container Service for Kubernetes (ACK), Amazon Elastic Kubernetes Service (EKS) and others.

It enables to describe infrastructure declaratively without writing any code and extensively disclosing the underlying infrastructure of the particular vendor. 

Crossplane extends Kubernetes cluster, providing ready-to-use Custom Resource Definitions (CRDs), which create a new custom resources with a name and schema that are specified by a user. It is also possible to compose these granular resources into higher level abstractions that can be versioned, managed, deployed and consumed.

Figure 1 represents an example of composed infrastructure implemented via Crossplane making possible to combine resources from different vendors.

Fig.1 - Composing Infrastructure

Furthermore one can build his own internal infrastructure abstractions on top of the CRDs from Crossplane. New custom APIs can include policy guardrails, hiding infrastructure complexity — set of CRDs and controllers are bundled together known as packages that represent and manage external infrastructure (i.e. a provider), then installing them into a cluster where Crossplane is running.

Installation process: 

Following the guidelines we installed Crossplane on AWS EKS although. Figure 2 shows what applications are being launched on the cluster (so-called workloads).

Fig.2 - Crossplane on EKS cluster

Example as proof of concept: 

Figure 3 shows the custom script composed from two CRDs which creates a VPC with a Security Group in AWS environment (all default examples could be found here).

Fig.3 - Custom Script

The script itself describes infrastructure declaratively which as mentioned above lets encapsulate its specific details by using predefined words without writing any code and/or implementing it via internal sources like, for example, AWS Cloudformation. 

Descriptions of CRDs provided by Crossplane for all versions together with the references to the corresponding branches on GitHub can be found here

Script is being implemented via kubectl (Fig.4) as it is also mentioned with examples in the guidelines:

Fig.4 - Running the custom script

As a result one can see successfully provisioned Virtual Private Cloud (VPC) with a dedicated security group (Fig.5 and Fig.6):

Fig.5 - VPC provisioned from the custom script
Fig.6 - Security Group attached to VPC


Crossplane is currently under active development with a small community but showing reasonable progress looking at fixed issues. Although it has bugs being not fixed yet, features that are not reflected in the documentation especially installation part and the final stage is still far from completion Crossplane shows a quite good potential and in perspective could become more popular tool in its application area like, for example, Pulumi and other tools with similar functionality.

Thinkport is an actively developing company trying to find new approaches and technologies that concern cloud computing and relevant topics and it was very exciting to find and research Crossplane in one of its projects where it takes an active part. If you have further specific questions on the topic, or a handful of niche areas we are specialized in, visit our newly updated workshop page.

1. Crossplane official website — 
2. Crossplane GitHub repository — 
3. Crossplane documentation —
4. Kubernetes documentation —
5. CRD descriptions —

Blog Kurator

Bledion Vladi

Business Development


Thinkport and Solace announce Partnership

Thinkport and Solace announce collaborative partnership

Press Release Partnership

Thinkport and Solace team up to help power the event-driven enterprise

Frankfurt am Main, 16. March, 2021 – Thinkport and Solace have announced a partnership agreement that will enable us to more effectively help our enterprise clients achieve the benefits of event-driven architecture, thanks to our access to and expertise with Solaces event streaming and management technology, PubSub+ Platform.

“Thinkport prides itself on bringing cutting-edge tools and techniques to German enterprises, and they’ve proven they can help clients gain quick digital transformation through cloud migration and event-driven architecture,” says Paul Fitzpatrick, chief business development officer, Solace. 

Thinkport currently has six Solace Solutions certified Consultants, that have experience with both PubSub+ Event Broker and PubSub+ Event Portal, along with key APIs and protocols, caching, and other tools.

“Solace is an excellent addition to Thinkport’s portfolio of technology partnerships, and fits well with its collaborations with AWS, Microsoft, Google, to name a few,” says Peter Yves Ruland, Tech Lead, Thinkport. “This partnership gives our customers access to industry-leading event streaming technologies, which when paired with Thinkport’s in-depth domain knowledge, consulting, and integration services, drives serious bottom-line business value and lets them more easily develop game-changing services for their customers.”

About Solace

Solace helps large enterprises become modern and real-time by giving them everything they need to make their business operations and customer interactions event-driven. With PubSub+, the market’s first and only event management platform, the company provides a comprehensive way to create, document, discover and stream events from where they are produced to where they need to be consumed – securely, reliably, quickly, and guaranteed. Behind Solace technology is the world’s leading group of data movement experts, with nearly 20 years of experience helping global enterprises solve some of the most demanding challenges in a variety of industries – from capital markets, retail, and gaming to space, aviation, and automotive. Established enterprises such as SAP, Barclays and the Royal Bank of Canada, multinational automobile manufacturers such as Groupe Renault and Groupe PSA, and industry disruptors such as Jio use Solace’s advanced event broker technologies to modernize legacy applications, deploy modern microservices, and build an event mesh to support their hybrid cloud, multi-cloud and IoT architectures. Learn more at

About Thinkport GmbH

Thinkport is a young, fast-growing cloud consulting company with offices in Frankfurt and Leipzig. Thinkport supports companies in the development of innovative cloud solutions. As a certified Microsoft Silver Platform Partner, we work closely with Microsoft in the Azure Cloud environment, and we also have certified expertise with Amazon Web Services and Google Cloud Platform. As the only Solace Strategic Partner in Germany, with 6 certified Solutions Consultants, we are also experts in event streaming and event management platforms. Our strengths and know-how lie in the areas of Multi-Cloud, Data Lakes, Big Data, AI, and Event-Driven Architectures (Hadoop, Kafka, Solace), and Terraform. We have completed projects for DAX corporations, including Bayer, Lufthansa, Deutsche Bahn, BMW, Commerzbank, and many more. Our service portfolio includes cloud consulting, cloud engineering, workshops & trainings. To learn more visit

Blog Kurator

Bledion Vladi

Business Development


Warum Terraform eines Ihrer DevOps Tools sein sollte

Terraform_DevOps Tools

DevOps Tools - Terraform

CLOUD Terraform

Terraform als eines der besten DevOps Tools

Wir sind überzeugt davon, dass Terraform eines der Tools ist, das man in der DevOps-Toolchain verwenden sollte. In diesem Blog-Beitrag beschreiben wir nicht nur die Grundlagen von Terraform sondern auch weshalb jede/r Terraform als eines ihrer/ seiner DevOps-Tools in Betracht ziehen sollte.

Was ist Terraform und warum ist es auf dem Vormarsch?

Schaut man sich Google Trends für den Begriff “Terraform” an, wird deutlich, wie beliebt dieses Tool weltweit ist. Seit 2016 ist Terraform auf dem Vormarsch und viele Unternehmen haben es als eines der wichtigsten Tools in ihre DevOps-Toolkette aufgenommen. 

Mit Terraform können Infrastrukturen sicher und effizient entwickelt, modifiziert und versioniert werden. Terraform kann sowohl bestehende und gängige Service-Provider als auch individuelle Inhouse-Lösungen verwalten. Es ist auch das erste Multi-Cloud-Tool für unveränderliche Infrastrukturen, das von HashiCorp vorgestellt wurde.

Einer der Gründe, warum Terraform immer beliebter wird, ist weil es eine einfache Syntax hat, die eine simple Modularität ermöglicht und gut mit Multi-Cloud-Systemen funktioniert. Eine weitere Funktion für den Einsatz von Terraform ist die Verwaltung der Infrastructure-as-a-Code, die auch eine Grundlage für DevOps-Praktiken wie Versionskontrolle, Code-Review, kontinuierliche Integration und kontinuierliches Deployment ist.


Gründe, Terraform für DevOps in Betracht zu ziehen.

Das Ziel von DevOps ist es, die Zusammenarbeit über den gesamten Wertstrom hinweg zu verbessern, indem eine kontinuierliche Lieferpipeline entwickelt und automatisiert wird. Dadurch erhöht DevOps die Häufigkeit und Qualität der Bereitstellungen und verbessert die Innovation und Risikobereitschaft, indem es das Experimentieren sicherer macht.

Und genau hier helfen Tools wie Terraform Unternehmen mit Infrastructure-as-Code und Automatisierung. Während  Technologien wie Ansible, Chef oder Puppet Software automatisieren und bereitstellen, konzentriert sich Terraform auf die Automatisierung der Infrastruktur selbst. Die gesamte Cloud-Infrastruktur, einschließlich Instanzen, Volumes, Netzwerke und IPs, kann in Terraform einfach definiert werden.

Im Folgenden nennen wir 6 Gründe, warum jeder Terraform als eines seiner DevOps-Tools verwenden sollte:

1. Terraform ermöglicht es, die Infrastruktur im In-Code zu definieren , sowie Änderungen an der Infrastruktur einfach wiederherzustellen und zu verfolgen. Außerdem liefert es eine High-Level-Beschreibung der Infrastruktur.

2. Terraform ist das einzige ausgereifte Tool, das komplett plattformunabhängig ist und auch andere Dienste unterstützt. Es
gibt ein paar Alternativen, aber sie sind auf einen einzelnen Cloud-Anbieter fokussiert. 

3. Terraform ermöglicht die Umsetzung aller Arten von Coding-Prinzipien, wie z. B. den Code in der Source Control zu haben
und automatisierte Tests schreiben zu können.

4. Terraform ist das richtige Tool für das Infrastrukturmanagement, da viele andere Tools einen schweren
 haben, wenn sie versuchen, eine API, die für das Konfigurationsmanagement entwickelt wurde, für die
Steuerung einer Infrastrukturumgebung zu verwenden. Bei Terraform passt die API zu der Art, wie man über Infrastruktur denkt.

5. Die Geschwindigkeit und Bedienung von Terraform ist außergewöhnlich. Eine hilfreiche Funktion von Terraform ist, dass
man den Befehlplan verwenden kann, um die gewünschten Änderungen zu testen, bevor man sie anwendet. Die Code-Refuse-Feature und Terraform neigen dazu, die meisten Änderungen schneller durchzuführen als ähnliche Tools wie z.B.

6. Terraform hat eine dynamische Community und es ist Open Source. Es gibt viele Menschen, die dieses Tool derzeit nutzen und weiterentwickeln, was es für neue Tech Enthusiasten einfacher macht, Hilfe in Bezug auf Plugins, Erweiterungen und andere professionelle Unterstützung zu finden.

Die Thinkport GmbH, welche auch offizieller Partner von HashiCorp ist, gründete und sponserte die erste Terraform User Group in Frankfurt. Mittlerweile ist die Community zu einer größeren angewachsen und trifft sich regelmäßig, um die neuesten Themen rund um Terraform zu diskutieren.

Mehr über die Community erfahren: HashiCorp User Group 

Schauen Sie sich unseren Terraform Workshop an, wenn Sie individuell von unseren besten Experten Terraform kennenlernen möchten.

Mehr über unsere Projekte erfahren:
Our Success Stories 

Blog Kurator

Bledion Vladi

Business Development


Kublr bringt Rolling-Updates für Kubernetes

Updates für Kubernetes

CLOUD Kubernetes

Kublr bringt Rolling Updates für Kubernetes

Das neu veröffentlichte Kublr 1.16, ein Tool, das den Einsatz von Kubernetes-Clustern in Unternehmensqualität erleichtert, ist die erste Multi-Cloud- und Multi-Plattform-Kubernetes-Plattform, die rolling Updates für die Open-Source-Container-Orchestrierungs-Engine bietet, so das Unternehmen, das hinter der Technologie steht.

“This functionality is essential whether you want to ensure your infrastructure, applications, or production components are upgraded in a timely manner, or apply security fixes and patches as soon as they become available to avoid exploits,” so Oleg Chunikhin, chief technology officer bei Kublr.

Der typische Prozess vor der rolling Update-Fähigkeit bestand darin, dass IT-Experten einen anderen Cluster einsetzen und die Anwendung replizieren mussten, um den Service konsistent zu liefern und gleichzeitig den ursprünglichen Cluster zu aktualisieren. Diese neue Funktion spart jedoch sowohl Zeit als auch Ressourcen, da es nicht notwendig ist, parallele Cluster zu betreiben.

“In a Kubernetes and cloud native world, this ability is more critical than ever,” sagte Oleg Chunikhin. “The ecosystem is evolving quickly and components are changing fast. Just think of Kubernetes’ quarterly updates. And then there are all the other components, each of which has its own release schedule. This is a far cry from the traditional hardware/VM infrastructure where updates were released at a far slower pace. Your ops and DevOps teams will want to leverage new functionalities right away and shutting clusters down each time to do so, is not feasible.”

“While cloud providers have been offering rolling updates for some time,” so Chunikhin, “this isn’t the case for providers that allow you to deploy clusters in your own infrastructures. Kublr being able to upgrade clusters in-place with no downtime and uniformly in all supported environments (whether cloud or on-prem) enables IT operations teams to scale without sacrificing flexibility and operational agility.”

Wie funktioniert das neue Feature?

Kublr hat auf seiner Website einen Blog veröffentlicht, der einige Einblicke in das gibt, was IT-Teams erwarten können, wenn sie sich für die Nutzung der rolling Updates entscheiden.

Während eines Upgrades verschiebt Kublr automatisch die laufenden Anwendungen von den Nodes, die mit den zu aktualisierenden Nodes verbunden sind. Dieser Ansatz bedeutet, dass die Benutzer die Gesamtzahl der laufenden Instanzen entsprechend den von ihnen festgelegten Spezifikationen minimieren. Anschließend bedient die Applikation den Server-Clients, ohne Ausfallzeiten zu verursachen.

Unabhängig davon, ob Unternehmen in On-Premise-Umgebungen arbeiten oder von Amazon Web Services (AWS), der Google Cloud Platform (GCP) oder Microsoft Azure abhängig sind, Version 1.16 unterstützt sie. Kublr bietet auch Kompatibilität für Bare-Metal- und Air-Gap-Umgebungen. Die Nutzer sollten erwarten, dass die Cluster- und Infrastruktur-Upgrades in allen Umgebungen gleich gut funktionieren.

Auch wenn andere Kubernetes-Produkte die Durchführung von Updates ermöglichen, steht Kublr mit seinem Angebot dieser rolling Updates allein da, da es die erste unabhängige Kubernetes-Engine ist, die diese Updates anbietet. Personen, die noch keine Kublr-Kunden sind, können das Tool kostenlos einsetzen, um zu sehen, wie es für sie funktioniert, und diese neue Option ausprobieren.

Rolling Updates können mit der Role-Based Access Control (RBAC) integriert werden

Die Unterstützung für die Role-Based Access Control (RBAC) ist eine weitere aktuelle Entwicklung, die von Kublr angeboten wird und erstmals in der Version 1.15 verfügbar ist. Beim Zugriff auf die Kublr-Benutzeroberfläche kann man entweder die RBAC des Unternehmens oder die mit Kubernetes verbundene RBAC wählen. Die RBAC von Kublr ermöglicht es Systemadministratoren, den Grad des Cluster-Zugriffs für verschiedene Benutzergruppen festzulegen. Mit dem RBAC kann bestimmt werden, ob eine Person die Infrastruktur eines Clusters oder die mit diesem Cluster verbundene Kubernetes-Version erstellen oder aktualisieren kann.

Dann ermöglicht die RBAC, die Kubernetes anbietet, die Konfiguration von Berechtigungen für das, was Personen, die verschiedenen Benutzergruppen zugeordnet sind, innerhalb der Cluster tun können. Beispielsweise können Personen mit den entsprechenden Berechtigungen innerhalb des Systems die Ressourcen eines Clusters, einschließlich seiner Ressourcen und Objekte, bearbeiten und verwalten.

Die Kublr-Benutzeroberfläche vereinfacht die RBAC-Bedenken. Unabhängig davon, ob ein Cluster RBAC aus Kublr oder Kubernetes verwendet, kann ein Benutzer auf alle an einem Ort zugreifen, was die Verwirrung verringert. Darüber hinaus erhöht diese Einrichtung die Sicherheit, da ein autorisierter Kublr-Benutzer überprüfen kann, ob die richtigen Berechtigungen für jeden Cluster gelten. Darüber hinaus gibt es eine zentralisierte RBAC-Funktion, die alle RBAC-Berechtigungen auf die von den Clustern gesammelten Protokolle ausweitet.

Bei der Ankündigung der Funktion für fortlaufende Aktualisierungen gab Kublr bekannt, dass die RBAC-Funktionen für Personen, die Version 1.16 verwenden, weiterhin zur Verfügung stehen.

Kubernetes Nutzung nimmt zu

Es sollte für IT-Teams leicht verständlich sein, warum die rolling Upgrades und RBAC-Fähigkeiten, die mit Kublr verbunden sind, die Art und Weise, wie ihre Unternehmen Kubernetes nutzen, rationalisieren könnten. Die Eliminierung unnötiger Schritte im Zusammenhang mit der Bereitstellung und dem Management von Clustern ist von wesentlicher Bedeutung, insbesondere angesichts der wachsenden Zahl von Unternehmen aller Größenordnungen, die mit Kubernetes-Clustern arbeiten.

Laut einer Umfrage der Cloud Native Computing Foundation aus dem Jahr 2019 gaben 78% der Befragten an, Kubernetes in der Produktion einzusetzen. Dieser Prozentsatz stellt einen Anstieg von 20% gegenüber den Ergebnissen des Vorjahres dar. Auch die Zahl der Personen in der Evaluierungsphase ging um fast die Hälfte (48%) zurück, da viele der ehemaligen Evaluatoren in die Produktionsphase übergingen.

Die meisten der Befragten, die Kubernetes verwendeten, gaben an, dass sie 2-5 Cluster in der Produktionsphase hatten, wobei 43% diesen Betrag wählten. In diesem Zusammenhang gaben 10 % der Parteien an, dass sie 2-10 Cluster in der Produktionsphase hätten.

Diese Statistiken legen zusammengenommen und nachdrücklich nahe, dass mehr IT-Entscheidungsträger zu dem Schluss kommen, dass Kubernetes für sie eine kluge Wahl ist. Da die Akzeptanz des Kubernetes weiter zunimmt, könnten Funktionen wie die von Kublr zunehmend relevanter und geschätzter werden.

Unkomplizierteres Cluster-Management

“Our ultimate goal is to become a true meta-cloud, so Chunikhin. “A new type of infrastructure with flexible, cloud native, enterprise-grade modules including storage, networking, data management, and BCDR, and deployable across different public cloud, private cloud, and on-prem infrastructure. That is pretty ambitious — we know that. It’s also reflected in our extensive roadmap, with each iteration we are getting a little closer and that’s pretty exciting.”

“We’ll expand the IT ops team’s ability to deliver Kubernetes across their organization in a reliable and well-governed manner,” sagte Chunikhin.  Geplante Funktionen umfassen:

  • Beibehaltung der Versionsparität von Kubernetes und anderen Komponenten
  • Kublr ist eine der wenigen Kubernetes-Lösungen für Unternehmen, die die neueste Version von Kubernetes unterstützen.
  • Unterstützung für extern bereitgestellte Cluster (z.B. Cloud-verwaltete Kubernetes und andere Kubernetes-Bereitstellungs- und Management-Tools). Diese Funktion wird die Betriebsfunktionen von Kublr, wie z.B. die zentralisierte Logsammlung, Überwachung, Sicherheit und RBAC, auf nicht von Kublr bereitgestellte Cluster ausweiten.
  • Umfassende Governance-Richtlinien, die es dem IT-Betrieb ermöglichen, Governance-Regeln und Grenzen zu definieren, innerhalb derer Software-Entwicklungsteams Kubernetes-Cluster verwenden und betreiben können, einschließlich Netzwerk, Zugriffskontrolle, Ressourcenkontingente usw.
  • Erweiterte Funktionen im Zusammenhang mit der Bereitstellung von Kubernetes an mehreren Standorten (Multi-Cloud, Multi-Region, Hybrid), einschließlich Netzwerkkonnektivität, Föderation, Datenreplikation, Orchestrierung an mehreren Standorten und DR.
  • Eine Vielzahl von Anwendungspaketen und Partner-Integrationen wie CI/CD (Spinnaker, Jenkins), Service-Meshes (Istio, Linkerd), FaaS (OpenFaaS), Sicherheit (NeuVector), Speicherung (Ceph/Rook, Portworx, Yugabyte, HDFS), Datenwissenschaft (Spark).

Blog Kurator

Bledion Vladi

Business Development


IT-Automatisierung als Antwort gegen die Corona-Krise

IT-Automatisierung als Antwort gegen die Corona-Krise

CLOUD Prozessautomatisierung

5 Möglichkeiten, wie die IT-Automatisierung Ihrem Unternehmen helfen kann die Coronakrise zu überstehen

Angesichts der weltweit 500.000 Menschen, welche mit dem Coronavirus (COVID-19) infiziert sind, und der stetig steigenden Zahl der Todesopfer steht es außer Frage, dass wir es mit einer Pandemie zu tun haben. Aufgrund von Angst und Unsicherheit schränken immer mehr Unternehmen ihre Geschäftsreisen ein und greifen auf Fernarbeitsvereinbarungen zurück, um die Auswirkungen zu minimieren und mögliche Geschäftsunterbrechungen zu verhindern. Die Bedeutung der Vorbereitung auf das, was sich schnell zu einer schweren Weltgesundheitskrise entwickelt hat, darf keinesfalls unterschätzt werden. Mit der Krise gehen plötzliche und substanziellen Veränderungen einher, u.a am Arbeitsplatz, die alle Unternehmen vor zusätzliche Herausforderungen stellen. Um diese Herausforderungen zu bewältigen, müssen mehr VPNs bereitgestellt werden, Mitarbeitern ein Fernzugriff auf Dateien ermöglicht werden und neue Kanäle für die gemeinsame Kommunikation eingerichtet werden. Diese ganzen, neuen Aufgaben sind für die IT-Teams mit viel Arbeit verbunden und lenken von effektiven, täglichen Aufgaben ab.


Die schnelle Lösung dieser ernsten und schwerwiegenden Probleme sollte für die Führungskräfte aller Branchen höchste Priorität haben. Die gute Nachricht ist, dass es mit der richtigen Technologie möglich ist, die bevorstehende Arbeit zu minimieren. Aus diesem Grund haben wir die fünf wichtigsten und möglichen Anwendungsfälle zusammengestellt, die eine Automatisierung der Unternehmensprozesse nahtlos ermöglichen.


Durch die vielen Mitarbeiter, die jetzt grünes Licht für das Arbeiten im Homeoffice bekommen haben, steigt die Nachfrage nach VPNs erheblich. In der Folge nehmen auch die Probleme des VPN-Zugangs sowohl für Mitarbeiter als auch für Auftragnehmer zu, wie z.B. das Zurücksetzen, Öffnen und Schließen, VPN-Zertifikatsaktualisierungen usw. Dies stellt eine zusätzliche Belastung für das IT-Personal dar, welches bereits durch andere wichtige Vorgänge ausgelastet ist und auch durch fehlendes geeignetes Personal und/oder Ressourcen können bevorstehende Aufgaben nur eingeschränkt realisiert werden. Durch eine Automatisierung dieser Arbeitsabläufe können Remote-Mitarbeiter schnell einsatzbereit sein, ohne den bereits überlasteten Zeitplan des IT-Teams weiter zu beanspruchen.

Berechtigungen und kennwortbezogene Problemstellungen

Auch die Anfragen nach Systemberechtigungen und Rücksetzungen von Passwörtern häufen sich, wenn Mitarbeiter von zuhause arbeiten. Im Umkehrschluss bedeutet das mehr Arbeitsaufwände für das IT-Team. Jeder IT-Techniker weiß nur allzu gut, dass Anfragen wie diese leider zeitaufwändig sind und die Fachkräfte von wichtigen Aufgaben ablenken und an deren Abschluss hindern. Auch hier kann die Automatisierung einen enormen Einfluss haben, indem sie den Anwendern Selbstbedienungsoptionen bietet und dadurch die IT entlastet.

Ressourcen erweitern

Eine der größten IT-Herausforderungen, wenn die Mitarbeiter im Homeoffice arbeiten, ist das Ressourcenmanagement. Eine manuelle Überwachung und Zuweisung von Ressourcen entspricht keiner optimalen Zeit- und Ressourcenauslastung des IT-Teams. Im Rahmen der Prozessautomatisierung können Anfragen zur Ressourcenbereitstellung, in automatisierte Arbeitsabläufe umgewandelt werden, die von den Endbenutzern mit wenigen einfachen Mausklicks selbst ausgelöst werden können. Dies führt zu einer verbesserten User Experience für den Endbenutzer und zur Entlastung des IT-Teams.

Tägliche Server- und App-Wartung

Leere Büroräume müssen nicht gleich einen Stillstand der IT bedeuten.  Wichtige Vorgänge wie der Neustart der Applikationen, die Rotation des App-Pools, die Bereinigung von Protokollen, des Festplattenspeicherplatzes sowie die Speicher- und CPU-Auslastung müssen berücksichtigt werden, um Geschäftsunterbrechungen zu minimieren. Auch diese Prozesse lassen sich mit Workflows automatisieren und können entweder nach Zeitplan oder automatisch durch ein oder mehrere Ereignisse ausgelöst werden. Der Vorteil daran ist, dass die IT-Fachkräfte die Möglichkeit haben die Systeme dezentral zu administrieren.

On-boarding / Off-boarding

Die Ausbreitung des Coronavirus erfolgt besonders für neue als auch für ausscheidende Mitarbeiter zu einem ungünstigen Zeitpunkt. Dennoch muss der Arbeitsalltag fortgesetzt werden, unabhängig davon, ob diese Teammitglieder im Büro oder von zu Hause ihre Aufgaben erledigen. Das On- und Off-boarding der Mitarbeiter ist jedoch ein zeitaufwendiger Prozess. Glücklicherweise kann der gesamte Onboarding- und/oder Offboarding-Workflow automatisch eingeleitet und schnell abgeschlossen werden, wodurch Verzögerungen vermieden werden und eine optimierte Ressourcenzuweisung gewährleistet wird.

Zusätzliche Tipps zur Pandemievorsorge für IT-Teams:

  • Bewertung der IT-Lieferkette zur Bestimmung der Vorbereitung
  • Implementierung von Lösungen zur Verwaltung von dezentralen Rechenzentren
  • Überprüfung und/oder Implementierung von Richtlinien für die Fernarbeit, insbesondere Fragen bezüglich BYOD, vom Unternehmen ausgegebene IT-Equipment, priorisierte Zugänge und Internet-Bandbreitenkapazität
  • Nutzen der Cloud, um mögliche Risiken zu mildern
  • Untersuchung und Nutzung alternativer Kommunikationskanäle (Sprache, Chat usw.)
  • Webbasierte Videokonferenzen nutzen
  • Entscheiden, welche Geschäftsvorgänge, die einen hohen Ressourcenverbrauch erfordern, fortgesetzt werden müssen und welche verschoben werden können
  • Verzögerung/Verschiebung nicht wesentlicher IT-Operationen
  • Staffelung der Betriebszeiten und der Personalzuweisung zur Erleichterung der Bandbreitennachfrage
  • IT-Budget und Projekte entsprechend neu ausrichten

Diese jüngste katastrophale Gesundheitskrise erinnert uns daran, wie anfällig Unternehmen für äußere Umstände sein können. Durch den Einsatz neuester Technologien, wie z.B. intelligenter IT-Prozessautomatisierung, können Unternehmen ihre Mitarbeiter schützen und mögliche Auswirkungen minimieren. Da sich gezeigt hat, dass die Ermöglichung von Fernarbeit die Produktivität verbessert, die Mitarbeiterfluktuation verringert und die Betriebskosten senkt, könnten Unternehmen, die diese Richtlinien umsetzen, am Ende der Krise stärker daraus hervorgehen als zuvor.