Neuigkeiten


26/01/2018
IOT as a driver for data growth – and as a reason for new infrastructure solutions.
A sample case and a statement for the modular Edge of the Internet.

Even in the era of smartphones and a never-ending stream of data being published through the myriad of apps: One of the most interesting drivers of data also is the internet of things, aka the IOT. And what “thing” could better function as a sample of “silent data collection” than the car. And here is why:

Most of us use it daily and we all have seen some numbers and have an idea on how much or often we drive it. For example, the average annual mileage in Germany is about 14.200 km per year. And we all are aware of that and the general relation of our driving to issues like the CO2 footprint.

But how does the “data footprint” of a modern car look like? And how do we cope with the handling of that data – not looking into the aspect of data protection at this time, instead linking it more with the technical aspect on how to handle that amount of data most efficiently today and in future.

Intelligent cars already today collect data on a wide basis: Driving profiles, maintenance data and state-of-the-art assistance functions lead to an average of 1 Gigabyte of data per second in each car. Most of that is driven by video-based systems to allow cars to drive partly autonomously, which indicates that number will even grow further with more capabilities and complexity on the horizon. Looking into the automotive industry we talk about a factor of up to x20 for the future, leaving us with a total indication of potentially 50 Terabyte of data per car per day in the era of autonomous driving.

What if we try to extrapolate these numbers to the total of cars in Germany today (46.5 m)? Given an average speed of 60 km/h, the 14.200 km per year translate into ”just” 852.000 seconds of driving time or an equivalent of 852 Terabyte (which is 0.85 Petabyte) per year. If that resonates with an average of c. 2.3 Terabyte per day, we are roughly in line with a factor of x21 to end up with the anticipated 50 Terabyte per day in the future. But this is just one (!) car. Multiplied with 46.5 m cars in Germany only, we end up with a current data volume of up to 40 Zettabyte per year today or 848 Zettabyte in future. That is approaching 0.85 Yottabyte – welcome to the next level of big data volume: A yottabyte is 10*24 Bytes (1000000000000000000000000 – imagine that).

Too much heavy lifting and a bit too much of Bytes? Let’s translate that differently: Modern cars are sort of data centers by themselves – they carry a processing power of more than 100 CPU and need to validate data within milliseconds, before they might send the results not only to their internal driving systems, but also to communicate to other vehicles on the road.

Even if today the largest test fleet of cars is Tesla, they have gathered “just” about 1 bn. kilometers of driving intelligence. The most recent first death caused by an autonomous vehicle shows the need for further traffic observation by the car, which means even more data collection and quicker validation. And data transport.

Will 5G be the answer to this? No. If the amount of data will explode as indicated above, there will be a clear need for efficient data management systems, which are both cost and network efficient. A recent study came to the conclusion, that within 15 kilometers of range, a small local “data handling unit (DHU)” would needed to be installed in order to get data transported and validated in the most efficient manner, including latency aspects for overall safety. That excludes traditional network and data center infrastructure and opens the door for the next wave of the Internet – the Edge.

Imagine a stand-alone unit, with full capabilities in terms of power, cooling and connectivity. Portable, ready to rack, stack and operate by plug & play into public power and network supplies. That is the sample use case for the next generation of small modular build-outs of data centers, combined with antenna technology for Car2Cell communication within short distance such as the indicated 15 kilometer radius. Whilst there are some manufacturers already in the field offering that sort of infrastructure, the next logical step is deploying fully equipped DHUs on a pay-per-use base. Currently, these flexible infrastructure modules, up to a capacity of 3 petabytes per unit, are already available from innovIT360 AG. Ask us ...

So, in the near future, we are looking at deploying a network of modular DHU for loads of data and enriching capacity per unit as quickly as possible. If we then can cope with car data traffic, the next level will be the remaining topics on German Autobahnen. What about trucks logistics, digital restaurants and break areas and so on? The move to the Edge on the run, the IOT offers many more sample cases for the next issues of dotmagazine. Stay tuned.
02/10/2017
Flexibel Wachstum managen, effizient Herausforderungen bewältigen!
Modulare IT-Infrastruktur – ein 47 Milliarden Dollar Markt!

Dass der Markt für Rechenzentren angesichts explodierender Datenmengen wächst, ist nichts Neues. Erstmals werden 2017 in Deutschland zum Beispiel mehr als 1 Mrd. Euro in die Infrastruktur von Rechenzentren investiert, so eine aktuelle Studie des Borderstep Instituts. Diese Studie zeigt ebenfalls auf, dass die überwältigende Mehrheit der Befragten ein Wachstum an Servern und Energiebedarf erwartet und mehr als die Hälfte der Befragten von Erweiterungsinvestitionen ausgeht. Größtes Marktsegment für das Wachstum von Rechenzentren sind in Zukunft dabei aber laut einer Studie von IDC nicht die viel zitierten Cloud Anbieter, sondern Enterprise Rechenzentren.

Und diese Enterprise Rechenzentren sind verteilt auf verschiedene Standorte und Bereitstellungsmodelle. Während ein Teil der Unternehmenssysteme entweder direkt in die Cloud wandern oder im Rahmen von Outsourcingmodellen in Colocation-Umgebungen ziehen, bleibt langfristig etwa die Hälfte der Unternehmens-IT vor Ort. Sei es aus Sicherheits-, Datenschutz- oder Latenzgründen ebenso wie aus dem Nutzungszweck heraus, wie zum Beispiel der Steuerung von Fabriken oder dem Verarbeiten von Datenmengen, deren Transfer über weitere Strecken keinen Sinn macht.

Wie aber kann ein Unternehmen auf die Anforderungen reagieren, auch diese verteilten, kleineren Instanzen energieeffizient, schnell und skalierbar zu betreiben? Modulare Rechenzentren bieten hier einen klaren Vorteil: Auf der Basis vorgefertigter Standardbauteile bieten diese schnellere Lieferfähigkeit (wenige Monate von der Bestellung bis zur Inbetriebnahme) bei gleichzeitig reduzierten Bereitstellungskosten (die Herstellung dieser Umgebung ist deutlich kostengünstiger als bei herkömmlichen Bauarten für Rechenzentren). So hat IBM bereits 2014 berechnet, dass die Gesamtkosten einer modularen Lösung gerechnet auf deren Nutzungsdauer bis zu 40 bis 50% niedriger liegen können.

Von 13 auf 47 Mrd. USD Marktvolumen in 5 Jahren (2017-2022), CAGR 28.9 %

Das sind die Ergebnisse einer internationalen Studie von marketsandmarkets.com. Weltweit ist der Markt für modulare Lösungen einer der schnellst wachsenden und für den Bereich der Enterprise Rechenzentren der bedeutendste. Anbieter modularer Lösungen helfen speziell kleineren und mittleren Unternehmen deren Anforderungen an IT-Infrastrukturen effizient zu bewältigen. Dabei spielt neben den vorgenannten Vorteilen in Bezug auf Flexibilität, Geschwindigkeit und Kosten auch das Thema Energieeffizienz eine entscheidende Rolle. Speziell auf den individuellen Bedarf des Kunden abgestimmte Infrastrukturlösungen liegen im Energiebedarf unter dem eines Rechenzentrums, das vielen verschiedenen Anforderungen gerecht werden muss. Zudem ist die spezifische Auslastung höher, was wiederum der Energiebilanz zugutekommt.

Frank Zachmann, Vorstand der innovIT360 AG, kennt die Herausforderungen von Enterprise Rechenzentren und verfügt über umfassende Erfahrungen aus beiden Bereichen – Colocation und Cloud einerseits sowie On-Premise Rechenzentren andererseits. So kann er Unternehmen bei der Analyse der IT-Infrastruktur und der Wahl der richtigen Lösung beraten und maßgeschneiderte Lösungen anbieten. „In einer Welt der immer weiter wachsenden Anforderungen an Effizienz und Flexibilität bieten modulare Lösungen für Enterprise Rechenzentren einen großartigen Ansatz, dies beweist das unglaubliche Marktwachstum. Die Herausforderung ist es, dabei den Überblick über die beste Integration aller Bereitstellungmodelle zu behalten. Wir freuen uns, unsere Kunden auf dem Weg zu begleiten, damit diese ihr Wachstum flexibel managen und ihre Herausforderungen effizient managen können.“
05/09/2017
Einheitliches Bereitstellungsmodell für IT Infrastrukturen löst komplexe Anforderungen: „Co-Premise Computing“ für mein Rechenzentrum
Evolution der IT-Infrastruktur dringend benötigt!

Das Dilemma: Rasantes Wachstum an Datenverarbeitung durch Digitalisierung

Die zunehmende Digitalisierung von Geschäftsmodellen und Prozessen fördert die Komplexität der Anforderungen an die IT in zunehmendem Maße. Eine Vielzahl von Einflussfaktoren macht eine langfristige Planbarkeit von Ressourcen in der IT immer schwieriger. Und: keiner weiß heute genau, wo die Reise hingeht – ist Cloud bald wieder out?

Die Herausforderung an das Management von IT Infrastrukturen ist das Auflösen von schein unlösbaren Gegensätzen: Langfristige Budgets und Planungszyklen versus ultraschnelle IT Bereitstellungszyklen sind ebenso ein Zielkonflikt die wie Tatsache, dass Infrastrukturen immer nur als notwendiger Commodity Dienst zur Bereitstellung der Computeressourcen gesehen werden.

Daraus ergibt sich, dass je flexibler, kostengünstiger und schneller Infrastrukturen erstellt und gemanaged werden können, umso besser können diese auf unterschiedliche Anforderungen skalieren. Somit ist eine Fokussierung der Ressourcen auf die wertschöpfungsrelevanten Applikationen notwendig. Daher entsteht der Bedarf, standardisierte Dienste und Basistechnologien nicht mit eigenen Ressourcen zu betreuen.

Typischerweise entscheiden sich IT Verantwortliche dann entweder für ein Outsourcing des Rechenzentrums in die Cloud oder einen Betreiber von Colocation-Rechenzentren. In beiden Fällen bedeutet dies aber, dass das Rechenzentrum nicht mehr vor Ort im Zugriff des Unternehmens ist. Dadurch ergeben sich aber Konsequenzen in Bezug auf die Souveränität und Sicherheit der Daten ebenso wie eine Abhängigkeit gegenüber Dritten, die mit Kosten und Risiko verbunden ist.

Die Idee: Infrastructure follows compute power

Intelligente Infrastrukturen lösen diese wieder auf, in dem neben den bekannten Themen Colocation und Cloud die dritte tragende Säule zur Stabilität der IT Umgebung beiträgt: das Rechenzentrum vor Ort. Die Infrastruktur wird dort zur Verfügung gestellt, wo die Rechnerkapazität benötigt wird.

Mit dem Modell des Co-Premise Computing der innovIT360 AG vereinbaren Kunden die Sicherheit, Verfügungsmöglichkeit und Ressourceneffizienz einer Lösung vor Ort mit den Vorteilen einer Cloud Infrastruktur. In einem nutzungsbasierten Abrechnungsmodell finden Kunden die Möglichkeit, Ihren jeweiligen Bedarf an Computeressourcen flexibel zu bedienen, ohne auf den Luxus einer jeweils komplett eigenen Infrastruktur verzichten zu müssen.

Das ist die Grundidee des neuen Modells: Bedarfsgerechte, innovative Rechenzentrumslösungen vor Ort beim Kunden werden im Rahmen eines „Pay as you use“-Modells zur Verfügung gestellt. Die nicht selbst vom Kunden benötigten Rechenzentrumskapazitäten werden durch eine gemanagte Cloudumgebung genutzt, die mit Vorrang dem lokalen Unternehmen in Echtzeit als Wachstumsressource zur Verfügung steht.

Die Vorteile: Maximale Flexibilität und Sicherheit bei verringerten Kosten

Ökonomisch und ökologisch werden die Nachteile einzelner Bereitstellungsmodelle in der Kombination aller drei Felder zu einem Vorteil aufgehoben: maximale Auslastung und Effizienz der Ressourcen im Betrieb gehen einher mit vollständiger Flexibilität für den Kunden in der Nutzung seiner Rechenzentrumsumgebung.

„Während im typischen Szenario der Anbieter eines Produkts versucht, mit den vorhandenen Mitteln die Bedürfnisse des Kunden bestmöglich zu erfüllen, dreht das Modell des Co-Premise-Computing schon im Ansatz das Denken um: Welche Lösung bietet die beste Bedarfsdeckung und nutzt dabei am besten alle bestehenden Ressourcen? Dies ist aus meiner Sicht die optimale Ressourcen-/Nutzen-Kombination und stellt eine wesentliche Innovation im Gegensatz zu herkömmlichen Bereitstellungsmodellen an IT-Infrastruktur-Kapazitäten dar.“ so Frank Zachmann, Vorstand der innovIT360 AG. „Kunden und Interessenten nehmen diese Idee als Möglichkeit wahr, endlich dem Teufelskreis der Entscheidung zwischen Outsourcing und Abhängigkeit zu entkommen und eine wirtschaftlich attraktive Lösung unter eigener Regie entwickeln und realisieren zu können - Ein Triple-Win-Szenario der alle.“