Medien

Frank Leibiger

0 Kommentare

Big Data dezentral: T-Systems wertet Massendaten intelligent vor Ort aus

  • Teilen
    2 Klicks für mehr Datenschutz: Erst wenn Sie hier klicken, wird der Button aktiv und Sie können Ihre Empfehlung senden. Schon beim Aktivieren werden Daten an Dritte übertragen.
  • Drucken
  • Text vorlesen
  • Lösung für Konstruktion, Test und Logistik
  • Service besteht Belastungsprobe in der Wüste und am Polarkreis
200421-Big-Data

T-Systems bietet jetzt eine Lösung zur Analyse weltweit verteilter Daten. Denn immer mehr vernetzte Maschinen und Produkte produzieren Informationen.


T-Systems bietet jetzt eine Lösung zur Analyse weltweit verteilter Daten. Denn immer mehr vernetzte Maschinen und Produkte produzieren Informationen. Wegen der schieren Menge und der dafür benötigten Bandbreite ist das Übertragen der Daten in ein zentrales Rechenzentrum aufwändig und teuer. Deshalb wertet die neue Lösung “Big Data & Global Edge Analytics“ Massendaten vor Ort aus.

In der Praxis hat die Lösung von T-Systems bereits die Belastungsprobe bestanden. Bei Fahrzeugtests eines großen Autoherstellers im Schnee Finnlands oder in der Wüste Dubais fallen je Erlkönig täglich mehrere Terabyte Signaldaten an. Ingenieurteams auf der ganzen Welt sollen diese möglichst direkt nach Testende für vielfältige und spontane Analysen nutzen. Die Software “Big Data Signal Processing“ erfasst und speichert die Daten ohne Informationsverlust und bis zu 90-fach komprimiert. Die Daten verbleiben, wo sie entstanden sind – in einem Mini-Rechenzentrum vor Ort, dem so genannten Edge Device. Das Vereinheitlichen von binären Datenformaten und das Umwandeln in ein spezielles Big-Data-Format erlaubt parallele Rechenprozesse. So geht die Datenverarbeitung um bis zu 40-fach schneller.

Für Analysen müssen diese Daten nicht zuerst in ein zentrales Rechenzentrum. Stattdessen schicken Ingenieure ihre Analyseanfragen an die weltweit verteilten Edge Cluster. Nur die Ergebnisse fließen über eine sichere Netzwerkverbindung zurück. Experten sprechen von „Code to Data“: Statt Daten zum Berechnen zu verschicken, werden die Analyseanfragen zu den Daten geschickt. Das spart Bandbreite und Übertragungskosten. Kritische Daten stehen schneller zur Verfügung. Ihre Qualität ist besser. Das verkürzt Entwicklungszyklen und verbessert Engineering-Prozesse.

Die neue Telekom-Lösung richtet sich an alle Branchen, die dezentral mit großen Datenmengen arbeiten – wie Konstruktion, Test und Logistik. “Big Data & Global Edge Analytics“ erweitert den Handlungsspielraum beim Verarbeiten und Nutzen sehr großer Datenmengen. Die Software liest Rohdaten schnell und zuverlässig aus, indexiert die Informationen und komprimiert sie. Damit speichern Nutzer die Daten revisionssicher: das heißt, ohne Informationsverlust bis zu zehn Jahre lange. Der gesamte Datenbestand steht an den Cloud-Speicherorten jederzeit zur Verfügung. 

T-Systems bietet die Lösung als Komplett-Service an: vom Planen, über das Implementieren bis zum Betrieb. Informationen über einen kostenfreien Workshop gibt es hier.

Über die Deutsche Telekom: Deutsche Telekom Konzernprofil
Über T-Systems: T-Systems Unternehmensprofil

Frank Leibiger

Frank Leibiger

Verantwortlich für die Kommunikation Cloud Computing

Die Cloud macht's

Cloud

In der Cloud stehen Daten immer und überall zur Verfügung.

FAQ