Schnell, schneller, Echtzeit

SAP setzt auf Echtzeit-Analyse mit In-Memory-Technologie

31.05.2010 | Redakteur: Stefan Riedl

Vishal Sikka, CTO und Vorstandsmitglied der SAP beschwor auf der Sapphire Now in Frankfurt die In-Memory-Technologie.

Auf der Kundenkonferenz „Sapphire Now“ versuchte SAP die Kluft zwischen datenverarbeitenden und analytischen Anwendungen zu überbrücken. „Echtzeit-Verarbeitung“ lautet die Herausforderung. In-Memory-Technologie lautet die Antwort, die auf der „Sapphire“ gegeben wurde, die übrigens zeitgleich im bundesdeutschen Frankfurt am Main sowie dem US-amerikanischen Orlando stattfand.

Echtzeit-Analysen von Live-Transaktionsdaten sind eine echte Herausforderung an Datenverarbeitungs-Systeme, die nun von der Software-Industrie angegangen werden. Worum geht es dabei? Ein Szenario, bei dem Daten in Echtzeit bereitgestellt und ausgewertet werden, ist beispielsweise, wenn im Supermarkt Informationen aus RFID-Chips ausgelesen und verarbeitet werden. Auch bei der Verarbeitung von Bauteilen in der maschinellen Fertigung fallen Echtzeit-Analysen an. Verfahrenstechniker und Fertigungs-Ingenieure optimieren so die Fertigungsprozesse. Ohne Echtzeit-Analysen steht in einem Fertigungsbetrieb beispielsweise folgende Information zur Verfügung: „Maschine A steht nach einer Fehlfunktion still“. Mit diesem Konzept wird daraus: „Maschine A steht nach einer Fehlfunktion still, nachdem sie zuvor zwei Minuten auf maximaler Verarbeitungsgeschwindigkeit lief“. Der Techniker nutzt diese Zusatzinformation, schwingt den Schraubenschlüssel gleich an der richtigen Stelle und verkürzt so die Stillstandzeiten.

SAP beschleunigt die Taktzahl

Vishal Sikka, CTO und Vorstandsmitglied der SAP, sowie der Aufsichtsratsvorsitzende Hasso Plattner gingen diesen Themenkomplex gleich in ihrer Hauptrede auf der Sapphire an und beschrieben, wie SAP datenverarbeitende und analytische Anwendungen über so genannte In-Memory-Technologie zusammenbringen wollen. Das funktioniert wie folgt: Relationale Datenbanken werden im gängigen Datenhaltungs-Paradigma strukturiert und in Tabellen voller Datensätze auf dem Speichermedium „Festplatte“ eines Servers abgespeichert. Zur Analyse wird zu einem Zeitpunkt X retrospektiv auf die gesammelten Daten zurückgeblickt, indem die relevanten Datensätze für Rechenoperationen „von der Platte“ geholt werden. In-Memory-Technologie verfolgt einen anderen Ansatz, denn hier werden Live-Transaktionsdaten so stark komprimiert, dass sie gleich in einem großen Hauptspeicher (RAM) gehalten und verarbeitet werden können. Hardware-seitig wird die Verarbeitungsgeschwindigkeit durch die neuen Generationen an Multi-Core-Prozessoren befeuert.

Lesen Sie auf der nächsten Seite mehr zum „Echtzeit-Unternehmen“ und ein kritisches Fazit.

Inhalt des Artikels:

Sie wollen diesen Beitrag kommentieren? Schreiben Sie uns hier

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 2045263 / Unternehmensstrategien)